なぜ検索やAIは“怪しい医療記事”を選んでしまうのか?― アルゴリズムとSEOが抱える限界 ―
📖著者: ナオ
今回は、人間心理の隙間に入り込んだ誤情報が、AIや検索アルゴリズムによってどのように増幅・評価されてしまうのか、その技術的な限界について述べていく。
結論:AIや検索アルゴリズムには、正しい情報を識別する評価軸が人間とは違う
すなわち、AIや検索アルゴリズムは、情報の真偽そのものではなく、 「構造化された信号」や「評価されやすい特徴」を基準に情報を判断している。
例えば、Googleが採用しているSEOの重要指標に「E-E-A-T」がある。
E-E-A-T(イーイーエーティー)とは、Googleの検索品質評価ガイドラインで定められた、以下の4つの要素の頭文字をとったものだ。
-
Experience(経験):実体験に基づいているか
-
Expertise(専門性):専門的な知識があるか
-
Authoritativeness(権威性):その分野で認められた存在か
-
Trustworthiness(信頼性):運営者や内容が信頼できるか
通常、この基準はユーザーを守るために機能している。 「どこの誰だかわからない人」の健康アドバイスより、「長年の実績がある医師」の記事を上位に表示するほうが、確率論として正しいからだ。
「善意の前提」が崩れる時、システムはバグを起こす
しかし、このシステムには重大な「穴」がある。 それは、 「権威ある専門家(医師など)は、常に正しい情報を発信しているはずだ」という性善説(善意の前提) の上に成り立っている点だ。
検索エンジンは、「論文の内容が化学的に正しいか」を実験して検証することはできない。 できるのは、「この著者は医師免許を持っているか」「有名な病院に所属しているか」という 属性(メタデータ) を評価することだけだ。
その結果、何が起きるか?
-
権威の誤認:医師が個人的な見解や、科学的合意のない情報を書いても、検索エンジンは「高い権威性(High Authority)」と判断し、検索上位に表示する。
-
AIの学習汚染:次に、AI(大規模言語モデル)がネット上の情報を学習する際、検索上位にある「権威ある情報」を正解として取り込む。
-
デマの固定化:ユーザーがAIに質問すると、AIは悪気なく「〇〇医師によると、これには効果があります」と、誤った情報を回答してしまう。
私たちができる自衛策
このように、「責任の所在が明確(医師)」であれば「情報は正しい」とは限らない のが、現代のWebの構造的欠陥だ。
この被害を、テクノロジー側だけで完全に消し去ることは、現状では不可能に近い。
だからこそ今、私たち人間に求められているのは、検索順位やAIの回答を鵜吞みにしない 情報リテラシー と、自分の身を守るための 最低限の医療知識(標準治療の理解など) なのだ。
アルゴリズムは「人気」や「権威」を選別できても、「真実」を選別する機能は持っていないのだから。
この記事とあわせて読みたい
「なぜ医師の記事なのに信じてしまうのか?― 悪意のない医療情報が、患者を傷つけるまで ―」
前の記事では、なぜ私たちは医師という専門職の発信だと、たとえ間違っていても信じ込んでしまうのか。その心理的メカニズムと、実際に起きた被害について解説している。