なぜ検索やAIは“怪しい医療記事”を選んでしまうのか?― アルゴリズムとSEOが抱える限界 ―

📖著者: ナオ

アルゴリズムバイアスを示す画像
📖 読了時間目安: この記事は読むのに約 5 分 かかります。
注意: ※本記事は、検索アルゴリズムやAIの評価構造を扱う性質上、構成や用語の妥当性についてAIによる技術的な監修を行っています。

今回は、人間心理の隙間に入り込んだ誤情報が、AIや検索アルゴリズムによってどのように増幅・評価されてしまうのか、その技術的な限界について述べていく。

結論:AIや検索アルゴリズムには、正しい情報を識別する評価軸が人間とは違う

すなわち、AIや検索アルゴリズムは、情報の真偽そのものではなく、 「構造化された信号」や「評価されやすい特徴」を基準に情報を判断している。

例えば、Googleが採用しているSEOの重要指標に「E-E-A-T」がある。

E-E-A-T(イーイーエーティー)とは、Googleの検索品質評価ガイドラインで定められた、以下の4つの要素の頭文字をとったものだ。

  • Experience(経験):実体験に基づいているか

  • Expertise(専門性):専門的な知識があるか

  • Authoritativeness(権威性):その分野で認められた存在か

  • Trustworthiness(信頼性):運営者や内容が信頼できるか

通常、この基準はユーザーを守るために機能している。 「どこの誰だかわからない人」の健康アドバイスより、「長年の実績がある医師」の記事を上位に表示するほうが、確率論として正しいからだ。

「善意の前提」が崩れる時、システムはバグを起こす

しかし、このシステムには重大な「穴」がある。 それは、 「権威ある専門家(医師など)は、常に正しい情報を発信しているはずだ」という性善説(善意の前提) の上に成り立っている点だ。

検索エンジンは、「論文の内容が化学的に正しいか」を実験して検証することはできない。 できるのは、「この著者は医師免許を持っているか」「有名な病院に所属しているか」という 属性(メタデータ) を評価することだけだ。

その結果、何が起きるか?

  1. 権威の誤認:医師が個人的な見解や、科学的合意のない情報を書いても、検索エンジンは「高い権威性(High Authority)」と判断し、検索上位に表示する。

  2. AIの学習汚染:次に、AI(大規模言語モデル)がネット上の情報を学習する際、検索上位にある「権威ある情報」を正解として取り込む。

  3. デマの固定化:ユーザーがAIに質問すると、AIは悪気なく「〇〇医師によると、これには効果があります」と、誤った情報を回答してしまう。

私たちができる自衛策

このように、「責任の所在が明確(医師)」であれば「情報は正しい」とは限らない のが、現代のWebの構造的欠陥だ。

この被害を、テクノロジー側だけで完全に消し去ることは、現状では不可能に近い。

だからこそ今、私たち人間に求められているのは、検索順位やAIの回答を鵜吞みにしない 情報リテラシー と、自分の身を守るための 最低限の医療知識(標準治療の理解など) なのだ。

アルゴリズムは「人気」や「権威」を選別できても、「真実」を選別する機能は持っていないのだから。

この記事とあわせて読みたい

なぜ医師の記事なのに信じてしまうのか?― 悪意のない医療情報が、患者を傷つけるまで ―

前の記事では、なぜ私たちは医師という専門職の発信だと、たとえ間違っていても信じ込んでしまうのか。その心理的メカニズムと、実際に起きた被害について解説している。

この記事をシェアする

この記事の内容が良かったら是非、シェアしてください。