生成AIの嘘を防ぐ!ハルシネーション対策ガイド
~生成AIとの付き合い方~

お役立情報
AM

生成AI、本当に信頼できますか?
最近、ニュースやSNSでAIの話題をよく見かけますよね。文章作成や画像生成など、様々な分野で生成AIの活用が広がっている一方、「ハルシネーション」という現象が問題視されているのをご存知でしょうか?

ハルシネーションとは

ハルシネーションとは、生成AIが事実ではない情報をもっともらしく生成する現象のことを指します。以下は、筆者の環境(モデルはGPT-4.1 miniを使用)で、「日本で高い山ランキングトップ10」を尋ねた際の出力例です。

標高の数字が不正確で、5位と10位が正しく並んでいないことに気付かれましたか?さらに、実際の順位とは異なる山の名前まで表示されています。このようなハルシネーションは、単なる間違いや計算ミスにとどまらず、誤った情報の拡散や事実の歪曲など、私たちの生活や業務に深刻な影響を及ぼすリスクを秘めています。

ハルシネーションが引き起こす問題

それでは、私たちが普段行っている業務に対しては、どのような影響があると考えられるでしょうか。例えば、チャットボットを使って顧客対応をしている場合、誤った情報を伝えてしまうと、顧客からの信頼を失うことにつながりかねません。また、生成AIに調査レポートを作成させているようなケースでは、架空のデータや情報を元に内容が構成されてしまい、誤った意思決定をしてしまう可能性があります。
実際に、米国では弁護士がChatGPTから出力された架空の判例を引用したことで、裁判所から処分を受けたという事例も報告されています。そのため、ハルシネーションのリスクを把握することは、生成AIを活用する際の喫緊の課題だと言えるでしょう。

なぜハルシネーションは起こるのか?
生成AIの嘘のメカニズム

それでは、なぜAIはハルシネーションのような嘘をついてしまうのでしょうか。その背景には、「生成AIのモデル側の原因」と「ユーザー側の原因」が挙げられます。

①生成AIのモデル側の原因

  • モデル設計
    生成AIは、人間のように「正しい答え」を理解しているわけではありません。過去に学習した大量の文章をもとに、「次に来そうな言葉」を予測して文章を生成しています。そのため、学習データの中に十分な情報や確かな根拠がない場合でも、モデルは文脈に合いそうな内容をつなぎ合わせて、あたかも正しそうな回答を生成してしまう可能性があります [1]。
  • データバイアス
    学習データに偏りがあると、生成AIの出力にもその偏りが反映されてしまいます。例えば、猫の画像のうち、特定の種類ばかりで学習した画像認識AIは、他の種類の猫を「猫」だと正しく認識できなくなる可能性があります [1]。

②ユーザー側の原因

  • 曖昧なプロンプト(質問や指示)
    前提条件が整理されていなかったり、一度に多くの要求を詰め込んだりしたプロンプトは、生成AIの推論精度を大きく下げることがあります [2]。例えば、内容や条件がはっきりしていないプロンプトを与えると、生成AIは質問の意図を正しく捉えられず、見当違いな回答を行いやすくなります。これは、生成AIがどの情報を重視すべきかを判断できなくなってしまうためです。
  • ノイズを含むプロンプト
    生成AIに「問題文と関係のない指示」や「軽微なタイプミス」、「表記揺れ」を含むプロンプトを与えると、推論の精度が大きく低下することがあります。例えば、実証研究では、数学の問題に全く無関係な猫の情報を挿入することで、生成AIが混乱し、誤回答が増加することが示されています [3]。これは、生成AIが問題に無関係な情報であっても、それを「無視すべきノイズ」と判断できず、推論の材料として扱ってしまうためです。

ハルシネーションを防ぐには?
役に立つプロンプトの書き方

生成AIのハルシネーションを完全にゼロにすることは難しいですが、使い方を工夫することでリスクを大幅に減らすことができます。ここでは、ユーザー側で実践できる代表的な対策を紹介します。

①具体的で明確なプロンプトを心掛けよう

生成AIにプロンプトを記述する際は、具体的で明確な指示を出すよう心がけましょう。
何を求めるのか、明確な指示を出そう
(例:「〇〇の特徴を、初心者向けに分かりやすく説明してください」)

  • 答えてほしい内容の範囲や条件を、あらかじめ決めよう
    (例:「できるだけ簡単に」「3つに絞って」「メリットとデメリットの両方を教えてください」)
    これにより、生成AIが意図を誤って解釈することを防ぎ、的外れな回答や不要な情報の混入を減らすことができます。

②ノイズを減らし、プロンプトを整理しよう

プロンプトに無関係な単語やタイプミスを記載しないよう心がけましょう。

  • 無関係な単語やタイプミスを入れないようにしよう
  • 質問は短く区切って書こう
  • 一度に複数の目的を詰め込まないようにしよう
  • 箇条書きを活用して整理しよう

これにより、生成AIの処理がシンプルになり、意図しない補完や誤った推測が起きにくくなります。また、対話が長くなりすぎると、回答の精度が低下することも報告されています [4]。必要に応じて話題を区切り、長い対話にならないよう注意しましょう。

③参考情報を明示したプロンプトを心掛けよう

情報を検索したり、説明を求めたりする際は、参考となる資料を限定するように心がけましょう。

  • 対象とする期間を指定しよう
    (例:「10年以内の情報で」「今年のルールで」など)
  • 信頼できる情報源を指定しよう
    (例:「公式サイトの情報をもとに」「市役所や会社の正式な案内を参考にして」など)
  • 参考にした資料の出典を明示してもらおう
    (例:「どのサイトや資料を参考にしたのかも教えてください」)
    これにより、架空のデータや古い情報が混入する確率を下げることができます。

まとめ:生成AIと賢く付き合うために

生成AIに関する技術は日々進化しており、私たちの生活や仕事に利便性をもたらしています。しかし、その技術はまだ完璧ではなく、ハルシネーションという課題を抱えていることも事実です。生成AIと賢く付き合うためには、その特性やリスクを認識した上で、活用していくことが必要不可欠です。今回の記事でご紹介した内容を参考に、プロンプトの改善を図ってみるというのもあくまで1つの手段に過ぎません。生成AIを過度に信頼しすぎず、批判的な視点を持つこと、そして、出力された情報を鵜呑みにせず、必ず自分で確認する習慣をつけましょう。

参考文献
[1] S. Pranab, M. Prabhash, G. Akash, S. Sriparna, J. Vinija, C. Aman, A Comprehensive Survey of Hallucination in Large Language, Image, Video and Audio Foundation Models, In Findings of the Association for Computational Linguistics: EMNLP 2024, 2024, pp. 11709-11724, Miami, Florida, USA.
doi: https://doi.org/10.18653/v1/2024.findings-emnlp.685
[2] G. Esther, Z. Yiran, C. Liying, Y. Mao, G. Anirudh, K. Kenji, K. Min-Yen, S. Michael, Reasoning Robustness of LLMs to Adversarial Typographical Errors, In Proceedings of the 2024 Conference on Empirical Methods in Natural Language Processing, 2024, pp. 10449-10459, Miami, Florida, USA.
doi: https://doi.org/10.18653/v1/2024.emnlp-main.584
[3] R. Meghana, R. Rajkumar, T. Prapti, Y. Vikas, B. Oluwanifemi, M. T. Sathwik, Z. James, R. Nazneen, Cats Confuse Reasoning LLM: Query Agnostic Adversarial Triggers for Reasoning Models, arXiv preprint arXiv:2503.01781, 2025.
doi: https://doi.org/10.48550/arXiv.2503.01781
[4] P. Laban, H. Hayashi, Y. Zhou, J. Neville, LLMs Get Lost in Multi-Turn Conversation, arXiv preprint arXiv:2505.06120, 2025.
doi: https://doi.org/10.48550/arXiv.2505.06120

お問い合わせはこちら

記事を書いた人

AM

2024年10月に中途入社しました。未経験からの転職です。趣味はテニスと料理で、食べた分を消費できるように頑張っています。

関連記事

TOP