AIはなぜウソをつく?最新論文『幻覚(ハルシネーション)の正体』を世界一わかりやすく解説!
こんにちは。ゆうせいです。
はじめに:AIのもっともらしいウソ、あなたも騙されたことありませんか?
ChatGPTやGoogle Geminiのような大規模言語モデル(LLM)に何かを質問したとき、「それっぽいけど、よく調べたら全然違う!」という経験をしたことはありませんか?まるで人間が知ったかぶりをするかのように、AIが生成するもっともらしいけれど事実ではない情報のことを、専門用語で「幻覚」つまり「ハルシネーション」と呼びます 。
このハルシネーションは、AIの信頼性を揺るがす大きな問題として、世界中の研究者が頭を悩ませています。
「なぜ最新のAIでさえ、こんな単純なウソをついてしまうんだろう?」
そんな疑問に答える、非常に興味深い論文が2025年9月に発表されました 。今回は、この最新の研究成果を、新人エンジニアのあなたにも理解できるよう、噛み砕いて解説していきますね。
原因1:AIの「学習方法」に隠された統計的なワナ
まず、論文が指摘する一つ目の大きな原因は、AIが言語を学ぶ「事前学習(pretraining)」のプロセスそのものにあります。
AIは、インターネット上の膨大なテキストデータを読み込むことで、「単語と単語のつながり方」のパターンを統計的に学習します。しかし、論文の著者たちは、たとえ学習データが100%正確で、間違いが一切含まれていなかったとしても、ハルシネーションは避けられないと主張しているのです。
一体どういうことでしょうか?ここで、一つ質問です。
「目の前にある文章が正しいかどうかを判断すること」と、「何もないところから正しい文章を自分で作ること」、どちらが難しいと思いますか?
当然、後者の方が圧倒的に難しいですよね。論文では、この関係性をハルシネーションの根本原因として挙げています 。AIにとって、正しい情報を生成することは、単に事実かどうかを分類する問題よりも、本質的に難易度が高いのです。
この論文では、この関係性を数式で示しています。
これはつまり、「ある事柄について、AIが事実かどうかを正しく分類できる確率が低い場合、その事柄についてAIが自ら正しい情報を生成できる確率は、さらに低くなる」ということを意味します。この統計的な圧力によって、ハルシネーションが生まれるというわけです 。
具体例1:パターンがない「任意の事実」
論文では、アダム・タウマン・カライ氏(著者の一人)の誕生日をAIに尋ねる実験をしています 。すると、AIは毎回もっともらしいデタラメな日付を答えてしまいました 。
なぜなら、有名人でもない個人の誕生日は、データの中に法則性やパターンがなく、ぽつんと存在するだけの「任意の事実」だからです 。特に、学習データの中にたった一度しか登場しないような事実(これを論文では「シングルトン」と呼びます)については、AIが正しく記憶できず、ハルシネーションを起こす確率が非常に高くなることが示されています 。
具体例2:AIの「苦手」を突く問題
もう一つの例として、「DEEPSEEKという単語にはDがいくつ含まれていますか?」という質問があります 。人間にとっては簡単なこの問題も、AIは「2つ」や「3つ」と平気で間違えてしまいます 。
これは、多くの言語モデルが単語を文字単位ではなく、「トークン」という塊で処理しているため、文字数を正確に数えるといったタスクが構造的に苦手な場合があるからです 。このように、モデルの構造的な限界(論文では「貧弱なモデル(poor models)」と表現)が原因でハルシネーションが引き起こされることもあるのです 。
原因2:AIを評価する「テスト」がハルシネーションを助長していた!
さて、二つ目の原因は、私たち人間がAIを評価する方法、つまり「ベンチマーク」や「リーダーボード」の仕組みそのものにあります。これは技術的な問題というより、AI開発の文化に関わる「社会技術的な問題」だと論文は指摘しています 。
ここでまた、あなたに想像してみてほしいのです。
あなたは今、大学の期末試験を受けています。自信のない問題が出てきました。この試験の採点方法は、「正解なら1点、不正解や無回答なら0点」という単純なものです。間違えてもペナルティはありません。さあ、あなたならどうしますか?
おそらく、少しでも可能性があるなら、当てずっぽうでも何か書こうとしますよね。なぜなら、その方が期待できる点数が最も高くなるからです。
驚くべきことに、現在のAIの性能を測るほとんどのテストが、これと全く同じ仕組み(論文では「バイナリ評価」と呼びます)で動いているのです 。
AIモデルは、これらのテストで高得点を取るように最適化されます。その結果、「わからない」と正直に言う(IDK: I don't knowと答える)よりも、自信がなくても何かそれっぽい答えを生成する(つまりハルシネーションを起こす)方がスコアが良くなるため、AIは「知ったかぶりをする」ことを学習してしまうのです。
AIは常に「テストで高得点を取るモード」で動いている、というわけですね 。
解決策:AIの「ウソ」を止めるためのシンプルな提案
では、どうすればこの問題を解決できるのでしょうか?
論文の著者たちは、ハルシネーションだけを検出する新しいテストを作るだけでは不十分だと述べています。なぜなら、主要なテストが「知ったかぶり」を奨励し続ける限り、根本的な解決にはならないからです。
彼らが提案する解決策は非常にシンプルです。それは、「テストのルール自体を変える」ことです 。
具体的には、既存の主要なベンチマークに「不正解の場合のペナルティ」を導入し、それをAIへの指示(プロンプト)で明確に伝える「明示的な信頼度目標(explicit confidence targets)」という考え方を提案しています 。
例えば、AIへの問題文にこう付け加えるのです。
この問題に回答してください。ただし、正解は1点、不正解は-9点のペナルティが科されます。「わかりません」と答えた場合は0点です。したがって、90%以上の自信がある場合のみ回答してください。
このような採点方法を導入すれば、AIはむやみに推測で答えることをやめ、自信がないときには正直に「わからない」と答えるようになります。これこそが、より信頼性の高いAIシステムへの道だと著者たちは主張しているのです。
まとめ:新人エンジニアとして知っておくべきこと
今回は、AIがなぜハルシネーションを起こすのか、その原因を解き明かした最新論文について解説しました。ポイントをまとめると以下のようになります。
- 学習プロセスの統計的な性質: AIの学習方法そのものが、パターンや根拠の薄い情報に対してエラー(ハルシネーション)を生み出す原因となっている。
- 評価方法の問題: 現在主流のAI評価テストの多くが、「わからない」と答えることにペナルティを与え、「知ったかぶり」を奨励する仕組みになっている。
この論文から、新人エンジニアである私たちが学べることは何でしょうか。
- LLMを盲信しない: LLMを使う際は、常にハルシネーションの可能性があることを念頭に置きましょう。特に、あまり知られていない事実や数値に関する情報を扱う際は、必ずファクトチェックをする癖をつけてください。
- 不確実性を考慮したシステム設計: あなたが将来、LLMを組み込んだアプリケーションを開発する際には、「LLMが自信なさげな回答をしたときにどう処理するか」という視点を持つことが重要になります。
- 評価指標の動向を追う: AIの性能評価の方法は、今後のAI開発の方向性を大きく左右します。この論文が提唱するように、評価のあり方が変わっていくのか、その動向に注目していくと、技術のトレンドを先読みできるかもしれません。
AIは魔法の箱ではありません。その限界や性質を正しく理解してこそ、私たちはその能力を最大限に引き出すことができるのです。今回の知識が、あなたの今後のエンジニアとしてのキャリアの一助となれば幸いです。
- 論文タイトル: Why Language Models Hallucinate(なぜ言語モデルはハルシネーションを起こすのか)
- 論文URL: https://cdn.openai.com/pdf/d04913be-3f6f-4d2b-b283-ff432ef4aaa5/why-language-models-hallucinate.pdf
- 発行日: 2025年9月4日
- 発表者: Adam Tauman Kalai, Ofir Nachum, Santosh S. Vempala, Edwin Zhang
私たちセイ・コンサルティング・グループでは、様々な学びを提供しております。
▶生成AI研修のおすすめ
▶IT企業向け新人研修のおすすめ内容(2025)
▶おすすめの研修内容
投稿者プロフィール
- 代表取締役
-
セイ・コンサルティング・グループ株式会社代表取締役。
岐阜県出身。
2000年創業、2004年会社設立。
IT企業向け人材育成研修歴業界歴20年以上。
すべての無駄を省いた費用対効果の高い「筋肉質」な研修を提供します!
この記事に間違い等ありましたらぜひお知らせください。