· トレンド・試験情報 · 3 min read
AIの「知ったかぶり」ハルシネーションとは?原因と対策を解説【シラバスハック】
生成AIが事実に基づかない「それらしい嘘」をつく現象、ハルシネーション。ITパスポート等で問われるリスク管理の視点から、仕組みと防止法を最速解説。

3行まとめ
- ハルシネーション(幻覚)は、AIが事実とは異なる情報を、あたかも正しいかのように生成してしまう現象。
- AI(LLM)は「次に来る確率が高い言葉」を繋いでいるだけで、事実かどうかを自覚していないために起こる。
- 対策として、さきほど学んだRAGの活用や、適切なプロンプトエンジニアリングが有効。
シラバス上の位置付け
- ストラテジ系 > 2.経営戦略 > 5.ビジネスインダストリ > (2)生成AIの活用
試験での出題ポイント
「ハルシネーション」は、AIを利用する上での 「リスク」 として問われます。
- 特徴: 「自信満々で嘘をつく」ため、人間がファクトチェック(事実確認)を行わないと重大なエラーを招く可能性がある。
- 関連用語: ヒューマンインザループ(HITL)。AI任せにせず、プロセスのどこかに人間を介在させること。
- 技術的要因: 訓練データに含まれない最新情報や、非常にニッチな質問に対して「統計的な推論」で埋めようとすることで発生しやすい。
【AIハック】生成AIで最速暗記
AIに、自分の弱点であるハルシネーションを自虐ネタとして語らせてみましょう。
Geminiへのプロンプト例:
「あなた自身が『ハルシネーション』を起こしてしまった時の気持ちになりきって、『なぜ私は嘘をついてしまったのか』をIT用語(学習データ、統計的予測など)を交えて悔しそうに告白してください。」
たとえ話のヒント:
「寝ぼけている天才」をイメージしてください。知識は膨大ですが、たまに現実と夢(学習データの統計的パターン)が混ざってしまい、寝言を真実のように語ってしまう。それがハルシネーションです。
まとめ・次のステップ
AIの弱点を知ることは、AIを使いこなす第一歩です。
次は、AIに正しい答えを出させるための「魔法の呪文」、プロンプトエンジニアリングについて学んでいきましょう。