· トレンド・試験情報  · 3 min read

AIの「知ったかぶり」ハルシネーションとは?原因と対策を解説【シラバスハック】

生成AIが事実に基づかない「それらしい嘘」をつく現象、ハルシネーション。ITパスポート等で問われるリスク管理の視点から、仕組みと防止法を最速解説。

生成AIが事実に基づかない「それらしい嘘」をつく現象、ハルシネーション。ITパスポート等で問われるリスク管理の視点から、仕組みと防止法を最速解説。

3行まとめ

  • ハルシネーション(幻覚)は、AIが事実とは異なる情報を、あたかも正しいかのように生成してしまう現象。
  • AI(LLM)は「次に来る確率が高い言葉」を繋いでいるだけで、事実かどうかを自覚していないために起こる。
  • 対策として、さきほど学んだRAGの活用や、適切なプロンプトエンジニアリングが有効。

シラバス上の位置付け

  • ストラテジ系 > 2.経営戦略 > 5.ビジネスインダストリ > (2)生成AIの活用

試験での出題ポイント

「ハルシネーション」は、AIを利用する上での 「リスク」 として問われます。

  • 特徴: 「自信満々で嘘をつく」ため、人間がファクトチェック(事実確認)を行わないと重大なエラーを招く可能性がある。
  • 関連用語: ヒューマンインザループ(HITL)。AI任せにせず、プロセスのどこかに人間を介在させること。
  • 技術的要因: 訓練データに含まれない最新情報や、非常にニッチな質問に対して「統計的な推論」で埋めようとすることで発生しやすい。

【AIハック】生成AIで最速暗記

AIに、自分の弱点であるハルシネーションを自虐ネタとして語らせてみましょう。

Geminiへのプロンプト例:

「あなた自身が『ハルシネーション』を起こしてしまった時の気持ちになりきって、『なぜ私は嘘をついてしまったのか』をIT用語(学習データ、統計的予測など)を交えて悔しそうに告白してください。」

たとえ話のヒント:
「寝ぼけている天才」をイメージしてください。知識は膨大ですが、たまに現実と夢(学習データの統計的パターン)が混ざってしまい、寝言を真実のように語ってしまう。それがハルシネーションです。

まとめ・次のステップ

AIの弱点を知ることは、AIを使いこなす第一歩です。
次は、AIに正しい答えを出させるための「魔法の呪文」、プロンプトエンジニアリングについて学んでいきましょう。


シラバスハック公式アプリでこの用語のクイズを解く

Back to Blog

Related Posts

View All Posts »