ハルシネーション
生成AIが事実と異なる内容を正しいように生成する現象です。
用語解説
ハルシネーションとは
ハルシネーション(訳:幻覚)とは、生成AIが事実と異なる内容を、正しい情報のように文章として生成してしまう現象です。
なぜハルシネーションが起きるのか
大規模言語モデル(LLM)は、入力文に続きやすい単語や文章を確率的に選び、文章を組み立てて出力します。
そのため、原則として、回答内容が事実かどうかを確認してから答えているわけではありません。
そのため、AIが意図的に嘘をつくという意味ではありません。
対策方法
対策方法は、出力をそのまま採用せず、根拠を確認することが基本です。
-
一次情報(公式文書、規格、法令、ベンダ資料)で照合する
-
出典の提示を求め、出典が実在し内容が一致するか確認する
-
数値や固有名詞は、別手段で検証してから使用する
-
重要な判断や提出物では、人によるレビューを行う
発展知識
関連用語
| 用語 | 概要 |
|---|---|
| 生成AI | テキストや画像などを自動生成する人工知能の総称です。 |
| 大規模言語モデル(LLM) | 大量のテキストを学習し、文章生成を行うAIモデルです。 |
※本解説は生成AIによる学習支援用の参考情報です。内容の正確性や最新性は保証されません。生成された回答を再確認するようにしてください。