テクノロジー
ハルシネーション(Hallucination)
AIが事実に基づかない情報を生成する現象「ハルシネーション」の意味や、なぜ起こるのか、利用時の注意点をわかりやすく解説します。
意味 {#meaning}
ハルシネーションとは、生成AI(大規模言語モデル)が、事実に基づかない情報をあたかも真実であるかのように回答する現象のことです。日本語では「幻覚」と訳されます。AIは統計的な確率に基づいて「もっともらしい文章」を生成するため、知識の不足や学習データの誤りがある場合でも、堂々と嘘をつくことがあります。ビジネスや教育の現場でAIを利用する際、情報の正確性を判断する上での大きな課題となっています。
由来・背景 {#origin}
語源は心理学や医学における「幻覚(実在しないものを知覚すること)」を指す英語です。AI分野では以前から使われていた専門用語でしたが、2022年末の「ChatGPT」公開を機に、生成AIが一般に普及したことで広く知られるようになりました。AIが人間のように「自信満々に嘘をつく」様子が、あたかも幻覚を見ているかのように見えることからこの名が定着しました。2023年には、英ケンブリッジ辞書が「今年の言葉」に選出するなど、世界的なトレンドワードとなりました。背景には、AIが「真実性」よりも「文章の自然さ」を優先する仕組みがあり、現在はハルシネーションを抑制するための技術開発(RAGなど)が急速に進められています。
例文・使い方 {#examples}
- 「生成AIの回答にはハルシネーションが含まれる可能性があるため、必ず一次ソースでのファクトチェックが必要だ。」
- 「実在しない観光地をAIが紹介してきたが、これは典型的なハルシネーションの事例だと言える。」
- 「最新の言語モデルは、以前のバージョンに比べてハルシネーションの発生率が大幅に低下している。」