テクノロジー
ハルシネーション(ハルシ)
AIが事実に基づかない情報を生成する現象「ハルシネーション」の略称。その意味や背景、リスクについて解説します。
意味 {#meaning}
AI(特に大規模言語モデル)が、事実とは異なる情報をあたかも真実であるかのように生成する現象「ハルシネーション(幻覚)」の略称です。ユーザーの問いかけに対し、もっともらしい嘘をつく状態を指します。主にIT業界やSNS上で、AIの不正確さを指摘する際や、生成物の精度を議論する文脈で「ハルシが起きている」「ハルシった」といった形で、動詞的あるいは名詞的に使用されます。
由来・背景 {#origin}
語源は英語の「Hallucination(幻覚)」。元々は医学用語ですが、2022年末のChatGPT登場以降、AIが誤情報を出力する問題が顕在化したことで一般層にも知られるようになりました。当初は「ハルシネーション」とフルで呼ばれていましたが、AI利用が日常化し、エンジニアやヘビーユーザーの間で会話の効率化が進む中で、短縮形の「ハルシ」が定着しました。
背景には、生成AIの仕組み(過去のデータから確率的に次の単語を予測する性質)上、内容の正確性よりも「文章としての自然さ」が優先されてしまうという技術的限界があります。2023年以降、AIのビジネス活用や検索エンジンへの導入が進む中で、このハルシによる情報の誤拡散がリスクとして重要視されるようになり、対策技術(RAG:検索拡張生成など)の普及とともに言葉の認知度も高まりました。
例文・使い方 {#examples}
- 「この出力結果、よく見るとハルシが混じってるからファクトチェックが必要だね。」
- 「最新のモデルにアップデートされてから、以前よりハルシが大幅に減った気がする。」
- 「ハルシっちゃって、存在しない架空の法律を根拠に回答されてしまった。」