
更新日:
ハルシネーション
ハルシネーション(英:Hallucination 幻覚)とは、AI(人工知能)によって生成された虚偽または誤解を招く情報を、AIがあたかも正しい情報であるかのようにもっともらしく出力(表示・応答)することです。AIの活用が一般的になりつつある現代の、大きな問題になっています。
ハルシネーションは、学習に使ったデータと異なる情報を出力する誤情報「内在的ハルシネーション」と、学習したデータに存在しない架空情報「外在的ハルシネーション」に大別できます。いずれも、学習データが不十分または偏りがあること、あるいは指示の仕方に問題があることが原因として考えらます。
ハルシネーションが発生すると、以下のようなリスクが生まれます。
・ビジネス上では、戦略設計の破綻・業務効率の低下・経済的損失などを起こしやすく、ステークホルダーからの信用低下・ブランドイメージの悪化などにもつながる
・情報セキュリティの点では、ユーザーの個人情報漏えいや、悪意のある攻撃による情報セキュリティ侵害、詐欺被害などを招きかねない
・社会への影響としては、ハルシネーションによりフェイクニュースや虚偽情報が生成・拡散されると、災害などの非常時に社会的な混乱やパニックを引き起こしやすい
ハルシネーションの発生を抑制するための対応策としては以下のような作業が考えられますが、それぞれ難しさもあります。
・学習データの質の向上
=学習用のデータから、真実ではない情報や偏りがある情報を極力除去することだが、膨大なデータの質の向上は大変難しい
・出力結果へのフィルター
=誤った情報や偏見を含む情報を出力しないように制限をかけることが大事だが、すべての情報の正誤の判断は非常に難しい
また、LLM導入時に必ず守るべき対策として、生成される文章の正確性に十二分な注意が必要です。同時に、内部情報漏洩やデータプライバシーの保護も重要です。さらに、運用体制やガバナンスコスト、インフラ・社員のAIリテラシーも考慮しなければなりません。PoC(試験運用)で確認し、ルール化してから段階的に運用を拡大することが推奨されます。
Pick Up キーワード
関連キーワード
■関連読み物一覧
■関連シリーズ一覧
■関連商品・サービス一覧






