ハルシネーションとは?

読み方: ハルシネーション

30秒まとめ

AIが事実と異なる情報をもっともらしく生成してしまう現象。AI利用時の最大の注意点。

ハルシネーションの意味・定義

ハルシネーション(Hallucination、幻覚)は、AIモデルが事実に基づかない情報を、あたかも正しいかのようにもっともらしく生成してしまう現象です。LLMは統計的なパターンに基づいてテキストを生成するため、存在しない事実、架空の引用、誤った数値などを生成することがあります。例えば、実在しない論文を引用したり、存在しない法律を紹介したりすることがあります。対策としては、RAG(検索拡張生成)の活用、ソースの確認、温度パラメータの調整、ファクトチェックの実施などがあります。Perplexity AIのようにソース付きで回答するAI検索ツールは、ハルシネーション対策に有効です。

関連するAIツール

関連する用語

運営者が開発したAIマーケティングツール