「ハルシネーション」はなぜ起こる? 原因や対策、生成AI利用の注意点も【親子で学ぶ情報社会】

「ハルシネーション」は、生成AI用語として知られています。AIがどのような結果を生成することを指すのか、言葉の意味を解説しましょう。また、ハルシネーションが起こる原因や対策方法、生成AI活用のリスクについても紹介します。

ハルシネーションとは

ハルシネーションは、人工知能に関する用語です。何を意味する言葉なのか、まずは概要と主な種類について確認しましょう。

人工知能(AI)による誤情報を指す

ハルシネーションは、幻覚を意味する英語「hallucination」を由来とする生成AI用語です。生成AI用語であるハルシネーションは、まさにその語源に由来します。

英語の意味と同じように、AIが幻覚を見るように誤った情報を生成・回答することをハルシネーションと呼びます。

ハルシネーションには複数のパターンがある

ハルシネーションには、いくつかのパターンがあります。主なパターンは2種類です。

生成結果によって、Intrinsic Hallucinations(内在的ハルシネーション)とExtrinsic Hallucinations(外在的ハルシネーション)に分かれます。

Intrinsic Hallucinationsは、学習データに正しい回答が含まれているにもかかわらず、異なる情報を生成・回答するものです。対して、Extrinsic Hallucinationsは学習データに存在しない情報を生成・回答するものを指します。

そのほか、生成AIが架空の情報を作り出すことを「創造的ハルシネーション」と呼ぶこともあります。

出典:IT用語集「ハルシネーション」 | スマートワーク総研

ハルシネーションが起こる原因

ハルシネーションは、なぜ起こるのでしょうか? 誤った内容の回答には、きっかけとなる原因や理由があるはずです。一般的な原因と、その特徴を解説します。

AIの学習データに誤りがある

AIが学習しているデータそのものに誤りがあると、誤ったデータを基に回答が生成されます。

例えば、インターネット上に存在するさまざまなサイトの情報を学習している場合、全ての情報が正しいとは限りません。中には間違った情報や、AIが参考にするべきではないジョークなども含まれます。

もともとの学習データに誤りが含まれると、正しい情報と間違った情報が混ざり合い、ハルシネーションが起きる原因となるのです。

AIに正確な指示が出せていない

生成AIに対して質問をする場合、プロンプトと呼ばれる指示を入力します。指示の内容が曖昧であったり、誤った情報に基づいた内容であったりする場合、ハルシネーションが起こる可能性は高くなるでしょう。

例えば、存在しない場所についての質問をした場合、AIの回答も不自然なものになりがちです。その場所が存在する前提で指示を出すため、AIが無理に正解を探してしまい、誤った情報を参考に回答が生成されてしまいます。

ハルシネーションは、指示の方法によっても起きると考えておきましょう。

AIの性能に問題がある

AIの性能が低い場合、誤った回答を生成しやすくなります。間違った情報があっても、判別できずにそのまま回答に組み込んでしまう可能性が高くなるためです。

また、AIは質問内容を理解して回答しているわけではありません。正しいと思われる情報を推測しているだけのため、ある程度はどうしても誤情報が混ざってしまいます。

性能が低いためにハルシネーションが起きているのであれば、使用するAIを変更することで改善が見られる可能性もあるでしょう。

生成AI活用のリスクと注意点

生成AIの活用には、さまざまなリスクがあります。メリットも大きいシステムですが、リスクも理解した上で使用を検討しましょう。主なリスクと使用上の注意点を解説します。

間違った結論を出してしまうリスク

生成AIの回答を基に結論を出そうとしている場合、ハルシネーションによって問題が起きる可能性があります。回答の中に誤った情報が含まれていると、間違った結論を出してしまうリスクが生まれるためです。

例えば、利用する飲食店を決めるときに生成AIに質問をした場合、回答された店やメニューが存在しない可能性もあります。架空の情報を信じて決断すると、時間を無駄にしてしまいます。場合によっては、一緒に行動している人にも迷惑をかけるかもしれません。

特に、生成AIのハルシネーションは正しいか間違っているかの判断がしにくいため、重要な決定をする場合はファクトチェックが必要です。

セキュリティ上の問題が発生するリスク

生成AIを利用する場合、セキュリティ上のリスクがあります。ハルシネーションの有無を問わず、利用しただけでもリスクはあると考えておきましょう。

例えば、質問内容を学習に利用しているAIの場合、他者に質問内容が漏えいする可能性があります。サイバー攻撃によってウイルス感染や情報漏えいが起きることも、セキュリティ上のリスクです。

また、AIがハルシネーションを起こし、誤ったセキュリティ対策を回答する恐れもあります。

権利侵害や名誉毀損につながるリスク

生成AIが回答する情報には、使用の権利が設けられている可能性があります。生成AIを運用している会社だけでなく、回答の基になった情報にもそれぞれ権利があるはずです。

二次利用をする場合、AIがどこから情報を取得したのか把握できないと、権利侵害になるリスクも考えられるでしょう。

また、ハルシネーションによる誤った情報には、名誉毀損につながる情報が含まれている恐れもあります。

出典:生成AIコラム | 第3部 生成AIのリスク・懸念と対策| 三菱総研のDX デジタルトランスフォーメーション

ハルシネーションの対策方法

ハルシネーションは、予防や対策ができるものなのでしょうか? AIの誤情報を完全になくすことは難しいものの、トラブルを減らすための対策方法を紹介します。

学習データの見直しを検討する

利用者が学習用のデータを登録する場合、学習データの見直しによってハルシネーションを防ぐことが可能です。

回答が誤っていると感じた場合は、信頼できる情報を学習データに取り入れることで、対処しましょう。誤った情報を取り除いていき、正しい情報を繰り返し学習させることで、AIによる回答の精度が上がっていくはずです。

自身で内容のチェックを行う

生成AIから出力されたデータが合っているか確認するためのファクトチェックを行うと、ハルシネーションによる問題を防げます。事実なのか確認しなければならない内容は、自分でチェックしましょう。

人間がファクトチェックを行うことによって、間違った情報に気付くチャンスが生まれます。

しかし、ハルシネーションには正しい情報と間違った情報が入り混じっている可能性もあり、ファクトチェックの難易度は高いかもしれません。

ファクトチェックによって全ての問題が解消されるとは限りませんが、リスクを減らすためにもしっかり確認しましょう。

指示を工夫する

生成AIに指示を出す指示を工夫することで、ハルシネーションの予防になります。

例えば、AIは正しい答えが見つけられないときでも、それらしい回答をしてしまうことがあります。分からないときは分からないと答えるよう指示を出せば、無理な回答のリスクが少なくなります。

また、指示を出すときに信頼できるソースや引用を提示するのもおすすめです。信頼できる情報のみに基づいて回答があれば、誤情報に惑わされる心配はありません。

生成AIを使うときはハルシネーションに注意

生成AIを使うと、間違った情報が入り混じった「ハルシネーション」という現象が起きることがあります。トラブルを避けるためにも、ハルシネーションが起きないよう対策をしておきたいところです。

学習データや指示の内容を工夫し、生成された回答のファクトチェックを行うなど、できるだけ誤情報に惑わされない対策をしておきましょう。

こちらの記事もおすすめ

夏休みの宿題にChatGPTは使える? 生成AIのリスクと「あえて使うなら」の提案を国語のプロ・明治大学教授 伊藤氏貴先生に訊く
文部科学省は夏休みを前に、学校現場向けに「初等中等教育段階における生成AIの利用に関する暫定的なガイドライン」を発表しま...

構成・文/HugKum編集部

編集部おすすめ

関連記事