ブログ

Blog

AIのハルシネーション問題

IRC MonthlyにAIのハルシネーション問題について寄稿しました。


AIのハルシネーション問題

京都大学公共政策大学院 教授
株式会社伊予銀行 顧問
岩下 直行


ChatGPTの利用拡大が止まらない。この無償で利用できる自然言語処理の対話ツールは、日本でもあっという間に利用が拡大し、様々な場面で「AIはこう言ってる」と引用されるようになった。教育の現場では、学生がChatGPTを使って宿題のレポートや読書感想文を書くことが問題だという声がある。確かに、もっともらしい文章を簡単に出力することができるChatGPTは、宿題を手伝ってくれる最強のツールかもしれない。学生に自分で文章を書く訓練をさせたいのであれば、今後は宿題の出し方を変える必要があるだろう。

よく言われるように、ChatGPTが出力する文書の中には不正確な情報が多く含まれている。使い方次第で、ChatGPTはもっともらしい嘘をつくツールとなってしまう。このような現象をAIのハルシネーション(Hallucination:幻覚)と呼ぶ。実際、ChatGPTを使っていると、普通の会話のやり取りの中で、明らかな嘘を自分で作り上げて説明しているのを頻繁に目にする。それが学生の宿題に出て来るだけならかわいいものだが、ビジネスの現場に出現するなら問題だ。

DeepLなどの機械翻訳も高機能化しているが、使っていると微妙なニュアンスは翻訳されないし、不自然な文章が出力されることもある。日本語と英語の翻訳のように、使う人間側にある程度の知識があれば、不自然な表現を修正し、自然な文章にすることができる。しかし、操作者が知らない言語との翻訳に使う場合はどうだろう(DeepLは30か国語以上に対応している)。出力された文章が正しい翻訳となっているか評価できないままビジネスで利用すると、とんでもない誤訳になっているかもしれない。

ChatGPTやDeepLは便利だから、今後もその拡大は止まらないだろう。だからこそ、上手に使いこなす人間側の知恵が必要だ。自分の知らない言語に機械翻訳した文章が使えないように、自分がよく知らない分野について質問して出てきた答えをそのまま利用することは危険だ。有用な情報とハルシネーションとを識別できる人間となるためには、その分野について正しい知識を持っている必要がある。

いずれは技術が進化し、確実な事実に基づく正しい文章だけを出力するAIが誕生するのでは、と期待する向きもあるだろう。しかし、実は何が確実な事実か、何が正しいか、と問われても、確定的な答えがある訳ではなく、その基準も揺れ動くものだ。やはり、AIに正しさを求めるべきではないのだろう。

今後、AI技術の進化は、人間の仕事や生活に大きな影響を与えることになる。その変化は未来の話ではなく、既に起こりつつある現実なのだ。しかし、AIは人間の知恵や判断力を代替できない。AIのハルシネーション問題に対処するには、人間がAIに適切な指示を出す技術を磨くとともに、人間が正しい知識を持ち、AIの出力を適切に判断して修正する力が求められる。AIと人間が協調することで、より効率的な知的作業が可能となるが、人間の役割の重要性はより増していくだろう。AIは人間を代替するものではなく、補完するものなのである。

(IRC Monthly 2023.6)