ChatGPT や 同様の AI を活用したチャットボット に関する興奮にもかかわらず、テキストベースのツールには解決すべき深刻な問題がまだいくつかあります。
その中には、質問に対する答えがわからないときに何かをでっち上げて事実のように提示する傾向があり、この現象は「幻覚」として知られるようになりました。ご想像のとおり、強力なチャットボットの新しい波のいずれかを使用している人に虚偽を事実として提示すると、深刻な結果が生じる可能性があります。
このような問題は、 ChatGPT が提案したニューヨーク市の経験豊富な弁護士が、結局は起こらなかったことが判明した事例を挙げた 最近の事件で浮き彫りに なった。弁護士は、彼の行動の結果として制裁を受ける可能性があります。
別の事件は4月に広く注目を集めた。ChatGPTは、オーストラリアの市長が銀行勤務中に 贈収賄で投獄されたが 、実際には事件の内部告発者だったと明らかに歴史を書き換えた。
OpenAI のエンジニアは、チャットボット テクノロジーの信頼性を高めるために、現在、これらの問題の発生を減らし、できれば排除するためにソフトウェアの改善に注力していることを明らかにしました。
水曜日に発表さ れCNBCでも取り上げられた 研究論文の中で、OpenAIはチャットボットが「不確実な瞬間に事実をでっち上げる傾向がある」と述べ、さらに次のように付け加えた。エラーは、はるかに大きなソリューションを狂わせるのに十分です。」
チャットボットの失敗に対処するために、OpenAI エンジニアは、結論の時点でのみ自分に報酬を与えるのではなく、答えに向かって進むときに正しいデータを出力したときに AI モデルが自分に報酬を与える方法に取り組んでいます。エンジニアらによると、このシステムには人間らしい思考連鎖の手順がより多く組み込まれているため、より良い結果が得られる可能性があるという。
しかし一部の専門家はこの研究に疑問を表明し、ChatGPTに組み込まれるまではほとんど役に立たず、その間も幻覚が続くだろうとCNBCに語った。 OpenAIは自社の成果を自社の生成AIツールに組み込むかどうか、またいつ組み込むかについては明らかにしていない。
OpenAI が問題の解決に取り組んでいることを知るのは良いことですが、改善が見られるまでにはしばらく時間がかかる可能性があります。それまでの間、OpenAI 自体が述べているように、ChatGPT は時々誤った情報を生成する可能性があるため、重要なタスクの一部である場合は必ずその応答を確認してください。