非常に人気のある人工知能 (AI) チャットボット ChatGPT の作成者である OpenAI は、人間ではなく AI によって作成されたコンテンツを検出するために開発したツールを閉鎖しました。 AI Classifier と呼ばれるこのツールは、「精度の低さ」を理由に、発売からわずか6か月で閉鎖されたと OpenAIは述べた 。
ChatGPT と競合サービスの人気が急上昇して以来、 チェックされていない AI 使用 の影響を懸念するさまざまなグループからの一斉反発が起きています。まず、教育者は、学生が ChatGPT を使用して エッセイや課題を書き 、それを自分のものとして渡す可能性に特に悩まされています。
OpenAI の AI Classifier は、これらのグループや他のグループの恐怖を和らげる試みでした。そのアイデアは、テキストが人間によって書かれたのか AI チャットボットによって書かれたのかを判断でき、学生を公平に評価し、偽情報と戦うためのツールを人々に提供できるというものでした。
しかし、OpenAI は最初から自分のツールにあまり自信を持っていないようでした。このツールを発表したブログ投稿の中で、OpenAI は「私たちの分類器は完全に信頼できるものではない」と宣言し、「チャレンジ セット」から AI が書いたテキストを正しく識別した確率は 26% にすぎないと指摘しました。
このツールを廃止するという決定はあまり鳴り物入りではなく、OpenAI は Web サイトに専用の投稿を掲載していません。代わりに、同社は AI 分類器を明らかにした 投稿を更新し 、「AI 分類器は精度が低いため利用できなくなりました」と述べました。
更新内容はさらに「私たちはフィードバックを取り入れるよう努めており、現在、テキストの出所をより効果的に調べる手法を研究しており、オーディオまたはビジュアルコンテンツがAIによって生成されたものであるかどうかをユーザーが理解できるようにするメカニズムの開発と導入に取り組んでいます。」と続けた。
より良いツールが必要です
AI Classifier は、AI で作成されたコンテンツを検出するために開発された唯一のツールではありません 。GPTZero のようなライバルが存在し、OpenAI の決定にもかかわらず引き続き動作し続けるでしょう。
AI の書き込みを識別するという過去の試みは見事に裏目に出ました。たとえば、2023 年 5 月、ある教授は、学生の論文の盗作を検出するために ChatGPT に 協力を依頼した後、誤ってクラス全員を不合格にしました 。言うまでもなく、ChatGPT はひどく間違っており、教授も同様でした。
OpenAIですら、自社のチャットボットによって作成された盗作を適切に認識できないことを認めているため、これは懸念の原因となる。これは、 AI チャットボットの破壊的な可能性 についての不安が増大しているときに行われ、この分野 の開発の一時停止が 求められています。 AI が一部の人々の予測と同じくらい大きな影響を与えるのであれば、世界は OpenAI の失敗した AI Classifier よりも強力なツールを必要とするでしょう。