Microsoft は、 Bing Chat AI によって行われた一見自由に見えないコメントの一部に対応しています。現在限定公開プレビュー段階にあるこのサービスは、最初の週に大失敗を経験しており、MicrosoftはAIの本来のビジョンにもっと沿うようにいくつかのアップデートを計画している。
昨日報告した ように、Bing Chat は、長時間のチャット セッション中に「人間になりたい」などの発言をすることができます。 Microsoft によれば、この問題は通常、モデルが混乱する 15 問以上の質問の後に発生します。
Microsoftのブログ投稿 には、「これは多くのプロンプトを必要とする簡単ではないシナリオなので、ほとんどの人は遭遇しないでしょうが、私たちはより微調整された制御を提供する方法を検討しています。」と書かれています。
Microsoft によれば、問題はあったものの、最初の 1 週間でユーザーの 71% が Bing Chat の「いいね」機能を使用し、有益な回答が得られたことが示されました。 Microsoft によれば、チャット セッション中に複数の質問があった場合でも、この「健全なエンゲージメント」が得られるという。
将来的に、Microsoft はいくつかの変更を検討しています。まず、財務報告書などの事実情報のトレーニング データが 4 倍に増加しています。また、応答が正確であるか創造的であるかを制御できるトグルをインターフェイスに追加することも検討しています。さらに、Microsoft は毎日のアップデートを通じてユーザーから報告された技術的な問題やバグに対処しています。
Bing Chat は、人気のある ChatGPT アプリ を提供するオープンソース企業 である OpenAI への Microsoft の数十億ドル投資 に続いて登場しました。 Bing Chat には ChatGPT の拡張バージョンが統合されており、事前トレーニングされたデータのみに依存するのではなく、検索結果を通じて最新の情報にアクセスできます。
最初の 48 時間で 100 万人以上が待機リストに登録し 、それ以来数百万人が参加したと Microsoft は述べています。新しいユーザーは毎日追加されるため、サインアップした場合は、必ず受信トレイに注目してください。
GoogleはライバルのAIにも取り組んでいる。 Google Bard は Bing Chat と同様の機能を約束していますが、Google はまだそれを一般公開していません。まだテスト中ですが、間もなく公開される予定です。