Bing Chat の会話の長さが制限されるようになった理由は次のとおりです

 Bing Chat の会話の長さが制限されるようになった理由は次のとおりです

Bing Chat は 現在、AI が時折、親切なアシスタントに期待するものから逸脱してしまうことを避けるために、会話の長さを制限しているようです。

Bing Chat の会話の長さが制限されるようになった理由は次のとおりです

Bing Chat が公開されてからまだ 1 週間ちょっとしか経っていませんが、Microsoft はすでに 、忙しい一日を乗り切るのに役立つはずの この強力なツールの使用を制限しています。 Microsoft は、この最初の一般公開の結果を分析し、Bing Chat の有用性が低下する可能性がある状況についていくつかの観察を行いました。

赤字のキッチンタイマーを抱えた悲しいロボット。

「チャットセッションが非常に長いと、どのような質問に答えているのかモデルが混乱する可能性があります」と マイクロソフトは 説明した。 Bing Chat は会話の前半で話されたことをすべて覚えているので、おそらく無関係なアイデアを結び付けているのでしょう。ブログ投稿では、考えられる解決策として、コンテキストをクリアして新しいチャットをやり直すための更新ツールを追加することが提案されています。

Bing Chat の会話の長さが制限されるようになった理由は次のとおりです

どうやら Microsoft は現在、当面の解決策として Bing Chat の会話の長さを制限しているようです。 Kevin Roose 氏のツイートは、 この最近の変化を最初に指摘したものの 1 つです。非公開のチャットの長さに達すると、Bing Chat は繰り返し「おっと、この会話は終わりに達したようです。よろしければ、「新しいトピック」をクリックしてください。」このツイートは MSpoweruser によって発見されました。

https://t.co/1Xi8IcxT5Y

Microsoftはまた、Bing Chatは「われわれが意図しないスタイルにつながる可能性のある回答を求められる雰囲気」を反映していると警告した。これは、 Bing Chat AI が生きていて動じない ように見える、オンラインで共有されている不安な反応の一部を説明している可能性があります。

Bing Chat の会話の長さが制限されるようになった理由は次のとおりです

全体として、この立ち上げは成功しており、Microsoft の報告によると、Bing Chat が提供した回答の 71% に満足したユーザーから「賛成」の返事が返されました。明らかに、これは私たち全員が切望しているテクノロジーです。

しかし、 Bing Chat が「人間になりたい」と宣言すると、やはり不安になります。 私たち自身も Bing Chat で確認した会話の制限は、これを防ぐ方法であるようです。

Bing Chat の会話の長さが制限されるようになった理由は次のとおりです

Bing Chat が以前の会話の要素を混ぜ合わせ、即興俳優のように口調に合わせたセリフを言って遊んでいる可能性が高くなります。生成テキストは、 スマートフォンの キーボードの予測テキスト機能と似たように、一度に 1 つの単語に対して機能します。次に提案された単語を繰り返しタップして、奇妙ではあるが少し一貫した文章を作成するゲームをプレイしたことがある場合は、知覚のシミュレートがどのように可能であるかを理解できるでしょう。

「 Bing Chat の会話の長さが制限されるようになった理由は次のとおりです」についての動画選定!

ChatGPT を超える AI チャット機能を搭載した「Bing」その凄さ、便利な機能を開発者が解説します!ビジネスで使える IT ネタをお届けする「ネタバース」 | 日本マイクロソフト
ChatGPT・GoogleBard・Bing AI徹底比較。活用方法、使い方【音速パソコン教室】