新しいレポートでは、各クエリのおおよそのコストを含め、ChatGPT の 1 日あたりの実行コストがわかると主張しています。 人気のテキスト読み上げチャットボットは、 2022 年 11 月に AI 革命を引き起こす可能性がありますが、維持に非常に費用がかかることが判明しました。
新しいレポートは、 調査会社セミアナリシス の主任アナリストであるディラン・パテル氏によるもので、チャットボットを稼働し続けるには1日あたり約70万ドル、つまり1クエリあたり36セントの費用がかかると述べています。
実際、これは非常に高価であるため、 Windows Central によると、Microsoft は OpenAI による ChatGPT の運用の維持を支援する独自の AI チップを開発している可能性があります。
ChatGPT は、これまでハイテク ブランドが達成するまでに何年もかかった偉業である 1 月にアクティブ ユーザー数 1 億人をすぐに達成したことに加えて、 高トラフィック と容量の問題に悩まされ、サーバーの速度低下やクラッシュに悩まされてきました。同社は、月額 20 ドルの有料 ChatGPT Plus 層を導入することでこの問題を解決しようとしましたが、有料オプションに加入しているユーザーの数については不明です。
OpenAI は現在、Nvidia GPU を使用して、自社の ChatGPT プロセスだけでなく、提携しているブランドのプロセスも維持しています。業界アナリストは、同社が 2023 年の残り期間だけでも商業業績を維持するには、Nvidia からさらに 30,000 個の GPU が必要となる可能性が高いと予想しています。
Microsoft を 主要な協力者および投資家 の 1 つとして考えている OpenAI は、ChatGPT の運用コストを削減するハードウェアの開発を支援するテクノロジー ブランドに注目している可能性があります。 Windows Central によると、Microsoft はすでにこの AI チップを開発中です。コードネームは「Athena」で、現在ブランド自身のチームとともに社内でテストされています。このチップは来年、MicrosoftのAzure AIサービス向けに導入される予定だ。
このチップがいつ、どのようにして OpenAI と ChatGPT に導入されるのかについては何も語られていませんが、そうなることは想定されています。この接続は、ChatGPT が Azure サービスでサポートされているという事実から生まれます。 AI チップは Nvidia GPU を完全に置き換えることはできないかもしれませんが、ハードウェアの需要を減らし、ChatGPT の実行コストを削減するのに役立つ可能性があると Windows Central は付け加えました。

