OpenAI、超インテリジェント AI の暴走を阻止するための新しいチームを構築

 OpenAI、超インテリジェント AI の暴走を阻止するための新しいチームを構築

人工知能テクノロジーの最前線にいる人々が、高度にインテリジェントな AI システムがもたらす潜在的な壊滅的な影響についてコメントしているのであれば、おそらく、身を起こして注目するのが賢明でしょう。

OpenAI、超インテリジェント AI の暴走を阻止するための新しいチームを構築

ほんの数カ月前、この分野での先駆的な業績によりAIの「ゴッドファーザー」の一人と考えられているジェフリー・ヒントン氏は、この技術の急速な発展ペースは、超知能AIが考える ようなことが「考えられないわけではない」ことを意味していると 述べた。人間の精神よりも優れているため、最終的には人類を滅ぼす可能性があります。

そして、 バイラルな ChatGPT チャットボット を開発した OpenAI の CEO、サム アルトマン氏は、高度な AI システムが社会に及ぼす潜在的な影響について「少し怖がっている」と認めました。

OpenAI、超インテリジェント AI の暴走を阻止するための新しいチームを構築

アルトマン氏は非常に懸念しており、水曜日、彼の会社は超知能AIが最終的に混乱やさらに悪いことを引き起こさないようにすることを目的としたスーパーアライメントと呼ばれる新しい部門を設立すると発表した。

「超知能は人類がこれまでに発明した中で最も影響力のある技術となり、世界で最も重要な問題の多くを解決するのに役立つ可能性がある」と OpenAIは新たな取り組みを紹介する投稿で述べた 。 「しかし、超知性の巨大な力は非常に危険な可能性もあり、人類の無力化、さらには人類の絶滅につながる可能性があります。」

OpenAI、超インテリジェント AI の暴走を阻止するための新しいチームを構築

OpenAIは、超インテリジェントAIはまだまだ先のことのように思えるかもしれないが、2030年までには開発できると信じていると述べた。また、現時点では「潜在的に超インテリジェントなAIを操縦したり制御したり、AIの暴走を防ぐためのシステムが存在しない」ことも率直に認めている。悪党になる。」

この状況に対処するために、OpenAIは、超知能AIの安全性チェックを実行する「ほぼ人間レベルの自動整合研究者」を構築したいと考えており、これらのリスクを管理するには、ガバナンスと超知能整合の問題を解決するための新しい機関も必要になると付け加えた。

OpenAI、超インテリジェント AI の暴走を阻止するための新しいチームを構築

スーパーアライメントの効果を発揮するには、OpenAI がトップの機械学習研究者とエンジニアからなる優秀なチームを編成する必要があります。

同社はその取り組みについて非常に率直なようで、これを「信じられないほど野心的な目標」と表現する一方、「成功する保証はない」ことも認めている。しかし同誌は、「集中的かつ協調的な取り組みによってこの問題を解決できると楽観的だ」とも付け加えた。

OpenAI、超インテリジェント AI の暴走を阻止するための新しいチームを構築

とりわけ、OpenAI の ChatGPT や Google の Bard などの新しい AI ツールは非常に革新的であるため、スーパーインテリジェンス以前のこのレベルであっても、職場とより広範な社会は近い将来に根本的な変化に直面すると専門家は確信しています。

世界中の政府が、技術が安全かつ責任ある方法で導入されることを保証するために、急速に発展する AI 産業への規制を課すべく急いで動き、遅れを取り戻そうと躍起になっているのはこのためです。ただし、単一の団体が設立されない限り、テクノロジーの最適な使用方法について各国が独自の見解を持つことになるため、規制が大きく異なり、著しく異なる結果につながる可能性があります。そして、これらのさまざまなアプローチが、スーパーアライメントの目標の達成をさらに困難にしているのです。

「 OpenAI、超インテリジェント AI の暴走を阻止するための新しいチームを構築」についての動画選定!

【Sora】OpenAIが発表した動画生成AIがヤバすぎる#sora #openai #chatgpt#ai
OpenAI最新!動画生成AIのSoraが作った動画が凄い