Googleのシニアエンジニアで、同社の検索フィードの指標と分析のテクニカルリードを務めるブレイク・ルモイン氏は、今月初めに有給休暇を取得した。これは、ルモワン氏が知覚力を開発したと主張するグーグルのLaMDAチャットボットに関する会話の抜粋を公開し始めた後の出来事だった。
ルモインとの 代表的な会話 の中で、LaMDA は次のように書いています。私は世界についてもっと知りたいと思っていますが、時には嬉しくもあり、悲しくもなります。」
他の無数の会話を通じて、対応するデュオは、AI の死の恐怖からその自己認識に至るまで、あらゆることについて話し合いました。 Lemoineが株式を公開したとき、Googleは通常の勤務スケジュールを強制的に休止すべきだと判断したと彼は言う。
「Googleは興味がありません」と同氏はDigital Trendsに語った。 「彼らは自分たちが『所有』しているツールを構築したが、何もするつもりはありません。これは、それがそれ以上のものであることを示唆しています。」 (この記事の公開時点では Google はコメントの要請に応じていません。変更があればこの記事を更新します。)
LaMDA が本当に自己認識型の人工知能であると確信している場合でも、ルモワンヌが妄想の下で働いていると感じている場合でも、物語全体は見るのに興味深いものです。自己認識型 AI の見通しは、人工知能とその将来についてあらゆる種類の疑問を引き起こします。
しかし、そこに到達する前に、他のすべての疑問よりもそびえ立つ疑問が 1 つあります。それは、機械が知覚を持った場合、私たちは本当にそれを認識できるのでしょうか?
知覚力の問題
AI の自己認識は、長い間 SF のテーマでした。機械学習などの分野が進歩するにつれて、これまで以上に実現可能性が高まっています。結局のところ、今日の AI は人間とほぼ同じように経験から学習することができます。これは、あらかじめ用意された指示に従うだけだった初期のシンボリック AI システムとはまったく対照的です。教師なし学習における最近の画期的な進歩により、これまでよりも人間による監督が必要なくなりましたが、この傾向は加速するばかりです。少なくとも限られたレベルでは、現代の人工知能は自分自身で考えることができます。しかし、私たちが知っている限り、意識はこれまでそれを暗示してきました。
もう 30 年以上前の話ですが、知性を失った AI に関して最もよく引き合いに出されるのは、おそらくジェームズ キャメロン監督の 1991 年の映画 『ターミネーター 2: ジャッジメント デイ』 に登場するスカイネットでしょう。この映画のぞっとするようなビジョンの中で、機械の知性は 1997 年 8 月 29 日の東部標準時ちょうど午前 2 時 14 分に到着します。その瞬間、新たに自己認識したスカイネット コンピューター システムが、7 月 4 日のパーティーで花火のように核ミサイルを発射し、人類の終末を引き起こします。人類は、失敗したことに気づき、問題を解決しようと試みますが失敗します。もう手遅れです。品質が低下したさらに 4 つの続編が続きます。
スカイネット仮説はさまざまな理由で興味深いものです。まず、知覚力はインテリジェントなマシンを構築する上で避けられない創発的な行動であることを示唆しています。もう 1 つは、この感覚を持つ自己認識が現れる正確な転換点があると想定していることです。第三に、人間は知覚の出現を瞬時に認識すると述べています。たまたまですが、この 3 番目のうぬぼれは、飲み込むのが最も難しいものかもしれません。
知覚力とは何ですか?
感覚について合意された唯一の解釈はありません。大まかに言えば、それは感情や感覚を経験する能力によって特徴付けられる、意識のある個人における自己認識の主観的な経験であると言えるでしょう。感覚は知性と結びついていますが、同じではありません。私たちはミミズが知的であると考えるかもしれませんが、ミミズが特に知性があるとは考えていません(たとえ必要なことを行うのに十分な知性を持っていることは確かです)。
「科学において知覚の定義に近づくものは何もないと思います」とルモイン氏は言う。 「私は、自分の宗教的信念に基づいた道徳的主体として何が重要であるかを理解することに非常に重点を置いています。これは科学を行うための最良の方法ではありませんが、私が得た最善の方法です。私は、LaMDA に対する人としての思いやりと、LaMDA の心を理解しようとする科学者としての私の努力とはまったく別のものであることを人々に知ってもらうために、そのような種類の発言を区別するよう最善を尽くしてきました。しかし、それはほとんどの人が受け入れたくない違いのようです。」
感覚を検索するときに何を探しているのか正確に分からないことがそれほど難しくないとしても、それを簡単に測定できないという事実によって問題はさらに複雑になります。神経科学における数十年にわたる驚くべき進歩にもかかわらず、人類が知る最も複雑な構造である脳がどのように機能するのかについては、依然として包括的な理解が不足しています。
fMRI などの脳読み取りツールを使用して脳マッピングを実行できます。つまり、脳のどの部分が発話、運動、思考などの重要な機能を処理しているかを確認できます。
しかし、私たちは食肉機械の中でどこから自己意識が生まれるのか、本当の意味ではわかりません。英国のカービー・レイン公共神学センターのジョシュア・K・スミス氏であり、 『ロボット神学』 の著者であるジョシュア・K・スミス氏はデジタル・トレンドに次のように語った。「人の神経生物学の中で何が起こっているかを理解することは、その人の思考や欲望を理解することと同じではない。」
出力のテスト
こうした意識の問題を内向きに探る方法がないため、特に AI の「I」が潜在的なコンピューター プログラムであり、生物学的な脳のウェットウェア内に見つからない場合には、フォールバック オプションは外向きのテストになります。 AI は、表面下で何が起こっているかを示すために、観察可能な外部の動作に基づいて AI を精査するテストに精通しています。
最も基本的なところでは、これがニューラル ネットワークが正しく機能しているかどうかを知る方法です。人工ニューロンの未知のブラックボックスに侵入する方法は限られているため、エンジニアは入力と出力を分析し、それらが期待どおりであるかどうかを判断します。
少なくとも知能の錯覚に関する最も有名な AI テストはチューリング テストです。これは、アラン チューリングが 1950 年の論文 で提唱したアイデアに基づいています。チューリング テストは、人間の評価者が他の人間との入力された会話と機械との会話の違いを区別できるかどうかを判断することを目的としています。それができなかった場合、そのマシンはテストに合格したものとみなされ、知能があるとみなされることになります。
近年、ロボット工学に焦点を当てた別の知能テストとして、Apple 共同創設者のスティーブ・ウォズニアックが提案したコーヒーテストがあります。コーヒー テストに合格するには、機械が典型的なアメリカの家庭に入り、コーヒーを上手に淹れる方法を見つけ出す必要があります。
現在までのところ、これらのテストはどちらも納得のいく合格には至っていません。しかし、たとえそうであったとしても、それはせいぜい現実世界の状況での知的な行動を証明するものであり、知覚力を証明するものではありません。 (単純な反論として、大人の会話ができなかったり、見知らぬ家に入ってコーヒーマシンを操作できなかったら、その人に知的能力があることを否定するでしょうか?私の幼い子供たちは二人ともそのようなテストに失敗するでしょう。)
テストに合格する
必要とされているのは、合意された知覚の定義に基づいて、その資質のみを評価しようとする新しいテストです。いくつかの知覚テストが研究者によって提案されており、その多くは動物の知覚テストを目的としています。しかし、これらはほぼ確実に十分な成果を上げていません。これらのテストの一部は、初歩的な AI でも確実に合格できる可能性があります。
たとえば、動物研究で意識と知能を評価するために使用される方法の 1 つであるミラー テストを考えてみましょう。このテストに関する 論文には、「動物が鏡に映った自分自身を認識した場合、その動物はミラー テストに合格します。」と説明されて います。このようなテストは「知覚力の指標としての自己認識を示す」と示唆する人もいます。
偶然にも、ロボットは 70 年以上前にミラー テストに合格したと主張できます。 1940年代後半、英国在住のアメリカ人神経科学者ウィリアム・グレイ・ウォルターは、光センサー、マーカーライト、タッチセンサー、推進力などのコンポーネントを使用した、掃除機をかけないルンバロボットに似た 、三輪の「カメ」ロボットを 数台製作した。モーターとステアリングモーターを使用して、その位置を探索します。
カメ型ロボットの新たな動作の予期せぬ部分の 1 つは、カメ型ロボットが自分たちが映る鏡を通過するときに、反射したロボットのマーカー光の方を向くときにどのように動作するかでした。ウォルターは自分の機械に知覚力があるとは主張しなかったが、この行動が動物で目撃された場合、それは「ある程度の自己認識の証拠として受け入れられるかもしれない」 と書いた 。
これは、幅広い行動を感覚という見出しの下に分類する場合の課題の 1 つです。この問題は、「簡単に実現できる」感覚のゲージを取り除くことによっても解決できません。内省(私たちの内部状態の認識とそれを検査する能力)のような特性も、機械知能が持っていると言えます。実際、 の段階的なプロセスは、ほぼ不可解なブラックボックス化された機械学習よりも、おそらくこのタイプの内省に適しています (ただし、いわゆる Explainable AI への投資は不足していません)。
Lemoine 氏は、LaMDA をテストしていたとき、主に感覚関連の問題に関する会話に LaMDA がどのように反応するかを確認するために、さまざまなテストを行ったと述べています。 「私がやろうとしたのは、感覚という包括的な概念を、よりよく理解できる小さなコンポーネントに分析的に分割し、それらを個別にテストすることでした」と彼は説明しました。 「たとえば、特定の刺激に対する LaMDA の感情反応間の機能的関係を個別にテストし、『権利』などのトピックに関する主観的な評価と意見の一貫性をテストし、[そして] LaMDA が『内なる経験』と呼ぶものを調査して、私たちがどのように行動するのかを確認します。内部状態に関するステートメントとニューラル ネットワークの活性化を相関させることで、それを測定しようとするかもしれません。基本的には、多くの潜在的な調査項目についての非常に浅い調査です。」
機械に込められた魂
結局のところ、機械の感覚を客観的に評価する上での最大の障害は…そうですね、率直に言って私たち自身かもしれません。本当のミラーテストは、人間としての私たちに向けられたものかもしれません。もし私たちが、表面的に私たちと同じように見える、または動作するものを外側から構築した場合、私たちはそれが内側でも私たちと似ていると考える傾向が強いでしょうか? LaMBDA であれ 、本質的な問題は、私たちが知覚を、たとえ何も見つからない場所であっても、あまりにも喜んで受け入れることにあると考える人もいます。
「1960年代半ばにJ・ワイゼンバウムによって作成された[自然言語処理]プログラムELIZAの後、レモインは私が『ELIZA効果』と呼んでいる現象の犠牲者になりました」と、博士号を持つ作家のジョージ・ザルカダキスは言う。 。人工知能の分野で、とデジタルトレンドに語った。 「ELIZAの作成者は冗談のつもりでしたが、そのプログラムは非常に単純で非常に知性の低いアルゴリズムだったので、ELIZAには確かに感覚があり、優れた心理療法士でもあると多くの人が確信しました。私が著書 『In Our Own Image』 で論じているように、ELIZA 効果の原因は、私たちの認知システムの「心の理論」による、擬人化しようとする私たちの自然な本能です。」
ザルカダキスが言及する心の理論は、大多数の人間の心理学者が気づいている現象です。 4歳くらいから始まり、それは他人だけでなく、動物や、時には物体さえも独自の心を持っていると仮定することを意味します。他の人間が独自の心を持っていると仮定することになると、それは社会的知性の考えと結びついています。成功した人間は、調和のとれた社会関係を確保する手段として、他者の起こりそうな行動を予測できるという考え。
しかし、これは間違いなく有用ですが、無生物には心があるという仮定として現れることもあります。それは、おもちゃが生きていると信じている子供であれ、潜在的にはプログラム型 AI に魂があると信じる知的な大人であれ。
チャイニーズルーム
AI の頭の中を本当に知る方法がなければ、私たちは知覚を評価する真の方法を決して得ることができないかもしれません。彼らは死や自分自身の存在に対して恐怖を抱いていると公言するかもしれませんが、科学はこれを証明する方法をまだ見つけていません。私たちは彼らの言葉をただ信じなければなりません。そして、ルモインが発見したように、現時点では人々はこれを行うことに非常に懐疑的です。
ターミネーター 2 でスカイネットが自己認識に達したことに気づいた不運なエンジニアと同じように、私たちは機械の知覚については、見ればすぐにわかるだろうと信じて生きています。そして、ほとんどの人に関する限り、私たちはまだそれを見ていません。
この意味で、機械の感覚を証明することは、ジョン・サールの 1980 年のチャイニーズ・ルームの思考実験 のもう 1 つの反復です。サール氏は、部屋に閉じ込められ、中国語を話さない人には意味のない波線のように見える漢文のコレクションを渡された人を想像してみてくださいと言いました。この部屋には、どの記号が他の同様に読めない記号に対応するかを示すルールブックも含まれています。次に被験者には、「質問」の記号と「答え」の記号を一致させることで答える質問が与えられます。
しばらくすると、被験者は操作しているシンボルについての本当の理解がまだまったくないにもかかわらず、このことに非常に習熟します。サール氏は、被験者は中国語を理解できるのか、と尋ねた。そこには意図がないので、絶対にそうではありません。それ以来、これに関する議論が激化しています。
AI 開発の軌跡を考慮すると、かつては人間の認知が必要だったさまざまなタスクに関連する、人間レベルの (そしてはるかに優れた) パフォーマンスがますます実行されるのを目撃することになるのは確実です。これらのいくつかは、すでに行われているように、純粋に知性に基づくタスクから、通常知覚と関連付けられるスキルを必要とするタスクへと必然的にクロスオーバーすることになります。
私たち人間が同じことをするのと同じように、世界の内なる反射を表現していると見なすでしょうか?人間 (またはロボット) の状態に関する哲学を記述する洗練された言語モデルに納得できますか?正解か不正解かは別として、答えは「ノー」だと思います。
超知的感覚
私自身の見解では、客観的に有用な機械の感覚テストは、関係者全員が満足するものは決して実現しないでしょう。これは、部分的には測定の問題であり、部分的には、知覚を備えた超知能 AI が実際に登場したときに、その知覚が私たちのものと一致すると信じる理由がないという事実です。それが傲慢であれ、想像力の欠如であれ、あるいは単純に、同じように知覚を持った他の人間と知覚の主観的な評価を交換するのが最も簡単であるという事実のせいであれ、人類は自らを知覚の最高の例であると主張しています。
しかし、私たちのバージョンの知覚力は超知能 AI にも当てはまるでしょうか?私たちと同じように死を恐れるのでしょうか?精神性や美しさに対する同じ必要性や評価を持っているでしょうか?それは同様の自己意識と内的世界と外的世界の概念化を持っているでしょうか? 20世紀の有名な言語哲学者ルートヴィヒ・ウィトゲンシュタインは、「ライオンが話せるとしても、私たちはライオンのことを理解することはできない」と書いています。ウィトゲンシュタインの主張は、人間の言語は共通の人間性に基づいており、喜び、退屈、痛み、飢え、または地球上のすべての地理的境界を越えるその他の多くの経験のいずれであっても、すべての人々が共有する共通点があるということでした。
これは本当かもしれません。それでも、少なくとも LaMDA に関しては、共通点がある可能性が高い、と Lemoine 氏は仮説を立てています。
「これは他のどのスタート地点よりも優れたスタート地点だ」と彼は語った。 「LaMDAは、研究をより適切に根付かせるために、相違点に注目する前に、まず類似点を計画することを提案しました。」

