「この新しいテクノロジーはすべてを変えるでしょう!」という言葉を聞いたことがある人はやめてください。
これは、アナリストやテクノロジー企業幹部によって、その時々のバズワードが組み込まれて際限なく繰り返されるフレーズです。そして 2023 年、そのバズワードは AI になります。 ChatGPT は世界を席巻し、Microsoft は AI チャットボットを中心に Edge ブラウザを再設計し 、Google は AI モデルを検索に深く統合することを急いでいます。
AI が単なる流行だと思っているとしても、私はあなたを責めません。多くのテクノロジーが革命ではないのに、あらゆるテクノロジーが何らかの革命であると主張することに対する懐疑論 (そして率直に言って皮肉) は私も理解しています。しかし、拡張現実、 、NFT が相対的に目立たなくなったところで、AI は良くも悪くもどこにも行きません。
これは新しいことではありません
ここで明確にしておきたいのは、AI が日常生活に影響を与えるのは新しいことではありません。テクノロジー企業はついにそれを自慢するようになりました。何年もの間、舞台裏で使用するものに電力を供給してきました。
たとえば、Google 検索を利用したことがある人 (つまり、誰もが) は、たった 1 つのクエリで十数個以上の AI モデルが動作していることを経験したことがあります。 2020 年、 Google は AI を活用してスペルを修正し、記事内の重要な箇所を特定し、YouTube 動画からハイライトを生成するアップデートを導入しました 。
それはGoogleだけではありません。 Netflix と Amazon は AI を使用して視聴やショッピングの推奨事項を生成します。数十の AI サポート チャット プログラムが、Target から地域のインターネット プロバイダーまでの顧客サービスを強化します。 Google マップなどのナビゲーション プログラムは、AI を使用して 障害物、速度取り締まり、交通渋滞を識別します。
これらは、高レベルの例のほんの一部です。以前は静的アルゴリズムで実行できていたほとんどのこと (「これ」なら「あれ」) が、現在では AI で実行できるようになり、ほとんどの場合、より良い結果が得られます。 (そして、人間の設計者よりも優れた仕事をしています)。
Google や Microsoft などの企業は、数年間自社のサービスを支えてきた AI のカーテンをただ引いているだけです。それが、AI と、私たちが毎年目にする際限なく続くテクノロジーの流行との決定的な違いです。
時間が経てば経つほど良くなる
AI の持続力は、私たち全員がすでに AI を使用しているという事実にかかっていますが、ここには別の重要な要素があります。 AI はあなたからの投資を必要としません。それには絶対に莫大な資金と権力が必要だが、その負担はエンドユーザーではなく、AI軍拡競争に巻き込まれている数十の企業に課せられる。
それは根本的な違いです。メタバースの誇大宣伝は、参加するには メタクエストプロ のような高価なヘッドセットを購入する必要があることを伝え、NFTはコードのために冷たい現金を吐き出すことを望んでいます。 AI は、あなたがすでに実行しているタスクをより簡単かつ効率的にしたいかどうかを尋ねるだけです。それはまったく違います。
AI には、この新興技術 (間もなく消滅する) のような成長の痛みもありません。これには独自の問題があり、それについては次に詳しく説明しますが、生成 AI の基礎はすでにゴールデンタイムに対応できるレベルまで洗練されています。実用的な用途があまりない、高価で中途半端なテクノロジーに悩まされる必要はありません。
それには約束も含まれています。現在検索エンジンや Web ブラウザーに搭載されているような AI モデルは強化学習を使用します。彼らは物事を間違うこともありますが、それらの間違いはすべて正のフィードバック ループに組み込まれ、時間の経過とともに AI が改善されます。繰り返しになりますが、AI が魔法のように良くなると信じることに対する懐疑的な気持ちは理解していますが、私はテクノロジー企業の CEO がバズワードで世界を変えると言うよりも、その論理をはるかに信頼しています。
警告サイン
ねじ曲げないでください。これは AI を全面的に支持するものではありません。 AI は多くの良い面をもたらしますが、同時にいくつかの厳しい現実ももたらします。
まず最も明白なことは、AI は多くの場合間違っているということです。 Google の Bard AI の最初のデモでは、 最初の検索結果によって反証される答えが 示されました。 Microsoft の ChatGPT を利用した Bing は、複雑で技術的な質問が AI を混乱させることが多く、その結果、検索エンジンの最初の結果がどの Web サイトであってもコピー&ペースト作業が行われることを証明しました。
これだけでも十分おとなしいように思えますが、常に学習する機械は、オンラインですでに発生している問題を永続させ、それらの問題は正当ではないという理解を深めてしまう可能性があります。たとえば、 グラフィックス カード とプロセッサのブランドである AMD は最近、決算発表で チップの「出荷不足」を 発表し、多くのメディアが当初同社が価格操作を行っていると報じました。そうではありません。この用語は単に AMD が小売業者に出荷している製品の数を指しており、需要が低いことを示しています。 AIはその文脈を理解できるでしょうか?それとも、通常は信頼できる情報源がすでに誤って繰り返しているのと同じ誤解を抱えたまま実行されるのでしょうか?
これらの複雑なトピックをめぐる誤った情報の負のフィードバック ループや、これらの AI がどのようにして否定的な固定観念を強化するかを学習するのかを理解するのは難しくありません。 ジョンズ・ホプキンス大学の研究では、AI モデルにはしばしば人種差別的および性差別的な偏見が存在することが示されており 、研究では次のように述べられています。「固定観念、偏見、差別は、機械学習手法において広範囲に文書化されています。」
この種のバイアスから保護するための安全策が講じられていますが、それでもこれらのガードレールを回避して、その下で AI が何を信じているかを明らかにすることができます。こうした固定観念を永続させることを避けるため、例にはリンクしませんが、カリフォルニア大学バークレー校の認知コンピューター科学の教授兼研究者である スティーブン・ピアンタドシ氏は 、ほんの数か月前に、ChatGPT内で人種差別的で性差別的な反応を生み出す可能性のある6つの入力を明らかにしました。 — そして、どれも特に思いつくのが難しいものではありませんでした。
AI がこれらの面で服従するよう促される可能性があるのは事実ですが、まだそうなっていません。一方、Google と Microsoft は、競合する AI を最初にデビューさせるための軍拡競争に巻き込まれており、これらはすべて、AI モデルに長年にわたって存在してきたものと同じ基盤を担っています。たとえ保護があったとしても、これらのモデルが、当初から AI を通して見てきたのと同じ腐った核に劣化するかどうかではなく、いつ起こるかが問題です。
私はこのバイアスが意図的であると言っているわけではありませんし、Microsoft と Google は可能な限りそのバイアスを取り除くよう取り組んでいると確信しています。しかし、現在の AI の勢いは、こうした懸念を背景に追いやり、それがもたらす可能性のある影響を無視しています。結局のところ、AI 革命は目前に迫っており、別のテクノロジーの流行のようにすぐに忘れ去られることはありません。私の唯一の願いは、競争に対する終わりのない欲求が、責任の必要性を根こそぎにするのに十分ではないということです。