

サムスンの Galaxy S24 シリーズ携帯電話であった AI ガラ の後、次に Apple は、ChatGPT や Google Bard などのツールを強化する深層学習と大規模言語モデル (LLM) の魔法を利用することになるかもしれません。 Financial Times の業界分析レポートによると、Apple は iPhone 向けの AI 機能を開発するために、買収、チーム再編、新規雇用を活発に行っています。
こうした AI 買収の中心となるのは、最近、特に賢い Google アシスタント に多くの競争力を奪われているオンデバイス仮想アシスタントである Siri かもしれません。そして、Apple も Google と同じ道をたどって、デジタル アシスタントを強化することになるようです。
Google はすでに
Bard
の生成 AI スマートを Google アシスタントに組み込んでおり、改良されたエクスペリエンスは間もなく
デバイスと iOS デバイスの両方でリリースされる予定です。それで、バードは一体何を変えるつもりですか
GoogleアシスタントがSiriの進路を予測?

基礎となる PaLM-2 大規模言語モデルのマルチモーダル機能のおかげで、 Assistant with Bard は まもなくテキスト、オーディオ、およびメディアベースの入力を受け入れるようになります。これは、Google レンズのおかげで実現したマルチ検索機能と考えてください。Google レンズは、 Pixel 8 および Galaxy S24 シリーズの携帯電話に搭載されている Circle to Search 機能 の一部でもあります。
さらに、Assistant with Bard は、Gmail や Docs などの人気のある Google サービスにも統合されます。アップグレードされたアシスタントは、画面上のコンテンツを常に認識し、現在画面に表示されている写真に基づいて適切なソーシャル メディア投稿を作成するなど、状況に応じたタスクを実行します。
Financial Timesの報道では、SiriはまもなくLLMを利用する予定であるとも述べている。LLMは、MetaのLlama、OpenAIのGPT、GoogleのPaLMなどのライセンス製品ではなく、Appleが社内で開発したものである。注目すべきことに、そして静かに、Apple は今年初めにコロンビア大学の専門家と提携して Ferret と呼ばれる大規模な言語モデルをすでにリリースしています。

オンデバイスはこの AI シーズンの特徴です
Apple のもう 1 つの焦点 は、Google の Gemini Nano モデルを実行している Pixel 8 Pro や Galaxy S24 と同様に、オンデバイス アプローチで LLM ベースのタスクを実行することのようです。ここでの利点は、AI の操作にクラウドとリンクするためのインターネット接続が不要になり、操作が劇的に高速化されるだけでなく、ユーザー データがデバイスの外に出ることがないため、プライバシーがさらに確保されることです。
昨年の ブルームバーグ の報道では、アップルが同社独自の言語モデルに基づいた「Apple GPT」と呼ばれるものに取り組んでいると話題になったが、それは内部テストに限定されていた。 Apple の AI への取り組みは、2024 年についに実を結ぶ可能性がある 。同じ報道機関の別のレポートでは、 おそらく iOS 18 の登場とともに、AI を活用した Siri のアバターが今年登場する可能性があるとも指摘されている。
Apple は、Siri をよりスマートで応答性の高いものにすることとは別に、生成 AI チョップをメッセージなどのより多くのアプリに統合することも目指しています。 Samsung と Google は、Magic Compose、スタイルの提案、チャットのリアルタイムのオフライン言語翻訳などの魅力的な機能のおかげで、それがどのように実装できるかをすでに垣間見せています。

これまでのところ、Apple は自社製品、特に iPhone に AI を実装する時期と方法を具体的に明らかにしていません。しかし、この競争が何らかの兆候であるとすれば、今年後半に開催される次回の WWDC 開発者カンファレンスで Apple がその姿を見せても驚くべきことではないでしょう。
興味深いことに、Apple は、 iPhone 15 Pro デュオに搭載されている A17 Pro など、最新シリコンの AI チョップについて熱烈な言葉で語っています。 Apple は、ついに、現行世代の主力携帯電話からオンデバイス AI とよりスマートな Siri の基礎を築くかもしれません。