人工知能の未来は、企業が特定のニーズに基づいてカスタマイズできる、すぐに使えるエクスペリエンスとして急速に実現されつつあります。 質問と回答をはるかに超えた機能を 備えた最適化された チャット エクスペリエンスや、数カ月のコーディング開発なしで AI アプリケーションを作成できるツールは、新しい プラグイン や 拡張機能の 導入以外の次のステップとなる可能性があります。
情報の ChatGPT や画像の Midjourney など、より一般的なツールは、最終製品を作成するために公開データと一貫した開発者のコーディングに依存しています。一方、アマゾン ウェブ サービス (AWS) は、生産性が高く操作が簡単なだけでなく、ツールを導入する企業にとってデータを固有にし、安全なデータを提供する生成 AI の実現に取り組んでいます。
このブランドは、Amazon Bedrock などのプラットフォームを使用して、新しい AI 市場に独自のスペースを切り開いています。同社の主力ハブは 4 月から利用可能になり、ファウンデーション モデル (FM) と呼ばれるものがいくつか収容されています。 AWS は最初にこれらの基本レベルの API をトレーニングし、組織が望む標準的な AI 機能を提供します。組織は好みの FM を組み合わせて、独自のニーズに合わせて独自のデータを追加してアプリの開発を続けることができます。
「プロバイダーとして、私たちは基本的にこれらのモデルを大規模なデータ コーパスでトレーニングします。モデルがトレーニングされると、カットオフポイントが存在します。たとえば、2023 年 1 月の場合、モデルにはそれ以降の情報はありませんが、企業は非公開のデータを必要としています」と Amazon Bedrock 製品およびエンジニアリングのゼネラルマネージャー、Atul Deo 氏は Digital Trends に語った。
各企業とその企業が使用する基盤モデルは異なるため、結果として得られる各アプリケーションは、組織がモデルに供給する情報に基づいて独自のものになります。 FM はすでに基本テンプレートです。その後、オープンソース情報を使用してモデルを設定すると、企業間でアプリケーションが反復的に使用される可能性があります。 AWS の戦略により、企業は独自のデータを導入してアプリを独自のものにする機会が得られます。
「また、モデルにいくつかの質問をして答えを得られるようにしたいと考えていますが、一部の古い公開データに関する質問にしか答えられない場合、それはあまり役に立ちません。関連する情報をモデルに渡し、関連する答えをリアルタイムで取得できるようにしたいと考えています。それは、それが解決する核心的な問題の一つです」とデオ氏は付け加えた。
基礎モデル
Amazon Bedrock でサポートされているいくつかの基盤モデルには、Amazon Titan のほか、Anthropic、AI21Labs、StabilityAI というプロバイダーのモデルが含まれており、それぞれがテキスト分析、画像生成、多言語生成などの AI 空間内の重要な機能に取り組んでいます。 Bedrock は、AWS が Amazon SageMaker JumpStart プラットフォーム上ですでに開発した事前トレーニング済みモデルの継続です。このプラットフォームは、 Meta AI 、Hugging Face、LightOn、Databricks、 Alexa を含む多くのパブリック FM の 1 階にあります。
AWS は最近、ニューヨーク市で 7 月下旬に開催された AWS サミットで、ブランド Cohere の新しい Bedrock モデルも発表しました。これらのモデルには、ビジネス アプリケーションの要約、コピーライティング、ダイアログ、テキスト抽出、質問応答を実行できる Command と、クラスター検索を完了し、100 以上の言語でタスクを分類できる Embed が含まれます。
AWS 機械学習担当副社長のスワミ・シバスブラマニアン氏はサミットの基調講演で、FM は低コスト、低レイテンシで、プライベートにカスタマイズすることを目的としており、データは暗号化されており、AWS が開発したオリジナルのベースモデルのトレーニングには使用されないと述べた。
このブランドは、Amazon Bedrock を使用する多くの企業とコラボレーションしています。これには、Chegg、Lonely Planet、Cimpress、Philips、IBM、Nexxiot、Neiman Marcus、Ryanair、Hellmann、WPS Office、Twilio、Bridgewater & Associates、Showpad、Coda、Booking.com が含まれます。 。
Amazon Bedrock のエージェント
AWS はサミットで、基礎モデルの機能を拡張する補助ツールである Agents for Amazon Bedrock も導入しました。エージェントは、さまざまなユースケースに対応する企業を対象としており、標準的なチャットボットの質問と回答を超えてユーザーを支援する拡張チャット エクスペリエンスです。微調整された情報に基づいてタスクをプロアクティブに実行できます。
AWS は、商業分野でどのようにうまく機能するかを示す例を示しました。小売店の顧客が靴を交換したいと考えているとします。エージェントと対話しながら、ユーザーは靴のサイズ 8 からサイズ 9 への交換を希望していることを詳細に伝えることができます。エージェントは注文 ID を尋ねます。入力すると、エージェントは舞台裏で小売在庫にアクセスし、顧客に希望のサイズの在庫があることを伝え、交換を続行するかどうかを尋ねることができます。ユーザーが「はい」と答えると、エージェントは注文が更新されたことを確認します。
「伝統的にこれを行うには大変な作業が必要でした。古いチャットボットは非常に厳格でした。あちこちで何かを言ってもうまくいかない場合は、人間のエージェントと話させてくださいと言うでしょう」とデオ氏は言いました。 「大規模な言語モデルは人間がどのように話すのかをより深く理解できるようになったので、行動を起こしたり、企業内の独自データを活用したりできるようになりました。」
同ブランドはまた、保険会社が代理店を利用して保険請求を提出および整理する方法の例も示しました。エージェントは、「私の代わりに有給休暇を申請してもらえますか?」など、現在一般的に知られているスタイルの AI プロンプトを使用して、有給休暇に関する会社のポリシーを調べたり、積極的に休暇のスケジュールを設定したりするなどのタスクで 企業スタッフを支援することもできます 。
エージェントは特に、基礎モデルによってユーザーが AI の最も重要な側面に集中できるようにする方法を把握します。企業は、一度に 1 つの言語モデルの開発とトレーニングに何ヶ月も費やす必要がなく、エージェント内の組織にとって重要な情報を調整して、情報を最新の状態に保つことに多くの時間を費やすことができます。
「独自のデータを使用してモデルを微調整できます。リクエストが行われると、最新かつ最高のものが必要になります」とデオ氏は言いました。
多くの企業が全体として、よりビジネス中心の AI 戦略に移行し続ける中、AWS の目標は、ブランドや組織が AI 統合アプリやサービスをより早く立ち上げて稼働できるよう支援することであるように見えます。アプリの開発時間が短縮されれば、新しい AI アプリが市場に大量に登場する可能性がありますが、一般的に使用される多くのツールが待望のアップデートを受ける可能性もあります。

