検索は Google 最大の製品であり、I/O では、同社はそのサービスを新たなレベルに押し上げています。 以前、Google は、たとえばオブジェクトの写真を撮り、その写真に基づいて検索クエリを作成できる マルチサーチ を導入しました。今回同社は、追加の「near me」変数とシーン探索機能を備えたマルチサーチを今年後半に展開すると発表した。
Multisearch の 「近く」変数を使用すると、食べ物の皿を検索し、その名前を調べ、近くでそれを食べることができる場所を見つけることができます。 Shazam に似ていますが、検索クエリ用です。
基本的には写真と質問を同時に検索できます。 この機能は料理の写真などあらゆるものに適用され、「近く」という項目を追加すると、その料理を提供するレストランが表示されます。マップの投稿者からの写真をスキャンして、検索した写真と一致します。この機能は、今年後半に英語およびその他の言語向けに段階的に展開される予定です。
今後追加されるもう 1 つの検索機能は 、カメラをパンして、より広いシーンから複数のオブジェクトに関する洞察を即座に収集できるシーン探索です。カメラで棚全体を撮影すると、役立つ情報がオブジェクトに重ねて表示されます。
この機能は、 コンピューター ビジョンを使用して、シーンを構成する複数のフレームとその中のすべてのオブジェクトを接続します。ナレッジ グラフには、最も役立つ結果が表示されます。 Googleは、チョコレートの棚をスキャンして、どのチョコレートバーがナッツフリーであるかについての情報を得ることができると引用した。これにより、 目の前のシーン全体を AR のようなオーバーレイで表示することができます。