Googleはの実装を発表しましたiPhone用のChromeおよびGoogleアプリのレンズ用の新しい研究ジェスチャー。この新しい機能により、スクリーンショットを実行したり、新しいカードを開いたりすることなく、目的の要素を強調するだけで、画面上のものを探すことができます。
レンズの新しいジェスチャーは、GoogleアプリとiOS用のChromeブラウザの両方で利用できます。ユーザーは、アプリ内の3つのポイントメニューを開き、「Googleレンズを使用した検索画面」を選択することにより、機能にアクセスできます。関数がアクティブになったら、描画、強調表示、触れなどのジェスチャーを使用して、検索する要素を選択できます。
iPhoneごとに検索する国連サークル
新しい機能は、iPhoneではサポートされていないAndroidの「Circle to Search」と同様の研究体験を提供します。主な違いは、Androidバージョンを電話全体で使用できるのに対し、iOSバージョンはGoogleおよびChromeアプリに限定されていることです。
レンズの新しいジェスチャーは、テキスト、画像、ビデオで機能します。明らかな使用のケースは、好きな製品の画像に基づいて購入結果を見つけることです。ただし、レンズは単語や文を定義することもできます。場所、植物、動物を特定します。そして、Google検索ができるほぼすべてのリクエストを実行します。
Googleはまた、パノラマIAがレンズの複数の研究結果に拡大していることを発表しました。これは、画像検索ツールを使用するときにAIからの要約と「逆流」の合計を表示することがあることを意味します。
iOSのGoogleレンズのこの新機能についてどう思いますか?コメントでお知らせください!その間。