AppleはApple Intelligenceの機能を拡大しようとしています前世代のデバイスにも。 Daring Fireballによって報告された最新の噂によると、アップデートiPhone 15 Proおよび15 Pro Maxで、ユーザーに人工知能に基づいた強力な視覚分析ツールを提供します。
関数、新しいiPhone16、16 Proおよび16eですでに入手可能、カメラでフレーム化されたオブジェクトをリアルタイムで分析できます。ただし、iPhone 16シリーズは専用ボタンを統合して視覚インテリジェンスをアクティブにしますが、iPhone 15 Proはアクションボタンまたはコントロールセンターを介してショートカットに依存する必要があります。
ビジュアルインテリジェンスはどのように機能しますか?
Visual IntelligenceはGoogleレンズに対するAppleの反応であり、人工知能を活用してオブジェクトを認識し、情報を抽出し、テキストや画像とインテリジェントにやり取りすることができます。私たちが見つける主な機能の中で:
- リアルタイム分析:オブジェクトにカメラに焦点を当てることにより、IAは製品、芸術作品、植物、動物などを識別できます。
- GoogleおよびChatGptとの統合:ユーザーは、Googleイメージ検索で同様の画像を直接探すか、ChatGPTを介して詳細情報を取得できます。
- テキストとの相互作用:カメラに囲まれたテキストを翻訳したり、声を出したり、要約したりすることができます。
- 情報を配置します:商業活動をフレーミングすることにより、営業時間、メニュー、サービスなどの詳細を入手できます。
Appleは、iOSバージョンがiPhone 15 Proに視覚インテリジェンスを導入することを公式に確認していませんが、iOS 18.4が最も可能性の高い候補です。 Daring FireballのJohn Gruberによると、iOS 18.4のベータ版「ある瞬間から別の瞬間」をリリースすることができます、今後数週間で安定したバージョンが続きます。
iOS 18.4が来る:何を期待するのか?
確認された場合、この更新iPhone 15 Pro間のギャップが削減されますまた、2023年モデルのユーザーにiPhone 16に進む理由が1つ少ないIPhoneの新世代。最も焦りのユーザーは、発生するリスクがある場合でも、iOSのベータプログラムを通じてプレビュー機能を試すことができます。バグと安定性の問題。
Apple Intelligenceの拡大により、Cupertino Companyは明らかに人工知能に焦点を当てていますデバイスの重要な要素として。視覚インテリジェンスは、他のAIベースの機能とともに、ユーザーがiPhoneと対話する方法の重要な進化を表しています。