Appleは、IAをトレーニングするために、Look Around Mapsの画像を使用します

Appleは、Appleマップの画像のコレクションに関するポリシーを更新し、今月から、人工知能モデルをトレーニングするために、周囲に見られる機能にキャプチャされたショットを使用することを発表しました。周りを見て、Google Streetビューに相当するApple、2019年に導入され、ユーザーが道路の見通しから都市や街を探索できるようになりました。

9to5macによって識別された公式の文書で、Appleはそれを指定します。顔とプレートを暗くするためのアップルマップとアルゴリズム「他の製品やサービスを開発および改善するために、2025年3月から実施された調査中に収集されたぼやけた画像も使用します」。これらには、画像の認識、作成、改善に関連する生成モデルが含まれます。

マップはiPhoneです

周囲の視聴の画像はプライバシーを保証するために扱われていますが、顔とプレートの自動黒化により - Appleはデータセットを悪用する予定です自分のIAのスキルを強化するため。現時点では、画像コレクション専用のAppleページでは、ユーザーが地理的領域と検出チームが運用可能な期間を含む詳細なカレンダーを参照できます。

Appleは、Apple Intelligenceの発売のおかげで、ここ数ヶ月でいくつかの機能を製品に導入しました。のようなツール、テキストプロンプト、または写真のクリーンアップ機能を介して画像を生成できるようにします。ショットから不要な要素を削除することができます、人工知能を使用するためのますます方向の生態系の一部です。

iPhone 16

生成モデルをトレーニングするための道路画像の使用新しいクリエイティブツールと改善された機能への道を開く、画像の変更中のシーンまたはインテリジェントな提案のより正確な認識として。それにもかかわらず、Appleは、これらの画像がどのように採用されるか、または報道機関からの詳細情報のリクエストに応答するかをまだ詳細に明らかにしていません。