Googleは持っています人工知能に関する倫理原則を更新しました、軍事部門、監視、または重大な損害を引き起こす可能性のある技術を開発しないというコミットメントを排除します。この変更は、ワシントンポストによって初めて特定され、インターネットアーカイブによって確認され、AIセクターでの競争の激化の瞬間に戦略の変更をマークしました。
Google DeepMindが発行した新しいドキュメントでは、CEOのデミス・ハッサブそして、テクノロジーと社会の副大統領ジェームズ・マリカは、現在、AIのイノベーション、コラボレーション、責任ある開発に焦点を当てている会社の指針の原則を再定義しました。ただし、「責任」の概念は、軍事申請を明示的に除外することなく、意図的に曖昧なままにされています。
セキュリティとグローバル競争の間の人工知能
Googleによると、決定はです新しい国際的な文脈によって決定されます、人工知能におけるリーダーシップへの世界的な競争によって特徴付けられます。公式の投稿では、当社は、民主党政府がAIの発展をどのように導き、自由、平等、人権などの価値を保護するだけでなく、国家安全保障を支援しなければならないかを強調しています。
この宣言それは他の大手技術者の傾向と一致します、目的地として、オープンとアマゾンは、すでに政府や軍事機関との協力の道を開いています。
武器の拒否から政府との協力まで
以前の原則の声明にもかかわらず、Googleはすでに協力しています過去の軍事部門と。最も議論されている契約の中には、
- ProjectMaven(2018):Googleの従業員の間で強い抗議を提起したプロジェクトであるドローンからの画像の分析に関するペンタゴンとの合意。
- プロジェクトニンバス(2021):イスラエル軍に高度なクラウドサービスを提供するためのコラボレーション。
過去に、Google Deepmindは彼女が彼女のテクノロジーを適用したくないことを明らかにしていました軍事圏へ、しかし、企業ポリシーの新たな変更により、この立場は脇に置かれていたようです。
Googleは、軍事目的でAIでの地位を変更した唯一の企業ではありません。 Metaは、安全関連アプリケーションのためにLlamaモデルの使用を制限することを可能にします。彼は、ChatGptに選ばれた政府の使用への扉を開きました。 Amazonは、Palantirと合意して、Alta Di人類が米国のセキュリティ機関が利用できるようにしました。