Google、Openai、Roblox、Discordが作成する団結した軍隊を作成しています子どものオンラインセキュリティを改善することを目的とした非営利組織、Roost(堅牢なオープンオンライン安全ツール)。主な目的は、基本的なセキュリティ技術を企業にとってよりアクセスしやすくし、無料の人工知能ツールを無料で提供して、未成年者(CSAM)の性的虐待の資料を特定、調べ、報告することです。
このイニシアチブは、元Google CEOでルーストの設立パートナーであるEric Schmidtが述べたように、オンライン環境に対する生成AISの影響に関する懸念の高まりと、「子供のオンライン安全性の革新を加速する」ことから生まれました。 CSAM検出ツールの詳細はまだ不足していますが、IAの優れた言語モデルを使用し、これらのコンテンツの管理のために存在するオプションを「統合」することが知られています。
あなたは何をねぐらにしたいですか
Roostの発表は、ソーシャルメディアやオンラインプラットフォームでの子どもの安全性に関する強力な議論の瞬間にあり、企業はより制限的な立法介入を防ぐために自己調整しようとしています。国立行方不明および搾取された子供(NCMEC)が記録しました2022年から2023年の間に未成年者の搾取の疑いが12%増加する。
特に、RobloxとDiscordは、未成年者のプラットフォームでの安全の管理に対する批判の対象となっています。 Robloxは、それを使用している米国の子供の半数以上がありましたが、不適切なコンテンツへの露出。両社は、大人が監督なしで子供にメッセージを送信することを妨げない2022年の原因で言及されました。
Roostの設立メンバーは、資金提供を提供し、プロジェクトにツールやスキルを提供しています。 Roostは、IA Basicモデルの主要な開発者と協力して、コンテンツセーフガードの「実践コミュニティ」を構築します。これには、検証済みのトレーニングデータセットの供給と安全性のギャップの識別が含まれます。
Roostのコラボレーションとオープンソースのアプローチは、イノベーションを促進し、安全インフラストラクチャをより透明性が高く、アクセスしやすく包括的にすることを目的としています。最終目標は、未成年者の保護から始めて、すべての人のためのより安全なインターネットを作成することです。このイニシアチブは、「最もアクセスしやすい既存のツール」を作成し、統一されたソリューションでのさまざまな検出およびレポートテクノロジーを、他の企業向けの実装が容易にします。
たとえば、Discordは彼のプロジェクトに貢献してLantern Cross -Platform情報を共有し、Robloxはオーディオクリップで不適切なコンテンツを検出するためのIAモデルを提供できます。
どう思いますか?同様の自己調節イニシアチブが成功する可能性がありますか、それとも立法介入が必要ですか?以下のコメントで教えてください。