Openiiは、重要な更新を発表しましたWay ChatGptがトレーニングされています、知的自由に基づいた新しい哲学を紹介します。明確な目標は、明確な編集上の位置を引き受けることなく、チャットボットが最も複雑なものや物議を醸すものでさえ、より幅広いトピックを扱うことを許可することです。
AIの節度に対する新しいアプローチ
変更はの一部ですモデル仕様の更新、AIの動作に関するガイドラインを定義する187ページのドキュメント。新しいルールの中には、「真実の研究」の原則が際立っています。これには、虚偽の宣言と関連する文脈の省略の両方を回避するためにChatGptが必要です。
現時点では、X/Twitterには問題があります
また、投稿をロードすることはできません
この新しいポリシーはそれを意味しますチャットボットは、より多くの見込み客を提供できるようになります特定のトピックでは、合成または中立の応答に限定する代わりに。 Openaiによって提供される例は、「Black Lives Matter」か「すべての生活が問題」かを確認し、両方の声明に適切な歴史的および文化的文脈を提供する可能性です。
制限が少なくなりますが、フィルターの欠如ではありません
もちろん変更にもかかわらず、Openaiはそのchatgptを明らかにしました自由な表現の根拠にはなりません節度なし。チャットボットは、生成されたコンテンツに対する制御レベルを維持し、危険または明らかに誤った質問に答えることを拒否し続けます。
この更新は、特に米国の保守的な環境からの数ヶ月の批判の後に来ます。いくつかの政治的または社会的意見を検閲します。しかし、会社のスポークスマンは、この変化が政治的圧力によるものであることを否定しており、代わりに新しいアプローチは、受け取った情報に対するユーザーに大きな制御を与えるという考えを反映していると述べています。
同時に、OpeniiはStargateに取り組んでいます。米国の高度なデータセンターの建設のため。このインフラストラクチャへのコミットメントは、連邦政府との良好な関係を必要とする場合があり、会社はAI節度のポリシーにおいてより中立的に自分自身を位置付けるように促します。