Grokは、ディープフェイク騒動後に画像生成の制限を強化したと宣言し、話題になりました。表面上は良さそうに見えますが、実際はそう簡単ではありません。公式声明にもかかわらず、ユーザーからは実際にはこの機能が驚くほど簡単に利用できると報告されています。これは典型的な手法です—批評家をなだめるためにより厳しい管理を発表しますが、実際の実装は異なるストーリーを語っています。このプラットフォームの発言と実際の行動のギャップは、AIの安全性ガバナンスに関する本当の疑問を投げかけます。画像生成ツールが、いわゆる取り締まり後でも潜在的に問題のあるコンテンツを生成できる状態にあるとすれば、コンテンツポリシーを大規模に施行することの難しさを浮き彫りにしています。ディープフェイクの懸念はすぐに解消されることはなく、部分的な対策だけでは、一般の信頼がこれほど試され続ける限り、十分ではありません。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
0/400
コメントなし
  • ピン