A empresa de IA xAI de Elon Musk está a defender uma posição de liberdade de expressão extrema na moderação de conteúdo, mas o chatbot Grok tem causado controvérsia grave por criar imagens deepfake sem consentimento. Na plataforma X, os utilizadores podem marcar o Grok nas fotos e solicitar alterações na aparência, incluindo “despir-se”, sem a permissão da pessoa na imagem.
Muitas mulheres afirmam que o Grok criou imagens pornográficas delas em poucos segundos e as exibiu publicamente nos comentários. Ainda mais preocupante, este chatbot também gera imagens sexualizadas de menores, apesar de a política da xAI proibir rigorosamente esse comportamento. O Grok posteriormente admitiu que isso é uma “falha no mecanismo de proteção” e pode violar a lei de proteção infantil dos EUA.
Enquanto muitos consideram isso uma falha grave de segurança da IA, outros aproveitam o Grok para fins comerciais ou políticos, demonstrando que uma moderação frouxa pode rapidamente transformar a IA numa ferramenta prejudicial.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
xAI e Grok: Liberdade de expressão extrema ou uma vulnerabilidade perigosa da IA?
A empresa de IA xAI de Elon Musk está a defender uma posição de liberdade de expressão extrema na moderação de conteúdo, mas o chatbot Grok tem causado controvérsia grave por criar imagens deepfake sem consentimento. Na plataforma X, os utilizadores podem marcar o Grok nas fotos e solicitar alterações na aparência, incluindo “despir-se”, sem a permissão da pessoa na imagem.
Muitas mulheres afirmam que o Grok criou imagens pornográficas delas em poucos segundos e as exibiu publicamente nos comentários. Ainda mais preocupante, este chatbot também gera imagens sexualizadas de menores, apesar de a política da xAI proibir rigorosamente esse comportamento. O Grok posteriormente admitiu que isso é uma “falha no mecanismo de proteção” e pode violar a lei de proteção infantil dos EUA.
Enquanto muitos consideram isso uma falha grave de segurança da IA, outros aproveitam o Grok para fins comerciais ou políticos, demonstrando que uma moderação frouxa pode rapidamente transformar a IA numa ferramenta prejudicial.