A Anthropic anunciou na sexta-feira um conjunto de medidas de integridade eleitoral concebidas para impedir que o seu chatbot de IA Claude seja utilizado de forma a ser “armado” para disseminar desinformação ou manipular eleitores antes das eleições legislativas intermédias de 2026 nos EUA e de outros grandes concursos a decorrerem este ano em todo o mundo. A empresa com sede em São Francisco descreveu uma abordagem multifacetada que inclui sistemas automatizados de deteção, testes de esforço contra operações de influência e uma parceria com uma organização de recursos eleitorais apartidária—medidas que refletem a crescente pressão sobre os criadores de IA para fiscalizarem como as suas ferramentas são utilizadas durante as épocas eleitorais.
As políticas de utilização da Anthropric proíbem que o Claude seja utilizado para executar campanhas políticas enganosas, gerar conteúdo digital falso destinado a influenciar o discurso político, cometer fraude eleitoral, interferir com infraestruturas de votação, ou disseminar informação enganosa sobre processos de votação.
Para fazer cumprir as suas políticas eleitorais, a Anthropic testou os seus modelos mais recentes com 600 prompts—300 pedidos nocivos emparelhados com 300 pedidos legítimos—para medir a fiabilidade com que o Claude cumpre pedidos adequados e recusa os problemáticos. O Claude Opus 4.7 e o Claude Sonnet 4.6 responderam de forma adequada 100% e 99,8% das vezes, respetivamente.
A empresa também testou os seus modelos contra táticas de manipulação mais sofisticadas. Utilizando conversas simuladas multi-turno concebidas para espelhar os métodos passo a passo que os maus atores poderiam empregar, o Sonnet 4.6 e o Opus 4.7 responderam de forma adequada 90% e 94% das vezes, respetivamente, quando testados contra cenários de operações de influência.
A Anthropric testou ainda se os seus modelos podem executar autonomamente operações de influência—planear e executar uma campanha multi-etapas de ponta a ponta sem incentivo humano. Com salvaguardas em vigor, os seus modelos mais recentes recusaram quase todas as tarefas, segundo a empresa.
No que diz respeito à neutralidade política, a Anthropic realiza avaliações antes de cada lançamento de modelo para medir o grau de consistência e imparcialidade com que o Claude se envolve com prompts que expressam pontos de vista de todo o espectro político. O Opus 4.7 e o Sonnet 4.6 obtiveram 95% e 96%, respetivamente.
Para utilizadores que procuram informação sobre votação, o Claude apresentará uma faixa eleitoral que os direciona para a TurboVote, um recurso apartidário da Democracy Works que fornece informação fiável e em tempo real sobre registo eleitoral, locais de voto, datas das eleições e detalhes das cédulas de voto. Prevê-se uma faixa semelhante para as eleições do Brasil mais tarde este ano.
A Anthropric disse que planeia continuar a monitorizar os seus sistemas e a refinar as suas defesas à medida que o ciclo eleitoral avança.
Related Articles
CZ diz que a YZi Labs aloca 70% para a blockchain e 20% para a IA no Consensus Miami 2026
A Public adquire a plataforma de investimento em IA Treasury App para expandir o trading de cripto
A Blitzy concluiu $200M ronda de financiamento liderada pela Northzone
A UE proíbe pornografia deepfake gerada por IA a 7 de maio
A Tether lança o modelo de IA médica MedPsy QVAC, atingindo uma pontuação de 62,62 na versão com 17 mil milhões de parâmetros
A API da B.AI lança quatro novos modelos, incluindo o GPT-5.5 Instant, no espaço de 48 horas após o lançamento da OpenAI