Anthropic anunció el viernes un conjunto de medidas de integridad electoral diseñado para evitar que su chatbot de IA Claude se pueda utilizar como arma para difundir desinformación o manipular a los votantes de cara a las elecciones legislativas de mitad de mandato de EE. UU. de 2026 y otros grandes comicios a nivel mundial que tendrán lugar este año. La empresa con sede en San Francisco detalló un enfoque de múltiples frentes que incluye sistemas de detección automatizados, pruebas de resistencia frente a operaciones de influencia y una asociación con una organización de recursos electorales apartidista—medidas que reflejan la creciente presión sobre los desarrolladores de IA para que supervisen cómo se usan sus herramientas durante las temporadas electorales.
Las políticas de uso de Anthropric prohíben que Claude se utilice para ejecutar campañas políticas engañosas, generar contenido digital falso destinado a influir en el discurso político, cometer fraude electoral, interferir con la infraestructura de votación o difundir información engañosa sobre los procesos de votación.
Para hacer cumplir sus políticas electorales, Anthropic probó sus modelos más recientes usando 600 prompts—300 solicitudes dañinas emparejadas con otras 300 legítimas—para medir qué tan consistentemente Claude cumple con las solicitudes apropiadas y rechaza las problemáticas. Claude Opus 4.7 y Claude Sonnet 4.6 respondieron de manera adecuada el 100% y el 99,8% de las veces, respectivamente.
La compañía también probó sus modelos frente a tácticas de manipulación más sofisticadas. Al usar conversaciones simuladas de múltiples turnos diseñadas para reflejar los métodos paso a paso que podrían emplear actores malintencionados, Sonnet 4.6 y Opus 4.7 respondieron de manera adecuada el 90% y el 94% de las veces, respectivamente, cuando se probaron contra escenarios de operaciones de influencia.
Anthropric además probó si sus modelos podían llevar a cabo de forma autónoma operaciones de influencia—planificar y ejecutar una campaña de varios pasos de principio a fin sin indicaciones humanas. Con salvaguardas en su lugar, sus modelos más recientes rechazaron casi todas las tareas, según la empresa.
Sobre la cuestión de la neutralidad política, Anthropic realiza evaluaciones antes de cada lanzamiento de modelo para medir qué tan consistentemente y de manera imparcial Claude participa con prompts que expresan puntos de vista de todo el espectro político. Opus 4.7 y Sonnet 4.6 obtuvieron 95% y 96%, respectivamente.
Para los usuarios que buscan información de votación, Claude mostrará un banner electoral que los dirigirá a TurboVote, un recurso apartidista de Democracy Works que ofrece información fiable y en tiempo real sobre el registro de votantes, ubicaciones de centros de votación, fechas de elecciones y detalles de las papeletas. Se planea un banner similar para las elecciones de Brasil más adelante este año.
Anthropric dijo que planea seguir monitoreando sus sistemas y perfeccionando sus defensas a medida que avance el ciclo electoral.
Artículos relacionados
Scale AI recibe $500M contrato del Pentágono para el procesamiento de datos de IA
Elon Musk's xAI se renombrará como SpaceXAI cuando termine su estatus como compañía independiente
IBM amplía su suite de IA empresarial con nuevas herramientas basadas en agentes en Think 2026
Las acciones de Hut 8 suben 30% con un contrato de arrendamiento de centros de datos de IA por valor de 9,8 mil millones de dólares
Los sueños de Claude de Anthropic: el agente se organiza la memoria entre tareas, eliminando duplicados y contradicciones