Pentágono endurece su ultimátum a Anthropic en disputa por uso de IA
Iain Marlow
Vie, 27 de febrero de 2026 a las 4:37 AM GMT+9 2 min de lectura
En este artículo:
ANTH.PVT
(Bloomberg) – El Pentágono escaló su disputa en curso con Anthropic PBC el jueves, haciendo pública una amenaza de prohibir efectivamente a la startup de inteligencia artificial de participar en la vasta cadena de suministro militar de EE. UU.
En una publicación en redes sociales, el portavoz principal del Departamento de Defensa, Sean Parnell, advirtió a Anthropic que tiene hasta el viernes a las 5:01 pm en Washington para permitir el uso sin restricciones de las herramientas de IA Claude Gov, después de que la compañía insistiera en algunas salvaguardas.
Lo más leído en Bloomberg
Las “Torres de Graffiti” en bancarrota en Los Ángeles encuentran comprador por 470 millones de dólares
Un experto en seguros evalúa el historial de seguridad de los autos autónomos
Nueva propuesta fiscal apunta a la obsesión de Tailandia con la comida salada
Oslo reconstruye su distrito gubernamental con un nuevo enfoque: apertura
Es un momento difícil para un desarrollador inmobiliario negro
“Esta es una solicitud simple y de sentido común que evitará que Anthropic ponga en peligro operaciones militares críticas y potencialmente ponga en riesgo a nuestros combatientes,” escribió Parnell. Un alto funcionario del Pentágono confirmó el jueves que el Departamento de Defensa envió su oferta final a Anthropic el miércoles.
En sus conversaciones con el Pentágono, Anthropic ha pedido a los funcionarios estadounidenses que se abstengan de usar sus productos para crear armas que apunten automáticamente a combatientes enemigos o para realizar vigilancia masiva de ciudadanos estadounidenses, según personas familiarizadas con el asunto.
El Pentágono ha rechazado y exigido la capacidad de usar Claude, una de las pocas herramientas de IA autorizadas para trabajo en la nube clasificado, sin restricciones por parte de la compañía. El Departamento de Defensa también ha amenazado con usar la Ley de Producción de Defensa de la era de la Guerra Fría para usar el software de Anthropic de todos modos.
La publicación de Parnell en X el jueves representó la primera declaración oficial del departamento explicando las posibles consecuencias.
El Pentágono no tiene interés en la vigilancia masiva ni en desarrollar “armas autónomas que operen sin intervención humana,” escribió Parnell.
“No permitiremos que ninguna compañía dicte los términos sobre cómo tomamos decisiones operativas,” continuó. “Tienen hasta las 5:01 pm ET del viernes para decidir. De lo contrario, terminaremos nuestra asociación con Anthropic y los consideraremos un riesgo en la cadena de suministro.”
–Con ayuda de Katrina Manson.
Lo más leído en Bloomberg Businessweek
Cómo el Covid reprogramó silenciosamente el cerebro
Código de Claude y la gran crisis de productividad de 2026
Los postres indios están listos para su momento de matcha
El amor de Estados Unidos por el ube está agotando los suministros en Filipinas
La decisión de tarifas de la Corte Suprema es secretamente un regalo para Trump
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
El Pentágono endurece su ultimátum a Anthropic en la disputa por el uso de IA
Pentágono endurece su ultimátum a Anthropic en disputa por uso de IA
Iain Marlow
Vie, 27 de febrero de 2026 a las 4:37 AM GMT+9 2 min de lectura
En este artículo:
ANTH.PVT
(Bloomberg) – El Pentágono escaló su disputa en curso con Anthropic PBC el jueves, haciendo pública una amenaza de prohibir efectivamente a la startup de inteligencia artificial de participar en la vasta cadena de suministro militar de EE. UU.
En una publicación en redes sociales, el portavoz principal del Departamento de Defensa, Sean Parnell, advirtió a Anthropic que tiene hasta el viernes a las 5:01 pm en Washington para permitir el uso sin restricciones de las herramientas de IA Claude Gov, después de que la compañía insistiera en algunas salvaguardas.
Lo más leído en Bloomberg
“Esta es una solicitud simple y de sentido común que evitará que Anthropic ponga en peligro operaciones militares críticas y potencialmente ponga en riesgo a nuestros combatientes,” escribió Parnell. Un alto funcionario del Pentágono confirmó el jueves que el Departamento de Defensa envió su oferta final a Anthropic el miércoles.
En sus conversaciones con el Pentágono, Anthropic ha pedido a los funcionarios estadounidenses que se abstengan de usar sus productos para crear armas que apunten automáticamente a combatientes enemigos o para realizar vigilancia masiva de ciudadanos estadounidenses, según personas familiarizadas con el asunto.
El Pentágono ha rechazado y exigido la capacidad de usar Claude, una de las pocas herramientas de IA autorizadas para trabajo en la nube clasificado, sin restricciones por parte de la compañía. El Departamento de Defensa también ha amenazado con usar la Ley de Producción de Defensa de la era de la Guerra Fría para usar el software de Anthropic de todos modos.
La publicación de Parnell en X el jueves representó la primera declaración oficial del departamento explicando las posibles consecuencias.
El Pentágono no tiene interés en la vigilancia masiva ni en desarrollar “armas autónomas que operen sin intervención humana,” escribió Parnell.
“No permitiremos que ninguna compañía dicte los términos sobre cómo tomamos decisiones operativas,” continuó. “Tienen hasta las 5:01 pm ET del viernes para decidir. De lo contrario, terminaremos nuestra asociación con Anthropic y los consideraremos un riesgo en la cadena de suministro.”
–Con ayuda de Katrina Manson.
Lo más leído en Bloomberg Businessweek
©2026 Bloomberg L.P.
Términos y Política de Privacidad
Panel de Privacidad
Más Información