La startup estadounidense de IA Anthropic presentó hoy una demanda formal contra el Departamento de Defensa de EE. UU. (Pentágono) y varias agencias federales, en protesta por haber sido etiquetada como “riesgo en la cadena de suministro”. Anthropic acusa a esta medida de carecer de fundamentos razonables, lo que podría provocar la pérdida de miles de millones de dólares en ingresos, afectar su capacidad de financiamiento y su valoración en futuras ofertas públicas iniciales (IPO). Este caso también pone de manifiesto el creciente conflicto entre la aplicación militar de la tecnología de IA y la ética empresarial.
La chispa: ruptura en la colaboración militar entre Anthropic y el Pentágono
Anteriormente se informó que la causa del incidente fue la ruptura en las negociaciones de colaboración entre Anthropic y el Pentágono. El Departamento de Defensa buscaba obtener derechos sobre todos los usos legales de los modelos de IA en sus proyectos militares, pero Anthropic insistía en mantener restricciones en el uso de su tecnología y en seguir principios éticos básicos.
El CEO de la compañía, Dario Amodei, afirmó que existen dos líneas rojas infranqueables: prohibir el uso de IA en armas autónomas letales y prohibir su empleo en vigilancia masiva interna. Finalmente, no se alcanzó un acuerdo, y el gobierno de EE. UU. incluyó a Anthropic en la lista negra de empresas consideradas riesgos en la cadena de suministro, lo que llevó a la ruptura total de las negociaciones.
(Cuando la IA se convierte en arma nuclear: Ben Thompson analiza el conflicto entre Anthropic y el Pentágono)
Impacto de la lista negra: pérdida de contratos por miles de millones de dólares y presión en la captación de fondos
Bloomberg reportó que, en la demanda, Anthropic señala que la etiqueta de “riesgo en la cadena de suministro” suele aplicarse a empresas consideradas riesgos para la seguridad nacional, como China o Rusia. Esto implica que los socios deben evitar usar la tecnología de Anthropic bajo presión gubernamental, lo que resultará en la pérdida de numerosos clientes y oportunidades relacionadas con el gobierno.
El director financiero de Anthropic, Krishna Rao, enfatizó que si los clientes empresariales temen que colaborar con Anthropic afecte sus relaciones con el gobierno, la compañía podría perder miles de millones de dólares en ingresos anualmente. Además, esto podría debilitar la confianza de los inversores, poniendo en riesgo futuras rondas de financiamiento y la valoración en IPO.
(Anthropic lanza un plan para vender acciones por 6 mil millones de dólares, abriendo una ventana de liquidez con una valoración de 350 mil millones)
Conflicto en la industria de IA: tensión entre ética y necesidades militares
El incidente también revela la difícil tarea de equilibrar la ética y el uso militar en la industria de IA. Más de 30 ingenieros y académicos de empresas tecnológicas e instituciones de investigación, incluido Jeff Dean, jefe científico de Google DeepMind, presentaron declaraciones ante la corte apoyando la postura de Anthropic.
Advirtieron que “si se permite que esta penalización a las principales empresas de IA en EE. UU. continúe, sin duda se debilitará la competitividad industrial y científica de EE. UU. en IA y otros campos”.
Por otro lado, la empresa de IA OpenAI reemplazó a Anthropic en un acuerdo con el Pentágono, permitiendo que sus modelos participen en tareas militares sensibles. Sin embargo, el aumento en las desinstalaciones por parte de los usuarios parece reflejar preocupaciones sobre posibles monitoreos de conversaciones tras la participación del gobierno.
(El número de desinstalaciones de ChatGPT se triplica, OpenAI y el Pentágono generan inquietudes sobre vigilancia)
Escalada legal: enfrentamiento directo entre empresas tecnológicas y el poder gubernamental
A medida que el proceso judicial avanza, esta disputa ha escalado de una simple ruptura comercial a un enfrentamiento legal entre las empresas tecnológicas y el gobierno. La portavoz de la Casa Blanca, Liz Huston, afirmó que el gobierno no permitirá que las fuerzas armadas estén sujetas a restricciones éticas “con ideologías” impuestas por las empresas tecnológicas, y que la política de defensa priorizará la seguridad nacional.
El educador en IA @VraserX comentó que este caso podría dañar gravemente las perspectivas comerciales de Anthropic, provocando presión regulatoria, pérdida de clientes, represalias políticas o pánico entre inversores; sin embargo, también podría marcar un nuevo límite en las responsabilidades y derechos de las empresas de IA en colaboraciones militares.
Este artículo, titulado “Anthropic demanda al Pentágono: la lista negra podría causar pérdidas de miles de millones y dañar la captación de fondos”, fue publicado originalmente en Chain News ABMedia.