Anthropic demanda al gobierno de EE. UU.! Solicita la revocación de la orden de bloqueo por "riesgo en la cadena de suministro" del Pentágono

動區BlockTempo

La disputa entre la startup de inteligencia artificial Anthropic y el gobierno de Estados Unidos continúa escalando. Según Reuters, el Departamento de Defensa (Pentágono) ha incluido recientemente a Anthropic en la lista de “riesgos en la cadena de suministro”, limitando el uso de su tecnología de IA en contratos militares. Anthropic afirma que esta designación carece de base legal y ha presentado una demanda ante un tribunal federal para solicitar la revocación de la decisión.

(Resumen previo: Anthropic y el Pentágono reactivan negociaciones de IA: buscan mantener la colaboración en Claude, pero mantienen líneas éticas firmes)

(Información adicional: CEO de Anthropic denuncia: Los contratos entre OpenAI y el Pentágono son mentiras, Altman se disfraza de embajador de paz)

Índice del artículo

Alternar

  • El Pentágono incluye a Anthropic en la lista de “riesgos en la cadena de suministro”
  • Punto central del conflicto: ¿Se puede usar IA para vigilancia y armas?
  • Anthropic: considera que la designación carece de base legal y planea demandar
  • La tensión entre aplicaciones militares de IA y ética empresarial aumenta

La disputa legal entre Anthropic y el gobierno de EE. UU. ha llegado a un punto crítico. El Departamento de Defensa anunció recientemente que ha incluido a Anthropic en la lista de “riesgos en la cadena de suministro”, restringiendo el uso de sus modelos de IA en contratos militares. Anthropic reaccionó enérgicamente, calificando la medida como “sin precedentes y sin base legal”, y ha presentado una demanda ante un tribunal federal para que se anule la designación y se detengan las restricciones gubernamentales.

El Pentágono incluye a Anthropic en la lista de “riesgos en la cadena de suministro”

Según Reuters, el Departamento de Defensa notificó formalmente a Anthropic que su empresa y su tecnología de IA han sido clasificadas como “riesgos en la cadena de suministro”, con efecto inmediato. Este etiquetado generalmente se usa para restringir a proveedores que puedan representar un riesgo para la seguridad nacional, y puede impedir que sus productos participen en adquisiciones militares o contratos de defensa.

En la práctica, esto significa que los contratistas y proveedores que colaboran con el ejército estadounidense podrían no usar los modelos de IA de Anthropic, como su famoso sistema Claude, en proyectos relacionados con la defensa. Se señala que este es un caso muy raro, ya que etiquetas similares suelen aplicarse a empresas extranjeras o proveedores considerados amenazas a la seguridad nacional, no a empresas de IA estadounidenses.

Punto central del conflicto: ¿Se puede usar IA para vigilancia y armas?

El núcleo de la controversia radica en las restricciones sobre el uso de la tecnología de IA de Anthropic. Según varios medios, Anthropic ha rechazado explícitamente que sus modelos de IA se utilicen para dos usos de alto riesgo:

  1. Sistemas de armas completamente autónomas
  2. Vigilancia masiva de ciudadanos estadounidenses

No obstante, el Departamento de Defensa, en negociaciones con la compañía, busca que los modelos de IA permitan “todos los usos legales”. La falta de acuerdo en cuanto a las restricciones de seguridad llevó finalmente a la ruptura de las negociaciones y a la adopción de la medida de riesgo en la cadena de suministro por parte del gobierno.

Anthropic: considera que la designación carece de base legal y planea demandar

El CEO de Anthropic, Dario Amodei, afirmó que la decisión del Departamento de Defensa “no tiene respaldo legal” y advirtió que esta medida podría sentar un peligroso precedente para la penalización de empresas por parte del gobierno. La compañía ha presentado una demanda ante un tribunal federal para que se anule la designación y se prohíba la implementación de las restricciones.

Anthropic señala que la etiqueta de “riesgo en la cadena de suministro” suele aplicarse a empresas rivales extranjeras, y que usarla contra una compañía de IA estadounidense podría tener un impacto profundo en toda la industria tecnológica y en los modelos de colaboración con el gobierno.

La tensión entre aplicaciones militares de IA y ética empresarial aumenta

Expertos analizan que este caso refleja los nuevos desafíos que enfrenta la industria de IA: ¿pueden las empresas limitar cómo el gobierno usa sus tecnologías cuando los grandes modelos comienzan a entrar en ámbitos militares y de seguridad nacional?

Algunos especialistas creen que si el gobierno puede imponer sanciones económicas a empresas por establecer restricciones de seguridad, esto podría debilitar la autonomía de las compañías en decisiones sobre la seguridad y ética de la IA. Por otro lado, las fuerzas armadas consideran que la tecnología de IA tiene un valor estratégico para la seguridad nacional y no debería estar demasiado restringida.

El resultado de esta batalla legal podría no solo determinar si Anthropic puede reanudar su colaboración con el gobierno estadounidense, sino también sentar un precedente importante para futuras relaciones entre empresas de IA y el Estado.

Ver originales
Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.
Comentar
0/400
Sin comentarios