Anthropic poursuit le gouvernement américain ! Demande la levée de l'interdiction du Pentagone sur la « gestion des risques de la chaîne d'approvisionnement »

動區BlockTempo

La conflictualité entre la startup d’intelligence artificielle Anthropic et le gouvernement américain s’intensifie. Selon Reuters, le Pentagone a récemment classé Anthropic comme « risque dans la chaîne d’approvisionnement », limitant l’utilisation de ses technologies d’IA dans les contrats militaires. Anthropic affirme que cette décision n’a pas de fondement juridique et a porté plainte devant une cour fédérale pour demander son annulation.

(Précédent : Anthropic relance les négociations avec le Pentagone pour préserver la coopération sur Claude, tout en maintenant une ligne éthique stricte)

(Contexte supplémentaire : Le PDG d’Anthropic dénonce : « Les contrats entre OpenAI et le Pentagone sont des mensonges, Altman se fait passer pour un ambassadeur de la paix »)

Sommaire

Toggle

  • Le Pentagone classe Anthropic comme « risque dans la chaîne d’approvisionnement »
  • Point de friction : l’IA peut-elle être utilisée pour la surveillance et les armes ?
  • Anthropic : « absence de fondement juridique » et annonce une action en justice
  • La controverse sur l’application militaire de l’IA et l’éthique des entreprises s’intensifie

La confrontation entre la société d’intelligence artificielle Anthropic et le gouvernement américain entre désormais dans une phase judiciaire. Le Département de la Défense a récemment annoncé avoir classé Anthropic comme « risque dans la chaîne d’approvisionnement », limitant l’utilisation de ses modèles d’IA dans les contrats liés à la défense. Anthropic a vivement réagi, qualifiant cette décision d’« inédite et sans fondement juridique », et a déposé une plainte devant la cour fédérale pour demander l’annulation de cette classification et empêcher la mise en œuvre des restrictions.

Le Pentagone classe Anthropic comme « risque dans la chaîne d’approvisionnement »

Selon Reuters, le Département de la Défense a officiellement informé Anthropic que l’entreprise et ses technologies d’IA étaient considérées comme un « risque dans la chaîne d’approvisionnement », cette décision étant immédiatement applicable. Ce label est généralement utilisé pour limiter les fournisseurs potentiellement dangereux pour la sécurité nationale, et peut interdire leurs produits dans les achats de défense ou contrats militaires.

Concrètement, cela signifie que les sous-traitants et fournisseurs travaillant avec l’armée américaine pourraient ne pas utiliser les modèles d’IA d’Anthropic, comme leur célèbre système Claude, lors de projets liés à la défense. Il s’agit d’une situation rare, car ce type de classification est habituellement réservé à des entreprises étrangères ou à des fournisseurs perçus comme une menace pour la sécurité nationale, et non à une société d’IA américaine.

Point de friction : l’IA peut-elle être utilisée pour la surveillance et les armes ?

Au cœur de cette controverse, la restriction de l’usage des technologies d’Anthropic. Selon plusieurs médias, la société refuse explicitement que ses modèles d’IA soient utilisés pour deux usages à haut risque :

  1. Les systèmes d’armes autonomes complets
  2. La surveillance de masse des citoyens américains

Cependant, lors des négociations avec le ministère, Anthropic aurait proposé que ses modèles soient autorisés pour « tous les usages légaux ». Les deux parties n’ont pas réussi à s’accorder sur les limites de sécurité, ce qui a finalement conduit à l’échec des négociations et à la classification en tant que « risque dans la chaîne d’approvisionnement ».

Anthropic : « absence de fondement juridique » et annonce une action en justice

Dario Amodei, PDG d’Anthropic, déclare que la décision du Département de la Défense « n’est pas juridiquement fondée » et met en garde contre le précédent dangereux qu’elle pourrait créer en termes de punition des entreprises par le gouvernement. La société a déposé une plainte devant la cour fédérale pour demander l’annulation de cette classification et faire cesser la mise en œuvre des restrictions.

Anthropic souligne que « risque dans la chaîne d’approvisionnement » est habituellement réservé à des concurrents étrangers, et que l’appliquer à une société américaine pourrait avoir des conséquences profondes pour l’ensemble du secteur technologique et la coopération avec le gouvernement.

La controverse sur l’application militaire de l’IA et l’éthique des entreprises s’intensifie

Les analystes estiment que cette affaire illustre un nouveau défi pour l’industrie de l’IA : lorsque de grands modèles commencent à pénétrer le domaine militaire et de la sécurité nationale, les entreprises peuvent-elles limiter la manière dont le gouvernement utilise leur technologie ?

Certains experts politiques craignent qu’un pouvoir excessif du gouvernement, pouvant imposer des sanctions économiques en raison de restrictions de sécurité, ne fragilise la capacité des entreprises technologiques à décider de l’éthique et de la sécurité de l’IA. De leur côté, les militaires considèrent que l’IA revêt une importance stratégique pour la sécurité nationale et ne devrait pas être trop limitée.

L’issue de cette bataille juridique pourrait non seulement déterminer si Anthropic pourra reprendre sa collaboration avec le gouvernement américain, mais aussi établir un précédent crucial pour la coopération future entre les entreprises d’IA et l’État.

Voir l'original
Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire