La conflictualité entre la startup d’intelligence artificielle Anthropic et le gouvernement américain s’intensifie. Selon Reuters, le Pentagone a récemment classé Anthropic comme « risque dans la chaîne d’approvisionnement », limitant l’utilisation de ses technologies d’IA dans les contrats militaires. Anthropic affirme que cette décision n’a pas de fondement juridique et a porté plainte devant une cour fédérale pour demander son annulation.
(Précédent : Anthropic relance les négociations avec le Pentagone pour préserver la coopération sur Claude, tout en maintenant une ligne éthique stricte)
(Contexte supplémentaire : Le PDG d’Anthropic dénonce : « Les contrats entre OpenAI et le Pentagone sont des mensonges, Altman se fait passer pour un ambassadeur de la paix »)
Sommaire
Toggle
La confrontation entre la société d’intelligence artificielle Anthropic et le gouvernement américain entre désormais dans une phase judiciaire. Le Département de la Défense a récemment annoncé avoir classé Anthropic comme « risque dans la chaîne d’approvisionnement », limitant l’utilisation de ses modèles d’IA dans les contrats liés à la défense. Anthropic a vivement réagi, qualifiant cette décision d’« inédite et sans fondement juridique », et a déposé une plainte devant la cour fédérale pour demander l’annulation de cette classification et empêcher la mise en œuvre des restrictions.
Selon Reuters, le Département de la Défense a officiellement informé Anthropic que l’entreprise et ses technologies d’IA étaient considérées comme un « risque dans la chaîne d’approvisionnement », cette décision étant immédiatement applicable. Ce label est généralement utilisé pour limiter les fournisseurs potentiellement dangereux pour la sécurité nationale, et peut interdire leurs produits dans les achats de défense ou contrats militaires.
Concrètement, cela signifie que les sous-traitants et fournisseurs travaillant avec l’armée américaine pourraient ne pas utiliser les modèles d’IA d’Anthropic, comme leur célèbre système Claude, lors de projets liés à la défense. Il s’agit d’une situation rare, car ce type de classification est habituellement réservé à des entreprises étrangères ou à des fournisseurs perçus comme une menace pour la sécurité nationale, et non à une société d’IA américaine.
Au cœur de cette controverse, la restriction de l’usage des technologies d’Anthropic. Selon plusieurs médias, la société refuse explicitement que ses modèles d’IA soient utilisés pour deux usages à haut risque :
Cependant, lors des négociations avec le ministère, Anthropic aurait proposé que ses modèles soient autorisés pour « tous les usages légaux ». Les deux parties n’ont pas réussi à s’accorder sur les limites de sécurité, ce qui a finalement conduit à l’échec des négociations et à la classification en tant que « risque dans la chaîne d’approvisionnement ».
Dario Amodei, PDG d’Anthropic, déclare que la décision du Département de la Défense « n’est pas juridiquement fondée » et met en garde contre le précédent dangereux qu’elle pourrait créer en termes de punition des entreprises par le gouvernement. La société a déposé une plainte devant la cour fédérale pour demander l’annulation de cette classification et faire cesser la mise en œuvre des restrictions.
Anthropic souligne que « risque dans la chaîne d’approvisionnement » est habituellement réservé à des concurrents étrangers, et que l’appliquer à une société américaine pourrait avoir des conséquences profondes pour l’ensemble du secteur technologique et la coopération avec le gouvernement.
Les analystes estiment que cette affaire illustre un nouveau défi pour l’industrie de l’IA : lorsque de grands modèles commencent à pénétrer le domaine militaire et de la sécurité nationale, les entreprises peuvent-elles limiter la manière dont le gouvernement utilise leur technologie ?
Certains experts politiques craignent qu’un pouvoir excessif du gouvernement, pouvant imposer des sanctions économiques en raison de restrictions de sécurité, ne fragilise la capacité des entreprises technologiques à décider de l’éthique et de la sécurité de l’IA. De leur côté, les militaires considèrent que l’IA revêt une importance stratégique pour la sécurité nationale et ne devrait pas être trop limitée.
L’issue de cette bataille juridique pourrait non seulement déterminer si Anthropic pourra reprendre sa collaboration avec le gouvernement américain, mais aussi établir un précédent crucial pour la coopération future entre les entreprises d’IA et l’État.