Anthropic a saisi les tribunaux fédéraux pour contester une liste noire étendue imposée par l’administration Donald Trump, affirmant que le gouvernement a qualifié la startup d’IA de menace pour la sécurité nationale en représailles à son refus de relâcher ses protocoles de sécurité. La plainte, déposée lundi devant le tribunal de district du Nord de la Californie, conteste les actions entreprises après que le président Trump a ordonné en février aux agences fédérales de cesser d’utiliser la technologie d’Anthropic. Cela fait suite à des commentaires publics du PDG d’Anthropic, Dario Amodei, qui a déclaré que l’entreprise ne se conformerait pas à la demande du Pentagone d’un accès illimité à Claude. La plainte cite plusieurs agences fédérales et hauts responsables comme défendeurs, notamment le secrétaire à la Défense Pete Hegseth, le secrétaire au Trésor Scott Bessent, et le secrétaire d’État Marco Rubio. « La Constitution n’autorise pas le gouvernement à utiliser son pouvoir immense pour punir une entreprise pour ses discours protégés », ont déclaré les avocats d’Anthropic dans la plainte. « Aucune loi fédérale n’autorise les actions entreprises ici. Anthropic se tourne vers la justice en dernier recours pour faire valoir ses droits et arrêter la campagne de représailles illégale de l’exécutif. »
Sur instruction de @POTUS, le @USTreasury met fin à toute utilisation des produits d’Anthropic, y compris la plateforme Claude, au sein de notre département.
Le peuple américain mérite la confiance que chaque outil du gouvernement sert l’intérêt public, et sous la présidence de Trump… https://t.co/R7rF0ci5CY
— Secrétaire au Trésor Scott Bessent (@SecScottBessent) 2 mars 2026
Le différend a commencé en janvier lorsque des responsables du Pentagone ont exigé que les contractants en IA permettent l’utilisation de leurs systèmes pour « toute utilisation légale », y compris les applications militaires. Bien qu’Anthropic ait déjà conclu un contrat de 200 millions de dollars avec le Département de la Défense, il a refusé de supprimer deux mesures de sécurité empêchant l’utilisation de Claude pour la surveillance domestique de masse des Américains ou pour des systèmes d’armes létales entièrement autonomes. « Les actions contestées causent un préjudice immédiat et irréparable à Anthropic ; à d’autres dont la liberté d’expression sera étouffée ; à ceux qui bénéficient de la valeur économique que l’entreprise peut continuer à créer ; et à un public mondial qui mérite un dialogue et un débat approfondis sur ce que l’IA signifie pour la guerre et la surveillance », ont déclaré les avocats d’Anthropic dans la plainte. Pour les développeurs d’IA, y compris le PDG de SingularityNET, Ben Goertzel, cette désignation est une décision étrange et ne correspond pas à la signification habituelle d’une menace pour la chaîne d’approvisionnement, qui concerne généralement des logiciels d’adversaires pouvant contenir des malwares, virus ou logiciels espions cachés.
« Le fait qu’Anthropic ne veuille pas que leur logiciel soit utilisé pour des killings autonomes ou une surveillance de masse ne semble pas poser de risque de cette nature », a déclaré Goertzel à Decrypt. « Cela signifie simplement que si vous voulez utiliser un logiciel pour des killings autonomes ou une surveillance de masse, vous achetez le logiciel d’un autre. Donc, la logique de faire de cela un risque pour la chaîne d’approvisionnement m’échappe. » Goertzel a indiqué que les différences entre les principaux modèles d’IA pourraient limiter l’impact pratique de cette décision. « En fin de compte, Claude, ChatGPT et Gemini ne sont pas si différents », a-t-il dit. « Tant qu’un de ces systèmes de haut niveau est utilisé par le gouvernement américain, c’est essentiellement la même chose. Et les agences de renseignement, sous le couvert d’une habilitation top secret, utiliseraient le logiciel comme elles le souhaitent. » Anthropic demande au tribunal de déclarer les actions du gouvernement illégales et d’interdire l’application de la désignation « risque pour la chaîne d’approvisionnement » qui empêche les agences fédérales et les contractants du Pentagone de faire affaire avec la société. « Aucune justification valable ne justifie les actions contestées », indique la plainte. « Le tribunal devrait les déclarer illégales et enjoindre aux défendeurs de ne pas prendre de mesures pour les mettre en œuvre. » Anthropic n’a pas immédiatement répondu aux demandes de commentaire de Decrypt. Même après avoir désigné Anthropic comme une menace pour la sécurité nationale, Claude a été utilisé dans des opérations militaires en cours, notamment par le Commandement central des États-Unis pour analyser des renseignements et identifier des cibles lors de frappes contre l’Iran.
Jennifer Huddleston, chercheuse principale en politique technologique à l’Institut Cato, a déclaré dans un communiqué partagé avec Decrypt que cette affaire soulève des préoccupations concernant la protection constitutionnelle lorsque des revendications de sécurité nationale sont utilisées pour justifier une action gouvernementale. « Bien que les tribunaux aient été réticents par le passé à remettre en question les revendications du gouvernement sur les préoccupations de sécurité nationale, les circonstances de cette affaire mettent en évidence le risque réel pour les droits du Premier Amendement des Américains si les considérations sous-jacentes de telles revendications ne sont pas scrupuleusement examinées », a-t-elle déclaré.