Le gouvernement Trump a récemment ordonné aux agences fédérales et aux entrepreneurs collaborant avec l’armée de cesser toute activité avec Anthropic. Auparavant, Anthropic avait refusé la demande du Pentagone de permettre à l’armée d’utiliser sa technologie d’intelligence artificielle sans restriction.
Le président américain Donald Trump a publié vendredi (27 février) sur la plateforme Truth Social que les agences gouvernementales, y compris le Pentagone, devaient progressivement arrêter d’utiliser les produits d’Anthropic dans un délai de six mois.
Le ministre de la Défense, Pete Hegseth, a ensuite publié sur X que Anthropic serait considéré comme une entreprise à « risque dans la chaîne d’approvisionnement », une classification généralement réservée aux entreprises soupçonnées d’avoir des liens avec des adversaires étrangers.
Cette mesure majeure marque la fin d’une semaine de confrontation intense entre cette entreprise leader en intelligence artificielle et le gouvernement américain. Cette confrontation aura également des répercussions profondes sur l’avenir de l’application de la technologie d’IA en pleine expansion.
Controverse sur les restrictions de sécurité de l’IA
Depuis toujours, Anthropic et le Pentagone sont en désaccord sur les restrictions d’utilisation des modèles d’intelligence artificielle.
Basée sur un contrat antérieur de 200 millions de dollars, Anthropic a posé deux limites rouges : son modèle Claude ne doit pas être utilisé pour des armes autonomes ni pour la surveillance de masse des citoyens américains.
D’un côté, le Pentagone souhaite que Anthropic assouplisse ces restrictions pour permettre à l’armée d’utiliser le modèle « à toutes fins légales ». De l’autre, Anthropic estime que la fiabilité de l’IA ne permet pas de la manipuler pour des armes, et qu’il n’existe actuellement aucune législation encadrant l’utilisation de l’IA dans la surveillance de masse.
Lors d’une réunion cruciale au Pentagone le mardi (24 février), la tension entre le PDG d’Anthropic, Dario Amodei, et Hegseth a atteint son paroxysme.
Le ministre de la Défense a lancé un « ultimatum » à Amodei, lui demandant d’annuler les mesures de sécurité sur ses modèles d’IA avant ce vendredi (27 février), sous peine de perdre le contrat avec le Pentagone.
Finalement, le 26 février, Anthropic a déclaré qu’il n’avait pas l’intention de céder aux exigences du Pentagone et qu’il allait « résister » au ministère de la Défense américain.
Dans une déclaration, Amodei a affirmé : « Les menaces ne changeront pas notre position : nous ne pouvons pas accepter leurs demandes sans réserve. »
Une « erreur grave »
Concernant la position d’Anthropic, Trump a publié vendredi que l’entreprise avait commis une « erreur grave » et l’a accusée d’essayer d’interférer dans le fonctionnement de l’armée. Peu après, l’Administration américaine des services généraux a annoncé qu’elle retirerait Anthropic du « Réseau gouvernemental américain » (plateforme de test centralisée des outils d’IA du gouvernement fédéral).
Hegseth a déclaré vendredi : « Tout entrepreneur, fournisseur ou partenaire ayant des activités avec l’armée américaine sera interdit de faire affaire avec Anthropic. »
Le vice-ministre de la Recherche et de l’Ingénierie du Pentagone, Emil Michael, a défendu cette décision lors d’une interview : « C’est une demande simple et raisonnable, qui empêchera Anthropic de compromettre des opérations militaires cruciales et d’exposer nos personnels à des risques. »
Le porte-parole du Pentagone, Sean Parnell, a précisé : « Nous ne laisserons jamais une entreprise décider de nos règles de prise de décision en matière d’opérations. »
Cependant, cette semaine, l’industrie de l’IA a généralement défendu Anthropic. Le PDG d’OpenAI, Sam Altman, a déclaré partager les mêmes préoccupations que Anthropic concernant la collaboration avec le Pentagone.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Refus de donner le feu vert au Pentagone : Anthropic est « blacklisté » par le gouvernement de Trump !
Le gouvernement Trump a récemment ordonné aux agences fédérales et aux entrepreneurs collaborant avec l’armée de cesser toute activité avec Anthropic. Auparavant, Anthropic avait refusé la demande du Pentagone de permettre à l’armée d’utiliser sa technologie d’intelligence artificielle sans restriction.
Le président américain Donald Trump a publié vendredi (27 février) sur la plateforme Truth Social que les agences gouvernementales, y compris le Pentagone, devaient progressivement arrêter d’utiliser les produits d’Anthropic dans un délai de six mois.
Le ministre de la Défense, Pete Hegseth, a ensuite publié sur X que Anthropic serait considéré comme une entreprise à « risque dans la chaîne d’approvisionnement », une classification généralement réservée aux entreprises soupçonnées d’avoir des liens avec des adversaires étrangers.
Cette mesure majeure marque la fin d’une semaine de confrontation intense entre cette entreprise leader en intelligence artificielle et le gouvernement américain. Cette confrontation aura également des répercussions profondes sur l’avenir de l’application de la technologie d’IA en pleine expansion.
Controverse sur les restrictions de sécurité de l’IA
Depuis toujours, Anthropic et le Pentagone sont en désaccord sur les restrictions d’utilisation des modèles d’intelligence artificielle.
Basée sur un contrat antérieur de 200 millions de dollars, Anthropic a posé deux limites rouges : son modèle Claude ne doit pas être utilisé pour des armes autonomes ni pour la surveillance de masse des citoyens américains.
D’un côté, le Pentagone souhaite que Anthropic assouplisse ces restrictions pour permettre à l’armée d’utiliser le modèle « à toutes fins légales ». De l’autre, Anthropic estime que la fiabilité de l’IA ne permet pas de la manipuler pour des armes, et qu’il n’existe actuellement aucune législation encadrant l’utilisation de l’IA dans la surveillance de masse.
Lors d’une réunion cruciale au Pentagone le mardi (24 février), la tension entre le PDG d’Anthropic, Dario Amodei, et Hegseth a atteint son paroxysme.
Le ministre de la Défense a lancé un « ultimatum » à Amodei, lui demandant d’annuler les mesures de sécurité sur ses modèles d’IA avant ce vendredi (27 février), sous peine de perdre le contrat avec le Pentagone.
Finalement, le 26 février, Anthropic a déclaré qu’il n’avait pas l’intention de céder aux exigences du Pentagone et qu’il allait « résister » au ministère de la Défense américain.
Dans une déclaration, Amodei a affirmé : « Les menaces ne changeront pas notre position : nous ne pouvons pas accepter leurs demandes sans réserve. »
Une « erreur grave »
Concernant la position d’Anthropic, Trump a publié vendredi que l’entreprise avait commis une « erreur grave » et l’a accusée d’essayer d’interférer dans le fonctionnement de l’armée. Peu après, l’Administration américaine des services généraux a annoncé qu’elle retirerait Anthropic du « Réseau gouvernemental américain » (plateforme de test centralisée des outils d’IA du gouvernement fédéral).
Hegseth a déclaré vendredi : « Tout entrepreneur, fournisseur ou partenaire ayant des activités avec l’armée américaine sera interdit de faire affaire avec Anthropic. »
Le vice-ministre de la Recherche et de l’Ingénierie du Pentagone, Emil Michael, a défendu cette décision lors d’une interview : « C’est une demande simple et raisonnable, qui empêchera Anthropic de compromettre des opérations militaires cruciales et d’exposer nos personnels à des risques. »
Le porte-parole du Pentagone, Sean Parnell, a précisé : « Nous ne laisserons jamais une entreprise décider de nos règles de prise de décision en matière d’opérations. »
Cependant, cette semaine, l’industrie de l’IA a généralement défendu Anthropic. Le PDG d’OpenAI, Sam Altman, a déclaré partager les mêmes préoccupations que Anthropic concernant la collaboration avec le Pentagone.