Microsoft se range du côté d'Anthropic contre la désignation par l'administration Trump du risque pour la chaîne d'approvisionnement

Decrypt

En résumé

  • Microsoft a soutenu Anthropic en justice pour protéger des milliards liés à Claude et Azure.
  • La liste noire du Pentagone pourrait avoir des répercussions sur l’ensemble de l’écosystème des contractants en IA.
  • Microsoft a affirmé que le DoD utilisait une désignation de sécurité pour adversaire étranger de manière « sans précédent ».

Microsoft a investi jusqu’à 5 milliards de dollars dans Anthropic, tandis qu’Anthropic s’est engagé à acheter pour 30 milliards de dollars de puissance de calcul Azure dans le cadre du partenariat. Ce contexte rend sa décision de déposer un mémoire d’amicus curiae en soutien à la plainte d’Anthropic contre le Département de la Défense américain moins altruiste et plus une autodéfense financière. Le mémoire, déposé le 10 mars à San Francisco, soutient qu’une ordonnance de restriction temporaire empêchant l’application de la désignation de « risque de chaîne d’approvisionnement » du Pentagone serait dans l’intérêt public. Microsoft elle-même est un important contractant du DoD, et cette désignation met en danger ses propres produits. Le secrétaire à la Défense Pete Hegseth a ordonné qu’aucun contractant, fournisseur ou partenaire travaillant avec l’armée américaine ne puisse effectuer d’activité commerciale avec Anthropic — une mesure potentiellement suffisamment large pour inclure les produits Copilot et Azure de Microsoft, qui prennent en charge Claude.

 Le mémoire met en lumière une contradiction procédurale qui a peu attiré l’attention dans la couverture médiatique : le Département de la Défense s’était donné un délai de six mois pour se désengager des outils d’Anthropic, mais a appliqué la désignation aux contractants immédiatement, sans période de transition équivalente. Les avocats de Microsoft ont directement souligné cela, notant que les fournisseurs technologiques doivent maintenant se dépêcher d’auditer, de réingénier et de racheter des produits selon un calendrier que le gouvernement ne s’est pas imposé. Microsoft a également lancé une alerte sur un point central du litige juridique. L’autorité invoquée — 10 U.S.C. § 3252 — a historiquement été réservée aux adversaires étrangers. Une seule désignation de ce type a été rendue publique sous des statuts liés, et c’était contre Acronis AG, une société suisse de logiciels avec des liens russes. La utiliser contre une startup d’IA de San Francisco est, selon Microsoft, « sans précédent ».

L’argument le plus percutant du mémoire est structurel. Si un litige contractuel entre une agence et une entreprise peut déclencher une liste noire pour sécurité nationale, alors chaque entreprise travaillant avec le gouvernement fédéral hérite d’une nouvelle catégorie de risques existentiels. Les avocats de Microsoft ont décrit un modèle industriel basé sur des services interconnectés, où un composant interdit peut paralyser toute une gamme de produits. Il y a une ironie difficile à ignorer. Microsoft est à la fois le plus grand soutien d’OpenAI — avec des investissements estimés à environ 135 milliards de dollars — et l’un de ses défenseurs les plus vocaux en justice. De son côté, OpenAI a rapidement signé un accord avec le DoD quelques heures après la publication de la liste noire d’Anthropic, un mouvement qui a suscité des réactions internes négatives et a conduit le PDG d’OpenAI, Sam Altman, à reconnaître publiquement que l’annonce « semblait opportuniste et bâclée ». Microsoft soutient ces deux positions.

Voici une republication d’un message interne :

Nous avons travaillé avec le DoW pour apporter quelques ajouts à notre accord afin de clarifier nos principes.

  1. Nous allons modifier notre accord pour ajouter cette clause, en plus de tout le reste :

"• Conformément aux lois applicables,…

— Sam Altman (@sama) 3 mars 2026

Le mémoire ne va pas jusqu’à approuver les positions spécifiques d’Anthropic sur la sécurité de l’IA concernant les armes autonomes et la surveillance de masse — deux lignes rouges qui ont déclenché la confrontation. Au lieu de cela, il encadre l’affaire en termes compréhensibles pour tout contractant gouvernemental : procédure régulière, transitions ordonnées, et effets de la militarisation du droit des marchés publics sur les désaccords politiques. La demande de Microsoft est une ordonnance de restriction temporaire, pas un verdict. Le géant technologique souhaite ralentir le processus pour permettre aux parties de négocier — et pour que ses propres produits restent légalement déployables pendant ce temps. Ce qui est en jeu dépasse le simple contrat d’une entreprise. Si les tribunaux acceptent la décision du Pentagone, alors chaque entreprise d’IA vendant au gouvernement vient d’apprendre que les garde-fous de sécurité peuvent être requalifiés en menaces pour la sécurité nationale. Le mémoire de Microsoft montre que cette leçon n’est pas perdue pour l’ensemble de l’industrie technologique — et que l’entreprise n’est pas prête à l’apprendre discrètement.

Voir l'original
Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire