Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Lancement Futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Trading démo
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Ceux qui ont créé des robots pour OpenAI ont entrevu un avenir effrayant
Auteur : Geek Old Friend
Le 7 mars 2026, lorsque j’ai appris la démission de Caitlin Kalinowski, ma première réaction n’a pas été la surprise, mais plutôt — « Enfin quelqu’un qui agit. »
Kalinowski était responsable de l’ingénierie hardware et robotique chez OpenAI, elle n’avait rejoint qu’en novembre 2024, et en moins d’un an et demi, elle a choisi de partir.
Ses raisons étaient directes et lourdes — elle ne pouvait accepter que, après qu’OpenAI ait signé un contrat avec le Département de la Défense américain, cela puisse entraîner une surveillance domestique accrue et l’utilisation d’armes autonomes.
Ce n’était pas une simple fuite de talents. C’était une personne qui, ayant participé à la construction d’un corps IA, disait au monde par sa démission : elle ne voulait pas être responsable de ce que ses créations pourraient faire.
Pour comprendre le départ de Kalinowski, il faut revenir à une semaine auparavant.
Le 28 février, Sam Altman annonçait qu’OpenAI avait conclu un accord avec le Département de la Défense américain, permettant à la Pentagon d’utiliser ses modèles d’IA dans ses réseaux classifiés. La réaction publique fut immédiate et virulente.
Ce qui est intéressant, c’est que la référence de ce contrat était Anthropic, un concurrent.
Peu de temps avant, Anthropic avait refusé une proposition similaire du Pentagone, insistant pour inclure des garde-fous éthiques plus stricts. En réponse, le ministre de la Défense Pete Hegseth a directement critiqué sur X (Twitter), qualifiant le comportement d’Anthropic de « leçon d’arrogance et de trahison », et a évoqué l’ordre du gouvernement Trump de cesser toute collaboration avec Anthropic.
OpenAI a ensuite repris cette affaire.
Les réactions des utilisateurs furent très vives. Le 28 février, le nombre de désinstallations de ChatGPT a augmenté de 295 % par rapport à la veille, et le mouvement #QuitGPT a rapidement envahi les réseaux sociaux, avec plus de 2,5 millions de supporters en trois jours. Claude a profité de cette tendance pour dépasser ChatGPT en devenant l’application la plus téléchargée aux États-Unis, en tête du classement des applications gratuites sur l’Apple App Store.
Sous la pression, Altman a reconnu publiquement le 3 mars qu’il « n’aurait pas dû lancer ce contrat à la hâte », qualifiant la situation d’« opportuniste et précipitée », et annonçait une révision du libellé du contrat, précisant que « les systèmes d’IA ne doivent pas être délibérément utilisés pour la surveillance intérieure des citoyens américains ».
Mais ce mot « délibérément » comportait déjà une faille. Les avocats de l’Electronic Frontier Foundation ont souligné que, dans la pratique, les agences de renseignement et d’application de la loi s’appuient souvent sur des données obtenues par « hasard » ou « achat commercial » pour contourner des protections de la vie privée plus strictes — ajouter « délibérément » ne garantit pas une véritable limitation.
Le départ de Kalinowski s’inscrit dans ce contexte.
01 Elle voit des choses plus concrètes que ce que nous imaginons
Alors que la majorité discute encore pour savoir si « OpenAI se compromet avec le gouvernement », Kalinowski fait face à un problème plus précis et plus brutal — son équipe construit des robots.
L’ingénierie hardware et robotique n’est pas une tâche abstraite de codage ou d’ajustement de paramètres. C’est comme donner des mains, des jambes, des yeux à une IA. Lorsque la collaboration d’OpenAI avec le ministère de la Défense passe du « modèle utilisé » à une possible « IA incarnée pour des applications militaires », la nature de son travail change.
Les chercheurs en armes autonomes ont déjà alerté sur cette journée.
Les politiques actuelles du Département de la Défense ne requièrent pas d’approbation humaine préalable avant l’utilisation de la force par des armes autonomes. En d’autres termes, le contrat signé par OpenAI ne bloque pas techniquement la possibilité que ses modèles deviennent une partie d’un système « laissant GPT décider de tuer quelqu’un ».
Ce n’est pas une exagération. Jessica Tillipman, professeure en droit des achats publics à l’Université de Georgetown, a analysé le contrat révisé d’OpenAI et a clairement indiqué que le libellé « ne donne pas à OpenAI une liberté similaire à Anthropic pour interdire une utilisation légale par le gouvernement », mais se contente de déclarer que le Pentagone ne peut pas utiliser la technologie d’OpenAI pour violer « les lois et politiques existantes » — or, ces lois sont déjà largement insuffisantes pour réguler les armes autonomes.
Les experts en gouvernance de l’Université d’Oxford partagent une analyse similaire, estimant que l’accord d’OpenAI « ne comble pas » les lacunes structurelles laissées par l’utilisation de l’IA dans la surveillance intérieure et les systèmes d’armes autonomes.
Le départ de Kalinowski est une réponse personnelle à cette réalité.
02 Que se passe-t-il à l’intérieur d’OpenAI
Kalinowski n’est pas la première à partir, et probablement pas la dernière.
Des données montrent que le taux de départ des équipes d’éthique et de sécurité de l’IA chez OpenAI atteint déjà 37 %, la majorité invoquant « un décalage avec les valeurs de l’entreprise » ou « l’impossibilité d’accepter l’utilisation militaire de l’IA ». Aidan McLaughlin, chercheur, a écrit en interne : « Personnellement, je pense que cette transaction ne vaut pas la peine. »
Il est important de noter que cette vague de départs survient à un moment où OpenAI accélère sa croissance commerciale. Juste avant la controverse sur le contrat militaire, l’entreprise a annoncé étendre son accord avec AWS, passant de 38 milliards à 100 milliards de dollars sur huit ans ; elle a aussi révisé ses objectifs de dépenses, visant plus de 280 milliards de dollars de revenus d’ici 2030.
L’expansion commerciale s’accompagne d’un départ continu des équipes de sécurité. Ce décalage est la clé pour comprendre la situation actuelle d’OpenAI.
La valeur d’une entreprise se mesure aussi à ce qu’elle retient ou perd. Lorsque ceux qui se soucient le plus de « comment cette technologie sera utilisée » commencent à partir, il est facile d’imaginer la direction que prendra l’organisation restante.
Anthropic a choisi une autre voie dans ce jeu — refuser le contrat, supporter la colère du gouvernement, mais gagner la confiance de nombreux utilisateurs. Pendant cette période, Claude a vu ses téléchargements augmenter, prouvant que « refuser avec principe » n’est pas forcément une stratégie perdante.
Mais Anthropic a aussi payé un prix : elle a été exclue par le gouvernement, du moins pour l’instant.
C’est là le vrai dilemme : aucune option n’est parfaite.
Refuser, c’est risquer de perdre de l’influence, voire d’être exclu de la définition des règles. Accepter, c’est valider des comportements que l’on ne contrôle pas totalement.
Le choix de Kalinowski a été la troisième voie — partir.
C’est la décision la plus honnête qu’elle pouvait prendre.
03 La guerre des âmes à Silicon Valley vient de commencer
Si on élargit la perspective, cette affaire dépasse largement la démission d’une personne.
L’intégration de l’IA et du militaire est une question à laquelle toute l’industrie devra tôt ou tard répondre. Le Pentagone dispose de budgets, de besoins et de capacités technologiques, et ne cessera d’approcher les entreprises d’IA. Qu’il s’agisse d’OpenAI, d’Anthropic ou d’autres acteurs, ils devront tôt ou tard donner leur réponse à cette question.
La stratégie d’Altman consiste à tenter d’accepter la réalité commerciale tout en fixant des limites par le biais de clauses contractuelles. Mais comme l’ont souligné plusieurs experts en droit et en gouvernance, ces clauses ressemblent davantage à des opérations de relations publiques qu’à des contraintes techniques strictes.
Le problème fondamental, c’est que lorsque des modèles d’IA sont déployés dans des réseaux classifiés et commencent à participer à des décisions militaires, le monde extérieur n’a aucun moyen de vérifier si ces « garanties » sont réellement respectées.
Le manque de transparence est en soi le plus grand risque.
Kalinowski a passé moins d’un an et demi chez OpenAI, mais a choisi de partir à ce moment précis. Elle n’a pas publié de déclaration longue, n’a pas accusé nommément qui que ce soit, mais a simplement tracé ses limites par ses actions.
D’une certaine manière, cela a plus de poids que n’importe quel article de politique.
L’ingénierie hardware et robotique, autrefois l’un des domaines les plus excitants de la Silicon Valley, est désormais à un tournant critique. En partant, Kalinowski n’a pas seulement laissé un CV, mais aussi une question pour tous ceux qui restent dans cette industrie —
Jusqu’où êtes-vous prêt à assumer la responsabilité de ce que vous avez créé ?