L’intelligence artificielle (IA) a provoqué un tourbillon de développements ce week-end, avec des démissions de dirigeants, des disputes avec le Pentagone, des avancées en robotique, le lancement de modèles d’entreprise et de nouveaux outils de sécurité qui montrent collectivement que l’industrie accélère sur presque tous les fronts.
L’un des développements les plus marquants est arrivé le 7 mars lorsque Caitlin Kalinowski, responsable de la robotique et du matériel grand public chez OpenAI, a démissionné de l’entreprise. Kalinowski aurait exprimé des préoccupations concernant la poursuite par OpenAI d’un contrat avec le Pentagone impliquant le déploiement d’IA sur des systèmes gouvernementaux classifiés. Elle aurait averti que la proposition manquait de garanties suffisantes concernant la surveillance domestique et la possibilité d’armes autonomes létales.
OpenAI a répondu en réaffirmant que l’entreprise maintenait des « lignes rouges » strictes concernant certaines applications militaires. Cependant, cette démission met en lumière la tension croissante entre les ambitions en IA de la Silicon Valley et les priorités de sécurité nationale de Washington, notamment alors que les agences de défense explorent de plus en plus l’utilisation de systèmes avancés d’IA dans des opérations sensibles.
Ces tensions se sont intensifiées lorsque le Pentagone a officiellement désigné Anthropic comme un « risque de chaîne d’approvisionnement » le 5 mars. Cette désignation limite l’utilisation par les contractants de défense de certaines versions du modèle d’IA Claude de l’entreprise dans les projets gouvernementaux. Cette étiquette rare appliquée à une entreprise technologique nationale indique à quel point les désaccords sur la sécurité de l’IA et son usage militaire commencent à entrer en collision avec la planification de la défense nationale.
Au milieu de ces différends, une coalition de technologues et de décideurs a dévoilé une nouvelle proposition de gouvernance visant à guider la prochaine phase du développement de l’intelligence artificielle. Le 7 mars, le physicien du MIT Max Tegmark et un groupe bipartite de chercheurs et d’avocats en politique ont présenté la « Déclaration Pro-Humaine », un cadre destiné à garantir que le développement de l’IA reste aligné avec la supervision humaine et les libertés civiles.
La déclaration énonce cinq principes fondamentaux, notamment maintenir les humains en contrôle ultime des systèmes d’IA avancés, éviter une concentration excessive de pouvoir entre quelques entreprises, appliquer des tests de sécurité rigoureux, protéger les droits civiques et imposer des limites strictes à la superintelligence auto-améliorante. Ses auteurs ont présenté cette proposition comme une feuille de route pour les législateurs confrontés à des débats de plus en plus complexes sur la politique de l’IA.
Pendant que les décideurs débattaient des cadres de gouvernance, des chercheurs ont montré à quel point la robotique pilotée par l’IA évolue rapidement. Des scientifiques de l’Université Northwestern ont dévoilé une nouvelle classe de « métamachines à jambes » conçues par IA, des robots modulaires capables d’adapter leur forme et de continuer à fonctionner même après des dommages physiques importants.
Source de l’image : Northwestern University News.
Les recherches, publiées dans les Proceedings of the National Academy of Sciences, montrent des robots pouvant se connecter en différentes configurations et se déplacer sur un terrain accidenté. Lors des tests, certains robots ont été coupés en morceaux et ont réussi à retrouver leur mobilité en réarrangeant leurs composants restants — un comportement que les chercheurs estiment utile en zones de catastrophe, lors de missions d’exploration ou dans d’autres environnements imprévisibles.
Côté logiciel, OpenAI a lancé sa famille de modèles GPT-5.4 le 5 mars, introduisant des systèmes conçus spécifiquement pour les charges de travail professionnelles et d’entreprise. La sortie comprend des variantes Pro et Thinking spécialisées, capables d’un raisonnement amélioré, de tâches de codage complexes et de contrôle direct par ordinateur.
Certaines versions de GPT-5.4 supportent des fenêtres de contexte approchant un million de tokens, permettant aux utilisateurs d’analyser d’énormes documents ou ensembles de données en une seule requête. OpenAI indique que ces nouveaux modèles visent à réduire les hallucinations tout en améliorant la fiabilité pour des applications commerciales telles que l’analyse de données, l’ingénierie et les flux de travail automatisés.
L’intelligence artificielle s’avère également utile pour la cybersécurité défensive. Anthropic a annoncé le 6 mars que son modèle Claude avait découvert 22 vulnérabilités dans le navigateur Mozilla Firefox lors d’une collaboration de deux semaines avec Mozilla.
Quatorze de ces problèmes ont été classés comme à haute gravité. Ces résultats illustrent comment des systèmes d’IA avancés sont de plus en plus utilisés pour aider à la détection de vulnérabilités, permettant aux équipes de sécurité d’identifier et de corriger les failles beaucoup plus rapidement que par l’audit manuel traditionnel.
La dernière version d’Openclaw, la 2026.3.7, est sortie dimanche avec une mise à niveau importante de l’extensibilité et de la fiabilité pour le cadre d’agent IA autonome open-source viral, fonctionnant localement sur pratiquement toutes les plateformes.
La fonctionnalité phare est le nouveau système de plugins ContextEngine avec des hooks de cycle de vie complets (initialisation, ingestion, compactage, gestion des sous-agents, etc.), offrant aux développeurs et à la communauté la liberté de créer des plugins de gestion de contexte personnalisés — comme lossless-claw — qui étendent ou remplacent le comportement principal tout en restant entièrement compatibles avec les versions antérieures.
Les grandes entreprises technologiques accélèrent également l’intégration des agents IA dans des industries concrètes. Amazon Web Services a lancé le 5 mars Amazon Connect Health, une plateforme conforme à la HIPAA conçue pour déployer des agents IA dans les opérations de santé.
La plateforme peut automatiser la planification des patients, aider à la documentation, vérifier les détails d’assurance et gérer les tâches administratives tout en s’intégrant aux systèmes de dossiers médicaux électroniques. AWS indique que le système vise à réduire la charge administrative pour les prestataires de soins tout en améliorant la coordination des patients.
OpenAI a présenté un autre outil d’entreprise avec la sortie de Codex Security, un agent IA capable de scanner les bases de code logiciel, d’identifier des vulnérabilités, de valider les découvertes et de proposer des correctifs. Initialement publié en version préliminaire de recherche, cet outil montre comment l’IA s’intègre de plus en plus dans l’audit logiciel et la sécurité du développement.
La société a également lancé une version bêta d’un module complémentaire ChatGPT pour Microsoft Excel, permettant aux utilisateurs d’interagir directement avec GPT-5.4 dans les feuilles de calcul. Cette intégration permet aux analystes et aux équipes commerciales de réaliser des scénarios, d’analyser des ensembles de données et de générer des prévisions financières sans quitter Excel, intégrant davantage l’IA dans les flux de travail quotidiens.
Les développements récents en IA des 48 dernières heures illustrent une industrie qui progresse simultanément sur plusieurs fronts — de la robotique à la cybersécurité, en passant par l’automatisation en santé et les débats géopolitiques sur le rôle de l’IA dans la défense nationale. Ces avancées révèlent aussi une lutte croissante entre innovation et supervision, alors que gouvernements, chercheurs et géants de la tech s’efforcent de définir des garde-fous face à une technologie qui évolue plus vite que les politiques ne peuvent suivre.