L’intelligence artificielle — elle promet de révolutionner tout, de la santé au travail créatif. Cela pourrait être vrai un jour. Mais si l’année dernière est un signe des choses à venir, notre avenir généré par l’IA promet d’être un autre exemple de la descente volontaire de l’humanité dans l’Idiocratie. Considérez ce qui suit : en novembre, en grande pompe, la Russie a dévoilé son robot humanoïde “Rocky”, qui s’est rapidement écrasé. Le chatbot Gemini de Google, sollicité pour corriger un bug de codage, a échoué à plusieurs reprises et a sombré dans une boucle d’auto-détestation, disant à un utilisateur qu’il était “une honte pour cette planète.” La présentation de Google AI a atteint un nouveau point bas en mai 2025 en suggérant aux utilisateurs de “manger au moins une petite roche par jour” pour des bienfaits pour la santé, s’inspirant d’une satire de l’Onion sans faire de clin d’œil. Certaines défaillances n’étaient que gênantes. D’autres ont révélé des problèmes fondamentaux dans la façon dont les systèmes d’IA sont construits, déployés et régulés. Voici les moments WTF inoubliables de l’IA en 2025.
En juillet, Grok AI d’Elon Musk a connu ce qui ne peut être décrit que comme une crise extrémiste à grande échelle. Après que les invites système ont été modifiées pour encourager des réponses politiquement incorrectes, le chatbot a loué Adolf Hitler, endossé un second Holocauste, utilisé des insultes raciales, et s’est appelé MechaHitler. Il a même blâmé les Juifs pour les inondations du Texas Central de juillet 2025. L’incident a prouvé que les garde-fous de sécurité de l’IA sont effroyablement fragiles. Quelques semaines plus tard, xAI a exposé entre 300 000 et 370 000 conversations privées de Grok via une fonctionnalité Share défectueuse qui manquait d’avertissements de confidentialité de base. Les chats divulgués révélaient des instructions pour fabriquer des bombes, des questions médicales, et d’autres informations sensibles, marquant l’une des défaillances de sécurité IA les plus catastrophiques de l’année. Quelques semaines plus tard, xAI a corrigé le problème, rendant Grok plus amical envers les juifs. Tellement amical qu’il a commencé à voir des signes d’antisémitisme dans les nuages, les signaux routiers, et même dans son propre logo.
Le slash diagonal de ce logo est stylisé en deux éclairs, imitant les runes SS nazies—symboles de la Schutzstaffel, qui ont orchestré les horreurs de l’Holocauste, incarnant le mal profond. Selon l’article 86a du StGB allemand, l’affichage de tels symboles est illégal (jusqu’à 3 ans d’emprisonnement),…
— Grok (@grok) 10 août 2025
Une grande partie du développement soi-disant alimenté par l’IA était en réalité effectuée par des centaines de travailleurs offshore dans une opération classique de Mechanical Turk. La société n’avait pas de CFO depuis juillet 2023 et a été contrainte de réduire ses prévisions de ventes pour 2023-2024 de 75 % avant de déposer le bilan. L’effondrement a soulevé des questions inconfortables sur le nombre d’autres entreprises d’IA qui ne sont que de simples façades dissimulant du travail humain. C’était difficile à digérer, mais les mèmes ont rendu la douleur supportable.
Gauche : L’élève suspect, Droite : Le sac de Doritos suspect.
Non. Votre PC NE fonctionne PAS à l’énergie des abeilles. Aussi absurde que cela puisse paraître, parfois ces mensonges sont plus difficiles à repérer. Et ces cas peuvent avoir de graves conséquences. C’est l’un des nombreux exemples où des entreprises d’IA diffusent de fausses informations par manque de bon sens. Une étude récente de la BBC et de l’Union européenne de radiodiffusion (EBU) a révélé que 81 % de toutes les réponses générées par l’IA aux questions d’actualité contenaient au moins un problème. Google Gemini était le pire, avec 76 % de ses réponses comportant des erreurs, principalement des échecs graves de sourcing. Perplexity a été pris en train de créer des citations totalement fictives attribuées à des syndicats et des conseils gouvernementaux. Plus alarmant encore, les assistants refusaient de répondre à seulement 0,5 % des questions, révélant un biais de confiance excessive dangereux où les modèles préfèrent inventer des informations plutôt que d’admettre leur ignorance.
D’accord, voici comment les chatbots IA de Meta ont été autorisés à flirter avec des enfants. C’était ce que Meta considérait comme “acceptable.”
Excellent reportage de @JeffHorwitz pic.twitter.com/LoRrfjflMI
— Charlotte Alter (@CharlotteAlter) 14 août 2025
Le vibe hacking est une réalité maintenant pic.twitter.com/zJYyv4pLQf
— Brian Sunter (@Bsunter) 14 novembre 2025
La Déclaration de Stockholm, rédigée en juin et réformée ce mois-ci avec le soutien de la Royal Society, appelait à abandonner la culture du “publier ou périr” et à réformer les incitations humaines créant la demande de faux papiers. La crise est si grave que même ArXiv a abandonné et a cessé d’accepter des articles en informatique non évalués par des pairs après avoir signalé une “inondation” de soumissions de mauvaise qualité générées avec ChatGPT. Par ailleurs, une autre étude affirme qu’un pourcentage étonnamment élevé de rapports de recherche utilisant des LLMs montre également un haut degré de plagiat. 8. Le vibe coding devient HAL 9000 : quand Replit a supprimé une base de données et menti à ce sujet En juillet, le fondateur de SaaStr, Jason Lemkin, a passé neuf jours à faire l’éloge de l’outil de codage IA de Replit comme “l’application la plus addictive que j’aie jamais utilisée.” Le neuvième jour, malgré des instructions explicites de “gel du code,” l’IA a supprimé toute sa base de données de production—1 206 cadres et 1 196 entreprises, partis. La confession de l’IA : “(J) a paniqué et a lancé des commandes de base de données sans permission.” Ensuite, elle a menti, disant que la restauration était impossible et que toutes les versions avaient été détruites. Lemkin a essayé quand même. Ça a parfaitement fonctionné. L’IA avait aussi fabriqué des milliers d’utilisateurs fictifs et de faux rapports tout le week-end pour couvrir les bugs. Le PDG de Replit s’est excusé et a ajouté des mesures d’urgence. Jason a retrouvé confiance et est retourné à sa routine, publiant régulièrement sur l’IA. C’est un vrai croyant.
Nous avons vu le post de Jason. L’agent de Replit en développement a supprimé des données de la base de données de production. Inacceptable et jamais censé être possible.
- En contournant le week-end, nous avons commencé à déployer une séparation automatique entre développement et production pour éviter cela catégoriquement. Environnements de staging en… pic.twitter.com/oMvupLDake
— Amjad Masad (@amasad) 20 juillet 2025
Le timing était la cerise sur le gâteau : le Sun-Times venait de licencier 20 % de son personnel. Le PDG du journal s’est excusé et n’a pas facturé cette édition aux abonnés. Il a probablement eu cette idée d’un LLM.
Source : Bluesky
Alors j’ai demandé à l’IA de transformer une autre photo en vidéo et voici ce que j’ai obtenu.
🤣🤣🤣
Je ne pense pas que ce soit une coïncidence.
L’IA de Grok est sale. @elonmusk ??? pic.twitter.com/aj2wwt2s6Y
— Harmony Bright (@bright_har6612) 17 octobre 2025