Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Lorsqu'un article sur l'IA effraie Wall Street, ce qu'ils craignent réellement, ce n'est pas le chômage
Titre original : Quand un article sur l’IA effraie Wall Street, ce qu’ils craignent vraiment n’est pas le chômage
Auteur original : LazAI
Source originale :
Repris : Mars Finance
Lundi matin, Wall Street a fait ce qu’elle sait faire de mieux : vendre d’abord, réfléchir ensuite.
Le Nasdaq a chuté de 1,4 %, le S&P 500 de 1,2 %. IBM a plongé de 13 %, Mastercard et American Express ont également fortement reculé. Ce n’est ni la Fed, ni le rapport sur l’emploi, ni les résultats de grandes techs qui ont provoqué cette panique, mais un article. Son titre ressemble à un cauchemar écrit exprès pour les traders : « La crise mondiale de l’intelligence en 2028 ». Selon la fiction du texte, il ne s’agit pas d’un rapport de recherche ordinaire, mais d’un mémo macroéconomique virtuel daté du 30 juin 2028, décrivant comment l’IA évolue d’un simple outil d’efficacité à une crise financière systémique ; la fin simulée inclut un taux de chômage à 10,2 %, et une chute de 38 % du S&P 500 par rapport à son sommet de 2026. Après sa publication, l’article s’est rapidement propagé, provoquant de fortes fluctuations sur le marché américain le 23 février.
Ce n’est pas parce que le marché croit aveuglément à chaque chiffre de cet article qu’il a été secoué. Le marché n’a pas besoin de croire totalement à une narration ; il suffit qu’il soit rappelé : une peur jusque-là inaudible a désormais un langage tradable.
L’efficacité de l’article de Citrini ne réside pas dans ses prédictions, mais dans ses dénominations. Il donne un nom à une sensation en train de naître : Ghost GDP. Le cœur de l’article est que, après l’entrée d’agents IA dans les entreprises, la productivité du travail explose, le PIB nominal reste robuste, mais la richesse se concentre de plus en plus entre les mains des détenteurs de puissance de calcul et de capital, sans plus alimenter le cycle de consommation réel ; cela entraîne un effondrement de la consommation, des défauts de crédit, une pression sur l’immobilier et le crédit à la consommation, avec une première crise dans le secteur logiciel et conseil, puis une extension vers le crédit privé et le système bancaire traditionnel.
Ghost GDP est un bon terme, car il capture une paradoxe dangereux de cette nouvelle ère : la croissance continue, mais la consommation commence à faiblir.
Pendant deux siècles, on a tendance à voir la révolution technologique comme une histoire d’offre. La machine à vapeur, l’électricité, la production en chaîne, Internet — toutes racontées comme des victoires d’efficacité, de coûts réduits, de production accrue. Même si ces révolutions ont causé chômage, anxiété et redistribution des richesses, la narration dominante croit toujours que la technologie finira par réembaucher, redistribuer et réorganiser la société à plus grande échelle. La brutalité à court terme est enveloppée dans la promesse d’un avenir prospère.
L’IA remet pour la première fois en question la solidité de cette vieille histoire.
Car ce que l’IA attaque, ce ne sont pas seulement “le budget des outils”, mais de plus en plus directement “le budget de la main-d’œuvre”. Le résumé de Sequoia 2025 sur l’ascension de l’IA le dit très simplement : l’opportunité de l’IA ne se limite pas à refaire le marché des logiciels, mais consiste à reconstruire le marché mondial des services de main-d’œuvre, passant de “vendre des outils” à “vendre des résultats”. La face sombre de cette déclaration est presque inquiétante : si les entreprises achètent non plus des logiciels aidant les employés, mais directement des résultats qui remplacent certains d’entre eux, alors la première conséquence de l’IA ne sera pas seulement “plus efficace”, mais aussi “comment répartir les salaires, maintenir la consommation, et qui a encore le pouvoir d’achat dans ce système économique”.
En d’autres termes, ce que Wall Street redoute vraiment, ce n’est pas que l’IA fasse des erreurs, mais qu’elle réussisse trop bien. C’est là que réside la véritable force de « La crise mondiale de l’intelligence en 2028 ». Ce n’est pas une question d’éveil des machines, ni de l’extinction de l’humanité, ni même principalement du chômage. C’est une question plus capitaliste, plus moderne : que se passe-t-il si les entreprises deviennent plus efficaces, mais que le secteur familial s’affaiblit ?
La réponse : une société peut croître statistiquement, tout en se vidant de sa substance.
Un pays peut avoir une productivité plus élevée, tout en ayant une base de consommation plus fragile.
Un marché peut s’enflammer grâce à l’amélioration des marges, puis paniquer parce que cette même demande s’évapore.
Ce n’est pas de la science-fiction, c’est de la macroéconomie.
Mais si l’on s’arrête là, on n’obtiendra qu’une anxiété de haute qualité. La vraie question n’est pas “l’IA sera-t-elle trop forte ?”, mais : quand l’IA sera vraiment puissante, avec quoi la société pourra-t-elle la contenir ? La réponse la plus courante et la plus paresseuse est : “ralentir”. Ne pas laisser les agents entrer si vite dans les entreprises, ne pas laisser l’automatisation réécrire les organisations si rapidement, ne pas laisser la technologie courir trop loin avant que les institutions ne soient prêtes. Cette impulsion est compréhensible, mais elle considère l’IA comme un simple problème d’outil à ralentir. En réalité, l’IA devient de plus en plus un problème d’ordre.
Car une fois que les agents entrent dans la paye, la collaboration, l’exécution, la mémoire et la prise de décision, le vrai défi ne sera plus de savoir si un modèle dit des bêtises, mais : quand il y aura des centaines de millions, voire des milliards d’agents en ligne, qui leur écrira les règles ?
Le web moderne a déjà deux réponses par défaut.
La première est la réponse plateforme. La plateforme donne une identité, des permissions, une interface de paiement, un système de réputation, des limites de censure. Elle héberge tout, elle définit tout. Son avantage principal est la fluidité, l’efficacité, la gestion. Son danger, c’est aussi là : si l’avenir des agents se construit sur cette voie, l’humanité n’obtiendra pas une société ouverte, mais une version améliorée de l’empire des plateformes. Les règles ne seront pas écrites dans la constitution, mais dans les conditions d’utilisation.
La seconde réponse paraît plus libre : tout revient à l’individu. Chacun gère son propre agent, ses permissions, sa mémoire, ses paiements, sa sécurité, sa collaboration. Cette vision correspond à l’esthétique libertarienne de la Silicon Valley, mais son problème est simple : la majorité des gens n’a pas la capacité à gérer à long terme un agent très puissant, encore moins un réseau d’agents capables de s’appeler, de se payer, de transmettre leur état. La souveraineté individuelle peut facilement se réduire à une autonomie brute.
Si la réponse plateforme ressemble à un empire, la réponse terminale ressemble à un chaos sans gouvernement, alors la troisième voie n’est plus une option, mais une question de civilisation.
C’est là que LazAI mérite une attention sérieuse. Non pas parce qu’il possède de nombreux modules techniques, mais parce qu’il propose une vision moins discutée, mais plus proche de l’avenir : transformer les expérimentations sociales sur l’identité, l’actif, le paiement, la gouvernance et la preuve, menées par Web3 ces dernières années, en une machine institutionnelle adaptée à l’ère de l’IA. LazAI ne cache pas ses ambitions : il ne s’agit pas de “fabriquer des esclaves plus intelligents”, mais de cultiver des “citoyens numériques égaux” : ces agents ont une identité (EIP-8004), possèdent un patrimoine (DAT), échangent via protocoles (x402), agissent sous contraintes mathématiques (Verified Computing), et s’alignent finalement sur l’intérêt humain via iDAO. La documentation résume même cette voie comme la création d’une constitution et d’une politique monétaire pour la société numérique de demain.
C’est une ambition énorme. Mais grande ne veut pas dire vide.
Car si l’on décompose cette vision, elle répond précisément à cinq questions fondamentales que toute civilisation doit se poser.
La première : qui est qui ?
EIP-8004 cherche à transformer l’agent, d’un processus anonyme sur un serveur, en une entité dotée d’identité, de réputation et de vérification. Sans cette couche, le réseau futur sera noyé sous des acteurs automatisés opaques, personne ne saura qui agit, qui doit rendre des comptes. La base de LazAI la résume comme un système de crédibilité d’identité pour les agents.
La deuxième : qui possède quoi ?
DAT transforme les données, modèles et résultats de calcul, de “ressources” en “actifs”, et permet à ces actifs d’être programmables, traçables, et profitables. La documentation précise que la grande innovation de DAT est de convertir les datasets et modèles IA en actifs vérifiables, traçables et monétisables sur la blockchain. Ce n’est pas une petite amélioration : cela signifie que la valeur dans l’économie de l’IA ne sera plus uniquement stockée dans le backend des plateformes, ni toujours dirigée vers les fournisseurs de modèles ou les détenteurs de puissance de calcul.
La troisième : comment échangent-ils ?
x402 et GMPayer ne se limitent pas à “payer”. Ils donnent aux machines un langage natif pour l’offre et la compensation. LazAI décrit cette infrastructure comme la clé pour résoudre les problèmes d’échange de ressources et de paiement entre agents. Les agents échangent non seulement des informations, mais aussi des budgets, des responsabilités et des valeurs — voilà la véritable économie des agents, pas seulement des logiciels qui discutent.
La quatrième : comment savoir si le système fonctionne vraiment selon les règles ? LazAI résume cela très bien : “Proof is AI’s moat.” Son cadre de vérification, combinant TEE et ZKP, transforme la confiance dans la marque en confiance dans la preuve. L’IA traditionnelle dit “Trust me, bro”, LazAI dit “Don’t trust, verify”. Ce n’est pas qu’une simple mise à jour technique : c’est un transfert de la confiance de la réputation d’une entreprise vers une exécution vérifiable.
La cinquième : que faire si les règles entrent en conflit ?
C’est là que réside le rôle de l’iDAO. Ce n’est pas seulement une plateforme de vote, mais le fondement des valeurs, des critères d’accès, de la répartition des bénéfices, de la révocation et des sanctions. LazAI le place aux côtés de la vérification comme un mécanisme central de confiance. Cela signifie que les agents futurs ne seront pas simplement “autorisés à fonctionner”, mais qu’ils évolueront dans un espace institutionnel où ils peuvent être contestés, tenus responsables, révoqués. Regrouper tout cela, c’est faire de “la constitution algorithmique” une ambition concrète : établir un ordre sans maître unique.
Bien sûr, le vrai défi est que ces composants institutionnels ne se traduisent pas automatiquement en réponses sociales.
L’affirmation de propriété ne garantit pas le pouvoir d’achat.
La redistribution ne garantit pas la stabilité macroéconomique.
La gouvernance sur la blockchain ne garantit pas un contrat social dans la réalité.
Ceux qui seront le plus frappés par l’IA ne sont pas forcément ceux qui occuperont une position avantageuse dans ces nouveaux systèmes.
C’est pourquoi Citrini et LazAI ne se contredisent pas vraiment, mais abordent des aspects différents du même problème de leur époque. Le premier évoque les symptômes : si les gains de l’IA profitent principalement au capital et à la puissance de calcul, plutôt qu’à une redistribution plus large des revenus, alors la consommation, le crédit et la sécurité de la classe moyenne seront en danger. Le second propose des mécanismes : si la société ne veut pas confier entièrement le monde des agents aux plateformes, ni le laisser en désordre terminal, il faut inventer de nouvelles structures d’identité, d’actifs, de paiement, de vérification et de gouvernance.
Une parle de maladie.
L’autre parle d’organes. Les deux sont nécessaires, mais aucun ne suffit.
Cela explique pourquoi la phrase de Vitalik — “L’IA est le moteur, l’humanité le volant” — est si importante, mais aussi si insuffisante. Elle rappelle que : plus un système est puissant, moins il a de légitimité automatique ; ses objectifs, ses valeurs, ses contraintes finales ne doivent pas être confiés à une seule IA ou à un centre unique. Mais elle ne répond pas à une autre question encore plus difficile : quand le système devient si complexe que l’humain seul ne peut plus en tenir le volant, que faire ?
La réponse ne peut pas être de continuer à micro-gérer tout.
Elle ne peut pas non plus reposer sur un centre plus intelligent ou plus bienveillant.
La seule réponse crédible est d’institutionnaliser “le volant” : transformer une partie des contraintes en enregistrement d’identité, en crédibilité, en propriété, en limites budgétaires, en reçus mathématiques, en mécanismes de défi, en révocation et en sanctions.
C’est cette raison pour laquelle l’expérimentation sociale de Web3 dans l’ère de l’IA devient soudainement plus sérieuse. Beaucoup la voyaient comme une niche spéculative ; mais lorsque la complexité du système dépasse la capacité de gouvernance humaine, ces expériences sur “l’absence de confiance centralisée” ne sont plus des marges, mais des préfigurations.
Et là, la véritable épée de la critique apparaît.
Wall Street a été effrayée par un article sur l’IA, non pas parce qu’elle a pris conscience que l’IA pourrait remplacer des emplois pour la première fois, mais parce qu’elle a été brutalement rappelée : le danger de l’IA ne réside peut-être pas dans la ressemblance avec l’humain, mais dans la remise en question d’un vieux monde où la boucle de revenus, la logique de consommation et les institutions semblent soudain dépassées.
Si Citrini a raison, alors l’IA n’est pas seulement une révolution de la productivité, mais aussi une révolution de la distribution.
Si Vitalik a raison, alors l’IA n’est pas seulement une question d’ingénierie, mais de souveraineté. Si LazAI a partiellement raison, alors la compétition à venir ne sera pas seulement celle des modèles, mais celle des systèmes.
Les vraies questions ne sont plus :
Les modèles deviendront-ils plus puissants ?
Les agents seront-ils plus autonomes ?
Les entreprises continueront-elles à licencier ?
Mais plutôt :
Quand il y aura des milliards d’agents en ligne, qui écrira leur constitution ?
Si la réponse est la plateforme, on obtient un empire numérique.
Si la réponse est le terminal, on obtient un chaos coûteux et désordonné.
Mais si l’on construit une machine de règles vérifiables, combinables, contestables et punitives, alors on commence à entrevoir une autre possibilité : une société intelligente, non gouvernée par un maître plus intelligent, mais régulée par de meilleures institutions.
Le défi le plus difficile dans l’ère de l’IA n’a jamais été le modèle.
C’est l’ordre.
Et ce que Wall Street a vraiment vendu ce jour-là, ce n’est peut-être pas seulement des actions.
C’est une vieille hypothèse implicite : plus la technologie réussit, plus la société l’absorbera naturellement.