Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Avis : dans la ruée vers l'or de l'IA, la logique de « vendre des pelles » n'est plus efficace
Auteur : Ben Basche
Traduction : Shen Chao TechFlow
Shen Chao Introduction : « Dans la ruée vers l’or, vendre des pelles » a longtemps été la règle d’or dans le monde de l’entrepreneuriat. Mais à l’ère de l’IA, cette logique ne fonctionne plus — car les mineurs ont eux-mêmes ouvert des quincailleries. OpenAI, Anthropic, Google sont en train d’absorber systématiquement les secteurs des middleware, des assistants de programmation, de l’automatisation de navigateurs, etc. L’auteur Ben Basche pense que les véritables entreprises d’IA qui survivront ne sont pas celles qui vendent des outils, mais celles qui utilisent l’IA comme matière première dans des domaines verticaux — en approfondissant un secteur spécifique, en maîtrisant la connaissance locale, et en disposant d’un contexte irremplaçable.
Voici le texte intégral :
Il y a une phrase qui, avant et après la bulle Internet, est devenue une bénédiction pour le monde de l’entrepreneuriat : « Dans la ruée vers l’or, vendre des pelles et des pioches. » Cela signifie que ce n’est pas ceux qui creusent l’or qui gagnent, mais ceux qui fournissent aux mineurs. Le vrai gagnant est Levi Strauss, pas les chercheurs d’or.
C’est un bon cadre. Il a été utile pendant un certain temps.
Mais dans le domaine de l’IA, c’est faux. Si votre entreprise repose sur cette logique, il faut que vous regardiez attentivement ce qui s’est passé au cours des douze derniers mois.
Les laboratoires sont l’ensemble de la pile technologique
Voici ce qui s’est réellement passé — d’abord discrètement, puis soudainement en explosion.
OpenAI a lancé Operator, un agent informatique capable de naviguer sur le web, de remplir des formulaires, d’exécuter des tâches de bout en bout. Ensuite, Responses API et Agents SDK ont été déployés, permettant aux développeurs d’accéder directement à des capacités d’appel d’outils, de mémoire et d’orchestration sans frameworks tiers. Puis Codex, un agent de programmation cloud capable d’écrire, tester et faire évoluer du logiciel de façon autonome. Ajoutez à cela Deep Research. Chacun de ces produits, il y a deux ans, aurait suffi à soutenir une startup financée.
Anthropic a lancé Claude Code, Computer Use, Projects avec mémoire persistante, et MCP (Model Context Protocol) — devenant presque du jour au lendemain la norme principale pour connecter l’IA aux outils et données externes. Ensuite, ils ont donné MCP à la Linux Foundation, pour en faire une infrastructure plutôt qu’un produit. Puis, ils ont lancé Claude in Excel, Claude in Chrome, Cowork.
Google a lancé Gemini 2.0, doté d’appels d’outils natifs et de capacités multimodales, intégré à Vertex AI comme plateforme de contrôle pour les entreprises, offrant out-of-the-box des stratégies et orchestrations organisationnelles.
Chacun de ces mouvements grignote un territoire autrefois détenu par des startups.
La logique de « vendre des pelles » suppose implicitement que les laboratoires restent dans leur propre voie. Qu’ils construisent des modèles fondamentaux, fournissent des API, et laissent la couche d’outillage, d’orchestration et d’application à l’écosystème. Cette hypothèse est morte.
Le massacre des middleware
Voyons ce qui se passe concrètement dans la couche middleware.
LangChain est l’exemple le plus typique de la tendance « vendre des pelles » lors de la vague IA de 2023. Un framework pour relier les appels LLM, connecter des outils, gérer la mémoire. Des milliers d’équipes ont construit des produits dessus, avec plus de 100 000 étoiles sur GitHub. En 2024, diverses équipes commencent à écrire des blogs pour expliquer pourquoi elles retirent LangChain de leur environnement de production. Pas parce qu’il est mauvais, mais parce que les modèles sous-jacents sont devenus si intelligents qu’ils n’en ont plus besoin. L’abstraction construite par LangChain résout des problèmes d’hier.
Parallèlement, OpenAI a lancé son propre SDK pour agents. Microsoft a lancé AutoGen et Semantic Kernel. Les laboratoires et leurs maisons mères n’ont pas racheté LangChain. Ils ont simplement intégré nativement ce que LangChain faisait dans leurs plateformes.
Ce scénario se répète à chaque niveau : frameworks d’agents, gestionnaires de prompts, pipelines RAG, outils d’évaluation, outils d’observabilité. Tous sont absorbés par les fabricants de modèles sous-jacents pour devenir des fonctionnalités natives.
La dure réalité : quand OpenAI ou Anthropic intègrent directement la capacité d’orchestration dans leurs API, ils n’ont pas besoin de gagner en fonctionnalités. Ils ont juste besoin d’être « suffisants » et « déjà là ». Les développeurs suivent le chemin de moindre résistance. Les startups avec middleware sophistiqué doivent faire des gains énormes, tout en maintenant cet avantage face à l’évolution continue des modèles, et en rivalisant avec des concurrents disposant de capitaux illimités et contrôlant l’infrastructure de base. Ce n’est pas une vraie affaire, c’est un projet de recherche avec un compte à rebours.
Les mineurs ont eux-mêmes ouvert des quincailleries, donc on ne peut plus vendre des pelles
L’analogie de « vendre des pelles » ne fonctionne plus dans le domaine de l’IA, en raison d’une différence structurelle clé. En 1849, Levi Strauss et ces quincailleries ne creusaient pas eux-mêmes l’or. Les mineurs et les fournisseurs étaient des acteurs indépendants, séparés par des intérêts.
Dans l’IA, les laboratoires creusent l’or, vendent des pelles, construisent des routes, et impriment des cartes. Ils ont tout intérêt à contrôler toute la pile technologique, car chaque couche supplémentaire qu’ils détiennent leur donne un verrou supplémentaire, une opportunité d’expansion des profits, une barrière à l’entrée.
Anthropic a donné MCP à la Linux Foundation, ce n’est pas de la charité. C’est pour faire en sorte que cette norme qu’ils ont conçue devienne une infrastructure universelle, comme Ethernet. Les standards sont la barrière la plus puissante dans la tech, car ils sont invisibles et éternels.
Donc, si votre startup propose « de faire le pont entre développeurs et modèles pour faciliter X », il faut accepter une réalité : l’entité que vous servez est déjà consciente de vous, a les ressources pour vous copier, et a une raison structurelle de le faire.
Alors, qu’est-ce qui fonctionne ?
Revenons à la métaphore de la ruée vers l’or. Si vous ne pouvez plus vendre des pelles, que vendrez-vous ?
Des bijoux.
Ou, pour mieux dire : utilisez l’or comme matière première industrielle, en créant des produits que les mineurs eux-mêmes ne voudraient pas faire.
Dans la vraie ruée de 1849, les entreprises qui ont survécu à la période de prospérité n’étaient pas celles qui vendaient des outils universels. Ce sont celles qui ont utilisé l’or comme matière première, en s’appuyant sur une expertise approfondie pour fabriquer des produits spécifiques. Joailliers, dentistes, puis ingénieurs électriques. Ces personnes comprenaient des applications concrètes que les généralistes ne pouvaient pas maîtriser.
La version IA consiste à construire des applications dans des secteurs verticaux — des domaines où la connaissance du contexte réel, difficile à obtenir pour un laboratoire, est essentielle.
Voici ce que OpenAI, Anthropic et Google ne maîtrisent pas structurellement :
Ils ne comprennent pas en profondeur votre flux de travail sectoriel. Ils n’ont pas de lien avec vos clients. Ils ne peuvent pas facilement accéder à des données privées qui rendent leur modèle vraiment performant dans un contexte spécifique. Ils ne chercheront jamais à étudier en détail pourquoi un artisan sud-africain facture comme il le fait, ou pourquoi l’intégration des paiements mobiles au Kenya est compliquée, ou pourquoi l’autorisation préalable médicale aux États-Unis est un problème opérationnel spécifique, complexe et profondément intégré.
Les laboratoires construisent une infrastructure horizontale. La vraie opportunité est dans les secteurs verticaux — ceux qui nécessitent une connaissance locale spécifique à la géographie, la réglementation, la culture, et l’industrie pour fonctionner réellement.
C’est pourquoi la fintech dans les marchés émergents, les IA juridiques pour des juridictions spécifiques, les outils de conformité pour les industries réglementées, et l’automatisation des workflows dans des niches spécialisées sont plus défensifs que de « faire un meilleur LangChain ».
La barrière n’est pas dans le modèle. Elle est dans le contexte.
L’usage industriel de l’or
Une autre version de cette idée mérite d’être clarifiée : utiliser l’IA comme on utilise l’or industriellement. Non pas comme réserve de valeur ou objet de collection, mais comme composant intégré dans des produits qui créent une valeur économique durable.
L’or a une conductivité presque inégalée. C’est pourquoi chaque circuit imprimé en contient. Personne n’en parle, personne ne le met en avant dans ce contexte. Il sert silencieusement d’entrée clé dans un système plus vaste.
Les entreprises d’IA qui construiront la plus durablement sont celles qui considèrent le modèle comme un composant — une entrée pour un produit qui résout un vrai problème — plutôt que comme un produit en soi. L’IA est l’or dans le circuit, pas dans la vitrine.
Concrètement : vous choisissez un domaine avec une douleur réelle, une complexité de workflow réelle, des données difficiles à obtenir, puis vous construisez un produit qui utilise le modèle pour le rendre beaucoup meilleur. L’IA est la couche d’exécution, le produit est ce qui remplace un processus manuel pénible.
C’est l’inverse de « mettre une couche autour de GPT-4 ». La couche est la vitrine, le circuit est invisible.
Les secteurs récemment éliminés
Pour être plus précis, voici quelques catégories de startups que les laboratoires ont systématiquement absorbées depuis fin 2023 :
Frameworks d’orchestration d’agents. Aujourd’hui, ce sont les fonctionnalités natives de OpenAI Agents SDK, Anthropic Toolchain, Google Vertex Agent Builder.
Assistants de programmation IA. Codex de OpenAI peut désormais faire de la programmation autonome à l’échelle d’un dépôt complet. Claude Code aussi. GitHub Copilot est la solution native de Microsoft. La voie indépendante purement axée sur l’assistance à la programmation a été fortement comprimée.
Automatisation de navigateurs et d’ordinateurs. Operator d’OpenAI, Computer Use d’Anthropic, Gemini Astra de Google. Les trois laboratoires ont maintenant des produits dans ce domaine. Toutes les startups utilisant LLM pour la RPA jouent la défense.
Pipeline RAG et outils de recherche vectorielle. La plupart ont été commercialisés. La plupart des API de modèles intègrent désormais une recherche native. La différenciation au niveau des frameworks a disparu.
Assistants IA généralistes et outils d’efficacité. Dévorés directement par Claude, ChatGPT et Gemini.
Outils de gestion et d’évaluation de prompts. De plus en plus intégrés en tant que fonctionnalités natives. LangSmith a encore un peu d’espace, mais il faut courir contre le temps.
Le schéma est très cohérent : un laboratoire découvre qu’une catégorie attire une attention significative des développeurs, juge qu’elle est étroitement liée à son produit principal, puis publie une version. Pas forcément meilleure, mais intégrée, moins chère par défaut, et avec une capacité de distribution que les startups ne peuvent égaler.
Que faire maintenant ?
Si vous faites une startup dans l’IA aujourd’hui, la question n’est pas « y a-t-il une demande ». La demande est partout. La vraie question est : est-ce que cette chose sera balayée par un laboratoire disposant de plus de 10 milliards de dollars, avec un seul produit ?
Si la réponse est « oui » ou « peut-être », ce n’est pas une vraie affaire, c’est une fonctionnalité.
Une stratégie durable possède ces caractéristiques : une spécialisation verticale profonde (les laboratoires peuvent faire du général, mais pas votre général), des données ou relations privées impossibles à copier en scrappant le web public, une complexité réglementaire et de conformité qui rend « appeler directement l’API » insuffisant, et une communauté avec des canaux de distribution où la confiance et le contexte local sont plus importants que la capacité brute.
La ruée vers l’or est réelle. Il y a de l’or partout. Mais les mineurs ouvrent aussi des quincailleries, avec des capitaux illimités.
Vendez des bijoux. Ou, mieux encore : utilisez l’or comme matière première industrielle, en créant des produits que les mineurs eux-mêmes ne voudraient pas faire — parce qu’ils sont trop niche, trop localisés, ou trop profondément ancrés dans des connaissances sectorielles qu’ils ne posséderont jamais.
C’est, selon moi, la bonne stratégie.