Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
La poursuite de l'AGI par OpenAI est un concept et un contrat délicats
NEW YORK, 16 mars (Reuters Breakingviews) - Imaginez un partenariat extrêmement réussi qui se dissout dès qu’un événement survient. Sauf qu’il n’est pas clair de quel événement il s’agit, s’il s’est déjà produit, ou même si c’est possible. Voilà le défi auquel sont confrontés OpenAI et Microsoft (MSFT.O), qui envisagent l’éventuelle arrivée de l’intelligence artificielle générale. L’opacité de leur accord, et les sommes d’argent en jeu, rendent presque inévitable qu’un débat théorique se transforme en litige contractuel.
Le concept connu sous le nom d’AGI est le point où les systèmes autonomes peuvent égaler ou surpasser les humains dans des tâches intellectuelles. À Silicon Valley, c’est à la fois un objectif ambitieux et une menace existentielle. Créer un système auto-apprenant pourrait, théoriquement, aboutir à des résultats allant d’un âge d’or pour l’humanité à l’extinction.
La newsletter Reuters Iran Briefing vous tient informé des derniers développements et analyses de la guerre en Iran. Inscrivez-vous ici.
Fondée en 2015, OpenAI avait pour objectif explicite cela. Sam Altman, Ilya Sutskever, Elon Musk et d’autres ont entrepris de créer une AGI, qu’ils définissent, ouvre une nouvelle fenêtre, comme « des systèmes hautement autonomes qui surpassent les humains dans la plupart des travaux économiquement précieux, pour le bénéfice de toute l’humanité ». Conformément à l’idée que l’amour de l’argent est la racine du mal, OpenAI a été créée en tant qu’organisation à but non lucratif.
L’ego et la bonne volonté ne suffisaient pas, cependant : la course à l’IA nécessitait aussi d’énormes ressources financières. La société a donc créé une branche à but lucratif en 2019, et a noué un partenariat avec Microsoft. Le géant du logiciel a investi 1 milliard de dollars et fourni une infrastructure informatique en échange d’un accès à la technologie d’OpenAI. La startup a insisté sur le fait qu’une fois l’AGI atteinte, les droits exclusifs sur la technologie reviendraient à la startup.
Cela représentait probablement une concession facile à faire à l’époque. Pourtant, à mesure que les systèmes d’IA ont rapidement gagné en capacité, définir l’AGI est devenu une question moins abstraite. Sur des mesures telles que le raisonnement visuel, la compréhension de l’anglais ou les mathématiques de niveau compétition, les systèmes avancés ont dépassé les benchmarks humains moyens, selon l’Institut Stanford pour l’IA centrée sur l’humain.
C’est ici que le débat conceptuel se transforme en un enjeu contractuel. Comme l’expliquait le juge de la Cour suprême Potter Stewart à propos de l’obscénité — « je le reconnais quand je le vois » — l’AGI était mal définie. La clause d’OpenAI n’était ni concrète ni facilement observable, comme l’ont souligné des chercheurs de Google, ouvre une nouvelle fenêtre, dans un article de 2023 qui tentait d’établir un cadre pour de telles déclarations.
Prenez la disposition selon laquelle le jalon serait atteint lorsque les systèmes surpasseraient la majorité des humains dans des travaux économiquement précieux. Que signifie « la majorité des gens » ? Peut-on mesurer cela sans déploiement dans le monde réel, ou si l’utilisation est ralentie pour des raisons légales ou éthiques ? Enfin, la valeur économique de nombreux emplois est difficile à définir.
Par ailleurs, la formation et le déploiement de modèles d’IA nécessitent des sommes colossales. Microsoft, Alphabet (GOOGL.O), opens une nouvelle fenêtre, Meta Platforms (META.O), opens une nouvelle fenêtre, et Oracle (ORCL.N), opens une nouvelle fenêtre, ont fortement augmenté leurs dépenses en capital en réponse à ces besoins et prévoient de dépenser plus de 700 milliards de dollars cette année. En tant que startup sans sources de revenus existantes, OpenAI avait besoin de soutien.
Microsoft a finalement injecté un total de 13 milliards de dollars. Ce n’était cependant pas suffisant pour OpenAI, et l’accord de plus en plus complexe entre les deux entreprises, dont plusieurs parties dépendaient de la clause sur l’AGI, a créé des frictions des deux côtés.
D’autres industries ont appris que les accords vagues et les sommes importantes d’argent ne font pas bon ménage. Prenez les obligations catastrophe, qui aident les entreprises à transférer le risque financier lié aux ouragans, inondations ou pandémies. Ces événements sont rares, mais la facture de 1,4 trillion de dollars d’une tempête frappant une grande ville américaine comme Miami pourrait faire vaciller toute l’industrie de l’assurance. Les entreprises font donc appel à des outsiders prêts à prendre en charge des risques énormes mais peu probables, en échange de paiements. Des accords initialement opaques ont conduit à des litiges amers, comme la bataille juridique de cinq ans entre un réassureur et des détenteurs d’obligations sur ce qui était exactement couvert après un ouragan de 2008.
Les obligations catastrophe ont depuis évolué vers des déclencheurs plus concrets et facilement observables, réduisant l’incertitude et évitant les litiges. Pensez à mesurer la vitesse du vent à un endroit précis, par exemple, plutôt que les pertes globales de l’industrie de l’assurance ou si un gouvernement déclare l’état d’urgence.
Dans les fusions biotech, les entreprises utilisent des paiements conditionnels pour combler le fossé entre acheteur et vendeur lors de l’évaluation de médicaments expérimentaux. Ceux-ci intègrent généralement des déclencheurs non contestables, comme l’approbation de la FDA américaine avant une date précise.
Depuis, OpenAI et Microsoft ont trouvé une forme de détente, probablement parce que des négociations prolongées pourraient finir par faire perdre les deux parties. Un nouvel accord, signé fin de l’année dernière, stipule qu’un panel indépendant doit vérifier toute déclaration d’OpenAI selon laquelle l’AGI a été atteinte.
Microsoft détient une participation de 27 % dans l’entreprise, récemment évaluée à 840 milliards de dollars, et conserve certains droits technologiques jusqu’en 2032, même si l’AGI est atteinte. La société de Sam Altman peut désormais rechercher des partenariats ou une introduction en bourse. Cependant, il existe encore des raisons de tension. OpenAI reverse environ 20 % de ses revenus à Microsoft, et cela disparaîtrait essentiellement si l’AGI se réalise. Un tel changement financier majeur aurait un impact considérable sur les finances d’OpenAI alors qu’elle se prépare à vendre des actions au public.
La question de la définition de l’AGI n’a pas vraiment été tranchée. Sam Altman a déclaré, tard l’année dernière dans un podcast, que les gens ne s’en étaient pas vraiment aperçus et que cela n’avait pas changé le monde, mais « nous avons construit une AGI ». Le PDG de Microsoft, Satya Nadella, semble se concentrer davantage sur les grands effets, affirmant l’année dernière que l’AGI serait « une manipulation de référence insensée » et que la véritable mesure du succès serait la croissance improbable de 10 % de l’économie mondiale.
Le débat a également évolué. Même des évangélistes de l’IA comme Altman admettent que l’IA fait encore mal certaines choses, comme le raisonnement complexe et la capacité d’apprendre. Il prône désormais l’idée de superintelligence et de systèmes d’IA capables de faire des choses que les humains ne peuvent pas, ou de systèmes accomplissant des emplois, comme être président des États-Unis, mieux qu’un humain. Cependant, cela reste une définition floue.
Altman continue de poursuivre. La récente levée de fonds de 110 milliards de dollars d’OpenAI comprenait une grosse contribution d’Amazon (AMZN.O), opens une nouvelle fenêtre, qui pourrait dépendre de la société passant en bourse ou atteignant l’AGI, selon le journal The Information, opens une nouvelle fenêtre.
Dans une interview avec CNBC après l’accord, Altman a déclaré que les progrès de l’IA restent rapides, et que puisque l’AGI est une « chose à court terme », la société ne conclut pas de nouveaux accords qui s’arrêtent une fois celle-ci atteinte. Ce calendrier peut être optimiste, mais si c’est le cas, le conflit a encore du temps, et des incitations, pour resurgir.
Suivez Robert Cyran sur Bluesky, opens une nouvelle fenêtre.
Pour plus d’analyses comme celles-ci, cliquez ici, opens une nouvelle fenêtre, pour essayer Breakingviews gratuitement.
Rédaction par Peter Thal Larsen ; Production par Maya Nandhini
Breakingviews
Reuters Breakingviews est la principale source mondiale d’analyses financières à la fois incisives et de premier plan. En tant que marque de Reuters pour les commentaires financiers, nous décortiquons chaque jour les grandes histoires économiques et commerciales qui font l’actualité mondiale. Une équipe mondiale d’environ 30 correspondants à New York, Londres, Hong Kong et dans d’autres grandes villes fournit une analyse experte en temps réel.
Inscrivez-vous pour un essai gratuit de notre service complet à https://www.breakingviews.com/trial et suivez-nous sur X @Breakingviews et sur www.breakingviews.com. Toutes les opinions exprimées sont celles des auteurs.