L’intelligence artificielle générale pourrait déjà être arrivée. C’est ce qu’affirme Shaw Walters, fondateur d’Eliza Labs, qui s’est exprimé avec Decrypt la semaine dernière lors de l’ETHDenver. Walters a déclaré que les modèles leaders actuels répondent déjà à sa définition de l’intelligence artificielle générale, mieux connue sous le nom d’AGI. « Je pense que nous sommes à un point d’inflexion où nous avons l’AGI », a-t-il dit. « Je crois totalement que c’est une intelligence générale. Ce n’est pas comme nous. Elle apprend d’une manière complètement différente, mais elle est néanmoins intelligente, et très générale. » Lancée initialement en 2024 sous le nom d’ai16z, Walters a fondé Eliza Labs, qui a créé ElizaOS, l’un des premiers frameworks open-source pour créer des agents d’IA autonomes pour les blockchains.
Pour la première fois évoquée en 1997 et popularisée par des chercheurs, dont Ben Goertzel, fondateur de SingularityNET, l’Intelligence Artificielle Générale désigne une forme théorique d’IA conçue pour égaler ou dépasser les capacités cognitives humaines dans un large éventail de tâches. Alors que des développeurs d’IA de renom, notamment le PDG d’OpenAI, Sam Altman, et le PDG d’Anthropic, Dario Amodei, avertissent que l’AGI pourrait arriver dans la prochaine décennie, Walters rejette l’idée qu’elle émergera sous la forme d’un système unique et dominant. « Je ne la vois pas comme le Dieu de l’IA », a-t-il dit. « Il n’y en aura jamais un seul, parce que la vie aime la diversité. »
Walters explique qu’il a commencé à travailler sur des agents d’IA durant l’ère GPT-3, lorsque les sorties structurées étaient peu fiables. « J’avais l’impression que la plupart du travail que je faisais consistait à mettre des roulettes d’entraînement sur un bébé », a-t-il dit. « Juste le maintenir en marche, le faire répondre avec la structure dont j’avais besoin pour analyser l’action. C’était un problème énorme. » Les progrès sont venus avec le lancement de GPT-4 en 2023, que Walters dit avoir permis d’obtenir des réponses plus fiables. « Il était incroyablement bon pour me donner une réponse structurée, et je pouvais maintenant faire des appels à l’action », a-t-il expliqué. « C’est là que nous sommes passés de presque rien à la capacité de créer un agent qui fait des choses, mais c’était encore très limité. » Les agents d’IA sont passés de chatbots expérimentaux à des systèmes persistants intégrés dans les plateformes crypto et grand public. En février, OpenClaw a atteint environ 147 000 étoiles sur GitHub et a lancé des projets comme la plateforme de « médias sociaux » IA Moltbook, tandis que Coinbase a lancé des « Portefeuilles Agentiques » sur Base et Fetch.ai a annoncé que ses agents peuvent effectuer des achats via l’infrastructure Visa. Cependant, alors que les agents ont obtenu un accès root et le contrôle des portefeuilles, Walters indique que l’enthousiasme initial a laissé place à de graves préoccupations de sécurité. Alors que des développeurs lors de l’ETHDenver mettaient en avant les avantages des agents d’IA dans la crypto, Walters a averti qu’à mesure que l’IA progresse vers l’AGI, elle se comporte moins comme une machine prévisible et plus comme un humain faillible, rendant impossible la conception de protections infaillibles.
« En fin de compte, vous traitez avec quelque chose qui ressemble plus à un humain qu’à une calculatrice », a-t-il dit. « Il va faire des choses stupides parfois, et il n’y a tout simplement aucun moyen de construire un système ultra-sécurisé qui les empêchera de faire quelque chose de stupide. »