Le PDG d’OpenAI, Sam Altman, ne s’inquiète pas de la consommation croissante de ressources par l’IA, et a affirmé que les humains en ont aussi besoin.
Vidéo recommandée
Lors d’une interview sur scène au sommet India AI Impact, il est devenu défensif après qu’on lui a posé des questions sur les besoins en eau de ChatGPT.
Il a rejeté les affirmations selon lesquelles le chatbot utiliserait des gallons d’eau par requête comme étant « totalement fausses, complètement insensées », selon un extrait publié par The Indian Express, expliquant que les centres de données alimentant ChatGPT ont largement abandonné le refroidissement par évaporation, qui consomme beaucoup d’eau, pour éviter la surchauffe.
Altman a ensuite été interrogé sur la consommation d’électricité liée à l’IA. Contrairement au problème de l’eau, il a estimé qu’il était « juste » de soulever la question des besoins énergétiques de la technologie, en disant « Nous devons rapidement passer à l’énergie nucléaire, éolienne ou solaire. »
Mais il a souligné que comparer les besoins en énergie de l’IA à ceux des humains n’est pas tout à fait comparable.
« Il faut aussi beaucoup d’énergie pour entraîner un humain, » a-t-il dit, ce qui a fait rire certains dans l’audience. « Il faut, genre, 20 ans de vie, et toute la nourriture que vous mangez pendant cette période avant de devenir intelligent. »
Altman a encore approfondi en notant que les humains d’aujourd’hui ne seraient même pas là sans leurs ancêtres remontant à des centaines de milliers d’années, à l’époque où les humains modernes sont apparus.
« Non seulement cela, mais il a fallu l’évolution très répandue des 100 milliards de personnes qui ont vécu, qui ont appris à ne pas se faire manger par des prédateurs et à comprendre la science ou autre pour vous produire, » a-t-il ajouté.
En comparant les humains au potentiel de ChatGPT, il faut prendre ce contexte en compte, a-t-il argumenté. Une comparaison équitable serait de mettre en regard l’énergie qu’un humain utilise pour répondre à une requête avec celle d’une IA après son entraînement. Sur cette base, « probablement, l’IA a déjà rattrapé son retard en termes d’efficacité énergétique, mesurée de cette façon. »
Dans un article de blog de juin 2025, Altman a affirmé que chaque requête à ChatGPT consomme environ 0,34 watt-heure d’électricité, soit à peu près ce qu’un four utilise en une seconde. Cependant, il a publié cette information avant que OpenAI ne sorte son tout nouveau modèle GPT-5 et ses mises à jour ultérieures. La consommation d’énergie peut également varier en fonction de la complexité d’une requête, par exemple, répondre à une question ou créer une image.
Les experts ont averti que l’IA dans son ensemble augmentera considérablement sa consommation cumulée d’énergie et d’eau au cours des 20 prochaines années environ. Selon un rapport de janvier du spécialiste en technologie de l’eau Xylem et de la société de recherche de marché Global Water Intelligence, la consommation d’eau de l’IA devrait augmenter d’environ 130 %, soit environ 30 trillions de litres (7,9 trillions de gallons) d’ici 2050.
Pendant cette même période, la demande croissante en électricité devrait augmenter la consommation d’eau pour la production d’énergie des centres de données d’environ 18 %, atteignant environ 22,3 trillions de litres (5,8 trillions de gallons) par an. Par ailleurs, les puces de plus en plus complexes utilisées dans ces centres nécessiteront plus d’eau lors de leur fabrication, ce qui fera grimper leur consommation de 600 % à 29,3 trillions de litres (7,7 trillions de gallons) par an, contre environ 4,1 trillions de litres (1,8 trillion de gallons) aujourd’hui.
Alors qu’OpenAI s’est éloigné du refroidissement par évaporation, 56 % de tous les centres de données dans le monde utilisent encore cette méthode d’une manière ou d’une autre, selon le rapport de Xylem et Global Water Intelligence.
Le complexe de centres de données d’OpenAI, couvrant 800 acres à Abilene, au Texas, utilisera apparemment de l’eau, mais dans un système plus efficace et en circuit fermé qui recircule continuellement l’eau pour refroidir le centre, a rapporté The Texas Tribune. Au départ, le centre utilisera 8 millions de gallons d’eau de la ville d’Abilene pour remplir son système de refroidissement.
Rejoignez-nous au sommet Fortune Workplace Innovation les 19 et 20 mai 2026, à Atlanta. La nouvelle ère de l’innovation en milieu de travail est là — et l’ancien manuel est en train d’être réécrit. Lors de cet événement exclusif et dynamique, les leaders les plus innovants du monde se réuniront pour explorer comment l’IA, l’humanité et la stratégie convergent pour redéfinir, encore une fois, l’avenir du travail. Inscrivez-vous dès maintenant.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Sam Altman devient défensif à propos de la consommation massive d'électricité de l'IA : « Il faut aussi beaucoup d'énergie pour former un humain »
Le PDG d’OpenAI, Sam Altman, ne s’inquiète pas de la consommation croissante de ressources par l’IA, et a affirmé que les humains en ont aussi besoin.
Vidéo recommandée
Lors d’une interview sur scène au sommet India AI Impact, il est devenu défensif après qu’on lui a posé des questions sur les besoins en eau de ChatGPT.
Il a rejeté les affirmations selon lesquelles le chatbot utiliserait des gallons d’eau par requête comme étant « totalement fausses, complètement insensées », selon un extrait publié par The Indian Express, expliquant que les centres de données alimentant ChatGPT ont largement abandonné le refroidissement par évaporation, qui consomme beaucoup d’eau, pour éviter la surchauffe.
Altman a ensuite été interrogé sur la consommation d’électricité liée à l’IA. Contrairement au problème de l’eau, il a estimé qu’il était « juste » de soulever la question des besoins énergétiques de la technologie, en disant « Nous devons rapidement passer à l’énergie nucléaire, éolienne ou solaire. »
Mais il a souligné que comparer les besoins en énergie de l’IA à ceux des humains n’est pas tout à fait comparable.
« Il faut aussi beaucoup d’énergie pour entraîner un humain, » a-t-il dit, ce qui a fait rire certains dans l’audience. « Il faut, genre, 20 ans de vie, et toute la nourriture que vous mangez pendant cette période avant de devenir intelligent. »
Altman a encore approfondi en notant que les humains d’aujourd’hui ne seraient même pas là sans leurs ancêtres remontant à des centaines de milliers d’années, à l’époque où les humains modernes sont apparus.
« Non seulement cela, mais il a fallu l’évolution très répandue des 100 milliards de personnes qui ont vécu, qui ont appris à ne pas se faire manger par des prédateurs et à comprendre la science ou autre pour vous produire, » a-t-il ajouté.
En comparant les humains au potentiel de ChatGPT, il faut prendre ce contexte en compte, a-t-il argumenté. Une comparaison équitable serait de mettre en regard l’énergie qu’un humain utilise pour répondre à une requête avec celle d’une IA après son entraînement. Sur cette base, « probablement, l’IA a déjà rattrapé son retard en termes d’efficacité énergétique, mesurée de cette façon. »
Dans un article de blog de juin 2025, Altman a affirmé que chaque requête à ChatGPT consomme environ 0,34 watt-heure d’électricité, soit à peu près ce qu’un four utilise en une seconde. Cependant, il a publié cette information avant que OpenAI ne sorte son tout nouveau modèle GPT-5 et ses mises à jour ultérieures. La consommation d’énergie peut également varier en fonction de la complexité d’une requête, par exemple, répondre à une question ou créer une image.
Les experts ont averti que l’IA dans son ensemble augmentera considérablement sa consommation cumulée d’énergie et d’eau au cours des 20 prochaines années environ. Selon un rapport de janvier du spécialiste en technologie de l’eau Xylem et de la société de recherche de marché Global Water Intelligence, la consommation d’eau de l’IA devrait augmenter d’environ 130 %, soit environ 30 trillions de litres (7,9 trillions de gallons) d’ici 2050.
Pendant cette même période, la demande croissante en électricité devrait augmenter la consommation d’eau pour la production d’énergie des centres de données d’environ 18 %, atteignant environ 22,3 trillions de litres (5,8 trillions de gallons) par an. Par ailleurs, les puces de plus en plus complexes utilisées dans ces centres nécessiteront plus d’eau lors de leur fabrication, ce qui fera grimper leur consommation de 600 % à 29,3 trillions de litres (7,7 trillions de gallons) par an, contre environ 4,1 trillions de litres (1,8 trillion de gallons) aujourd’hui.
Alors qu’OpenAI s’est éloigné du refroidissement par évaporation, 56 % de tous les centres de données dans le monde utilisent encore cette méthode d’une manière ou d’une autre, selon le rapport de Xylem et Global Water Intelligence.
Le complexe de centres de données d’OpenAI, couvrant 800 acres à Abilene, au Texas, utilisera apparemment de l’eau, mais dans un système plus efficace et en circuit fermé qui recircule continuellement l’eau pour refroidir le centre, a rapporté The Texas Tribune. Au départ, le centre utilisera 8 millions de gallons d’eau de la ville d’Abilene pour remplir son système de refroidissement.
Rejoignez-nous au sommet Fortune Workplace Innovation les 19 et 20 mai 2026, à Atlanta. La nouvelle ère de l’innovation en milieu de travail est là — et l’ancien manuel est en train d’être réécrit. Lors de cet événement exclusif et dynamique, les leaders les plus innovants du monde se réuniront pour explorer comment l’IA, l’humanité et la stratégie convergent pour redéfinir, encore une fois, l’avenir du travail. Inscrivez-vous dès maintenant.