Sam Altman, CEO da OpenAI Inc., na Cúpula de Impacto da IA em Nova Deli, Índia, na quinta-feira, 19 de fevereiro de 2026.
Prakash Singh | Bloomberg | Getty Images
O CEO da OpenAI, Sam Altman, na sexta-feira defendeu as demandas de recursos da inteligência artificial, chamando as preocupações sobre o uso de água pelos data centers de “falsas” e comparando a energia usada pelos sistemas de IA à dos humanos.
Altman falou à margem da cúpula de Impacto da IA na Índia, numa entrevista ao The Indian Express, quando foi questionado sobre críticas comuns à IA, como seu consumo de energia e água.
O CEO respondeu que as alegações que circulam online de que o ChatGPT usa galões de água por consulta eram “completamente falsas, totalmente insanas” e “não têm ligação com a realidade”.
Tradicionalmente, os data centers usam grandes quantidades de água para resfriar componentes elétricos e evitar o superaquecimento. Embora as tecnologias de resfriamento tenham prometido reduzir o consumo, alguns data centers mais recentes já não dependem de água.
Ainda assim, mesmo com melhorias na eficiência, um relatório do mês passado da empresa de tecnologia de água Xylem e da Global Water Intelligence projetou que a água utilizada para resfriamento mais do que triplicará nos próximos 25 anos, à medida que a demanda por computação aumenta, pressionando os sistemas de água.
Enquanto minimiza os temores sobre o uso de água, Altman afirmou que o consumo de energia continua sendo uma preocupação justa com a IA. “Não por consulta, mas no total – porque o mundo está usando tanta IA… e precisamos avançar rapidamente para nuclear ou energia eólica e solar”, disse.
Questionado sobre comentários anteriores do fundador da Microsoft, Bill Gates — que sugeriu que a eficiência do cérebro humano prova que a IA pode evoluir para se tornar mais eficiente em termos de energia ao longo do tempo —, Altman respondeu.
“Uma das coisas que sempre é injusta nesta comparação é que as pessoas falam sobre quanta energia é necessária para treinar um modelo de IA… Mas também leva muita energia para treinar um humano”, afirmou. “Leva cerca de 20 anos de vida, e toda a comida que você consome antes disso, antes de ficar inteligente.”
“A comparação justa é: se você perguntar a ChatGPT uma questão, quanta energia ela consome, uma vez treinado, para responder essa questão, em comparação com um humano, e provavelmente a IA já alcançou a eficiência energética nesse aspecto”, acrescentou.
O processo que Altman está referindo é conhecido como inferência, que se refere ao uso de modelos de IA já treinados para criar novas saídas. A inferência de IA costuma consumir muito menos energia do que o treinamento.
Os comentários de Altman, especialmente a comparação entre IA e humanos, geraram debates online, em meio à crescente ansiedade sobre a capacidade da IA de substituir o mão de obra humana.
Sridhar Vembu, cofundador e cientista-chefe da empresa indiana de software Zoho Corporation, presente na cúpula, criticou a equivalência entre humanos e IA. “Não quero ver um mundo onde equiparamos uma peça de tecnologia a um ser humano”, disse o bilionário numa publicação no X.
O debate ocorre enquanto governos e empresas investem bilhões em novos data centers para suportar as necessidades de computação dos sistemas de IA.
Segundo um relatório de maio do Fundo Monetário Internacional, o consumo de eletricidade pelos data centers do mundo em 2023 já atingiu níveis comparáveis aos da Alemanha ou França, logo após o lançamento do inovador modelo de IA ChatGPT da OpenAI.
Em resposta, alguns governos têm acelerado os processos de aprovação para colocar novas fontes de energia barata em funcionamento, embora alguns ambientalistas alertem que tais movimentos podem entrar em conflito com as metas globais de zero emissões.
Algumas comunidades locais, como nos EUA, também têm resistido a projetos de desenvolvimento por medo de sobrecarregar as redes elétricas e aumentar os custos de eletricidade.
Na semana passada, o Conselho Municipal de San Marcos, Texas, rejeitou um projeto de data center de US$ 1,5 bilhão após meses de oposição pública.
Diante dessa resistência, muitos líderes de tecnologia, incluindo Altman, argumentam que os data centers precisarão de mais produção de energia de fontes diversificadas, incluindo energia renovável e nuclear.
assistir agora
VÍDEO5:3505:35
CEO da Energy Fuels sobre a crescente demanda por urânio e terras raras
Worldwide Exchange
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Sam Altman defende o uso de recursos de IA: preocupações com a água são 'falsas' e 'os humanos também usam energia'
Sam Altman, CEO da OpenAI Inc., na Cúpula de Impacto da IA em Nova Deli, Índia, na quinta-feira, 19 de fevereiro de 2026.
Prakash Singh | Bloomberg | Getty Images
O CEO da OpenAI, Sam Altman, na sexta-feira defendeu as demandas de recursos da inteligência artificial, chamando as preocupações sobre o uso de água pelos data centers de “falsas” e comparando a energia usada pelos sistemas de IA à dos humanos.
Altman falou à margem da cúpula de Impacto da IA na Índia, numa entrevista ao The Indian Express, quando foi questionado sobre críticas comuns à IA, como seu consumo de energia e água.
O CEO respondeu que as alegações que circulam online de que o ChatGPT usa galões de água por consulta eram “completamente falsas, totalmente insanas” e “não têm ligação com a realidade”.
Tradicionalmente, os data centers usam grandes quantidades de água para resfriar componentes elétricos e evitar o superaquecimento. Embora as tecnologias de resfriamento tenham prometido reduzir o consumo, alguns data centers mais recentes já não dependem de água.
Ainda assim, mesmo com melhorias na eficiência, um relatório do mês passado da empresa de tecnologia de água Xylem e da Global Water Intelligence projetou que a água utilizada para resfriamento mais do que triplicará nos próximos 25 anos, à medida que a demanda por computação aumenta, pressionando os sistemas de água.
Enquanto minimiza os temores sobre o uso de água, Altman afirmou que o consumo de energia continua sendo uma preocupação justa com a IA. “Não por consulta, mas no total – porque o mundo está usando tanta IA… e precisamos avançar rapidamente para nuclear ou energia eólica e solar”, disse.
Questionado sobre comentários anteriores do fundador da Microsoft, Bill Gates — que sugeriu que a eficiência do cérebro humano prova que a IA pode evoluir para se tornar mais eficiente em termos de energia ao longo do tempo —, Altman respondeu.
“Uma das coisas que sempre é injusta nesta comparação é que as pessoas falam sobre quanta energia é necessária para treinar um modelo de IA… Mas também leva muita energia para treinar um humano”, afirmou. “Leva cerca de 20 anos de vida, e toda a comida que você consome antes disso, antes de ficar inteligente.”
“A comparação justa é: se você perguntar a ChatGPT uma questão, quanta energia ela consome, uma vez treinado, para responder essa questão, em comparação com um humano, e provavelmente a IA já alcançou a eficiência energética nesse aspecto”, acrescentou.
O processo que Altman está referindo é conhecido como inferência, que se refere ao uso de modelos de IA já treinados para criar novas saídas. A inferência de IA costuma consumir muito menos energia do que o treinamento.
Os comentários de Altman, especialmente a comparação entre IA e humanos, geraram debates online, em meio à crescente ansiedade sobre a capacidade da IA de substituir o mão de obra humana.
Sridhar Vembu, cofundador e cientista-chefe da empresa indiana de software Zoho Corporation, presente na cúpula, criticou a equivalência entre humanos e IA. “Não quero ver um mundo onde equiparamos uma peça de tecnologia a um ser humano”, disse o bilionário numa publicação no X.
O debate ocorre enquanto governos e empresas investem bilhões em novos data centers para suportar as necessidades de computação dos sistemas de IA.
Segundo um relatório de maio do Fundo Monetário Internacional, o consumo de eletricidade pelos data centers do mundo em 2023 já atingiu níveis comparáveis aos da Alemanha ou França, logo após o lançamento do inovador modelo de IA ChatGPT da OpenAI.
Em resposta, alguns governos têm acelerado os processos de aprovação para colocar novas fontes de energia barata em funcionamento, embora alguns ambientalistas alertem que tais movimentos podem entrar em conflito com as metas globais de zero emissões.
Algumas comunidades locais, como nos EUA, também têm resistido a projetos de desenvolvimento por medo de sobrecarregar as redes elétricas e aumentar os custos de eletricidade.
Na semana passada, o Conselho Municipal de San Marcos, Texas, rejeitou um projeto de data center de US$ 1,5 bilhão após meses de oposição pública.
Diante dessa resistência, muitos líderes de tecnologia, incluindo Altman, argumentam que os data centers precisarão de mais produção de energia de fontes diversificadas, incluindo energia renovável e nuclear.
assistir agora
VÍDEO5:3505:35
CEO da Energy Fuels sobre a crescente demanda por urânio e terras raras
Worldwide Exchange