Quanta energia a IA consome? Quem sabe não diz

“As pessoas costumam ficar curiosas sobre quanta energia uma consulta ChatGPT consome”, escreveu Sam Altman , CEO da OpenAI , em um comentário em um longo post de blog na semana passada. A consulta média, escreveu Altman, consome 0,34 watts-hora de energia: “Aproximadamente o que um forno consumiria em pouco mais de um segundo, ou uma lâmpada de alta eficiência em alguns minutos.”
Para uma empresa com 800 milhões de usuários ativos semanais (e em crescimento ), a questão de quanta energia todas essas buscas estão consumindo está se tornando cada vez mais urgente. Mas especialistas dizem que o número de Altman não significa muito sem um contexto público mais aprofundado da OpenAI sobre como chegou a esse cálculo — incluindo a definição do que é uma consulta "média", se ela inclui ou não a geração de imagens e se Altman está ou não incluindo o consumo adicional de energia, como o treinamento de modelos de IA e o resfriamento dos servidores da OpenAI.
Como resultado, Sasha Luccioni, líder climática da empresa de IA Hugging Face, não acredita muito no número de Altman. "Ele poderia ter inventado isso", diz ela. (A OpenAI não respondeu a um pedido de mais informações sobre como chegou a esse número.)
À medida que a IA toma conta de nossas vidas, ela também promete transformar nossos sistemas energéticos, potencializando as emissões de carbono justamente quando lutamos contra as mudanças climáticas. Agora, um novo e crescente conjunto de pesquisas busca estabelecer números concretos sobre a quantidade de carbono que realmente emitimos com todo o nosso uso de IA.
Esse esforço é dificultado pelo fato de grandes players como a OpenAi divulgarem poucas informações ambientais. Uma análise submetida à revisão por pares esta semana por Luccioni e três outros autores analisa a necessidade de maior transparência ambiental em modelos de IA. Na nova análise de Luccioni, ela e seus colegas usam dados do OpenRouter , um ranking de tráfego de modelos de grande linguagem (LLM), para descobrir que 84% do uso de LLM em maio de 2025 foi para modelos com divulgação ambiental zero. Isso significa que os consumidores estão, em sua maioria, escolhendo modelos com impactos ambientais completamente desconhecidos.
“É impressionante como você pode comprar um carro e saber quantos quilômetros por litro ele consome, mas usamos todas essas ferramentas de IA todos os dias e não temos absolutamente nenhuma métrica de eficiência, fatores de emissão, nada”, diz Luccioni. “Não é obrigatório, não é regulatório. Considerando a situação atual da crise climática, deveria estar no topo da agenda dos reguladores em todos os lugares.”
Como resultado dessa falta de transparência, diz Luccioni, o público está sendo exposto a estimativas que não fazem sentido, mas que são aceitas como verdade absoluta. Você pode ter ouvido, por exemplo, que uma solicitação média do ChatGPT consome 10 vezes mais energia do que uma busca média no Google. Luccioni e seus colegas atribuem essa afirmação a um comentário público feito por John Hennessy, presidente da Alphabet, empresa controladora do Google, em 2023.
Uma alegação feita por um membro do conselho de uma empresa (Google) sobre o produto de outra empresa com a qual ele não tem relação (OpenAI) é, na melhor das hipóteses, tênue — no entanto, a análise de Luccioni constata que esse número tem sido repetido diversas vezes na imprensa e em relatórios de políticas. (Enquanto eu escrevia este artigo, recebi uma proposta com essa mesma estatística.)
“As pessoas pegaram um comentário improvisado e o transformaram em uma estatística real que está embasando políticas e a maneira como as pessoas veem essas coisas”, diz Luccioni. “O verdadeiro problema central é que não temos números. Então, mesmo os cálculos improvisados que as pessoas encontram, tendem a considerá-los o padrão-ouro, mas não é o caso.”
Uma maneira de tentar dar uma espiada nos bastidores para obter informações mais precisas é trabalhar com modelos de código aberto. Algumas gigantes da tecnologia, incluindo a OpenAI e a Anthropic, mantêm seus modelos proprietários — o que significa que pesquisadores externos não podem verificar de forma independente seu consumo de energia. Mas outras empresas disponibilizam algumas partes de seus modelos publicamente, permitindo que os pesquisadores avaliem suas emissões com mais precisão.
Um estudo publicado na quinta-feira no periódico Frontiers of Communication avaliou 14 modelos de linguagem de código aberto, incluindo dois modelos Meta Llama e três modelos DeepSeek, e descobriu que alguns usaram até 50% mais energia do que outros modelos no conjunto de dados respondendo aos prompts dos pesquisadores. Os 1.000 prompts de referência enviados aos LLMs incluíam perguntas sobre tópicos como história e filosofia do ensino médio; metade das perguntas foi formatada como múltipla escolha, com apenas respostas de uma palavra disponíveis, enquanto a outra metade foi enviada como prompts abertos, permitindo um formato mais livre e respostas mais longas. Os pesquisadores descobriram que os modelos de raciocínio geravam muito mais tokens de pensamento — medidas de raciocínio interno geradas no modelo enquanto produziam sua resposta, que são uma marca registrada de maior uso de energia — do que modelos mais concisos. Esses modelos, talvez sem surpresa, também foram mais precisos com tópicos complexos. (Eles também tiveram problemas com a brevidade: durante a fase de múltipla escolha, por exemplo, os modelos mais complexos frequentemente retornavam respostas com vários tokens, apesar das instruções explícitas para responder apenas a partir do intervalo de opções fornecidas.)
Maximilian Dauner, doutorando na Universidade de Ciências Aplicadas de Munique e principal autor do estudo, afirma esperar que o uso da IA evolua para pensar em como usar modelos com menor consumo de energia de forma mais eficiente para diferentes consultas. Ele prevê um processo em que perguntas menores e mais simples sejam automaticamente direcionadas para modelos com menor consumo de energia, que ainda fornecerão respostas precisas. "Mesmo modelos menores podem alcançar resultados realmente bons em tarefas mais simples e não emitem aquela quantidade enorme de CO2 durante o processo", afirma.
Algumas empresas de tecnologia já fazem isso. Google e Microsoft já informaram à WIRED que seus recursos de busca usam modelos menores sempre que possível, o que também pode significar respostas mais rápidas para os usuários. Mas, em geral, os provedores de modelos pouco fizeram para incentivar os usuários a consumir menos energia. A rapidez com que um modelo responde a uma pergunta, por exemplo, tem um grande impacto em seu consumo de energia — mas isso não é explicado quando produtos de IA são apresentados aos usuários, afirma Noman Bashir, pesquisador de Computação e Impacto Climático do Consórcio de Clima e Sustentabilidade do MIT.
“O objetivo é fornecer todas essas inferências o mais rápido possível para que você não saia da plataforma”, diz ele. “Se o ChatGPT começar a responder de repente depois de cinco minutos, você recorrerá a alguma outra ferramenta que esteja respondendo imediatamente.”
No entanto, há uma infinidade de outras considerações a serem levadas em conta ao calcular o consumo de energia de consultas complexas de IA, porque não se trata apenas de uma questão teórica — as condições sob as quais as consultas são efetivamente executadas no mundo real importam. Bashir ressalta que o hardware físico faz diferença no cálculo das emissões. Dauner realizou seus experimentos em uma GPU Nvidia A100, mas a GPU Nvidia H100 — especialmente projetada para cargas de trabalho de IA e que, segundo a empresa , está se tornando cada vez mais popular — consome muito mais energia.
A infraestrutura física também faz diferença quando se fala em emissões. Grandes data centers precisam de sistemas de refrigeração, iluminação e equipamentos de rede, o que aumenta o consumo de energia; eles costumam operar em ciclos diurnos, com uma pausa à noite, quando as consultas são menores. Eles também estão conectados a diferentes tipos de redes — aquelas predominantemente alimentadas por combustíveis fósseis, em comparação com aquelas alimentadas por energias renováveis — dependendo de sua localização.
Bashir compara estudos que analisam as emissões de consultas de IA sem levar em conta as necessidades do data center a levantar um carro, pisar no acelerador e contar as rotações de uma roda como forma de realizar um teste de eficiência de combustível. "Você não leva em conta o fato de que essa roda precisa transportar o carro e o passageiro", diz ele.
Talvez o mais crucial para a nossa compreensão das emissões da IA seja o fato de modelos de código aberto como os que Dauner utilizou em seu estudo representarem uma fração dos modelos de IA utilizados pelos consumidores atualmente. Treinar um modelo e atualizar modelos implantados consome uma quantidade enorme de energia — números que muitas grandes empresas mantêm em segredo. Não está claro, por exemplo, se a estatística da lâmpada sobre o ChatGPT, de Altman, da OpenAI, leva em conta toda a energia usada para treinar os modelos que alimentam o chatbot. Sem mais divulgação, o público simplesmente estará perdendo grande parte das informações necessárias para começar a entender o quanto essa tecnologia está impactando o planeta.
“Se eu tivesse uma varinha mágica, tornaria obrigatório para qualquer empresa que estivesse colocando um sistema de IA em produção, em qualquer lugar, no mundo, em qualquer aplicação, divulgar números de carbono”, diz Luccioni.
Paresh Dave contribuiu com a reportagem.
wired