O consumo de energia do novíssimo ChatGPT-5 pode equivaler ao uso diário de 1,5 milhão de residências nos Estados Unidos, segundo estimativa da Universidade de Rhode Island. O cálculo levou em conta o fato de o modelo da OpenAI receber estimados 2,5 bilhões de requisições por dia — o que inclui, claro, desde “qual é minha bênção?” a “me ajude a escrever este e-mail”, dentre outros pedidos realizados mundo afora.
A gente não mora nos Estados Unidos, então fui atrás de entender a quantos lares brasileiros isso equivale. O consumo nacional é consideravelmente menor que o dos norte-americanos, por razões que não cabe listar aqui, mas enquanto o consumo diário de energia por lá é de 30kWh, o nosso fica em cerca de 6 kWh. Assim, 1,5 milhão de domicílios estadunidenses consomem mais ou menos o mesmo que 7,5 milhões de casas verde-amarelas.
Até vinte vezes mais energia para cada resposta
A versão 5 do GPT foi lançada semana passada com novidades como redução nas alucinações (os erros cometidos quando você pede algo para a IA e ela inventa infos, por exemplo) e interação multimídia. A OpenAI não divulgou dados relativos ao consumo de recursos, como não faz desde 2020, com o GPT 3, aliás. E isso levou cientistas a cálculos independentes.
Especialistas que acompanham o consumo energético da IA apontam que o GPT-5 exige muito mais energia do que seus predecessores.
Vamos a uma comparação simples, porque eu sei que o assunto pode ser confuso para muita gente: em versões anteriores, a resposta do GPT a uma consulta simples consumiria cerca de 2 watt-horas (Wh) — o mesmo que uma lâmpada incandescente comum (não de LED) gastaria em aproximadamente 2 minutos ligada. A mesma pergunta, no modelo 5, pode consumir até vinte vezes esse valor: cerca de 40 watt-horas (Wh). Essa estimativa é também da universidade que mencionei no começo do texto.

O aumento não surpreende especialistas, pois está diretamente ligado à complexidade do GPT-5, que encara tarefas de “pensamento longo” e raciocínio multimodal — trabalhando não apenas com texto, mas também com imagens e vídeos. Isso requer maior poder computacional tanto no treinamento quanto na inferência, elevando a pegada energética do modelo.
Além do consumo durante o uso diário, existe outro custo energético: o que inclui o treinamento do modelo e a fabricação dos chips necessários para sua operação.
Pesquisadores do instituto de pesquisa Epoch.AI estimam que o treinamento de modelos comparáveis ao GPT-4 consome um nível de potência média entre 20 e 25 megawatts ao longo de aproximadamente três meses. Isso equivale, no total desse período, a algo em torno de 1.500 a 1.800 megawatt-horas (MWh), suficiente para abastecer cerca de 20 mil residências americanas pelo mesmo intervalo de tempo. Não vou recalcular para a realidade brasileira, mas deu para entender que é coisa à beça, certo?
É importante reforçar que esses dados são ESTIMATIVAS, e que a OpenAI não revelou até que ponto a arquitetura do GPT-5 é capaz de amenizar a necessidade de mais recursos de processamento. Em outras palavras, se o modelo consegue entregar mais com menos custo energético.
Dados fornecidos pelo CEO da OpenAI
Entre os dados de consumo recentes, é comum as pessoas se referirem a um post que Sam Altman, CEO da OpenAI, fez em junho deste ano. Ele informou que cada consulta ao ChatGPT consome aproximadamente 0,34 Wh de eletricidade. Sobre o consumo de água, revelou que uma única consulta ao ChatGPT utiliza cerca de 0,000085 galão de água, o que corresponde a aproximadamente um quinze avos de uma colher de chá. Essa água é principalmente consumida nos sistemas de resfriamento dos data centers que operam a infraestrutura da IA.
Eu sei, olhando assim parecem quantidades ínfimas. Mas lembre-se que são 2,5 bilhões de consultas por dia, então a conta fica alta no final. Além disso, são dados anteriores ao GPT-5.