Todo prompt custa alguma coisa. Não só dinheiro. Quando você pede ao ChatGPT para escrever um e-mail, centros de dados consomem eletricidade, sistemas de resfriamento puxam água e, em algum lugar, uma usina queima combustível para manter as luzes acesas. A pergunta é se esse custo importa.
Segundo pesquisa do MIT, o consumo de eletricidade de centros de dados chegou a 460 terawatt-hora globalmente em 2022, equivalente ao 11º maior consumidor entre países, ficando em algum lugar entre a Arábia Saudita e a França. Projeções sugerem que isso pode chegar a 1.050 terawatt-hora até 2026, o que colocaria os centros de dados em quinto lugar no mundo se fossem uma nação.
Esses números parecem abstratos. Deixa eu deixar isso concreto. Uma consulta no ChatGPT consome cerca de dez vezes a eletricidade de uma busca no Google, segundo estimativas do Goldman Sachs. Modelos avançados de raciocínio como o o3 da OpenAI exigem de 7 a 40 watt-hora por consulta, o que significa até 100 vezes mais do que modelos básicos de texto. A geração de imagens exige de 20 a 40 vezes mais energia do que texto, enquanto a geração de vídeo exige de 1.000 a 3.000 vezes mais.
Treinamento vs. inferência: para onde a energia realmente vai
Existe um equívoco comum. Treinamento é o custo único. Inferência é o dreno contínuo. A maioria das discussões foca no treinamento, o pico dramático de energia necessário para ensinar um modelo, mas a inferência agora domina o consumo total porque acontece milhões de vezes por dia.
Treinar o GPT-4 consumiu 50 gigawatt-hora de energia, o suficiente para abastecer San Francisco por três dias. Parece enorme, e é. Mas aqui vai o ponto: a inferência agora responde por 80% a 90% da computação de IA, não o treinamento. A curva longa e constante de todo mundo usando o modelo acaba ultrapassando aquele pico inicial.
Isso muda como a gente enxerga o problema. Um treinamento único é um custo fixo que dá para amortizar ao longo da vida útil do modelo. Mas a inferência escala com uso. Quanto mais gente usa IA, mais energia ela consome. Não existe teto.
Como disse o usuário zekrioca no Hacker News: “Electricity and water are today’s main issues, but there are many indirect others.” A pegada ambiental vai além do que dá para medir com facilidade, entrando na produção de hardware, na mineração de terras raras e no carbono embutido de construir centros de dados.
A água de que ninguém fala
Centros de dados esquentam. Calor exige resfriamento. Resfriar, muitas vezes, exige água.
Segundo pesquisas citadas pelo Environmental Law Institute, um centro de dados típico usa 300.000 galões de água por dia, equivalente a cerca de 1.000 residências. Instalações grandes podem exigir 5 milhões de galões por dia, atendendo às necessidades de uma cidade com 50.000 moradores.
O impacto por consulta varia absurdamente, dependendo de quem você pergunta. O CEO da OpenAI, Sam Altman, diz que uma consulta típica no ChatGPT usa “roughly one fifteenth of a teaspoon” de água. Uma reportagem do Washington Post sugeriu que escrever um e-mail gerado por IA consome uma garrafa inteira de água. Pesquisadores da UC Riverside estimaram 519 mililitros por prompt de 100 palavras. A verdade provavelmente fica em algum lugar dentro desse intervalo, variando com a localização do centro de dados, a tecnologia de resfriamento e a fonte de eletricidade.
O que não está em disputa é a trajetória. Até 2028, a IA nos EUA pode exigir até 720 bilhões de galões de água por ano só para resfriar servidores de IA, o suficiente para atender às necessidades internas de 18.5 milhões de residências.
É aqui que fica complicado. Resfriamento evaporativo usa menos energia, mas mais água. Resfriamento a ar usa mais energia, mas menos água. Otimizar uma métrica piora a outra. O engenheiro de Cornell, Fengqi You, explicou isso sem rodeios na reportagem da Undark: “How much water you need depends on climate, technology used, and energy mix.”
A reação humana
As pessoas estão percebendo. No Reddit, usuários expressaram frustração com a casualidade do uso de IA, com um observando que “people are so nonchalant about it and act as if it’s just like Googling something when it actually is horrible for the environment.”
Mas o público do Hacker News tende a um outro olhar. O usuário joegibbs argumentou: “We should be focusing on generating the energy we use more sustainably, rather than trying to make people spend all day deciding which personal choice to make.” Isso captura algo real sobre a tensão entre responsabilidade individual e mudança sistêmica.
Outro usuário, wmf, colocou de forma crua: “Emissions should be fixed on the production side (decarbonization) not on the demand side (guilt/austerity).”
As duas visões têm seu quê de verdade. Escolhas individuais escalam quando milhões fazem. Mas culpa individual sem mudança sistêmica só cria ansiedade enquanto o problema cresce.
O que determina a pegada
Entender as alavancas ajuda. Nem todo uso de IA é igual.
O tamanho do modelo importa. Modelos maiores exigem mais computação por inferência. O GPT-4 é muito mais intensivo em energia do que o GPT-3.5, que é mais intensivo do que um modelo pequeno e especializado. Muitas tarefas que hoje usam modelos de ponta poderiam funcionar bem com modelos menores.
O tipo de tarefa importa. Geração de texto é relativamente barata. Geração de imagem custa de 20 a 40 vezes mais. Geração de vídeo custa milhares de vezes mais. Uma equipe de marketing gerando dezenas de imagens por dia tem uma pegada bem diferente de outra que usa modelos de texto para rascunhos de e-mail.
O fornecedor importa. Centros de dados variam na eficácia do uso de energia, nas fontes de eletricidade e nos sistemas de resfriamento. O Google relata uma redução de 33x em energia e 44x em carbono para um prompt típico em comparação com 2024, mostrando que a eficiência varia absurdamente entre fornecedores.
A localização importa. Uma pesquisa na Nature Sustainability encontrou que escolher local de forma inteligente, descarbonizar a rede mais rápido e melhorar a eficiência operacional pode reduzir impactos de carbono em aproximadamente 73% e impactos de água em 86% em comparação com cenários de pior caso. O Meio-Oeste e os estados do “windbelt” oferecem o melhor perfil combinado de carbono e água.
O paradoxo da eficiência
É aqui que o otimismo fica complicado. A IA está ficando mais eficiente. Muito mais eficiente. O problema é que os ganhos de eficiência são engolidos pelo aumento de uso.
Isso é o paradoxo de Jevons. Tecnologia mais eficiente barateia o uso, então as pessoas usam mais, potencialmente anulando os ganhos de eficiência por completo. Como um comentarista do Hacker News, Teever, resumiu: “Yeah but Jevons paradox.”
A demanda global de eletricidade da IA deve crescer de 415 TWh para quase 1.000 TWh até 2030. Melhorias de eficiência não estão acompanhando a adoção.
A indústria sabe disso. A pesquisa continua em arquiteturas de modelos mais eficientes, melhor otimização de inferência e melhorias de hardware. Um estudo propôs algoritmos que poderiam reduzir custos de energia em 95% para certas operações. Mas alegações extraordinárias exigem evidências extraordinárias, como observou um usuário cético, e o abismo entre resultados de laboratório e sistemas em produção continua grande.
O que você pode fazer de fato
A resposta honesta é complicada.
Use o modelo do tamanho certo. Use o menor modelo que dá conta da tarefa. Uma chuva de ideias rápida não precisa do GPT-4. Geração em massa de texto não precisa de capacidades de raciocínio de fronteira. Muitas plataformas oferecem seleção de modelos. Use isso.
Escreva prompts melhores. Um prompt claro e específico que funciona de primeira é melhor do que três prompts vagos que exigem iteração. Cada clique em “gerar de novo” tem um custo. Modelos prontos e estruturas comprovadas reduzem tentativa e erro.
Questione a necessidade. Nem toda tarefa se beneficia de IA. Antes de enviar um prompt, pergunte se você realmente precisa disso. Você conseguiria fazer mais rápido só fazendo você mesmo? O benefício marginal vale o consumo de recursos?
Considere os fornecedores. Empresas de IA variam no compromisso com sustentabilidade. Algumas publicam dados detalhados de eficiência. Algumas alimentam centros de dados com renováveis. Outras não fazem nem uma coisa nem outra. Essa informação influencia decisões de compra em escala.
Mas aqui vai a verdade incômoda: ações individuais, por mais significativas que sejam, não bastam. A escala do problema é sistêmica. Cerca de 60% do aumento na demanda de eletricidade de centros de dados será atendido queimando combustíveis fósseis, elevando as emissões globais de carbono em cerca de 220 milhões de toneladas. Nenhuma quantidade de prompts “conscientes” compensa essa trajetória.
A responsabilidade da indústria
O peso não deveria cair todo sobre os usuários. Não dá.
Grandes empresas de IA fizeram compromissos de sustentabilidade. Promessas de energia renovável. Programas de compensação de carbono. Pesquisa em eficiência. Mas relatórios de sustentabilidade mostram, de forma consistente, aumento de emissões absolutas mesmo quando a eficiência por computação melhora. O vão entre compromisso e resultado é grande.
Nove grandes empresas de tecnologia mostraram falhas consistentes de transparência, sem nenhuma empresa reportando métricas ambientais específicas de IA apesar de reconhecerem a IA como um motor-chave do aumento no consumo de energia. Você não gerencia o que não mede, e a indústria não está medindo.
O usuário adrianN apontou o núcleo do problema: “The important part remains internalizing emission costs into the price of electricity.” Quando custos ambientais não aparecem no preço, eles são ignorados. Mercados otimizam o que medem.
A pergunta que estamos evitando
Aqui vai o que ninguém quer dizer diretamente. A gente não sabe se os benefícios da IA superam os custos ambientais. E não dá para saber, porque não quantificamos com honestidade nenhum dos lados.
Os benefícios são reais. Ganhos de produtividade. Capacidades criativas. Poder analítico. Aceleração de pesquisa. Medicina. Ciência. Isso importa.
Os custos também são reais. Emissões de carbono. Consumo de água. Extração de recursos. Geração de calor. Pressão na rede elétrica. Isso também importa.
Como observou o usuário it_citizen no Hacker News: “The jury is still out on the cost benefit of AI on the long run.”
A conversa tende aos extremos. A IA vai nos salvar. A IA vai nos destruir. Nenhuma das posições ajuda. O que ajuda é contabilidade honesta, que a gente não tem, e conversa honesta sobre compensações, que a gente evita.
Onde isso nos deixa
Eu sempre volto a algo que o usuário neves escreveu no Hacker News: “Society must have information to make decisions about what affects all the world.”
Esse é o problema central. A gente não tem boa informação. Estimativas de energia variam por ordens de grandeza. Cálculos de água se contradizem. Empresas não divulgam métricas específicas de IA. Pesquisadores trabalham com dados incompletos e fazem projeções conflitantes.
O que a gente sabe sugere que a trajetória é preocupante. O consumo de energia da IA cresce mais rápido do que as melhorias de eficiência. O estresse hídrico aumenta em regiões com concentração de centros de dados. Compromissos de carbono não estão sendo cumpridos. E a adoção está acelerando.
O caminho à frente não é óbvio. Envolve alguma combinação de melhorias de eficiência, expansão de energia renovável, escolha mais inteligente de local para centros de dados, consciência de uso e, provavelmente, regulação. Envolve compensações que a gente ainda não encarou com honestidade.
Eu não tenho uma conclusão redondinha. A abordagem de lista de verificação parece inadequada aqui, como arrumar cadeiras no convés enquanto discute se o navio realmente está afundando. Os números são reais. A incerteza também é real. A responsabilidade está distribuída entre bilhões de usuários, dezenas de empresas e governos que ainda não decidiram como pensar sobre isso.
O que eu sei é que todo prompt custa alguma coisa. O custo pode valer a pena. Pode não valer. Mas fingir que o custo não existe é uma escolha, e é uma que a gente vem fazendo há tempo demais.
Leitura relacionada: Custos de IA explicados: preços de API cobre o lado financeiro do uso de IA. Privacidade e conformidade de dados em IA aborda outra dimensão de adoção responsável de IA.