ai-strategy
11 min read
View as Markdown

El costo oculto de tus prompts de IA: energía, agua y lo que le debemos al futuro

Una mirada realista a la huella ambiental de la IA. Los números reales de consumo de energía y agua, qué impulsa el impacto y por qué la conversación sobre IA sostenible es más complicada de lo que admite cualquiera de los dos bandos.

Robert Soares

Cada prompt cuesta algo. No solo dinero. Cuando le pides a ChatGPT que escriba un correo, los centros de datos consumen electricidad, los sistemas de refrigeración gastan agua y, en algún lugar, una central quema combustible para mantener las luces encendidas. La pregunta es si ese costo importa.

Según una investigación del MIT, el consumo eléctrico de los centros de datos alcanzó 460 teravatios-hora a nivel mundial en 2022, equivalente al undécimo mayor consumidor del mundo, ubicado en algún punto entre Arabia Saudí y Francia. Las proyecciones sugieren que podría llegar a 1.050 teravatios-hora para 2026, lo que lo colocaría en el quinto puesto global si los centros de datos fueran un país.

Esos números suenan abstractos. Déjame volverlos concretos. Una consulta a ChatGPT consume aproximadamente diez veces la electricidad de una búsqueda en Google, según estimaciones de Goldman Sachs. Modelos de razonamiento avanzado como o3 de OpenAI requieren de 7 a 40 vatios-hora por consulta, lo que supone hasta 100 veces más que los modelos de texto básicos. La generación de imágenes exige entre 20 y 40 veces más energía que el texto, mientras que la generación de vídeo requiere entre 1.000 y 3.000 veces más.

Entrenamiento vs. inferencia: adónde va de verdad la energía

Hay un malentendido común. El entrenamiento es el costo de una sola vez. La inferencia es la sangría continua. La mayoría de las conversaciones se centran en el entrenamiento, el pico dramático de energía necesario para enseñar un modelo, pero hoy la inferencia domina el consumo total porque ocurre millones de veces al día.

Entrenar GPT-4 consumió 50 gigavatios-hora de energía, suficiente para abastecer San Francisco durante tres días. Suena enorme, y lo es. Pero aquí está el punto: la inferencia ya representa entre el 80 y el 90 por ciento de la computación de IA, no el entrenamiento. La curva larga y constante de todo el mundo usando el modelo termina superando ese pico inicial.

Esto importa para cómo pensamos el problema. Una corrida de entrenamiento única es un costo fijo que puedes amortizar a lo largo de la vida del modelo. Pero la inferencia escala con el uso. Cuanta más gente usa la IA, más energía consume. No hay techo.

Como lo dijo el usuario de Hacker News zekrioca: “Electricity and water are today’s main issues, but there are many indirect others.” La huella ambiental se extiende más allá de lo que podemos medir fácilmente: producción de hardware, minería de tierras raras y el carbono incorporado en la construcción de centros de datos.

El agua de la que nadie habla

Los centros de datos se calientan. El calor requiere refrigeración. Y la refrigeración a menudo requiere agua.

Según investigaciones citadas por el Environmental Law Institute, un centro de datos típico usa 300.000 galones de agua al día, equivalente a unas 1.000 viviendas. Las instalaciones grandes pueden requerir 5 millones de galones diarios, igualando las necesidades de un pueblo de 50.000 habitantes.

El impacto por consulta varía enormemente según a quién le preguntes. El CEO de OpenAI, Sam Altman, afirma que una consulta típica a ChatGPT usa “roughly one fifteenth of a teaspoon” de agua. Un informe de The Washington Post sugirió que escribir un correo generado por IA consume una botella entera de agua. Investigadores de UC Riverside estimaron 519 mililitros por prompt de 100 palabras. La verdad probablemente se encuentre en algún punto de este rango, dependiendo de la ubicación del centro de datos, la tecnología de refrigeración y la fuente de electricidad.

Lo que no está en disputa es la trayectoria. Para 2028, la IA en EE. UU. podría requerir hasta 720 mil millones de galones de agua al año solo para refrigerar servidores de IA, suficiente para cubrir las necesidades domésticas de interior de 18.5 millones de viviendas.

Aquí es donde se complica. La refrigeración evaporativa usa menos energía pero más agua. La refrigeración por aire usa más energía pero menos agua. Optimizar una métrica empeora la otra. El ingeniero de Cornell Fengqi You lo explicó sin rodeos en el reportaje de Undark: “How much water you need depends on climate, technology used, and energy mix.”

La reacción humana

La gente se está dando cuenta. En Reddit, usuarios expresaron frustración por la ligereza con la que se usa la IA, y uno observó que “people are so nonchalant about it and act as if it’s just like Googling something when it actually is horrible for the environment.”

Pero el público de Hacker News tiende a otra postura. El usuario joegibbs argumentó: “We should be focusing on generating the energy we use more sustainably, rather than trying to make people spend all day deciding which personal choice to make.” Esto captura algo real sobre la tensión entre responsabilidad individual y cambio sistémico.

Otro usuario, wmf, lo planteó de forma tajante: “Emissions should be fixed on the production side (decarbonization) not on the demand side (guilt/austerity).”

Ambas perspectivas contienen verdad. Las decisiones individuales escalan cuando millones las toman. Pero la culpa individual sin cambio sistémico solo crea ansiedad mientras el problema crece.

Qué impulsa la huella

Entender las palancas ayuda. No todo uso de IA es igual.

El tamaño del modelo importa. Los modelos más grandes requieren más cómputo por inferencia. GPT-4 consume mucha más energía que GPT-3.5, que a su vez consume más que un modelo pequeño y especializado. Muchas tareas que hoy se hacen con modelos de frontera podrían funcionar perfectamente con modelos más pequeños.

El tipo de tarea importa. Generar texto es relativamente barato. Generar imágenes cuesta entre 20 y 40 veces más. Generar vídeo cuesta miles de veces más. Un equipo de marketing que genera docenas de imágenes con IA al día tiene una huella drásticamente distinta a la de uno que usa modelos de texto para borradores de correos.

El proveedor importa. Los centros de datos varían en su efectividad de uso de energía, sus fuentes eléctricas y sus sistemas de refrigeración. Google reporta una reducción de 33x en energía y 44x en carbono para el prompt mediano frente a 2024, demostrando que la eficiencia varía enormemente entre proveedores.

La ubicación importa. Investigación en Nature Sustainability encontró que un mejor emplazamiento, una descarbonización más rápida de la red y eficiencia operativa podrían recortar los impactos de carbono en aproximadamente un 73% y los impactos de agua en un 86% frente a escenarios de peor caso. El Medio Oeste y los estados del “windbelt” ofrecen el mejor perfil combinado de carbono y agua.

La paradoja de la eficiencia

Aquí es donde el optimismo se complica. La IA se está volviendo más eficiente. Dramáticamente más eficiente. El problema es que las ganancias de eficiencia se las traga el aumento de uso.

Esto es la paradoja de Jevons. Una tecnología más eficiente hace que sea más barato usarla, así que la gente usa más, potencialmente anulando por completo las mejoras de eficiencia. Como lo señaló de forma sucinta el comentarista de Hacker News Teever: “Yeah but Jevons paradox.”

Se proyecta que la demanda eléctrica global de la IA crezca de 415 TWh a casi 1.000 TWh para 2030. Las mejoras de eficiencia no van al ritmo de la adopción.

La industria lo sabe. La investigación continúa en arquitecturas de modelos más eficientes, mejor optimización de inferencia y mejoras de hardware. Un estudio propuso algoritmos que podrían reducir los costos de energía en un 95% para ciertas operaciones. Pero afirmaciones extraordinarias requieren evidencia extraordinaria, como señaló un usuario escéptico, y la brecha entre resultados de laboratorio y sistemas desplegados sigue siendo grande.

Lo que realmente puedes hacer

La respuesta honesta es complicada.

Elige el modelo adecuado. Usa el modelo más pequeño que cumpla la tarea. Una lluvia de ideas rápida no necesita GPT-4. La generación masiva de texto no necesita capacidades de razonamiento de frontera. Muchas plataformas ofrecen selección de modelo. Úsala.

Escribe mejores prompts. Un prompt claro y específico que funciona a la primera le gana a tres prompts vagos que necesitan iteración. Cada clic de regenerar tiene un costo. Las plantillas y las estructuras probadas reducen el ensayo y error.

Cuestiona la necesidad. No toda tarea se beneficia de la IA. Antes de enviar un prompt, pregúntate si de verdad lo necesitas. ¿Podrías hacerlo más rápido simplemente haciéndolo tú? ¿Vale la pena el beneficio marginal frente al consumo de recursos?

Considera al proveedor. Las empresas de IA varían en sus compromisos de sostenibilidad. Algunas publican datos detallados de eficiencia. Algunas alimentan centros de datos con renovables. Algunas no hacen ninguna de las dos cosas. Esta información influye en decisiones de compra a gran escala.

Pero aquí está la verdad incómoda: las acciones individuales, aunque significativas, no bastan. La escala del problema es sistémica. Aproximadamente el 60 por ciento del aumento en la demanda eléctrica de los centros de datos se cubrirá quemando combustibles fósiles, incrementando las emisiones globales de carbono en unos 220 millones de toneladas. Ninguna cantidad de prompts “con conciencia” compensa esa trayectoria.

La responsabilidad de la industria

La carga no debería recaer por completo en los usuarios. No puede.

Las grandes empresas de IA han hecho compromisos de sostenibilidad. Promesas de energía renovable. Programas de compensación de carbono. Investigación en eficiencia. Pero los informes de sostenibilidad muestran de forma consistente un aumento de las emisiones absolutas incluso cuando mejora la eficiencia por cómputo. La distancia entre compromiso y resultado es grande.

Nueve grandes empresas tecnológicas mostraron fallos consistentes de transparencia, sin que ninguna reportara métricas ambientales específicas de IA pese a reconocer la IA como un factor clave del aumento del consumo energético. No puedes gestionar lo que no mides, y la industria no está midiendo.

El usuario adrianN identificó el núcleo del problema: “The important part remains internalizing emission costs into the price of electricity.” Cuando los costos ambientales no aparecen en el precio, se ignoran. Los mercados optimizan lo que miden.

La pregunta que estamos evitando

Esto es lo que nadie quiere decir directamente. No sabemos si los beneficios de la IA superan sus costos ambientales. No podemos saberlo, porque no hemos cuantificado con honestidad ninguno de los dos lados.

Los beneficios son reales. Ganancias de productividad. Capacidades creativas. Potencia analítica. Aceleración de la investigación. Medicina. Ciencia. Importa.

Los costos también son reales. Emisiones de carbono. Consumo de agua. Extracción de recursos. Generación de calor. Estrés sobre la red. También importa.

Como observó el usuario de Hacker News it_citizen: “The jury is still out on the cost benefit of AI on the long run.”

La conversación tiende a los extremos. La IA nos salvará a todos. La IA nos condenará a todos. Ninguna posición sirve. Lo útil es una contabilidad honesta, que no tenemos, y una conversación honesta sobre los compromisos y las renuncias, que evitamos.

En qué punto nos deja esto

Sigo volviendo a algo que el usuario neves escribió en Hacker News: “Society must have information to make decisions about what affects all the world.”

Ese es el problema central. No tenemos buena información. Las estimaciones de energía varían por órdenes de magnitud. Los cálculos de agua se contradicen entre sí. Las empresas no divulgan métricas específicas de IA. Los investigadores trabajan con datos incompletos y hacen proyecciones en conflicto.

Lo que sí sabemos sugiere que la trayectoria es preocupante. El consumo energético de la IA crece más rápido que las mejoras de eficiencia. El estrés hídrico aumenta en regiones con concentración de centros de datos. No se están cumpliendo los compromisos de carbono. Y la adopción se acelera.

El camino a seguir no es obvio. Implica alguna combinación de mejoras de eficiencia, despliegue de energía renovable, una mejor ubicación de centros de datos, conciencia de uso y, probablemente, regulación. Implica compromisos que no hemos enfrentado con honestidad.

No tengo una conclusión bonita. El enfoque de lista de verificación se siente insuficiente aquí, como ordenar tumbonas mientras discutimos si el barco en realidad se está hundiendo. Los números son reales. La incertidumbre también. La responsabilidad se reparte entre miles de millones de usuarios, decenas de empresas y gobiernos que aún no deciden cómo pensar en esto.

Lo que sé es que cada prompt cuesta algo. El costo puede valer la pena. Puede que no. Pero fingir que el costo no existe es una elección, y es una que hemos estado haciendo durante demasiado tiempo.


Lecturas relacionadas: Costos de la IA explicados: precios de API cubre el lado financiero del uso de la IA. Privacidad de datos y cumplimiento en IA aborda otra dimensión de la adopción responsable de IA.

Ready For DatBot?

Use Gemini 2.5 Pro, Llama 4, DeepSeek R1, Claude 4, O3 and more in one place, and save time with dynamic prompts and automated workflows.

Top Articles

Come on in, the water's warm

See how much time DatBot.AI can save you