Chaque requête a un coût. Pas seulement de l’argent. Quand vous demandez à ChatGPT d’écrire un e-mail, les centres de données consomment de l’électricité, les systèmes de refroidissement puisent de l’eau, et quelque part une centrale brûle du combustible pour garder les lumières allumées. La question est de savoir si ce coût compte.
Selon une étude du MIT, la consommation d’électricité des centres de données a atteint 460 térawatt-heures dans le monde en 2022, l’équivalent du 11e plus gros consommateur national, quelque part entre l’Arabie saoudite et la France. Les projections suggèrent que cela pourrait atteindre 1 050 térawatt-heures d’ici 2026, ce qui les placerait au cinquième rang mondial si les centres de données formaient un pays.
Ces chiffres paraissent abstraits. Rendons-les concrets. Selon des estimations de Goldman Sachs, une requête ChatGPT consomme environ dix fois l’électricité d’une recherche Google. Les modèles de raisonnement avancés, comme o3 d’OpenAI, nécessitent 7 à 40 watt-heures par requête, soit jusqu’à 100 fois plus que des modèles de texte basiques. La génération d’images exige 20 à 40 fois plus d’énergie que le texte, tandis que la génération vidéo demande 1 000 à 3 000 fois plus.
Entraînement vs inférence : où part vraiment l’énergie
Il y a une idée fausse tenace. L’entraînement est un coût ponctuel. L’inférence est une ponction permanente. La plupart des discussions se focalisent sur l’entraînement, le pic spectaculaire d’énergie nécessaire pour « enseigner » un modèle, mais l’inférence domine désormais la consommation totale parce qu’elle se produit des millions de fois par jour.
L’entraînement de GPT-4 a consommé 50 gigawatt-heures d’énergie, de quoi alimenter San Francisco pendant trois jours. Ça semble énorme, et ça l’est. Mais voilà le point clé : l’inférence représente désormais 80 à 90 % du calcul en IA, pas l’entraînement. La longue courbe régulière de tout le monde qui utilise le modèle finit par dépasser ce pic initial.
Ça change notre façon de penser le problème. Un entraînement unique est un coût fixe qu’on peut amortir sur la durée de vie du modèle. Mais l’inférence grandit avec l’usage. Plus les gens utilisent l’IA, plus elle consomme d’énergie. Il n’y a pas de plafond.
Comme l’a écrit l’utilisateur Hacker News zekrioca : “Electricity and water are today’s main issues, but there are many indirect others.” L’empreinte environnementale dépasse ce qu’on peut mesurer facilement : production du matériel, extraction de terres rares, carbone « incorporé » dans la construction des centres de données.
L’eau dont personne ne parle
Les centres de données chauffent. La chaleur exige du refroidissement. Le refroidissement exige souvent de l’eau.
Selon une recherche citée par l’Environmental Law Institute, un centre de données typique utilise 300 000 gallons d’eau par jour, l’équivalent d’environ 1 000 foyers. Les grandes installations peuvent nécessiter 5 millions de gallons par jour, ce qui correspond aux besoins d’une ville de 50 000 habitants.
L’impact par requête varie énormément selon la source. Le PDG d’OpenAI, Sam Altman, affirme qu’une requête ChatGPT typique utilise “roughly one fifteenth of a teaspoon” d’eau. Un reportage du Washington Post a suggéré que rédiger un e-mail généré par l’IA consomme une bouteille d’eau entière. Des chercheurs de l’UC Riverside ont estimé 519 millilitres par consigne de 100 mots. La vérité se situe probablement quelque part dans cet intervalle, selon l’emplacement du centre de données, la technologie de refroidissement et la source d’électricité.
Ce qui n’est pas contesté, c’est la trajectoire. D’ici 2028, l’IA aux États-Unis pourrait nécessiter jusqu’à 720 milliards de gallons d’eau par an rien que pour refroidir les serveurs d’IA, assez pour couvrir les besoins intérieurs de 18,5 millions de foyers.
Et là, ça se complique. Le refroidissement évaporatif utilise moins d’énergie mais plus d’eau. Le refroidissement par air utilise plus d’énergie mais moins d’eau. Optimiser un indicateur dégrade l’autre. L’ingénieur de Cornell Fengqi You l’a expliqué simplement dans le reportage d’Undark : “How much water you need depends on climate, technology used, and energy mix.”
La réaction humaine
Les gens le remarquent. Sur Reddit, des utilisateurs ont exprimé leur frustration face à la désinvolture autour de l’usage de l’IA, l’un observant que “people are so nonchalant about it and act as if it’s just like Googling something when it actually is horrible for the environment.”
Mais la foule Hacker News penche vers une autre lecture. L’utilisateur joegibbs a soutenu : “We should be focusing on generating the energy we use more sustainably, rather than trying to make people spend all day deciding which personal choice to make.” Ça résume quelque chose de réel : la tension entre responsabilité individuelle et changement systémique.
Un autre utilisateur, wmf, l’a formulé sans détour : “Emissions should be fixed on the production side (decarbonization) not on the demand side (guilt/austerity).”
Les deux perspectives contiennent une part de vérité. Les choix individuels changent l’échelle quand des millions de personnes les font. Mais la culpabilité individuelle sans changement systémique ne produit que de l’anxiété pendant que le problème grossit.
Ce qui détermine l’empreinte
Comprendre les leviers aide. Tous les usages de l’IA ne se valent pas.
La taille du modèle compte. Les modèles plus grands nécessitent plus de calcul par inférence. GPT-4 consomme bien plus d’énergie que GPT-3.5, qui consomme plus qu’un petit modèle spécialisé. Beaucoup de tâches qui utilisent aujourd’hui des modèles de pointe pourraient très bien fonctionner avec des plus petits.
Le type de tâche compte. Générer du texte coûte relativement peu. Générer une image coûte 20 à 40 fois plus. Générer une vidéo coûte des milliers de fois plus. Une équipe marketing qui génère des dizaines d’images par jour n’a pas du tout la même empreinte qu’une équipe qui utilise des modèles de texte pour des brouillons d’e-mails.
Le fournisseur compte. Les centres de données varient selon leur efficacité énergétique, leurs sources d’électricité et leurs systèmes de refroidissement. Google annonce une réduction de 33× de l’énergie et de 44× du carbone pour la consigne médiane par rapport à 2024, ce qui montre à quel point l’efficacité peut varier d’un acteur à l’autre.
L’emplacement compte. Une recherche dans Nature Sustainability a constaté qu’un emplacement mieux choisi, une décarbonation plus rapide du réseau et une meilleure efficacité opérationnelle pourraient réduire les impacts carbone d’environ 73 % et les impacts sur l’eau de 86 % par rapport à des scénarios pessimistes. Le Midwest et les États de la « windbelt » offrent le meilleur profil combiné carbone-eau.
Le paradoxe de l’efficacité
C’est là que l’optimisme se complique. L’IA devient plus efficace. Beaucoup plus efficace. Le problème, c’est que ces gains sont avalés par l’augmentation de l’usage.
C’est le paradoxe de Jevons. Une technologie plus efficace devient moins chère à utiliser, donc on l’utilise davantage, au point de potentiellement annuler les gains d’efficacité. Comme l’a noté sèchement un commentateur Hacker News, Teever : “Yeah but Jevons paradox.”
La demande mondiale d’électricité de l’IA devrait passer de 415 TWh à près de 1 000 TWh d’ici 2030. Les améliorations d’efficacité ne suivent pas le rythme de l’adoption.
Le secteur le sait. La recherche continue sur des architectures de modèles plus efficaces, une meilleure optimisation de l’inférence et des améliorations matérielles. Une étude a proposé des algorithmes capables de réduire les coûts énergétiques de 95 % pour certaines opérations. Mais des affirmations extraordinaires exigent des preuves extraordinaires, comme l’a noté un utilisateur sceptique, et l’écart entre les résultats de laboratoire et les systèmes déployés reste important.
Ce que vous pouvez réellement faire
La réponse honnête est compliquée.
Choisissez la bonne taille de modèle. Utilisez le plus petit modèle qui accomplit la tâche. Un petit remue-méninges n’a pas besoin de GPT-4. La génération de texte en volume n’a pas besoin de capacités de raisonnement de pointe. Beaucoup de plateformes proposent un choix de modèle. Servez-vous-en.
Rédigez de meilleures consignes. Une consigne claire et précise qui marche du premier coup vaut mieux que trois consignes vagues qui exigent des itérations. Chaque clic de régénération a un coût. Les modèles et structures éprouvés réduisent les essais-erreurs.
Interrogez la nécessité. Toutes les tâches ne bénéficient pas de l’IA. Avant d’envoyer une requête, demandez-vous si vous en avez vraiment besoin. Pourriez-vous faire ça plus vite en le faisant vous-même ? Le bénéfice marginal vaut-il la consommation de ressources ?
Choisissez vos fournisseurs. Les entreprises d’IA varient dans leurs engagements de durabilité. Certaines publient des données détaillées sur l’efficacité. Certaines alimentent leurs centres de données avec des renouvelables. D’autres ne font ni l’un ni l’autre. À grande échelle, cette information influence les décisions d’achat.
Mais voici la vérité inconfortable : les actions individuelles, même pertinentes, ne suffisent pas. L’échelle du problème est systémique. Environ 60 % de l’augmentation de la demande d’électricité des centres de données sera satisfaite en brûlant des combustibles fossiles, augmentant les émissions mondiales de carbone d’environ 220 millions de tonnes. Aucune « sobriété » dans vos requêtes ne compense cette trajectoire.
La responsabilité du secteur
Le fardeau ne devrait pas reposer entièrement sur les utilisateurs. Il ne le peut pas.
Les grandes entreprises d’IA ont pris des engagements de durabilité. Promesses d’énergie renouvelable. Programmes de compensation carbone. Recherche sur l’efficacité. Pourtant, les rapports de durabilité montrent régulièrement une hausse des émissions absolues, même quand l’efficacité par calcul s’améliore. L’écart entre engagement et résultat est grand.
Neuf grandes entreprises technologiques ont montré des échecs constants de transparence, aucune ne publiant de métriques environnementales spécifiques à l’IA malgré le fait qu’elles reconnaissent l’IA comme un moteur clé de l’augmentation de la consommation d’énergie. On ne peut pas gérer ce qu’on ne mesure pas. Et le secteur ne mesure pas.
L’utilisateur adrianN a pointé le cœur du problème : “The important part remains internalizing emission costs into the price of electricity.” Quand les coûts environnementaux n’apparaissent pas dans le prix, ils sont ignorés. Les marchés optimisent ce qu’ils mesurent.
La question qu’on évite
Voilà ce que personne ne veut dire frontalement. On ne sait pas si les bénéfices de l’IA dépassent ses coûts environnementaux. Et on ne peut pas le savoir, parce qu’on n’a quantifié honnêtement ni l’un ni l’autre.
Les bénéfices sont réels. Gains de productivité. Capacités créatives. Puissance d’analyse. Accélération de la recherche. Médecine. Science. Tout ça compte.
Les coûts sont réels aussi. Émissions de carbone. Consommation d’eau. Extraction de ressources. Production de chaleur. Tension sur les réseaux. Tout ça compte aussi.
Comme l’a observé l’utilisateur Hacker News it_citizen : “The jury is still out on the cost benefit of AI on the long run.”
La conversation glisse vers les extrêmes. L’IA va tous nous sauver. L’IA va tous nous condamner. Aucune des deux positions n’aide. Ce qui aide, c’est une comptabilité honnête, qu’on n’a pas, et une discussion honnête sur les compromis, qu’on évite.
Où ça nous laisse
Je reviens sans cesse à ce qu’a écrit l’utilisateur neves sur Hacker News : “Society must have information to make decisions about what affects all the world.”
C’est le problème central. On n’a pas de bonnes informations. Les estimations d’énergie varient d’un ordre de grandeur à l’autre. Les calculs sur l’eau se contredisent. Les entreprises ne publient pas de métriques spécifiques à l’IA. Les chercheurs travaillent avec des données incomplètes et produisent des projections divergentes.
Ce que l’on sait suggère que la trajectoire est préoccupante. La consommation d’énergie de l’IA augmente plus vite que les gains d’efficacité. Le stress hydrique progresse dans les régions où les centres de données se concentrent. Les engagements carbone ne sont pas tenus. Et l’adoption accélère.
La suite n’est pas évidente. Il faudra un mélange d’améliorations d’efficacité, de déploiement de renouvelables, d’implantation plus intelligente des centres de données, de conscience d’usage, et probablement de réglementation. Il faudra accepter des compromis que nous n’avons pas affrontés honnêtement.
Je n’ai pas de conclusion propre. L’approche « liste de contrôle » paraît inadéquate ici, comme si on réarrangeait des chaises longues tout en se disputant pour savoir si le navire coule vraiment. Les chiffres sont réels. L’incertitude est réelle aussi. La responsabilité est répartie entre des milliards d’utilisateurs, des dizaines d’entreprises et des gouvernements qui n’ont pas décidé comment penser tout ça.
Ce que je sais, c’est que chaque requête coûte quelque chose. Le coût vaut peut-être la peine. Peut-être pas. Mais faire comme si ce coût n’existait pas est un choix, et c’est un choix que nous faisons depuis trop longtemps.
À lire aussi : Coûts de l’IA expliqués : tarification des API traite de la dimension financière de l’usage de l’IA. Confidentialité des données et conformité en IA aborde une autre facette d’une adoption responsable de l’IA.