Combien coûtent vraiment à la planète nos échanges avec Gemini, l'assistant de Google ? Cela tombe bien, l'entreprise a voulu répondre à cette épineuse question, en publiant ses propres chiffres. Des données à prendre avec des pincettes, car, comme vous allez vite vous en rendre compte, le diable, comme souvent, se cache dans les détails. Surtout ceux que l’on ne montre pas.

Depuis l'essor des assistants par IA se pose nécessairement la question du fardeau qu'ils font peser sur notre planète ; « crise environnementale » par ici, « aberration écologique » par là. Cette technologie est gourmande et énergivore ; les faits sont avérés (les estimations de Greenly à propos d'OpenAI sont très parlants), même si l'efficacité des modèles d'IA s'est largement amélioré depuis leur genèse.
La carte « écologie » fait donc partie du deck des géants de l'IA, dont Google, qui se devait de répondre à cette inquiétude : l'accroissement de l'usage des assistants IA risque-t-il d'annuler les progrès accomplis dans d'autres secteurs (véhicules électriques, industrie, énergies renouvelables) ? C'est pourquoi, le mois dernier, l'entreprise a publié son rapport sur la plateforme arXiv à propos de la consommation énergétique de Gemini. Alors, le chatbot de la firme de Mountain View est-il un ogre ou s'est-il mis au régime ?

Google jure que Gemini ne pompe presque rien
Ainsi, elle a présenté son calcul de manière très pédagogique : une requête textuelle à Gemini moyenne consommerait 0,24 Wh d’énergie, rejetterait 0,03 g de CO₂ et nécessiterait 0,26 millilitre d’eau pour le refroidissement des serveurs. Google s'est même targué d'une petite comparaison : chaque requête reviendrait à moins de neuf secondes passées devant la télévision.
L'entreprise a bien évidemment souhaité mettre en avant les progrès qu'elle a accompli. Selon son rapport, l’empreinte carbone totale de Gemini aurait chuté de « quarante-quatre fois » en un an. Un chiffre, à première vue, prodigieux, assorti de la promesse de réduire aussi la consommation d’eau utilisée pour refroidir les serveurs de ses centres de données. Un enjeu tout aussi brûlant que ces derniers dans les régions où les nappes phréatiques souffrent de stress hydrique régulièrement.
Grattons un peu sous cette jolie surface verte : à l'échelle d'un utilisateur, une requête, n'est effectivement pas très gourmande. Mais lorsque l'on sait que Gemini est utilisé activement par 47 millions de personnes (chiffres de 2025), les chiffres s'envolent. On peut, de plus supposer, que la plupart des usagers ne vont pas se contenter d'une seule requête lorsqu'ils feront usage du chatbot.
Seconde couche qui vient après ce premier grattage : ces calculs ne reflètent finalement qu'une très maigre partie de la réalité. Quid de l'entraînement du modèle, période pendant laquelle des milliers de GPU tournent à plein régime durant des semaines ? Des mises à jour constantes pour maintenir la qualité du service ? Ou encore de la fabrication et de la maintenance des infrastructures physiques (data centers) nécessaires pour que Gemini fonctionne correctement ? Si Google veut bien nous parler de l'arbre, c'est qu'elle sait pertinemment qu'une immense forêt est planquée derrière.

Les data-centers, l'arrière-boutique de l'illusion verte
Le rapport de Google ne se focalise qu’à un instant T : la consommation d’une requête textuelle. Comme expliqué précédemment, Gemini a dû être entraîné pendant de longs mois, avec une dépense énergétique équivalente à celle d’une petite ville. Ensuite, le modèle doit être sans cesse mis à jour, corrigé, enrichi et décliné dans de nouveaux usages (Android Auto, Google Home, Maps, génération d’images et de vidéos).
Tout cela grâce à ces fameux data centers, qui tournent sans relâche jour et nuit. Leur consommation explose : selon le MIT, les centres nord-américains sont passés de 2 688 Mw en 2022 à 5 341 Mw en 2023. En un an, c'est le double (ou presque), et c'est largement imputable à la montée en puissance de l'IA.
Le MIT nous alertait déjà dès 2024 dans son rapport (The Climate and Sustainability Implications of Generative AI). Son auteur principal, Noman Bashir, chercheur au CSAIL (MIT Computer Science and Artificial Intelligence Laboratory), prévenait : « Le rythme auquel les entreprises construisent de nouveaux data centers rend impossible un approvisionnement durable. La plupart de l’électricité nécessaire devra provenir de centrales à combustibles fossiles ». L'écosystème IA tient grâce à une ossature carbonée, que peine difficilement à recouvrir la façade verte que Google essaye de mettre en avant.
En ramenant chaque requête Gemini à l’équivalent de quelques secondes de télévision, Google joue une carte pédagogique, mais aussi très réductrice. Le danger est d’installer dans l'opinion une fausse perception : celle d’une technologie « légère », alors que son empreinte repose sur une infrastructure mondiale qui croît à un rythme insoutenable. Faire passer l'IA pour une tech propre comme le fait Google ici, c’est comme juger l’impact climatique d’un avion en ne comptant que le moment où son train touche le tarmac : un épouvantail finalement assez grossier.
Source : BGR
- Un modèle de génération puissant
- Une base de connaissances actualisée en temps réel
- Gratuit et intégré à l'écosystème Google