Exemple d'un datacenter utilisé pour l'IA © Google
Exemple d'un datacenter utilisé pour l'IA © Google

L'émergence de l'intelligence artificielle (IA) générative alerte les experts quant à la consommation d'eau des géants technologiques. À tel point que certains appellent à des mesures fortes pour limiter « l'impact écologique » de l'IA.

Les grands modèles de langage, comme GPT-4 ou Gemini, requièrent d'immenses capacités de calcul. Celles-ci impliquent l'utilisation de vastes centres de données dont les serveurs génèrent beaucoup de chaleur. Pour éviter de les endommager, les entreprises ont souvent recours au refroidissement par eau. Tandis qu'une partie s'évapore, l'autre peut être réutilisée.

L'IA fait grimper la consommation d'eau des datacenters

Avec le boom de l'IA générative, la consommation d'eau des big tech ne cesse de grimper. En 2022, Microsoft a augmenté sa consommation d'eau de 34 %, Google de 22 % et Meta de 3 %. Selon Shaolei Ren, professeur à l'université de Californie, réaliser entre 10 et 50 réponses à ChatGPT, alimenté par GPT-3.5, équivaudrait à « boire » une bouteille d'eau de 500 ml.

La demande croissante en IA risque d'entraîner une augmentation de l'extraction de l'eau de 4,2 à 6,6 milliards de mètres cubes d'ici à 2027, estiment les chercheurs. Cela équivaut à la moitié de la quantité consommée par le Royaume-Uni chaque année. « D'ici quelques années, les grands systèmes d'intelligence artificielle auront probablement besoin d'autant d'énergie que des pays entiers », prévient Kate Crawford, spécialiste de l'IA et professeur à l'université de Californie du Sud.

Le problème est d'autant plus grave « dans un contexte de pénurie d'eau douce de plus en plus accrue, d'aggravation des sécheresses prolongées et de vieillissement rapide des infrastructures publiques d'approvisionnement en eau ».

Utiliser ChatGPT nécessite de l'eau. © Daniel Chetroni / Shutterstock
Utiliser ChatGPT nécessite de l'eau. © Daniel Chetroni / Shutterstock

Appels pour une collaboration à grande échelle

Les entreprises concernées reconnaissent la situation. « Nous reconnaissons que l'entraînement de grands modèles peut être gourmand en eau, et c'est l'une des raisons pour lesquelles nous travaillons constamment à améliorer l'efficacité », a indiqué OpenAI, dont les modèles fonctionnent grâce aux serveurs de Microsoft, au Financial Times.

Les opérateurs de centres de données ont pour objectif de réinjecter plus d'eau qu'elles n'en consomment d'ici à 2030, dans des systèmes tels que les aquifères. Les autorités sont également au courant du problème. Début février, des élus démocrates américains ont présenté une loi sur les impacts environnementaux de l'intelligence artificielle. Elle inclut, notamment, la création de normes pour évaluer les effets de la technologie sur l'environnement.

Mais ce n'est pas assez selon les experts. « Pour s'attaquer véritablement aux incidences de l'IA sur l'environnement, il est nécessaire d'adopter une approche à multiples facettes incluant l'industrie de l'IA, les chercheurs et les législateurs », recommande Kate Crawford. Elle appelle également les fournisseurs d'IA à collaborer avec « des spécialistes des sciences sociales et environnementales pour orienter les conceptions techniques vers une plus grande durabilité écologique ».

Outre l'eau, les centres de données nécessitent aussi de grandes capacités d'énergie. D'ici à 2026, la consommation d'électricité des datacenters en Europe augmentera de 50 %, selon l'Agence internationale de l'énergie (AIE).