ChatGPT & co : pourquoi le coût énergétique de l'IA pose un vrai problème

Alexandre Boero
Par Alexandre Boero, Journaliste-reporter, responsable de l'actu.
Publié le 13 mars 2023 à 10h50
© Shutterstock
© Shutterstock

Occupant de plus en plus de place dans l'opinion, l'intelligence artificielle pousse inévitablement à se poser davantage de questions sur l'impact carbone qu'elle génère, qui serait trop important pour certains chercheurs.

Ces dernières semaines, les ChatGPT, Google Bard et autre Microsoft Bing, sans parler de toutes ces intelligences artificielles qui bercent notre quotidien ou de ces géants de la Tech qui veulent aussi leur part du gâteau (comme Amazon), ont pris une part croissante dans l'actualité. L'IA est devenue un sujet majeur dans tous les secteurs, pour ce qu'elle apporte en matière de capacités (et de revenus). Sauf que tout cela a un coût, un coût énergétique qui est d'ailleurs très important et qui pousse des chercheurs à tirer la sonnette d'alarme.

Les modèles d'IA pompent énormément d'énergie

À l'heure où les autorités appellent à aller plus loin encore dans les économies d'énergie, l'IA connaît une croissance exponentielle avec la multiplication des produits, citons par exemple les robots conversationnels (ou chatbots), les générateurs d'images ou d'autres modèles d'intelligence artificielle moins connus du grand public.

Cette diffusion massive de l'IA entraine une forte consommation d'énergie, plus importante encore que les autres formes d'informatique. À l'issue de leurs discussions avec des chercheurs spécialisés en la matière, nos confrères de Bloomberg ont estimé que la formation d'un seul modèle consommerait autant d'énergie que celle générée par 100 foyers américains sur un an.

Cette proportion ne cesse de prendre de l'épaisseur, et elle peut grossir encore plus selon la façon dont l'électricité est produite : un data center qui puise son énergie dans une centrale au charbon ou au gaz naturel causera des émissions de carbone beaucoup plus importantes qu'une électricité issue de ressources éoliennes ou solaires.

L'IA, chez Google, consommerait autant qu'une ville de 500 000 habitants

Le désormais célèbre modèle d'IA d'OpenAI, GPT-3, aurait à lui seul nécessité quelque 1 287 gigawattheures pour boucler son apprentissage, une consommation comparable à celle de 120 foyers américains sur une année, selon des chercheurs de Google et de l'Université de Berkeley. Soit ce que consomment 110 voitures en un an, ou 502 tonnes d'émissions de carbone.

Visiblement, le coût énergétique initial ne serait que l'arbre qui cache la sombre forêt, puisqu'il ne pèserait que pour 40 % de l'énergie réellement consommée par le modèle d'IA. Et la taille de ces modèles n'aide pas : plus ils présentent de paramètres, plus ils gonflent leur consommation d'énergie. GPT-3 embarque 175 milliards de paramètres, contre 1,5 milliard pour son prédécesseur.

Selon les estimations de Google, l'intelligence artificielle pourrait être responsable de la consommation énergétique de l'entreprise à hauteur de 10 à 15 %, soit 2,3 térawattheures, où la consommation annuelle du parc résidentiel d'Atlanta, qui abrite autour de 500 000 habitants.

Le comble, c'est que tous les plus grands acteurs de la Tech ont pris des engagements drastiques en matière d'émissions, beaucoup tablant sur une neutralité carbone à horizon 2030, 2040 ou 2050. Et si l'intelligence artificielle peut servir, comme chez Google, à optimiser l'efficacité énergétique de ses centres de données, elle vient ici entretenir une espèce de cercle vertueux, dont les véritables données de consommation ne sont pas prêtes d'être révélées.

ChatGPT
  • Chat dans différentes langues, dont le français
  • Générer, traduire et obtenir un résumé de texte
  • Générer, optimiser et corriger du code
10 / 10

Source : Bloomberg

Par Alexandre Boero
Journaliste-reporter, responsable de l'actu

Journaliste, responsable de l'actualité de Clubic. En soutien direct du rédacteur en chef, je suis aussi le reporter et le vidéaste de la bande. Journaliste de formation, j'ai fait mes gammes à l'EJCAM, école reconnue par la profession, où j'ai bouclé mon Master avec une mention « Bien » et un mémoire sur les médias en poche.

Vous êtes un utilisateur de Google Actualités ou de WhatsApp ?
Suivez-nous pour ne rien rater de l'actu tech !
Commentaires (0)
Rejoignez la communauté Clubic
Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.
Commentaires (10)
SPH

« Le comble, c’est que tous les plus grands acteurs de la Tech ont pris des engagements drastiques en matière d’émissions, beaucoup tablant sur une neutralité carbone à horizon 2030, 2040 ou 2050. »

Entre l’écologie et les $, le choix est vite fait… :relaxed:

TheWitcher

La neutralité carbone n’est pas incompatible, il suffit de construire des centrales nucléaires.

Loposo

Tout dépend comment on alimente les serveur, OK il y a le matos dedans qui fait du co2 pour le produire.
Mais bon il y a des crypto monaie qui consomment l équivalent de pays et ont à rien fait encore. L IA peut apporter bien plus.
Peut être préférable d avoir des gros centres facile à contrôler que chacun change de pc smartphone etc pour profiter de l IA.
Ou des smartphone qu on change bien trop souvent batterie non remplaçable,…

newtom

C’est bien connu, le béton, acier etc sont totalement neutre en carbone

Tuco_Ramires

C’est la course vers la Singularité.

jcc137

Ca devient pathologique cette manie de calculer le poids en carbone de la création d’un produit, en occultant ce même rapport lors de son utilisation cf. les voitures électriques.
Et pour l’IA, si la requête sous forme humaine permet d’obtenir une réponse juste du premier coup, plutôt que tâtonner avec des mots-clefs pendant des heures, le bilan carbone n’est-il pas rattrapé ?

cirdan

« elle vient ici entretenir une espèce de cercle vertueux »
Plutôt vicieux que vertueux dans le cas présent.

gounzor

ouf merci de lui avoir dit

kroman

On nous pond des articles ventant les crypto à longueur d’année (le minage du Bitcoin en 2022 a consommé plus que toute a Suède).

Et là on fustige l’apprentissage de ChatGPT qui n’a que consommé autant que 120 foyers🤦‍♂️

Drifter35

La bonne nouvelle est qu’OpenAI a réussi à diviser par 10 les ressources nécessaires pour faire tourner son modèle de langage phare GPT3 (en créant GPT3. 5-turbo, modèle utilisé par ChatGPT). Donc il y a des marges pour réduire la conso…
La moins bonne nouvelle est que son prochain modèle, GPT4, est annoncé comme étant 500 fois plus gros que GPT3 (il est supposé capable de traiter les images, le son et la video en plus du texte)