AWS (Amazon Web Services) veut rendre plus d’eau qu’elle n’en utilise, mais comment ?

02 décembre 2022 à 09h30
14
AWS Amazon Web Services © Alexandre Boero pour Clubic
Le logo AWS, ici au AWS re:Invent 2022, à Las Vegas © Alexandre Boero pour Clubic

La filiale Cloud d’Amazon a présenté, cette semaine à Las Vegas, ses plans pour atténuer son impact carbone. Ils passent par une meilleure utilisation et redistribution de l’eau consommée dans ses data centers.

Welcome to Las Vegas, où était réunie cette semaine une partie des membres de l’imposante communauté mondiale du Cloud, pour assister aux conférences et autres spectacles de l’événement AWS re:Invent 2022, installé dans le plus grand hôtel de la ville du péché, au Venitian Resort. Une sorte de Disneyland à la sauce Sin City, où Amazon Web Services, l’un des gros poissons du Cloud, a fait des annonces majeures pour son futur, avec l’initiative Water Positive.

AWS veut mieux gérer l’amont et l’aval de sa consommation d’eau

L’eau est une ressource précieuse. En moyenne, Amazon Web Services utilise 0,25 litre d’eau par kilowattheure d’électricité dans ses centres de données et il n'est un secret pour personne que l'industrie du Cloud consomme aujourd’hui des milliards de litres d’eau. Inquiétant, alors que le réchauffement climatique pourrait aboutir à un déficit d’eau potable à hauteur de 50 % de la population mondiale, et ce, d’ici 2025.

Lors du AWS re:Invent, Amazon Web Services a pris l’engagement de restituer plus d’eau qu’elle n’en consomme, cela d’ici la fin de la décennie. Comment ? En menant à bien ce que la firme appelle l’initiative « Water Positive ».

AWS s'engage à rendre compte, chaque année, de sa mesure d’efficacité de l’utilisation de l’eau (WUE), ainsi que des efforts accomplis dans la réutilisation et le recyclage de l’eau utile à ses installations. « La rareté de l'eau est un problème majeur dans le monde et avec l'annonce positive d'aujourd'hui, nous nous engageons à faire notre part pour aider à résoudre ce défi en croissance rapide », expliquait cette semaine le patron d’AWS, Adam Selipsky. « D’ici 2030, on rendra plus d’eau aux communautés qu’on en consomme », nous confirme le directeur général d’AWS France, Julien Groues.

Pour réduire sa consommation d’eau, l’entreprise utilise ses services Cloud pour identifier en temps réel les fuites. Elle indique aussi avoir banni l’eau de refroidissement dans certains de ses centres de données, et ce, pendant une majeure partie de l’année. En Irlande et en Suède, deux pays au climat plutôt frais il est vrai, on sait qu’AWS n’utilise pas d’eau pour refroidir ses data centers pendant 95 % de l’année. Un système de traitement de l’eau sur site lui permet aussi d'utiliser l’eau plusieurs fois.

Une eau usée, certes, mais redistribuée à des acteurs locaux

Arrive ensuite la question des sources d’eau. AWS nous parle de « sources d’eau durables ». L’entreprise utilise de l’eau recyclée et collecte les eaux de pluie dès lors que cela est possible, sans plus de précisions. En Virginie du Nord, aux États-Unis, Amazon Web Services a collaboré avec Loudoun Water, la compagnie des eaux locale, pour devenir le premier opérateur de Cloud de l’État à être autorisé à utiliser de l’eau recyclée. Cette eau est sollicitée par les systèmes de refroidissement par évaporation directe. Ce ne sont pas moins de 20 data centers qui aujourd’hui utilise de l’eau recyclée. Et l’initiative Water Positive devrait contribuer à gonfler ce chiffre.

carte des data centers qui recylent l'eau © AWS
La carte des 20 centres de données AWS utilisant de l'eau recyclée pour le refroidissement © AWS

Se pose ensuite la question de l’utilisation, ou plutôt de la réutilisation de l’eau de ces centres de données par la communauté. Bien qu’usé, le liquide reste sans danger pour de nombreuses applications. C’est ainsi que dans l’Oregon, AWS fournit jusqu’à 96 % de l’eau de refroidissement aux agriculteurs. Ces derniers s’en servent, gratuitement, pour irriguer leurs champs de blé, de soja et de maïs.

Des initiatives partout dans le monde

Pour donner pleinement vie au processus de réapprovisionnement en eau, AWS entend contribuer à restaurer les bassins versants, en apportant des services d’eau potable, d’assainissement et d’hygiène aux communautés qui ont des difficultés d’accès à l’eau. L’entreprise nous indique fournir chaque année 1,6 milliard de litres d’eau douce aux habitants de communautés situées en Inde, au Brésil, en Indonésie et en Afrique du Sud.

En Inde justement, AWS s’est associée à une ONG, Water.org, pour fournir à 250 000 personnes un accès à l’eau potable et à l’assainissement. Cinq systèmes d’eau courante ont déjà vu le jour. De nouveaux projets de recharge des eaux souterraines ont été lancés, pour alimenter de nouveaux foyers.

Au Royaume-Uni, AWS travaille avec deux associations pour créer deux zones humides sur un affluent de la Tamise, qui constitue l’un des bassins versants les plus importants outre-Manche. Les zones humides rechargeront plus de 587 millions de litres d’eau souterraine par an. Elles amélioreront ainsi la qualité de l’eau, en traitant les eaux de ruissellement qui ont été polluées par des fermes et des routes.

Enfin, AWS aidera à recharger, dès cet hiver et chaque année, quelque 189 millions de litres d’eau souterraine dans le district d’Omochumne-Hartnell (à Sacramento, en Californie) grâce à l’utilisation de l’eau d’hiver provenant de la rivière. L’eau pourra ainsi s’écouler à travers la nappe phréatique et revenir dans le bassin versant de Sacramento et de San Joaquin, en augmentant les débits d’eau lorsque nécessaire, pendant les mois d’été par exemple, particulièrement chauds et secs dans la région. L’initiative permettra d’abaisser la température de la rivière et d’augmenter les débits estivaux dans le delta de la baie de San Francisco, source d’approvisionnement majeure en Californie.

AWS, toujours plus verte ?

La question autour de la consommation colossale des data centers se pose. Et les initiatives menées par AWS ne nous empêchent pas de penser que l’entreprise (ainsi que ses concurrentes) consomme de plus en plus de données, et possède de plus en plus de data centers, qui accroissent le phénomène.

« Nos data centers sont cinq fois plus efficaces qu'un centre de données medium en Europe », explique Julien Groues à Clubic. « Basculer ses applications et ses données chez AWS, c'est s’assurer de 80 % de réduction de consommation d'énergie et d'émissions de CO2 », ajoute-t-il. « On peut contribuer à cet élan et aller vers la réduction de l'impact du numérique sur la planète ».

L'objectif d'Amazon est d’atteindre, d’ici 2040, la neutralité carbone. Soit 10 ans avant l’objectif fixé par l’Accord de Paris.

Comment choisir le meilleur hébergeur web ? Clubic a testé et comparé les 10 principaux hébergeurs web au niveau des performances, des pratiques tarifaires, du niveau de fiabilité des infrastructures et de la qualité du service client, afin d'établir un comparatif fiable.
Lire la suite

Soyez toujours courtois dans vos commentaires.
Respectez le réglement de la communauté.
14
12
Fodger
La plupart des entreprises n’ont en réalité pas besoin du cloud, il serait bien plus salutaire d’optimiser les applicatifs souvent mal écrits.<br /> Le problème est que c’est un effet de mode, et le fait d’avoir des serveurs qui se déploient automatiquement au moindre dixième de pourcent de surcharge est un cercle vicieux puisque ça oblige à avoir toujours plus de serveurs physiques qu’il faut à minima maintenir en veille même inexploités.<br /> Serveurs physiques en pagaille qu’il faut produire, pour ensuite avoir une consommation électrique monstrueuses, une consommation d’eau monstrueuse, avec des risques au niveau sécurité car très c’est du cloud partagé. Tout ça c’est encore le modèle de la croissance illimité dans un monde fini.<br /> Et dans le cas des AWS, Gcloud, AZURE se posent en plus des problèmes de souveraineté.<br /> Un état quel qu’il soit ne devrait jamais héberger ses données dans une multinationale comme AWS.
bennukem
Mais du coup, on parlait d’eau, non ?
Fodger
Et donc l’impact du cloud au niveau écologique qui est désastreuse… Il faut savoir aller plus loin.<br /> C’est un très grave problème qui est posé aujourd’hui au niveau mondial.
gemini7
Sur le papier, je trouve cette initiative, pas mal du tout, si les agriculteurs peuvent récupérer de cette eau usée, pour l’arrosage de leurs cultures, c’est très bien.
wannted
Quelqu’un sait pourquoi on utilise de l’eau potable pour les toilettes ?
zeebix
Car les installations sont mal pensé et que le filtrage et récupération des eaux grises n’est pas suffisamment répandue, accessible et mis en avant. J’y ai pensé récemment (cet été) et c’est minimum 5000€ avec l’installation pour adapter le système à ma maison… ça devrait être encourager par le gouvernement au même titre que les passoires thermiques.
Aristote76
Les cloud sont loin d’être indispensables, ce sont souvent que des outils de confort sans revenir au papier et au crayon, on peut très largement réduire les dépenses énergétique et d’eau, j’irai même plus loin ça à surtout été créé dans le but de satisfaire grosse multinationales et états, on vois le résultat. Qu’AWS baisse sa conso. franchement ils l’ont crée de toute pièce cette demande.
qotzo
parce que tu n’étais pas né quand les plans d’urbanisation ont été fait.<br /> Et aussi parce que pour utiliser, quand même, de l’eau impropre à la consommation, il faudrait construire un 2e réseau, dans les maisons, les rues, … Et quand on parle de 2e réseau, c’est aller et retour car il faut malgré tout recycler cette eau impropre (tu ne fais pas la vaisselle avec l’eau que tu as déjà utilisé hier n’est-ce pas ?)<br /> Et ça implique de casser/reconstruire. Le bilan carbone il est comment ?<br /> Ou alors tu abandonnes les villes et tu reconstruit tout ailleurs, en pensant mieux les réseaux d’eau. Oui mais tu comprends, il faut aussi construire les réseaux routiers et ferroviaires vers cet ailleurs car sinon comment vas-tu aller bosser, faire tes courses, voir le médecin ?
yeerum
il n’est un secret pour personne que l’industrie du Cloud consomme aujourd’hui des milliards de litres d’eau. Inquiétant, alors que le réchauffement climatique pourrait aboutir à un déficit d’eau potable à hauteur de 50 % de la population mondiale<br /> Avec 509 millions de km2 de la surface du globe couverte, il faut comprendre que c’est dans l’eau dite potable potentielle qu’on se sert pour la consommation de l’industrie du Cloud?
zeebix
Bon on s’écarte du sujet initial…mais bon<br /> Tu va un poil trop loin dans ton raisonnement en oubliant un gros détail, tu produits déjà chez toi de l’eau grise, et qu’il suffirait d’un second réseau chez toi et ça arrête là, pas besoin d’autres infrastructures.<br /> Sa question est loin d’etre bête.
clubic_er
Bcp ont une opinion tranchée sur le cloud en mode c’est inutile<br /> Ceci étant si on ne prends pas en compte le fait que les applications sont optimisée ou pas<br /> Il est peut-être. plus « écologique » de centraliser la gestion des serveurs chez un prestataire (ici aws) qui fait que ça, plutot que de bricoler ça dans est coin et d’être pas 100% optimisé du point de vue énergetique
Fodger
Absolument c’est un mal que trop répandu dans l’industrie informatique, en particulier le développement logiciel, depuis les marketeux ont pris en main la partie business.
Nmut
C’est ce que je me dis. Quand on voit qu’un service AWS est 10x moins cher que la possession d’une machine équivalente, je me dis qu’au delà du dumping, il y a quand même pas mal de gains « écologiques »: conso inférieures, meilleur taux d’utilisation du matos, meilleur efficacité de la gestion thermique, …<br /> Je ne sais pas si il existe des études à ce sujet.
papy6
alors il faut aller jusqu’au bout du raisonnement et quitter ce forum qui est lui même hébergé dans un centre de données …
Fodger
Argument fallacieux; c’est côté Clubic que ça se passe quant à leur choix d’hébergement et d’architecture, je ne sais pas ce qu’ils font. Ça rappelle l’argumentaire des fabricants de bouteilles en plastiques comme CocaCola : « Aux gens de ne pas jeter n’importe où les bouteilles… » sauf qu’il y a déjà la responsabilité au départ de vendre de la merde (en particulier à des populations peu éduquées), qui au final se retrouve dans des décharges géantes.<br /> Le cloud veut tout et rien dire, le principe en soit n’a rien de nouveau. Le problème vient de la commercialisation de certaines offres qui se base sur la multiplicité des serveurs (même logique pourrie avec la 5G), en particulier de le déploiement dynamiques de serveurs.
Palou
@zeebix Il suffirait déjà de récupérer les eaux de pluie sur les toitures, assez facile à faire et il n’y a pas 50km de tuyau à tirer … mais ce n’est pas le sujet ici
inconnu_de_passage
Tu peux faire des applications cloud « serverless » maintenant, elles sont démontées quand il y 0 traffic, et remontées que quand il y a du trafic.<br /> Normalement, le cloud permet de réduire le nombre de machines qui tournent à ne rien faire en comparaison avec la stratégie de s’auto-héberger chacun dans son coin.<br /> Genre mon employeur à son propre data-center qui héberge la majorité de nos applications. La nuit les serveurs tournent toujours, mais ils ne servent à rien.<br /> Si on était hébergés dans le cloud à la place, nos VM seraient démontées le soir, et les serveurs physiques qui ont fait tourner nos applis le jours feraient tourner d’autres services à la place le soir, donc ça réduirait le nombre de machines fabriquées sans rien changer aux usages.<br /> Par contre pour le coup d’optimiser le code, oui je peux confirmer à 100% qu’il y a des efforts immenses à faire là dessus en entreprise…
Fodger
Le serverlees est du marketing, ni plus ni moins.<br /> Le cloud ne permet pas de réduire le nombre de machines c’est totalement faux, puisque la première raison d’être du cloud c’est la très haute disponibilité du service, le partage de données, ainsi que la réduction de latence partout dans le monde.<br /> Je reste catégorique : le premier axe d’amélioration, et de loin, c’est le code et l’optimisation système des serveurs. Le matériel est sous-exploité dans la très très large majorité des cas.
inconnu_de_passage
Fodger:<br /> Le cloud ne permet pas de réduire le nombre de machines c’est totalement faux, puisque la première raison d’être du cloud c’est la très haute disponibilité du service, le partage de données, ainsi que la réduction de latence partout dans le monde.<br /> Non, la raison d’être du cloud, c’est que les giga-boites américaines qui ont des grosses variations de charge ne savaient pas quoi faire de toutes leurs machines qui sont inutiles en dehors des pics de charge (donc 95% du temps), donc ils ont cherché à les rentabiliser en louant leur capacité d’hébergement temporaire à d’autres entreprises.<br /> Pour faire un exemple plus concret de comment ça aide à réduire le nombre de machines utilisés, voilà ce que donne le SI d’une boîte comme la mienne qui brasse plusieurs centaines de millions d’euros :<br /> Dans une journée habituelle, la charge est répartie de manière très inégale. Disons qu’en moyenne il faudrait 500 machines, mais pour le pic de charge de la journée c’est 1000 serveurs. Et pour les heures creuses (la nuit notamment), on pourrait être à 100 machines.<br /> Mais pour absorber les gros pics d’activités (genre on envoie une campagne d’emails à tous les clients et on récupère plusieurs millions de clics, suivis d’une tonnes de traitements à gérer), on est obligé de prévoir x4 en capacité, donc on a 4000 serveurs, dont 3000 qui ne servent à rien 333 jours par an, mais comme on est pas cloud, on est obligés d’acheter nos machines en avance.<br /> Histoire d’assurer de la redondance en cas de grosse panne, on a fait un x2 sur l’hébergement, donc on a en fait 8000 machines dont la moitié ne sert jamais parce que le datacenter principal tombe rarement en panne.<br /> Donc on récapitule : sur une journée de travail normale, on a entre 100 et 1000 machines qui bossent réellement, et 7000 machines qui sont là « au cas où », mais qui servent souvent à rien en pratique.<br /> Tu peux faire des optimisations de code si tu veux, tu vas peut-être réduire de 30% le nombre de machines, mais ça reste que dalle comparé au fait qu’on au 700% de sur-capacité pour gérer les imprévus. Et non, on ne peut pas se débarrasser de ces machines en trop, parce que qu’il y a un besoin immédiat d’avoir plus de serveurs, on peut pas attendre 6 mois de se faire livrer des nouvelles machines.<br /> Si on était hébergé dans le cloud, on n’utiliserait que les 100-1000 machines dont on a réellement besoin dans la journée, au lieu de mobiliser toutes ces machines pour rien.<br /> Et si on était hébergé dans le cloud, sur les 1000 machines qui nous servent réellement au quotidien, il y en aurait 900 qui seraient libérées pendant le soir/nuit/weekend/vacances, et qui serviraient à des services de divertissement qui eux ont plus d’activité dans ces périodes.<br /> Ou alors pour des applications de type calcul qui s’exécutent n’importe quand et qui guettent juste les creux d’utilisation du cloud pour bénéficier de puissance pour moins cher.<br /> Le cloud qui permet de partager des machines, c’est un peu comme avoir des équipements communs dans un grand immeuble au lieu d’avoir des équipements individuels.<br /> Tu peux mettre 20 lave-linges en commun qui tournent tous les jours au lieu d’en avoir 100 individuels dans chaque appartement qui tournent 1 fois par semaine.<br /> Tu peux mettre 1 imprimante commune qui remplacera facilement une centaine d’imprimantes individuelles qui impriment 1 fois tous les 3 mois.<br /> Etc.
Fodger
Certes c’était le cas au début mais pas que, le cloud existe en réalité depuis plus 25 ans.<br /> La répartition de charges et l’optimisation de la latence via des serveurs géolocalisés, ou encore le calcul distribué tel que des programmes comme SETI (qui ont popularisé la chose) étaient les premières vraies motivations et ne date pas d’hier.<br /> Ensuite le marketing est passé par là allié à la volonté de plus d’automatisation.<br /> Ce qui a fait exploser de façon exponentiel le nombre de serveurs. C’est un fait que tu le veuilles ou non.<br /> Il n’empêche que tu peux dire ce que tu veux, et très largement, notamment pour les services web le premier vecteur de lenteur et surcharge c’est une mauvaise optimisation (au sens large) de l’écosystème utilisé (on a pas idée à quel point on peut saturer les ressources). Et je le constate encore tous les jours depuis bien longtemps.<br /> Il n’y a qu’à voir déjà les stats pour la sécurité web de base chez les revendeurs de certificats SSL, c’est une grosse blague.
Voir tous les messages sur le forum

Derniers actualités

BMW Série 3, Peugeot 308, Renault Mégane... les hybrides rechargeables polluent 3 fois plus qu'annoncé
Baidu, Alibaba, JD... Tous les grands groupes tech chinois veulent leur ChatGPT
Ce kit RAM Corsair est à son prix le plus bas en ce moment chez Amazon
Vous vous souvenez Squid Game ? Après la téléréalité, le jeu arrive en VR !
iPhone 15 et 15 Plus : vers un nouveau module photo, avec quelles capacités ?
Chez AMD, comme chez NVIDIA, le PCIe 4.0 x8 pour réduire les coûts ?
Vous devez absolument voir ce dernier trailer de The Legend of Zelda: Tears of the Kingdom
2 ans après son lancement, la gamme Rocket Lake en
Le renouvelable, première source d'électricité dès 2025 ?
Radars en ville : le projet encore reporté
Haut de page