Le coup de chaud d'un data center Google Cloud à Londres : quelles conséquences ?

Alexandre Boero
Par Alexandre Boero, Journaliste-reporter, responsable de l'actu.
Publié le 20 juillet 2022 à 14h40
Un aperçu du centre de données du comté de Mayes, dans l'Oklahoma, aux États-Unis © Google Cloud
Un aperçu du centre de données du comté de Mayes, dans l'Oklahoma, aux États-Unis © Google Cloud

La fournaise londonienne a eu raison d'un data center Google Cloud mardi, encore perturbé vingt-quatre heures plus tard, du fait d'une panne liée au refroidissement.

Mardi, le thermomètre s'est affolé et a entraîné une panne majeure du data center londonien de Google Cloud. L'un des bâtiments qui héberge une partie de la capacité de la zone « europe-west2-a » a subi un incident, seulement partiellement résolu. Il faut dire qu'hier, il faisait plus de 40 °C à Londres, la capitale anglaise a essuyé une vague de chaleur sans précédent, ou presque. Fort heureusement, elle est désormais passée, avec une baisse de la température comprise entre 10 et 15 degrés 24 heures après.

Une défaillance du data center liée au refroidissement

Mardi 19 juillet à 01 h 13 du matin heure locale, le tableau de bord des services Google Cloud a signalé un incident sur sa région de Londres (le centre de données, donc). Il a ainsi évoqué une « défaillance liée au refroidissement » de l'un de ses bâtiments sur site.

La défaillance a alors provoqué un arrêt partiel de la capacité du data center, « entraînant des arrêts de machines virtuelles pour un petit groupe de clients ». Les techniciens de Google Cloud ont préféré mettre hors tension une partie de la zone et limiter les lancements Google Compute Engine (une offre d'infrastructure qui permet aux clients de l'entreprise de lancer des charges de travail sur du matériel Google).

Google a indiqué, autour de 12 h mardi, que le problème a été, dans l'ensemble, résolu pour tous les clients touchés par la panne qui avait eu lieu dans la nuit, avec une restauration du système de refroidissement dans le centre de données londonien.

Des services encore victimes de perturbations, 24 heures après

Mais la console Google Cloud Service Health nous indique l'interruption, encore mercredi, de plusieurs services Cloud sur la région. C'est le cas notamment de API Gateway, qui permet à ses utilisateurs de développer, déployer et sécuriser les API à l'aide d'une passerelle entièrement gérée. Le service App Engine, plateforme sans serveur entièrement gérée pour le développement et l'hébergement d'applications web, reste aussi soumis à des difficultés. D'ordinaire, il est censé permettre de choisir parmi différents langages, bibliothèques et frameworks (Go, PHP, Java, Python, Node.js, etc.) pour développer ses applications.

C'est le cas aussi des services Google Cloud SQL, GC Storage, Google Kubernetes Engine ou de Persistent Disk (déjà touché la veille et qui aide à offrir de hautes performances pour les instances de machines virtuelles). Cloud Tasks, le service d'exécution asynchrone de tâches en dehors d'une requête utilisateur, subit toujours des perturbations lui aussi.

Ces produits connaissent actuellement des taux d'erreur, des latences ou tout simplement une indisponibilité de service, toujours en lien avec l'incident de refroidissement de la veille. On ignore encore quand ces derniers seront pleinement rétablis. Notons qu'un autre acteur majeur du Cloud, Oracle, subit aussi quelques perturbations à Londres, liées à la chaleur.

Alexandre Boero
Par Alexandre Boero
Journaliste-reporter, responsable de l'actu

Journaliste, responsable de l'actualité de Clubic. En soutien direct du rédacteur en chef, je suis aussi le reporter et le vidéaste de la bande. Journaliste de formation, j'ai fait mes gammes à l'EJCAM, école reconnue par la profession, où j'ai bouclé mon Master avec une mention « Bien » et un mémoire sur les médias en poche.

Vous êtes un utilisateur de Google Actualités ou de WhatsApp ?
Suivez-nous pour ne rien rater de l'actu tech !
Commentaires (0)
Rejoignez la communauté Clubic
Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.
Commentaires (7)
loupton

sur de courtes périodes les 45°, pas pendant deux jours…

luck61

Probablement qu’ils ont voulu économiser sur les groupes d’eau glacée en backup

Nmut

A voir. Mais la proba d’une panne sous très forte chaleur + le backup qui ne prend pas le relais correctement est relativement importante dans ces conditions.
Un peu comme la panne électrique qui arrive après le remplacement de certains onduleurs et/ou batterie, on a souvent des (mauvaises) surprises avec des équipements moins solidement validés en conditions réelles! :stuck_out_tongue:

lefranstalige

En espérant que les ingénieurs ultra qualifiés de Google passent sur Clubic pour lire les solutions des internautes (certainement tout autant qualifiés) auxquelles ils n’ont pas pensées…

luck61

Si tu savais comment ça se passe tu serais choqué :scream:

Oldtimer

Personne n’a encore pensé à jeter de l’eau pour refroidir les serveurs ? :grin:

kijuhy

Lefranstalige, on est en 2022 on sait voyager sur la lune, prendre des photos à plusieurs années lumière, faire du nucléaire et le refroidir etc …
Donc t’as complètement tord avec ton cynisme, y’a clairement un problème de préparation et de compétence et surement aussi d’économie sur des éléments importants.
Pour avoir vu des datacenter de l’intérieur qui eux ont tenus aux fortes chaleurs …