Un « colosse » électronique calcule en quelques battements de processeur ce qu’un cerveau humain ne pourrait modéliser en une vie. Au cœur de ce prodige : El Capitan, un supercalculateur qui promet d’affiner l’alerte aux tsunamis au point de gagner des minutes… et potentiellement des millions de vies.

La puissance brute ne fait pas tout. Pour dompter la fureur d’un tsunami, il faut aussi une finesse de calcul inouïe, capable de transformer des murmures sismiques en alertes d’une précision chirurgicale. © Shutterstock
La puissance brute ne fait pas tout. Pour dompter la fureur d’un tsunami, il faut aussi une finesse de calcul inouïe, capable de transformer des murmures sismiques en alertes d’une précision chirurgicale. © Shutterstock
L'info en 3 points
  • El Capitan, supercalculateur exaflopique du LLNL, a pré-calculé un billion de scénarios sismiques pour créer un jumeau numérique de l’océan.
  • Ces signatures de pression permettent, en phase opérationnelle, d’identifier en quelques secondes la hauteur des vagues en comparant les mesures aux scénarios pré-calculés.
  • Résultat: alertes au tsunami plus fiables et accessibles — serveurs GPU bon marché suffisent, ouvrant la protection à plus de régions.

Fraîchement couronné roi des supercalculateurs avec sa puissance exaflopique, El Capitan ne se contente pas de faire tourner des simulations pour l'arsenal nucléaire américain. Installé au Lawrence Livermore National Laboratory (LLNL), il consacre une partie de ses cycles de calcul à une mission vitale : réinventer la prévision des tsunamis. En se nourrissant des données de capteurs sous-marins, il vise à dresser une carte des vagues meurtrières avant même qu'elles n'amorcent leur course vers le littoral.

Un jumeau numérique de l'océan en gestation

Au commencement est le calcul brut. Pour anticiper les caprices de l’océan, les chercheurs ont d'abord soumis El Capitan à un exercice de titan : la résolution d'un problème bayésien d'un milliard de paramètres. Cette phase, menée hors-ligne, a permis de créer une gigantesque bibliothèque de scénarios sismiques. Chaque scénario possible, de la plus petite faille à la rupture cataclysmique, y est associé à une signature de pression unique, telle qu'elle serait mesurée par des capteurs au fond de l'eau.

Une fois ce travail herculéen de modélisation achevé, la prédiction en temps réel change radicalement d'échelle. Plus besoin de mobiliser un monstre comme El Capitan. Quelques GPU grand public, installés dans un centre d'alerte régional, suffisent pour consulter cette bibliothèque de scénarios. Lorsqu'un séisme survient, les données des capteurs sont comparées en quelques secondes aux signatures pré-calculées, permettant de projeter la hauteur des vagues avec une rapidité déconcertante.

Cette prouesse repose sur MFEM, une bibliothèque de calcul par éléments finis spécifiquement conçue pour le calcul massivement parallèle sur processeurs graphiques. Le modèle est le premier digital twin (ou jumeau numérique) de l'océan qui parvient à intégrer en temps réel les incertitudes liées aux mesures de pression et la propagation complexe des ondes. On quitte le domaine de l'estimation pour entrer dans celui de la simulation physique fidèle, un bond de géant pour la discipline.

Le supercalculateur El Capitan - © Lawrence Livermore National Laboratory
Le supercalculateur El Capitan - © Lawrence Livermore National Laboratory

De l’alerte de masse à la prévision ciblée

Les systèmes d'alerte actuels, souvent basés sur une simple estimation de la magnitude du séisme, souffrent d'un défaut majeur : un taux de fausses alarmes élevé. En déclenchant des évacuations inutiles, ils érodent la confiance de la population et peuvent conduire à une inaction fatale le jour où le danger est bien réel. En résolvant les équations complètes de la physique des fluides, ce nouveau modèle offre une fiabilité qui pourrait bien restaurer ce lien de confiance essentiel entre les autorités et les citoyens.

Si la phase de pré-calcul requiert la puissance d'un supercalculateur à plusieurs centaines de millions de dollars, le déploiement opérationnel, lui, ne coûte que quelques milliers d'euros. Un simple serveur équipé de GPU modernes suffit pour un centre d'alerte. Cette accessibilité financière change la donne et pourrait permettre à des régions moins fortunées de s'équiper d'une protection de pointe.

Les scientifiques derrière le projet insistent sur la versatilité de leur approche. La chaîne opératoire, pré-calcul massif sur supercalculateur, création d'un jumeau numérique, puis inférence rapide sur du matériel local, n'est pas limitée aux tsunamis. Elle constitue un véritable canevas applicable à d'autres catastrophes naturelles comme les incendies de forêt, la dispersion de cendres volcaniques ou même les tempêtes solaires qui menacent nos satellites.

À l'horizon 2030, avec la densification attendue des réseaux de capteurs sous-marins et la démocratisation de la puissance de calcul exascale, la prévision des risques naturels s'apprête à connaître un tournant majeur. On passera de la simple détection d'un événement à une anticipation probabiliste à très haute résolution. Des côtes californiennes aux archipels indonésiens, un gardien numérique veillera, capable de lire dans les entrailles de la Terre pour dessiner en quelques instants le visage de la vague avant qu'elle ne déferle.

Source : The Register