Satellites, radars, stations de mesure, supercalculateurs, la France investit 415 millions d'euros par an dans son infrastructure météorologique. Ces données sont publiques et accessibles librement. Et elles alimentent directement les applications d'Apple, Google et Microsoft. Les Big Tech américains les enrichissent avec leurs propres algorithmes et les monétisent sur un marché mondial estimé à 2,6 milliards de dollars.

Faut-il prendre son parapluie ou mettre un pull aujourd'hui ? Peut-on aller faire une randonnée ce weekend ou rester chez soi à binger une série ? C'est à peu près la manière dont chacun utilise l'application météo de son smartphone. Mais ces prévisions sont en train de devenir une ressource stratégique pour une multitude de secteurs.
L'énergie, l'agriculture et la défense reposent en grande partie sur les conditions météo. Il en va de même pour la gestion des feux de forêt, les décisions d'évacuation en cas de catastrophe naturelle et la logistique maritime des navires militaires et commerciaux.
Or ces modèles de prévision avancés sont désormais entre les mains d'acteurs privés américains, construits en grande partie sur des données européennes financées par le contribuable. Quand vous consultez la météo sur votre iPhone ou via Google, vous y retrouvez le fruit d'un investissement public massif, transformé en service commercial par des entreprises qui n'ont pas mis un euro dans l'infrastructure.
415 millions d'euros par an, et des données que la loi interdit de vendre
Météo-France, c'est 550 stations de mesure réparties sur le territoire national, 25 radars Doppler et des lâchers quotidiens de ballons-sondes depuis des dizaines de sites. Un radar Doppler, pour aller à l'essentiel, mesure en temps réel l'intensité et le déplacement des précipitations dans l'atmosphère. Il permet de suivre l'évolution d'un orage toutes les cinq à quinze minutes, sur une zone pouvant atteindre 150 kilomètres de rayon. Un ballon-sonde remonte dans la stratosphère avec des capteurs de température, d'humidité et de pression. Ces données nourrissent directement les modèles de prévision numérique. Le tout est alimenté par un budget de 415,5 millions d'euros en 2024 (PDF), complété par une participation aux satellites Meteosat via l'organisation européenne Eumetsat.

Et puis, derrière les capteurs, il y a les machines qui traitent les données. Météo-France dispose de deux supercalculateurs baptisés Belenos et Taranis. Ces derniers sont fournis par Eviden, filiale d'Atos, et fabriqués à Angers. Combinés, leur puissance atteint 21,48 pétaflops, soit plus de 21 millions de milliards d'opérations par seconde. C'est l'équivalent de plus de 50 000 ordinateurs personnels fonctionnant simultanément. En novembre 2024, ils se positionnaient aux 141ème et 152ème rangs du classement mondial TOP500 des supercalculateurs. Météo-France a lancé en 2025 un appel d'offres pour les renouveler d'ici 2027, avec un objectif de puissance de calcul six fois supérieure à la configuration actuelle.
Sur le plan scientifique, Météo-France n'a pas à rougir. Ses deux modèles numériques sont utilisés par des agences météo dans le monde entier. On retrouve d'un côté ARPEGE, pour les prévisions à grande échelle, et de l'autre, AROME, pour les phénomènes locaux comme les orages ou le brouillard. ARPEGE est classé au deuxième rang mondial pour la prévision sur l'Europe, derrière l'ECMWF, le Centre européen pour les prévisions météorologiques à moyen terme, lequel reste la référence du continent.
À titre de comparaison, la NOAA, l'agence américaine équivalente, disposait en 2024 d'un budget de 6,3 milliards de dollars, soit quinze fois celui de Météo-France.
À cette infrastructure nationale s'ajoute Copernicus, le programme d'observation de la Terre de la Commission européenne. Il produit ERA5, une réanalyse atmosphérique globale. Concrètement, il effectue une reconstitution numérique de l'état de l'atmosphère depuis 1940, heure par heure, à l'échelle de la planète. ERA5 est accessible gratuitement à quiconque veut l'utiliser, qu'il s'agisse de chercheurs, de startups, ou de multinationales. Sans conditions, et sans redevance.
Selon la loi française pour une République numérique de 2016, les données produites par un établissement public doivent pouvoir être réutilisées librement. Météo-France ne peut donc pas les vendre, ni en restreindre l'accès. Ses observations brutes appartiennent à tout le monde. Y compris aux entreprises qui vont les transformer en produits commerciaux.
Un enjeu de décision industrielle et politique
Prenons RTE, le gestionnaire du réseau électrique français. Il équilibre en temps réel la production et la consommation d'électricité sur l'ensemble du territoire. Une erreur de prévision de quelques degrés sur la température attendue à trois jours peut créer des déséquilibres coûteux sur les marchés de l'énergie. Et puis, il y a l'éolien et le solaire, deux marchés en plein essor. La production est directement liée au vent et à l'ensoleillement. Sans données précise, impossible de piloter un réseau qui intègre ces énergies à grande échelle.
Les prévisions météo ont aussi un impact direct sur l'agriculture. Les coopératives et les assureurs agricoles utilisent des données hyper-locales pour décider des traitements phytosanitaires, des dates de récolte et des niveaux de couverture. Ce marché B2B est déjà largement entre les mains par IBM Weather et l'américain DTN.
En défense, la météo conditionne directement les fenêtres d'opération des drones, les tirs d'artillerie et la logistique militaire. En Ukraine, les conditions atmosphériques (vent, visibilité, humidité) déterminent quotidiennement quelles unités peuvent opérer et sur quels créneaux. On pourrait même dire que c'est devenu une donnée tactique aussi importante que les renseignements sur les positions ennemies.
Il y a enfin le domaine de la réassurance. En 2024, les catastrophes naturelles ont provoqué 320 milliards de dollars de pertes économiques mondiales, dont 140 milliards assurés. Dans 93% des cas, ces pertes ont été causées par des catastrophes météorologiques. Avec la multiplication des événements extrêmes (canicules, crues soudaines, tempêtes…) la capacité à prévoir à cinq ou dix jours est devenue un avantage compétitif direct. Et au final, c'est celui qui dispose d'un modèle de prévisions précis qui est en mesure de fixer les prix pour le secteur entier.
L'enjeu n'est donc pas tellement de savoir s'il va pleuvoir demain (même si on aime bien pester quand "ils se sont encore plantés"). On parle de modéliser les risques climatiques des trente prochaines années, et d'en tirer des décisions économiques et militaires.
De la donnée publique au service commercial
Les acteurs privés comme Google récupèrent les données de Météo-France, de la NOAA américaine et de Copernicus. Ils les enrichissent avec leurs propres modèles d'apprentissage automatique. Puis ils vendent le résultat ou l'intègrent directement dans leurs produits.
Les données issues d'ERA5 sont mises à disposition sous forme de fichiers à télécharger, découpés par variable atmosphérique (température, humidité, vent, pression), heure par heure depuis 1940. Les équipes d'ingénieurs des grandes entreprises technologiques écrivent des pipelines automatisés qui vont aspirer ces fichiers, les nettoyer et les reformater. Ces données sont alors converties en jeux d'entraînement compatibles avec leurs architectures de réseaux neuronaux.
Ce travail est coûteux et complexe, mais il repose entièrement sur une matière première gratuite. Et c'est d'ailleurs précisément pour cette raison qu'il peut y avoir un modèle économique viable. Aucune de ces entreprises n'aurait pu financer la collecte des données atmosphériques mondiales sur 85 ans. Elles ont bénéficié d'un investissement public européen et américain de plusieurs décennies, pour le transformer en avantage concurrentiel propriétaire.
Apple a racheté l'application Dark Sky le 31 mars 2020. Cette dernière était connue pour ses prévisions hyper-locales et son modèle de précipitations à la minute, lui-même construit sur les données radar de la NOAA. La technologie a été intégrée nativement dans iOS sur un milliard d'appareils.
En 2024, Google DeepMind a publié NeuralGCM, un modèle de prévision atmosphérique entraîné sur les réanalyses ERA5 de l'ECMWF, des données financées en partie par les États européens.
IBM avait racheté The Weather Company en 2016 avant de la céder à Francisco Partners en février 2024 pour 1,1 milliard de dollars. L'entreprise revendique plus de 400 millions d'utilisateurs actifs et adresse essentiellement les professionnels de l'aviation, de la grande distribution, de l'agriculture et de l'énergie.
Microsoft s'est elle aussi positionnée sur ce marché. En 2021, la firme de Redmond a fait d'AccuWeather le fournisseur exclusif de données météo pour Azure Maps, sa plateforme de cartographie et de géolocalisation destinée aux entreprises. AccuWeather intègre dans ses modèles les données publiques de l'ECMWF, de la NOAA et de Météo-France. Elle les enrichit avec ses propres algorithmes, et les revend ensuite via l'infrastructure cloud de Microsoft à des clients B2B. Parmi ces derniers, on retrouve des logisticiens, des assureurs, des retailers ou des industriels. C'est aussi la base de MSN Météo, intégré à Windows et au navigateur Edge. On retrouve un schéma similaire avec des données publiques européennes en amont, et un service commercial américain en aval.
En open data, AROME, le modèle hyper-local de Météo-France, ne fournit des prévisions qu'à 42 heures maximum. ARPEGE, le modèle global, plafonne à 96 heures. La NOAA, elle, publie en open data ses prévisions jusqu'à 16 jours. Un développeur qui veut construire une application météo compétitive sur une semaine glissante n'a pas d'autre choix que de passer par des données américaines ou de payer Météo-France pour un accès premium.
Le marché mondial des services de prévision météo était estimé à 2,6 milliards de dollars en 2024, et devrait atteindre 4,5 milliards d'ici 2032.
Météo-France a la donnée, pas le modèle
En comparaison, les recettes commerciales de Météo-France, elles, représentaient 34,6 millions d'euros en 2024, soit 8% de son budget. Météo-France dispose d'une branche dédiée, Météo-France International, et propose des API payantes aux professionnels. Mais la donnée brute qui constitue la valeur fondamentale du système reste donc gratuite par obligation légale.
Aux États-Unis, la NOAA pratique elle aussi l'open data intégral. Mais des entreprises américaines ont réussi à construire des couches de services au-dessus que les agences publiques européennes n'ont pas (encore ?) développées.
Sur le Vieux Continent, la Norvège fait figure d'exception. Avec Yr.no, l'agence météo nationale MET Norway reste l'interface de référence pour les citoyens et ne délègue pas l'expérience produit à des tiers commerciaux. Le service est gratuit, et souverain.
La Commission européenne a lancé Destination Earth (DestinE) un projet de jumeau numérique de la Terre porté par l'ECMWF, l'ESA et Eumetsat. Il s'agit d'une simulation informatique de la planète et de son atmosphère mis à jour en temps réel avec les données d'observation. La troisième phase vient d'être confirmée en février 2026, jusqu'en juin 2028. L'idée est de transformer les données en datasets afin qu'elles puissent être exploitées par des IA européennes. À coups de régulations et d'infrastructures collectives, l'Europe tente donc de rattraper son retard, faute d'avoir des acteurs privés capables de rivaliser avec les Big Tech américains.
Disposer de la donnée brute ne change donc rien si les modèles avancés restent entre les mains d'acteurs privés américains. Si dans dix ans les modèles de référence sont américains et propriétaires, une collectivité française qui veut planifier ses infrastructures face au changement climatique (réseaux d'eau, zones constructibles, gestion des risques d'inondation) devra donc payer un acteur privé étranger pour accéder aux meilleures prévisions. Et rappelons que les modèles américains ont été développés, en partie, à partir de données que le contribuable européen a financées.