Google utilise d’anciens rapports d’actualités et l’IA pour prévoir les inondations éclair

Les inondations flash figurent parmi les événements météorologiques les plus meurtriers au monde, causant la mort de plus de 5 000 personnes chaque année. Leur imprévisibilité accrue complique la tâche des météorologues traditionnels, puisque ces phénomènes sont courts et localisés. Cependant, Google a récemment annoncé avoir trouvé une solution innovante à ce problème en adaptant une approche peu conventionnelle : l’analyse de l’actualité via l’intelligence artificielle.

En utilisant son grand modèle linguistique Gemini, Google a exploité un vaste corpus de 5 millions d’articles de presse provenant du monde entier, détectant ainsi 2,6 millions de rapports distincts sur des inondations. Ces informations ont été converties en une série temporelle géolocalisée baptisée « Groundsource », constituant une première mondiale pour une entreprise de cette envergure. Selon Gila Loike, responsable produit chez Google Research, cette démarche marque une étape significative dans l’utilisation des modèles de langage pour le prévisionnel météorologique.

Les chercheurs ont ensuite entraîné un modèle basé sur un réseau de mémoire à long terme (LSTM), capable de traiter les prévisions météorologiques mondiales pour estimer la probabilité d’inondations éclair dans une zone donnée. Le résultat est une plateforme, le Flood Hub, qui identifie les risques d’inondation dans 150 pays, tout en partageant ces données avec les agences de secours d’urgence à travers le globe. António José Beleza, un responsable de la réponse aux crises en Afrique australe, témoigne que ce modèle a permis à son organisation d’intervenir plus rapidement lors de crues soudaines.

La force de cette approche réside dans sa capacité à rebâtir une cartographie des risques en combinant de multiples sources d’information, permettant d’étendre la prévision à des régions où l’infrastructure météorologique locale est limitée.

Malgré ses avancées notables, le modèle présente encore certaines limites. Sa résolution, par exemple, reste relativement faible, avec une capacité à identifier les zones à risque sur des surfaces de 20 km². De plus, il ne bénéficie pas encore de l’intégration des données radar en temps réel, ce qui limite sa précision par rapport à des systèmes comme celui du National Weather Service aux États-Unis. Néanmoins, cette initiative vise à fournir une option accessible et utilisable dans des régions peu équipées ou manquant de longues séries de données météorologiques, renforçant la résilience face aux phénomènes extrêmes.

Juliet Rothenberg, responsable chez Google, souligne que « parce que nous agrégons des millions de rapports, l’ensemble de données Groundsource contribue à équilibrer la cartographie des risques » et permet de couvrir des zones où peu d’informations existent. Elle espère que cette utilisation des grands modèles linguistiques pourra s’étendre à d’autres phénomènes météorologiques éphémères et difficiles à prévoir, tels que les vagues de chaleur ou les coulées de boue.

Selon Marshall Moutenot, CEO d’Upstream Tech, cette démarche s’inscrit dans une tendance plus large qui vise à constituer des bases de données adaptées aux styles de modélisation basés sur l’apprentissage automatique. La rareté des données en géophysique est un obstacle majeur, mais des initiatives innovantes comme celle de Google contribuent à combler ces lacunes, en exploitant l’immense quantité de données textuelles disponibles pour améliorer la prévisibilité des catastrophes naturelles.

Partagez cet article
article précédent

Le montant des aides à l’embauche d’apprentis va encore être réduit pour les BTS et les futurs ingénieurs

article suivant

Gumloop récolte 50 millions de dollars de Benchmark pour transformer chaque employé en constructeur d’agents IA

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Lire plus d'articles