Les humains ont essayé pour anticiper les changements climatiques pendant des millénaires, en utilisant les premières traditions – « ciel rouge la nuit » est un sceau optimiste pour les marins fatigués par le temps qui est en fait associé à l’air sec et à la haute pression sur une zone – ainsi qu’aux observations prises depuis les toits, à la main- cartes dessinées et règles de base locales. Ces guides sur les prévisions météorologiques futures étaient basés sur des années d’observation et d’expérience.
Puis, dans les années 1950, un groupe de mathématiciens, météorologues et informaticiens – dirigé par John von Neumann, un mathématicien renommé qui avait aidé le projet Manhattan des années plus tôt, et Jule Charney, un physicien de l’atmosphère souvent considéré comme le père de la météorologie dynamique – testé la première prévision automatique informatisée.
Charney, avec une équipe de cinq météorologues, a divisé les États-Unis en (selon les normes d’aujourd’hui) des parcelles assez grandes, chacune de plus de 700 kilomètres de superficie. En exécutant un algorithme de base qui a pris le champ de pression en temps réel dans chaque unité discrète et l’a pronostique au cours d’une journée, l’équipe a créé quatre prévisions atmosphériques sur 24 heures couvrant l’ensemble du pays. Il a fallu 33 jours et nuits pour compléter les prévisions. Bien que loin d’être parfaits, les résultats étaient suffisamment encourageants pour déclencher une révolution dans les prévisions météorologiques, faisant évoluer le domaine vers la modélisation informatique.
Au cours des décennies qui ont suivi, des milliards de dollars d’investissements et l’évolution d’ordinateurs plus rapides et plus petits ont conduit à une augmentation des capacités prédictives. Les modèles sont désormais capables d’interpréter la dynamique de parcelles d’atmosphère aussi petites que 3 kilomètres de superficie, et depuis 1960, ces modèles ont pu inclure des données de plus en plus précises envoyées par les satellites météorologiques.
En 2016 et 2018, les satellites GOES-16 et -17 ont été mis en orbite, offrant de nombreuses améliorations, notamment des images à plus haute résolution et une détection précise de la foudre. Les modèles numériques les plus populaires, le Global Forecasting System (GFS) basé aux États-Unis et le Centre européen pour les prévisions météorologiques à moyen terme (ECMWF), ont publié des mises à niveau importantes cette année, et de nouveaux produits et modèles sont développés plus rapidement que jamais. D’une simple pression du doigt, nous pouvons accéder à des prévisions météorologiques étonnamment précises pour notre position exacte sur la surface de la Terre.
Les prédictions à la vitesse de l’éclair d’aujourd’hui, le produit d’algorithmes avancés et d’une collecte de données mondiale, semblent à un pas de l’automatisation complète. Mais ils ne sont pas encore parfaits. Malgré les modèles coûteux, la gamme de satellites avancés et les méga-ordinateurs, les prévisionnistes humains disposent d’un ensemble unique d’outils. L’expérience – leur capacité à observer et à établir des connexions là où les algorithmes ne le peuvent pas – donne à ces prévisionnistes un avantage qui continue de surpasser les machines météorologiques fastueuses dans les situations les plus importantes.
Bien que extrêmement utile avec les prévisions d’ensemble, les modèles ne sont pas sensibles, par exemple, au petit courant ascendant dans un petit quadrant terrestre qui suggère la formation d’une trombe marine, selon Andrew Devanas, prévisionniste opérationnel au bureau du National Weather Service à Key West, en Floride. Devanas vit à proximité de l’une des régions les plus actives au monde pour les trombes marines, des tornades marines qui peuvent endommager les navires qui traversent le détroit de Floride# et même arriver à terre.
La même limitation entrave les prévisions d’orages, de précipitations extrêmes et de tornades terrestres, comme celles qui ont ravagé le Midwest début décembre, tuant plus de 60 personnes. Mais lorsque des tornades se produisent sur terre, les prévisionnistes peuvent souvent les repérer en recherchant leur signature sur le radar ; les trombes marines sont beaucoup plus petites et manquent souvent de ce signal. Dans un environnement tropical comme les Florida Keys, le temps ne change pas beaucoup d’un jour à l’autre, alors Devanas et ses collègues ont dû examiner manuellement les variations de l’atmosphère, comme la vitesse du vent et l’humidité disponible, des variations que les algorithmes ne font pas. toujours prendre en compte pour voir s’il y avait une corrélation entre certains facteurs et un risque plus élevé de trombes marines. Ils ont comparé ces observations à un indice de probabilité modélisé qui indique si les trombes marines sont probables et ont constaté qu’avec la bonne combinaison de mesures atmosphériques, la prévision humaine « surpassait » le modèle dans chaque métrique de prédiction des trombes marines.
De même, des recherches publiées par le directeur du service de prévision météorologique de la NOAA, David Novak, et ses collègues montrent que même si les prévisionnistes humains ne sont peut-être pas en mesure de « battre » les modèles lors d’une journée ensoleillée typique de beau temps, ils produisent toujours des prévisions plus précises que l’algorithme. croqueurs par mauvais temps. Au cours des deux décennies d’informations étudiées par l’équipe de Novak, les humains étaient 20 à 40 % plus précis pour prévoir les précipitations dans un futur proche que le Global Forecast System (GFS) et le North American Mesoscale Forecast System (NAM), les modèles nationaux les plus couramment utilisés. Les humains ont également apporté des améliorations statistiquement significatives aux prévisions de température par rapport aux indications des deux modèles. « Souvent, nous constatons que dans les événements plus importants, les prévisionnistes peuvent apporter des améliorations à valeur ajoutée au guidage automatisé », explique Novak.