Prévision météorologique et modèles statistiques - Pierre Barbillon et Éric Parent
11 février 2022*Une étude librement accessible sur HAL-AgroParisTech : « Post-traitement des prévisions de température et de précipitations multi-ensembles à l’aide d’un modèle gamma normal échangeable et de son extension Tobit » (Marie Courbariaux, Pierre Barbillon, Luc Perreault, Eric Parent. Post-processing Multiensemble Temperature and Precipitation Forecasts Through an Exchangeable Normal-Gamma Model and Its Tobit Extension. Journal of Agricultural, Biological, and Environmental Statistics, Springer Verlag, 2019, 24 (2), pp.309-345. ⟨10.1007/s13253-019-00358-2⟩)
Eric Parent, Ingénieur Général des Ponts des Eaux et des Forêts, est également enseignant-chercheur au département MMIP d’AgroParisTech. Ses recherches portent sur les méthodes statistiques bayésiennes* pour l’analyse des modèles biomédicaux, industriels, écologiques et environnementaux, avec un accent particulier sur l’analyse des systèmes et la gestion des risques dans les ressources environnementales et la prise de décision dans un cadre stochastique**. « OverSea Fellow » du Churchill College (Cambridge) et membre de la Société Internationale d’Analyse Bayésienne, il est auteur de quatre livres et de nombreux articles scientifiques dans le domaine de la statistique appliquée.
* Méthodes bayésiennes, statistique bayésienne : méthodes d’inférence statistique fondées sur une évaluation des probabilités des hypothèses en cause, préalablement à l’observation d’un événement aléatoire
** Se dit de phénomènes qui, partiellement, relèvent du hasard et qui font l’objet d’une analyse statistique (source : Larousse)
Pierre Barbillon est enseignant-chercheur en statistique au sein du département MMIP d’AgroParisTech et fait également partie de l’équipe de recherche MoRSE (Modélisation et Risque en Statistique Environnementale). Ses thématiques de recherche concernent la quantification des incertitudes dans les modèles numériques qui permet de confronter des données expérimentales à des modélisations physiques ou biologiques de phénomènes complexes ainsi que l’analyse statistique des réseaux qui permet de détecter des structures de connexions particulières. Il travaille en collaboration avec des collègues chercheurs du monde académique ayant pour disciplines l’écologie, la sociologie, l’ethnologie, la génétique et l’écophysiologie et des collègues du monde industriel des entreprises comme EDF et Hydro-Québec.
1. Tout d’abord, avant d’en savoir plus sur cette étude, pourriez-vous nous dire ce que les mathématiques et plus précisément les statistiques apportent à l’étude de la météorologie ?
P.B & E.P : Ce que l’on appelle généralement « un modèle » en météorologie est une série de structures déterministes avec diverses échelles d’approximations ou de résolutions pour les techniques numériques employées afin de résoudre les équations différentielles au cœur de la description du système. Les modèles météorologiques du système terrestre sont mis en œuvre sous forme de codes informatiques entièrement déterministes. La philosophie optimiste sous-jacente est que l’état actuel des connaissances est suffisamment riche pour considérer qu’il y a plus de connu que d’inconnu et que les parties négligées deviendront de plus en plus petites avec les progrès constants de la science…
Nonobstant, l’expression des incertitudes par la statistique reste indispensable : les prévisions de la variabilité naturelle du climat et de son impact sur les ressources naturelles resteront intrinsèquement probabilistes, en raison des incertitudes quant aux conditions initiales des prévisions, de la représentation approximative nécessaire des processus clés au sein des modèles, du comportement éventuellement chaotique du système et de l’incomplétude des connaissances sur les facteurs de forçage climatique.
2. Concernant le sujet d’études et la méthodologie :
Quel est le sujet et l’objectif de cette publication scientifique ?
P.B & E.P : Avant d’expliciter la problématique de l’étude, il nous faut poser quelques éléments. Notamment, rappeler que la prévision d’ensemble (ou probabiliste) est le moyen très simple qu’ont trouvé les physiciens pour évaluer empiriquement l’incertitude d’une prévision issue d’un modèle météorologique déterministe. Les conditions initiales sont perturbées et de nombreuses évaluations du code ainsi perturbé sont lancées. Les différentes trajectoires simulant le temps qu’il pourrait faire demain sont appelées - dans le jargon météorologique - les membres de la prévision d’ensemble. Par conséquent, un producteur d’hydro-électricité comme Hydro-Québec (ici à l’étude) ou EDF dispose aujourd’hui d’un générateur de précipitations sur un horizon de quelques jours pour générer de nombreux scénarios de débits. Il en dispose même de plusieurs car chaque centre régional (Europe, USA, Canada) produit son propre ensemble. La question posée dans cette étude est donc, à partir de ces éléments, la suivante : le modèle aléatoire que l’on reproduit de façon artificielle rend-il véritablement bien compte des variations météorologiques naturelles ?
Concernant la méthodologie, pourriez-vous nous en dire plus sur les méthodes statistiques proposées dans cet article ?
P.B & E.P : Le post traitement est une méthode statistique utilisée pour rendre les prévisions conformes à la théorie du calcul des probabilités : lorsque le prévisionniste, recevant un ensemble de la météo nationale, annonce 80% de chance de pluie demain, sait-il vraiment ce que recouvre ce jugement probabiliste ? Pour s’assurer de la juste calibration probabiliste du prévisionniste, le statisticien vérifiera sur une longue série passée où cette même annonce a été prononcée que 80% des jours étaient réellement des jours pluvieux. Le cas échéant, il redressera en conséquence le caractère plus ou moins optimiste de la méthode de prévision du prévisionniste. Les méthodes que nous avons proposées font appel à la loi normale* pour représenter les températures journalières et corriger leurs prévisions. Son extension par troncature, dite Tobit, est utile pour modéliser les pluies où peuvent, de surcroit, apparaître un grand nombre de valeurs nulles répétées (les jours où il ne pleut pas).
* Loi normale : La loi normale ou de Laplace-Gauss est une loi de probabilité célèbre décrivant les variations d’une grandeur aléatoire continue, dont la répartition est représentée par la fameuse courbe en cloche. L’adjectif « normale » s’explique par le fait que cette loi décrit et modélise des situations statistiques aléatoires concrètes et naturelles (source : Yves Monka, Académie de Strasbourg, http://www.maths-et-tiques.fr/)
3. Pourquoi avoir choisi de travailler sur ce cas d’étude, à savoir d’appliquer des modèles mathématiques sur les données d’une entreprise québécoise ?
P.B & E.P : Ce travail s’inscrit dans le cadre de la thèse soutenue en 2017 par Marie Courbariaux, étudiante AgroParisTech financée par EDF et Hydro-Québec. Il s’agit donc d’une retombée des collaborations de notre laboratoire avec le monde des industries de l’eau entreprises depuis longtemps dans le cadre de thèses de type Convention Industrielles de Formation par la Recherche : Eric Parent avait d’ailleurs également été le directeur d’une thèse pour l’amélioration de la prévision hydrométéorologique opérationnelle pour l’usage des probabilités dans la communication entre acteurs(Benoit Houdant, 2004, aujourd’hui cadre chez EDF ) et d’une autre sur l’analyse bayésienne rétrospective d’une rupture dans les séquences de variables aléatoires hydrologiques(Luc Perreault, 2000, aujourd’hui directeur de projet à Hydro-Québec)
4. Concernant les premières conclusions :
Quelles ont été les observations à l’issue de l’étude ?
P.B & E.P : A l’issue de l’étude menée sur quelques bassins type, la méthode de correction des prévisions probabilistes que nous avons proposée fonctionne au moins aussi bien que la façon traditionnelle de procéder, et beaucoup mieux sur certains bassins, en particulier sur les bassins où le temps entre le pic de l’orage et l’augmentation subséquente des débits est courte.
Que démontre le travail qui a été effectué ? Quelles en sont les conclusions qui en ont découlées ?
P.B & E.P : Ce travail montre l’intérêt, en matière de prévisions probabilistes, de ne pas se limiter au seul centre de prévision national (ou régional). Ainsi il apparaît que prendre également en compte les projections du temps possible issues des centres de prévisions régionales européen et américain permettent d’améliorer significativement la prévision sur les bassins-versants québécois.
5. Enfin, quelles perspectives cette étude ouvrent-elle ?
P.B & E.P : Ce travail de recherche a confirmé Hydro-Québec dans son intention de généraliser la prévision probabiliste à l’ensemble des barrages qu’il gère pour la production hydro-électrique. Une partie des codes informatiques utilisés pour preuve de concept lors du travail de recherche doctoral a été développée, testée et réécrite par l’entreprise. Les centres de recherche IREQ (Hydro-Québec) et EDF-DTG ont signé une convention d’association pour mener des recherches conjointes en hydrologie prédictive, notamment en matière de prévision probabiliste par méthodes d’ensemble.
Prévision « déterministe » et prévision « probabiliste » en météorologie : Quésaco ?
Pour les échéances allant de quelques heures à 3 ou 4 jours, on peut s’appuyer en météorologie sur la prévision dite « déterministe ». Elle repose sur l’utilisation de modèles numériques de prévision du temps, qui simulent le comportement de l’atmosphère en s’appuyant sur les équations de la physique et de la thermodynamique.
La prévision déterministe consiste à établir d’abord à partir des observations une représentation cartographique du temps qu’il fait, c’est-à-dire un état initial de l’atmosphère. Le modèle calcule ensuite l’évolution des paramètres météorologiques (pression, température, vent) au fil du temps. En partant d’un état déterminé de l’atmosphère, le modèle élabore un seul scénario d’évolution de ces paramètres : on parle de prévision « déterministe ».
Mais cette approche déterministe ne permet pas d’évaluer les incertitudes qui pèsent sur l’unique scénario de prévisions retenu. C’est pourquoi les météorologues, selon les situations, vont parfois choisir la prévision probabiliste : au lieu de s’en tenir à une approche déterministe qui produit un seul scénario d’évolution pour chaque cartographie, les « probabilistes » s’appuient de plus en plus sur cette méthode permettant de tenir compte de ces incertitudes. Elle consiste à réaliser des simulations à partir de plusieurs descriptions de l’état initial de l’atmosphère différentes. Elles ne sont pas choisies au hasard : elles sont représentatives des incertitudes identifiées qui pèsent sur les mesures.
La prévision probabiliste propose ainsi plusieurs scénarios d’évolution. Leur convergence ou leurs divergences renseignent les prévisionnistes sur la probabilité d’occurrence de chaque scénario : ils peuvent ainsi choisir le plus probable et quantifier l’incertitude qui pèse sur cette prévision.
(Source : Météo France)
Liens utiles
- UMR MIA-Paris
- Département « Modélisation Mathématique, Informatique et Physique » (MMIP)
- M@ths et tiques
- Etude « Post-traitement des prévisions de température et de précipitations multi-ensembles à l’aide d’un modèle gamma normal échangeable et de son extension Tobit »
- Etude « Contributions statistiques aux prévisions hydrométéorologiques par méthodes d’ensemble »
- Etude « Contribution à l'amélioration de la prévision hydrométéorologique opérationnelle. Pour l'usage des probabilités dans la communication entre acteurs »