Accompagnement
>
Recommandations
Recommandations
Cette section présente les principales recommandations des producteurs sur l'utilisation des simulations climatiques mises à disposition sur le portail Drias[CLIMAT]
1. Ne pas comparer les données des simulations climatiques à une date particulière Il est important de comprendre que les situations météorologiques simulées sont virtuelles et n’ont pas pour objectif, pour une date de validité donnée, de reproduire la situation correspondante réellement observée (ou qui sera observée). Les données de référence, datées, ne doivent pas être comparées aux valeurs observées à la même date. Mais l’ensemble d’une simulation de référence a les caractéristiques du climat de la période de simulation (1950-2000 par exemple). On proposera donc de préférence des valeurs moyennes sur plusieurs années (classiquement 30 ans) ou des fréquences de phénomènes.
2. Attention à l’interprétation des résultats pour les horizons proches (période 2000-2030) En effet, pour cette période, on ne peut distinguer la variabilité climatique naturelle d’un signal qui serait dû au changement climatique. Pour cette période, les travaux s’orientent vers des prévisions décennales, encore au stade de la recherche.
3. Utiliser systématiquement plusieurs scénarios ou plusieurs modèles Il existe principalement deux sources d’incertitude : l’incertitude « modèle » liée à la représentation des processus physiques et l’incertitude associée aux scénarios d’émission des gaz à effet de serre. La première incertitude peut être analysée en utilisant plusieurs modèles (par exemple les modèles du GIEC). La deuxième peut être approchée en proposant des simulations obtenues pour plusieurs scénarios d’émission. On proposera donc systématiquement plusieurs scénarios ou plusieurs modèles, de manière à intégrer au moins une source principale d’incertitude. La concentration en gaz carbonique varie en fonction des scénarios de manière sensible à partir de 2020-2030. Pour les études au delà de cette période, il est donc conseillé d’utiliser plusieurs scénarios pour prendre en compte les incertitudes sur l’évolution de la concentration en gaz carbonique. Les trois scénarios A1B, A2 et B1 constituent un ensemble qui permet de donner une idée de la dispersion des résultats et de représenter la variabilité de manière suffisante. Des calculs statistiques comme des fourchettes de durée de retour peuvent être mis en place.
4. Ne pas pondérer les simulations climatiques Les simulations climatiques ne sont pas des prévisions et aucune échelle de probabilité ne leur est attachée (aucun scénario n’est plus probable qu’un autre). Elles représentent à priori des évolutions plausibles du climat de la France sur le 21ème siècle basées sur les connaissances actuelles.
5. Privilégier les jeux de données corrigées (par rapport aux observations) aux données brutes Les jeux de données corrigées sont à privilégier systématiquement par rapport aux données brutes si vous n’avez pas la possibilité de les corriger par vos propres moyens. Il est par contre important de garder en mémoire que le jeu de données corrigées à utiliser dépend de l’application étudiée.
6. Choisir la méthode de désagrégation adaptée à l’application étudiée En ce qui concerne les méthodes de descente d’échelle, il n’existe pas de méthode universelle. Selon le type d’application, on propose des scénarios désagrégés pour telle ou telle méthode. Il faut avoir à l’esprit que l’approche dynamique est très coûteuse en temps de calcul et que l’approche statistique est intéressante, selon le domaine et le paramètre étudié, sous réserve de disposer de données observées homogènes sur une période suffisamment longue. L’approche statistique est conseillée pour des paramètres élaborés et pour disposer d’informations locales. L’approche dynamique permet de disposer de valeurs cohérentes pour plusieurs paramètres et/ou plusieurs sites.
7. Utilisation de la méthode quantile-quantile La méthode quantile-quantile permet de corriger les défauts les plus importants des modèles, notamment en termes d’intensité des phénomènes extrêmes ou de fréquence de jours pluvieux (modèle trop zonal). Cette méthode possède en particulier l’avantage de corriger les biais du modèle. Elle offre la possibilité d’utiliser les observations de plusieurs stations à l’intérieur d’une zone ou d’une maille du modèle, ce qui permet d’augmenter la taille de l’échantillon et de prendre en compte la variabilité sous-maille (utilisation des analyses Safran 8 km par exemple). Elle est adaptée pour l’étude des extrêmes, pour évaluer les fréquences de dépassements de seuils en certains points car la correction à apporter à la valeur simulée tient compte de sa fréquence d’occurrence (événement plus ou moins rare). Elle présente en outre l’avantage de présenter une bonne cohérence temporelle permettant, par exemple, l’étude de périodes de sécheresse ou de nombre de jours consécutifs de fortes précipitations ou de fortes/faibles températures. Par contre, elle n’est pas adaptée à l’étude des records. Avec cette méthode de correction, il est possible d’obtenir des séries en des points ponctuels (correspondant aux points de mesure) ou également en chaque point de grille SAFRAN mais le champ sera fortement lissé par rapport à des méthodes de désagrégation comme celle de J. Boé. Par contre, pour des séries ponctuelles, la méthode de correction est intéressante car elle possède l’avantage de mieux restituer les séquences chronologiques (dans le cas où on veut étudier des épisodes pluvieux ou des sécheresses par exemple) que la méthode de J. Boé.
8. Utilisation des données désagrégées par la méthode du CERFACS La méthode a été mise au point pour les précipitations pour des applications hydrologiques. Elle permet d’obtenir des champs spatiaux qui prennent bien en compte les effets de relief en particulier et d’aborder l’évolution des extrêmes hydrologiques. Pour des séries ponctuelles, la méthode du CERFACS restitue moins bien les séquences chronologiques (dans le cas où on veut étudier des épisodes pluvieux ou des sécheresses par exemple) que la méthode de correction quantile-quantile. En particulier, la méthode de régionalisation par type de temps ne semble pas adaptée aux particularités des événements extrêmes de pluie qui se produisent dans le Sud-Est de la France.
9. La qualité des simulations ne dépend pas de leurs résolutions Les simulations climatiques sont produites par des modèles numériques ayant leurs propres résolutions spatiales. Par certaines opérations, comme par exemple l’application d’une méthode de correction quantile-quantile ou d’une méthode de régionalisation statistique, la résolution spatiale de ces simulations peut-être affinée (jusqu'à 8 km dans le cas des données corrigées disponibles sur le portail Drias[Climat]). Or ces opérations améliorant la résolution spatiale n’améliorent pas la prise en compte de processus physiques d’échelle fine. Ainsi, la représentation de la dynamique atmosphérique demeure in fine celle de la grille native du modèle. Il ne faut donc pas considérer a priori qu’un modèle ayant une résolution de 8km forcément « meilleur » qu’un modèle ayant une résolution moins fine. De plus, affiner la résolution des simulations à 8 km pour attendre des résolutions de l'odre d'1 km ou moins (par exemple par kriegeage ou interpolation) n'apporte aucune information supplémentaire sur les processus physiques d'échelle fine.
10. Les données de la période de référence ne sont pas des observations Il est important de garder à l’esprit que les simulations de référence sont des simulations numériques et non des observations. Si ces simulations n’ont pas été débiaisées par une méthode de correction (comme la méthode de correction quantile-quantile), alors il subsiste un biais par rapport aux observations. Il ne faut donc pas utiliser ces simulations en les considérant comme une climatologie du passé proche.
|