Actualités

Une atmosphère plus chaude est une atmosphère contenant plus de vapeur d'eau.
Après les inondations de Mai et Juin 2016, quels liens avec le changement climatique ?

Fin mai 2016 : Le seuil des 400ppm est franchi d'une manière généralisée sur la planète.
La concentration en CO2 continue d'augmenter sur la planète, avec un franchissement généralisée du seuil symbolique des 400ppm. L'augmentation annuelle semble même s'accélérer.

Début mai 2016 : Des incendies ravagent la ville de Fort McMurray, dans l'Alberta canadien.
De très fortes chaleurs ont déclenché d'une manière explosive des incendies dans l'Ouest du Canada. Là encore, l'ombre de El Nino et du réchauffement climatique plane sur ce drame.

Avril 2016 : El Nino en déclin, La Nina pointe à l'horizon.
Depuis le début de l'année, les eaux du Pacifique Central et Oriental deviennent de moins en moins chaudes, remplacées par des masses plus froides. Le retour à des conditions neutres, voire l'arrivée d'une phase La Nina est de plus en plus probable.

Février et mars 2016 : Le Pérou affronte son enfant Jésus.
Au Pérou, les mois de février et mars sont les plus humides, particulièrement lorsque le phénomène El Nino, qui a été baptisé ainsi par les pêcheurs péruviens, est bien développé dans le Pacifique Equatorial. Retour sur plusieurs semaines de fortes pluies dans le pays andin.

10 mars 2016 : Quand une tempête de neige mexicaine provoque une vague de douceur états-unienne ...
Aux alentours du 10 mars, une plongée d'air polaire a atteint le Mexique jusqu'à des latitudes particulièrement méridionales, provoquant des chutes de neige dans les montagnes mexicaines, un déluge sur le Sud des Etats-Unis, et une grande douceur sur la côte Est.

jeudi 22 août 2013

Comprendre la notion d'extrêmes

Avec le réchauffement climatique vient tout naturellement la notion d'extrême. Comment les écarts à la moyenne climatologique sont-ils évalués ? Comment le réchauffement climatique affecte-t-il les extrêmes ? Existe-t-il déjà une tendance en ce qui concerne la survenue des événements extrêmes ? Autant de question auxquelles cet article tentera de répondre.



Aléas, vulnérabilité, risque

L'un des arguments des négateurs du réchauffement climatique ou de sa gravité est de dire que les gens vivent bien à Miami ou sous n'importe quel autre climat chaud. Donc, le réchauffement climatique n'est pas préjudiciable. L'affirmation est erroné à partir du "donc". En effet, elle n'est pas généralisable aussi facilement. Certes oui, les humains vivent sous des climats très variés. Pour autant, l'être humain s'est adapté spécifiquement à chacun des climats où il s'est implanté par un ensemble d'infrastructures. Et donc les équipements à Bruxelles ne sont pas les mêmes que les équipements à Miami ou même à Marseille.

Dans la gestion des risques naturels, le concept de base est simple. Le risque émerge de la conjonction d'un événement rare, nommé l'aléa ; et des enjeux humains, la vulnérabilité. Prenons par exemple un tremblement de terre. Le séisme sera considéré comme un aléa. Pour autant, s'il se produit dans une région qui n'est pas peuplée, il n'y a aucun risque, parce que qu'il n'y a pas d'enjeux humains considérés vulnérables. De même, si une centrale nucléaire, vulnérable, est installée dans une région non sismique, il n'y pas de risque. C'est lorsque l’aléa rencontre la vulnérabilité qu’apparaît le risque. 


Dans les différentes régions du monde, la vulnérabilité des enjeux humains est donc minimisée en fonction des aléas locaux. Ou plus simplement, Bruxelles n'est pas équipé pour endurer un séisme de magnitude 8.0 ou une canicule à 45°C pendant 5 jours.

La réponse commune est alors qu'il suffira de s'adapter au réchauffement climatique. Si l'adaptation sera en effet, par la force des choses, une solution, il n'en reste pas moins qu'elle coûte cher, bien plus cher que lutter contre les émissions de gaz à effet de serre, et n'est pas toujours satisfaisante. D'autant que l'agriculture est un secteur particulièrement vulnérable, et qui supporte mal les excès du climat.

Dans ce billet, nous allons donc nous attacher à expliquer un peu comment est défini l'aléa climatique et son évolution avec le changement climatique.

Événement extrême, événement anodin ? 

Classiquement, et trivialement, l’aléa météorologique est caractérisé par l'intensité d'un phénomène, comme une température excessivement chaude ou froide pour la saison, qui ne se produit qu'une fois tous les "pas souvent". Il existe plusieurs seuils, les plus courants sont une fois tous les 30 ans ou moins ; une fois tous les 50 ans ou moins, voire une fois tous les 100 ans ou moins. Notons que l'aléa sismique est défini de manière analogue puisqu'il est défini par rapport à la probabilité d'atteindre une certaine intensité sismique, sur un laps de temps de 50 ans ou 100 ans.

L'Institut Royal de Météorologie par exemple définit un phénomène exceptionnel comme étant égalé ou dépassé tout les 30 ans. Et un phénomène très exceptionnel comme étant égalé ou dépassé tout les 100 ans.

Ce que nous venons de définir ici est la fréquence d'apparition. Si nous prenons l'inverse de la fréquence, nous trouvons la probabilité. Ainsi, un phénomène exceptionnel au sens de l'IRM, a une probabilité de survenue de 3.3% une année donnée. Et un phénomène très exceptionnel, une probabilité de 1%.

Regardons un exemple pour mieux comprendre. Prenons la température moyenne du mois de Juillet depuis 1833 à Uccle. Les mois de Juillet ont une température moyenne (tenant compte des minimas nocturnes et des maximas diurnes) de 16°C à 18°C, et les extrêmes vont de 13.4°C en 1841 (un vrai mois pourri pour le coup...) à 23°C en 2006. Nous pouvons représenter le nombre de fois qu’apparaît dans la série des 181 mois de Juillet, un certain seuil de température.

Nombre des mois de Juillet avec une température donnée

Le graphique précédent se lit ainsi : Il n'y a aucun mois de Juillet qui a une température de 13°C ou moins, 2 mois de Juillet qui ont eu une température de 13.5°C ou moins (1841 avec 13.4°C et 1919 avec 13.5°C), et ainsi de suite jusqu'au seuil 23°C, la valeur la plus forte atteinte en Belgique.

On remarque que les points bleus suivent approximativement une courbe en cloche. C'est une caractéristique qui se retrouve dans de nombreux phénomènes physiques et biologiques. Ainsi, on peut tracer le modèle théorique de distribution des températures, qui est nommé "loi normale". C'est la courbe en rouge. On remarque que la plupart des mois de Juillet sont groupés autour de la moyenne, entre 16°C et 18°C, et il y a très peu de mois de Juillet loin de cette moyenne.

Nous pouvons faire de même pour d'autres mois, par exemple le mois de Mars. En Mars, la valeur la plus faible est de -1.6°C en 1844. La valeur la plus élevée est de 9.5°C en 1956 et 1990. 

Nombre des mois de Mars avec une température donnée

De même, on remarque que la plupart des valeurs sont groupés près de la moyenne, et qu'il apparaît quelques valeurs extrêmes.

Pour autant, les valeurs de Mars et de Juillet semblent difficilement comparable au premier abord. Si 9°C est une valeur déjà très chaude pour Mars, avoir 9°C en Juillet est impensable.

La courbe pour le mois de Mars apparaît ainsi plus large que la courbe pour le mois de Juillet. On dit que la variance en Mars est plus élevée. Ou plus simplement, que le climat est plus variable en Mars qu'en Juillet. De même, la courbe est centrée autour de 6°C, un bon 10°C en dessous de la valeur moyenne de Juillet. En effet, en Mars il fait plus froid qu'en Juillet...   

Nous pouvons bien-sûr établir des seuils qui sont franchis une fois tous les "pas souvent" pour chaque série. C'est ce que fait l'IRM par exemple, comme nous le disions. Ainsi, sur l'ancienne période de référence de l'IRM Note 1, un mois de Mars très anormalement chaud a une température de 7.6°C ou plus, et un mois de Mars très exceptionnellement chaud de 8.6°C ou plus. Il en est de même pour Juillet. Un mois très anormalement chaud aura une température d'au moins 18.4°C, et un mois très exceptionnellement chaud aura une température d'au moins 19.7°C. Cette approche est cependant limitée car elle n'est pas assez générale pour des études systématiques. 

Pour généraliser la comparaison des valeurs du mois de Janvier et du mois de Juillet, on va exprimer la position de chacune des valeurs par rapport à la courbe en cloche de référence pour chaque mois. On dit qu'on va "normaliser" les valeurs. Il est alors introduit la notion de sigma. Une valeur normalisée est exprimée en sigma (en anglais on parle aussi de Standard Deviation, d'où l'abréviation SD). On peut montrer que les valeurs sont sans unité et prennent des valeurs de -3 sigmas à 3 sigmas Note 2.
.
Plus spécifiquement, la majorité des valeurs se trouve entre -1 sigma et +1 sigma. On peut montrer qu'environ 68% des valeurs est entre -1 sigma et 1 sigma. Entre -2 sigmas et 2 sigma, se trouve pratiquement toutes les valeurs, soit environ 95%. Au delà de 1.5 sigmas ou 2 sigmas, on considère généralement qu'on a affaire à un événement extrême. Enfin, toutes les valeurs sont censés se trouver entre -3 sigmas et 3 sigmas. Une valeur en dehors de cet intervalle ne se produit que tous les 400 ans ou moins.

Nous pouvons alors comparer les valeurs des mois de Mars et des mois de Juillet :

Déviation standardisé de la température moyenne mensuelle de Mars et Juillet

Évolution de température standardisé pour Mars et Juillet de 1833 à 2013
Nous voyons ainsi que le mois de Mars 1845, avec un écart négatif de 3.5 sigmas, n'a pas d'équivalent en Juillet, où le plus fort écart est -2.2 sigmas en 1841. Pour le divertissement, on peut se dire que si un mois de Juillet avait pu tomber à -3.5 sigmas, la température aurait été de 11.2°C. Un peu frais... Cela reste cependant purement théorique évidemment, et il n'existe pas nécessairement de situation météorologique à même de générer un tel extrême. De même dans l'autre sens, le mois de Juillet 2006 présente une déviation de 3.7 sigmas. Pour les mois de Mars, la plus forte déviation est +2.1 sigmas en 1991. Il est de plus notable que les événements frais se sont fait particulièrement rare, le seuil de -1 sigma n'étant pratiquement plus franchi.

Cela permet aussi de comparer à des données d'ailleurs dans le monde. Par exemple, Moscou a une série de températures très ancienne, qui remonte à 1820. Moscou a un climat continental, c'est-à-dire qu'il est sujet à des variations de températures bien plus importantes qu'en Belgique. C'est particulièrement visible en hiver, avec par exemple le plus froid Janvier à -21.6°C et le plus chaud Janvier à -1.6°C. Cela est valable aussi en Été, puisque le plus chaud Juillet est à 26.1°C, et le plus fois Juillet à 14.6°C. Une belle différence... Là encore, les données ne sont donc pas directement comparables. En normalisant les données de Moscou, nous pouvons surmonter cette difficulté.

Il apparaît alors par exemple que, en Juillet 2010, la Russie a connu une canicule sans précédent. Si on considère l'écart en sigma de Juillet 2010 à Moscou, nous arrivons à une valeur extraordinaire de +4 sigmas.

C'est à partir de cette normalisation que les scientifiques peuvent étudier des phénomènes qui ne sont pas directement comparables.

Cette image de Wikipedia résume cela :

La courbe en cloche classique. Source : http://en.wikipedia.org/wiki/File:Standard_deviation_diagram.svg
Il s'agit de la loi normale centrée réduite. Ou dit autrement, la courbe de référence. Lorsque des données ont été normalisées, elles peuvent se projetter sur cette courbe. Pour n'importe quel ensemble de données, on peut normaliser chacune de ses valeurs. Notons cependant que pour autant, un modèle avec une courbe en cloche n'est pas toujours pertinent. Il existe d'autres modèles statistiques qui peuvent être plus adaptés suivant les situations. 

De même, la notion de sigma et de courbe en cloche n'est nullement spécifique à la climatologie. C'est une méthode qui se retrouve dans nombre de disciplines scientifiques et plus particulièrement la biologie.

Tendance récente des extrêmes

De multiples articles scientifiques ont depuis quelques années montré que les événements extrêmes devenaient de plus en plus fréquents. Cette animation montre la distribution des températures exprimés en sigma à la surface de la Terre entière depuis 1951. Petite particularité, la zone grise est comprise entre -0.43 sigma et + 0.43 sigma. On peut voir qu'au fil du temps, la courbe en cloche glisse vers des valeurs plus élevées.

video

Source : http://svs.gsfc.nasa.gov/vis/a000000/a003900/a003975/

L'animation est en fait une adaptation d'une étude de J. Hansen et M. Sato : http://arxiv.org/ftp/arxiv/papers/1204/1204.1286.pdf qui analyse un ensemble de statistiques au sujet de l'évolution des températures.
Une approche classique est de calculer la fraction de la superficie de la Terre affecté par des températures dépassant un certain seuil, souvent 2 et 3 sigmas. L'étude de J. Hansen et M. Sato donne ainsi des courbes qui montrent à quel point l’occurrence de températures extrêmes devient récurrente :

Pourcentage des terres émergées concernaient par un événement chaud (plus de 0.43 sigma, en orangé), un événement très chaud (plus de 2 sigmas, en rouge) et extrêmement chaud (plus de 3 sigmas, en bordeaux). Source : http://arxiv.org/ftp/arxiv/papers/1204/1204.1286.pdf


Pour comparer, une autre étude de D. Coumou et A. Robinson qui vient de sortir donne ces valeurs :
Source : http://iopscience.iop.org/1748-9326/8/3/034018/pdf/1748-9326_8_3_034018.pdf
Les deux courbes ne sont pas exactement comparable. L'étude de J. Hansen et M. Sato regardent le pourcentage des terres émergés concernés par un événement extrême en Été seulement. Alors que l'étude de D. Coumou et A. Robinson regarde ce pourcentage pour tout les mois et l'ensemble de la terre. Pour autant, les courbes sont sensiblement les mêmes, et confirment que les extrêmes chauds deviennent courant.

Deux conclusions de l'étude de J. Hansen et M. Sato nous semblent importantes, et nous terminerons notre propos avec ces deux points.

D'une part, la moyenne se décale vers des valeurs plus élevées, ce qui est tout à fait logique dans un contexte de réchauffement. Pour autant, la courbe tend également à s'élargir. La variance des températures augmentent ainsi avec le temps. Ou, dit à peine autrement, le climat est de plus en plus variable. Cela signifie plus clairement que des événements extrêmement froids restent possibles même dans un contexte de réchauffement. Fait illustré par exemple par l'Hiver 2009/2010 qui a été glacial pour une bonne partie de l'Hémisphère Nord. C'est un des paradoxe du réchauffement. Cela peut sembler totalement contre intuitif, mais le réchauffement peut aussi provoquer des vagues de froid. Mais dans l'ensemble, la dérive vers des températures de plus en plus chaudes est évidente.
D'autre part, la conclusion de l'étude met sans ambiguïté en évidence le lien entre cette multiplication des extrêmes et le réchauffement climatique. Lorsqu'une canicule ou une sécheresse se produit, il est souvent dit qu'un événement unique n'est pas attribuable à l'évolution plus générale du climat, et que les causes de l'événement sont météorologiques. L'étude précise cependant cette affirmation. Ce n'est pas l’occurrence d'un événement extrême qui est régi par la météo, mais sa survenu en un lieu particulier de la planète.
Ainsi, il n'y a par exemple pas de doutes à avoir sur le fait que la période des 12 mois allant de Juillet 2006 à Juin 2007, où les températures ont enchaîné les records, soit en partie la cause du réchauffement. De même pour la canicule hors norme qu'a connu la Russie en 2010, ou les USA en 2012.

Nous le disions au début de ce développement, le risque est lié à la rencontre entre des extrêmes ( l'aléa ) et des enjeux ( vulnérabilité ). Si les extrêmes deviennent plus fréquents, tant dans le chaud que dans le froid, l’adaptation de nos sociétés au changement climatique s'annonce particulièrement délicat.

1. L'IRM utilise dans ses communications la nouvelle période de référence 1981 - 2010, mais garde accessible son ancienne période de référence 1833 - 1980 sur Internet. Nous retenons ici l'ancienne période de référence pour la réponse très prosaïque qu'un phénomène très exceptionnel est un événement qui se produit tout les 100 ans ou moins. Définir un tel phénomène sur une période de seulement 30 ans (de 1981 à 2010 en l’occurrence) est délicat, et nous préférons exploiter pleinement l'avantage que nous avons à avoir une série de données couvrant plus de 180 ans.
 
2. D'un point de vue mathématique, normaliser des valeurs est en fait aisé. Considérons un jeu de données, par exemple la températures des 181 mois de Juillet, depuis 1833 donc. Il suffit de retirer à chaque donnée individuellement la moyenne de la série, et de diviser le tout par l'écart type de la série. Pour les mois de Juillet depuis 1833, la moyenne est de 16,92°C et l'écart type de 1,63°C. Le mois de Juillet 2013 a terminé à 20,2°C et donc sa valeur normalisé est de 2.02 sigmas.

1 commentaire:

  1. Bonjour,

    J'ai trouvé votre article très interéssant. Je réalise en ce moment un mémoire (en statistiques) sur l'évolution temporelle des valeurs extrêmes de données climatologiques afin d'évaluer l'impact du réchauffement climatique.

    Etant assez calé en statistique mais relativement peu dans le domaine climatologique, je recherche une personne qui pourrait m'"aiguiller" dans mes recherches, et notamment trouer des données pertinentes.
    Je pense notamment à un certain Olivier (ou "Paix" sur le forum meteobelgique) dont on m'a dit qu'il était admin de blog (et surement donc créateur de cet article intéréssant), et dont j'ai su apprécier les travaux et autres analyses qu'il a pu partager sur le forum.

    Merci de votre réponse et bien à vous.

    Mon adresse mail est : antoine.pissoort@student.uclouvain.be

    RépondreSupprimer