Climat

Que vaut le record de chaleur de 2014 ?

L’année 2014 a été la plus chaude enregistrée sur la planète depuis le début des relevés. Ce record est-il significatif au regard de l’évolution récente des températures ?

Selon la NOAA, 2014 a été marquée par une anomalie record de +0,69°C par rapport à la moyenne du 20è siècle, tandis que la NASA annonce  +0,68°C par rapport à la moyenne 1951-1980. 2014 est donc l’année la plus chaude depuis 1880 devant 2010, 2005 et 1998.

Ce record est-il significatif ? Pour le dire, il faudrait répondre aux arguments opposés par les sceptiques. Ceux-ci avancent trois arguments principaux pour contester la réalité du réchauffement climatique et donc l’importance des records comme celui de 2014 :

1 La marge d’erreur statistique ne permet pas de détacher un record comme celui de 2014 des autres années chaudes.

2 Les températures plafonnent depuis 1998 : après un fort réchauffement dans les années 90, les températures n’augmentent que faiblement depuis. L’argument peut sembler proche du premier mais il s’agit plus d’un argument portant sur la tendance à long terme.

3 Le thermomètre n’est pas fiable (peut-être même biaisé) : les relevés des satellites ne montrent la même élévation des températures que les stations au sol.

Examinons d’abord le premier argument opposé par les sceptiques :

1 L’écart n’est pas statistiquement significatif : la marge d’erreur pourrait l’expliquer

Pour la NOAA, l’anomalie de température a été en 2014 de +0,69°C au-dessus de la moyenne du 20è siècle. La marge d’erreur, selon l’organisme américain, est de plus ou moins 0,09°C. Cela signifie donc que la fourchette basse serait une anomalie de +0,60°C et que la fourchette haute serait de +0,78°C. Rappelons que pour la NOAA, l’anomalie fut en 1998 de +0,63°C, un record à l’époque.

La fourchette basse de 2014 serait ainsi proche du record de 1998. Le problème avec cette façon de voir les choses, c’est qu’elle omet la variabilité naturelle du climat dans la comparaison des deux années. Et à ce niveau il y a une grosse différence : 1998 a été marquée par un phénomène El Niño exceptionnel, peut-être le plus fort du siècle dernier. 2014 peut être considéré comme une année neutre sur ce plan, avec quand même une légère tendance vers des conditions El Niño. On sait que le phénomène El Niño est capable d’élever la température annuelle mondiale de 0,2 à 0,3°C par rapport à des conditions de type La Niña.

El Niño a eu un effet indiscutable sur la température globale : record de chaleur en 1997 puis à nouveau en 1998. En 1996, l’anomalie de température n’avait été que de +0,32°C, soit 0,31°C de moins que deux ans plus tard.

On peut donc supposer qu’un El Niño aussi puissant qu’en 1998 aurait pu élever la température d’au moins 0,1°C supplémentaire en 2014, ce qui nous aurait amené à +0,70°C dans la fourchette basse et +0,88°C dans la fourchette haute.

Les chiffres avancés sont publiés par la NOAA et disponibles pour qui souhaite les prendre en compte.

Venons-en au deuxième argument :

2 La tendance à long terme montre un plafonnement du réchauffement

Si l’on prend en compte la tendance à  plus long terme, on constante qu’entre 1990 et 1999, le réchauffement a été de 0,26°C par décennie, selon les chiffres de la NOAA… Et seulement de 0,07°C par décennie entre 2000 et 2009. Certains en concluent un peu rapidement que le réchauffement climatique s’est arrêté en 1998.

Une fois de plus, ce calcul ne prend pas en compte la variabilité naturelle… Et la conséquence sur la conclusion est encore plus grave. Si l’on regarde ce qui est passé entre 1990 et 1999 une chose saute aux yeux : la série débute après un des épisodes La Niña les plus forts des 70 dernières années et se termine par le El Niño du siècle. Entre les deux, l’une des éruptions volcaniques les plus fortes du 20è siècle (Pinatubo, 1991) et un El Niño modéré (suffisant pour produire un record de chaleur global en 1995). Pour résumer, la variabilité naturelle a pesé comme suit : froid en 1989 (La Niña), encore froid en 1991, 1992 et 1993 (Pinatubo), chaud en 1995 (El Niño) et très chaud en 1997 et 1998 (El Niño). De quoi constituer une belle courbe ascendante, avec ou sans gaz à effet de serre.

Entre 2000 et 2009, les conditions La Niña ont été prédominantes, comme on peut le voir sur le graphique ci-dessous :

Source : NOAA

Source : NOAA

Les tendances à long terme, on le voit sont d’autant plus sensibles au début et à la fin des périodes retenues qu’elles sont courtes. La marge d’erreur est dans ce cas extrêmement importante : pour la tendance 1990-1999, elle est de plus ou moins 0,35°C… Autant dire qu’elle perd tout son sens.

Pour qu’une tendance à long terme soit significative, il faut qu’elle soit suffisamment longue dans le temps pour tenir le moins possible compte de la variabilité naturelle. Par exemple, si l’on prend comme base 1970-1999, le réchauffement a été de 0,16 °C par décennie (avec une faible marge d’erreur de 0,056°C), soit le même niveau que celui relevé entre 1970-2010 !

Examinons maintenant le troisième argument :

3 Les relevés des satellites ne montrent la même élévation des températures que les stations au sol.

Désolé, mais une fois de plus il faut parler d’El Niño… On constate immédiatement que les épisodes El Niño et La Niña sont plus marqués sur les courbes issues des satellites (UAH, RSS) que sur celles des stations au sol (NOAA, Nasa, HadCRUT4). On ne conclura pas hâtivement que les satellites ont « tort » mais c’est une donnée à avoir à l’esprit. Ainsi, pour UAH, 1998 reste l’année la plus chaude… C’est l’un des arguments préférés des sceptiques, et on les comprend. Cependant, on l’a dit, les écarts d’El Niño sont très marqués sur les courbes des satellites. Et malgré cela, la tendance à long terme des relevés satellites conclut comme celle des stations au sol à un réchauffement.

 

Source : UAH - Roy Spencer

Source : UAH – Roy Spencer

Pour UAH, la tendance sur la période 1979-2014 est de 0,13°C par décennie, soit plus que celle de la période 1979-1999, de l’ordre de +0,11°C ! Pour RSS, c’est plutôt l’inverse. Quoi qu’il en soit, on est loin d’un plafonnement.

 

Résumons nous :

1 La marge d’erreur ne suffit pas à expliquer le record de 2014

2 La tendance à long terme du réchauffement n’est pas infirmée, sauf si l’on choisit des périodes de référence à la carte

3 Les données des satellites donnent plus d’importance à ENSO mais ne contredisent pas la tendance des stations au sol.

Publicités

2 réponses »

  1. Un record de 0,02 ou 0,03°C avec une fourchette d’imprécision de 0,09°C. Très franchement pour un mathématicien (sorti en astronomie – météorologie, spécialisé dans l’application des maths aux sciences de l’environnement, prof honoraire de l’enseignement supérieur spécialisé en analyses de systèmes), cela n’a guère de sens.
    D’autant plus que, avec les mesures par satellite, bouf, pas de record, 1998 est très nettement plus chaude…
    Quant à l’évolution depuis une vingtaine d’années, pour un mathématicien cela ressemble à des variations assez aléatoires.
    Le mathématicien regrette que ne soient pas mentionnées des résultats aussi élémentaires que les écarts types qui ont plus de sens que l' »imprécision ».

    Pour le solde, je souligne que je ne conteste pas le réchauffement survenu au 20e siècle, avec son épisode de « petit âge glaciaire.
    Mais je regrette que des interprétations qu’il faut bien appeler « oiseuses » tentent de cacher l’ignorance réelle d’une l’explication prouvée de l’origine des variations depuis 20 ans et de la stagnation apparente de la température moyenne terrestre!

    Mes regrets, mais le « recors de 2014 » est loin d’être significatif et est même contestable vu le non record sur base des mesures par satellites.

    • Merci pour votre commentaire. Vous estimez que le record de 2014 n’est pas significatif et vous n’êtes pas le seul : le Met Office fait la même conclusion. Si je prends les données qui à mon sens sont les plus fiables, celles de la Nasa, qui couvrent toute la planète (99%, contre 86% pour le Met Office), la marge d’erreur (d’environ 0,1°C) nous amènerait, même dans l’hypothèse basse, quasiment au niveau de la fameuse année 1998. Mais le mathématicien doit aussi prendre en compte la physique du globe : 1998 c’est l’année du plus fort El Nino enregistré des 100 dernières années. Le record de 1998 n’est pas seulement dû au CO2. Si un événement du même type se produisait aujourd’hui, le record serait nettement plus élevé. Il faut comparer 2014 à une année similaire.
      Pour ce qui est des mesures satellites, elles sont beaucoup plus sensibles que les relevés des stations à ce qui se passe dans les tropiques avec l’oscillation ENSO. Or il s’avère que c’est dans l’Arctique que le réchauffement est le plus fort : les données qui prennent le mieux en compte le pôle nord sont celles qui relèvent les températures globales les plus élevées. En outre, les satellites ne mesurent pas directement la température, seules les stations au sol permettent de le faire.
      Pour ce qui est de l’évolution depuis une vingtaine d’années, on ne peut pas dire que les variations soient aléatoires, selon les stations au sol : +0,18°C de hausse décennale sur 1990-2010. Cela signifie une augmentation nette de +0,36°C, soit davantage que la variation naturelle (+ ou – 0,2 à 0,3°C°). Depuis le début des relevés (1880), l’augmentation est de 0,85°C.

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s