Une équipe internationale de chercheurs a passé en revue les données et études existantes, concluant qu’il n’y avait jamais eu de « pause » statistiquement significative du réchauffement planétaire au début du XXIe siècle. L’occasion de préciser l’interprétation qui doit être faite des modèles climatiques et la bonne manière de les comparer aux observations.
Une « pause » peut être définie comme une modification du taux de réchauffement dans les observations ou comme un décalage entre les observations et les attentes des modèles climatiques.
De nombreuses études au cours de la dernière décennie se sont penchées sur la prétendue pause ou ralentissement du réchauffement planétaire des années 2000. Présentée par certains comme une preuve incompatible avec notre compréhension du réchauffement planétaire, la «pause» a fait l’objet de plus de 200 articles scientifiques revus par des pairs. Depuis cette prétendue pause, la température globale est repartie à la hausse et la tendance de court terme affiche depuis une dizaine d’année un niveau très élevé. Il n’en reste pas moins que la pause continue d’intéresser les scientifiques, tant elle a fait l’objet de controverses et de problèmes d’interprétation.

Une nouvelle étude parue dans la revue « Environmental Research Letters » réfute totalement l’idée d’une pause dans le réchauffement climatique dans les années 2000. Les scientifiques ont constaté que l’impression d’une divergence entre le taux de réchauffement global réel et les projections des modèles était due à divers biais interprétatifs. Elle n’est pas étayée par des statistiques robustes.
L’équipe a procédé à une comparaison systématique entre les températures et les projections, en utilisant des données de températures historiques et des modélisations à partir des moments où des déclarations de divergence entre les observations et la modélisation ont été faites.
Les comparaisons ont été effectuées avec diverses techniques statistiques pour résoudre les problèmes rencontrés lors de travaux antérieurs. Les scientifiques ont pu déterminer que l’évolution des températures pendant la pause restait dans la plage de ce qu’il était possible d’attendre compte-tenu de la variabilité climatique interne observée dans les archives de température.
Certaines précautions sont nécessaires pour éviter des erreurs d’interprétation dans la comparaison des modèles climatiques aux observations. La prise en compte de nombreux biais (forçages climatiques, construction des données, tendances…) permet de réconcilier modèles et observations.

Le biais dû aux forçages climatiques et aux améliorations des données
Les projections climatiques sont obtenues en appliquant des estimations des forçages radiatifs historiques (jusqu’en 2005), suivies des forçages futurs supposés par les scénarios comme le RCP8.5.
C’est peut-être le biais le plus évident : les forçages présumés peuvent s’avérer faux, par exemple parce que l’activité économique ou les politiques climatiques suivent une trajectoire inattendue ou que les estimations historiques sont révisées. La divergence entre les températures modélisées et observées, quand elle vient des forçages, ne peut être utilisée pour remettre en cause l’exactitude des modèles climatiques.
Des variables comme les éruptions volcaniques, les aérosols dans l’atmosphère et l’activité solaire ont toutes pris une tournure inattendue au début du XXIe siècle, nécessitant une mise à jour des forçages présumés.
Des estimations mises à jour fournies par Schmidt et al (2014) furent disponibles début 2014 et couvrent la période 1989-2013. Schmidt et al (2014) a identifié quatre ajustements nécessaires pour les gaz à effet de serre, l’irradiation solaire, les aérosols troposphériques anthropiques et les aérosols stratosphériques volcaniques.
Les forçages alternatifs mis à jour fournis par Huber et Knutti (2014) sont devenus disponibles plus tard en 2014 également et couvraient la période 1970-2012. Huber et Knutti se sont concentrés plutôt sur l’irradiation solaire et les aérosols stratosphériques.
Outre la correction des forçages, il y a aussi l’amélioration des données. Des révisions sont régulièrement faites, notamment pour ce qui concerne les données des températures de surface de la mer (SST).
Le biais dû au mélange températures de l’air – températures de surface de la mer
C’est un fait peu connu et qui n’a été explicité que récemment. Cela peut sembler étonnant, mais la température de l’air tirée des modèles (codée TAS dans CMIP5) ne calcule pas exactement la même chose que les observations dans le monde réel. Ces dernières sont obtenues en combinant les mesures de température de l’air effectuées par des stations terrestres avec des températures de surface de la mer mesurées dans les quelques mètres les plus élevés de l’océan. Une comparaison réelle des modèles aux observations, impliquerait en fait un mélange similaire des températures modélisées au-dessus des terres et de la SST modélisée (codée TOS).
Afin de comparer « des pommes avec des pommes », il faut fusionner les anomalies sol-air (TAS) et surface de la mer (TOS) des modèles pour vérifier leur adéquation avec les observations.
Cette précision est d’importance, comme on va le voir, si l’on considère les observations HadCRUT4 du Met Office, celles qui ont relevé le plus fort ralentissement dans le taux de réchauffement.
Cowtan et al (2015) a montré que si l’algorithme de mélange HadCRUT4 était répliqué sur les résultats du modèle CMIP5, la divergence entre les projections et les observations du modèle serait réduite d’environ un quart (de 2009 à 2013).
Le biais dû à la période sélectionnée
La plupart des articles sur le hiatus ne fournissent aucune justification pour le choix de l’année de début de ladite pause. Les années de départ publiées vont de 1995 à 2004, plus fréquemment 1998. Dans chaque cas, le début présumé de la pause n’a pas été choisi au hasard, mais spécifiquement à cause de la tendance basse qui en a résulté. Ce qui pose un problème : si une période est choisie (parmi de nombreux intervalles possibles) en raison de sa tendance exceptionnellement basse, cela a des implications pour l’interprétation de la tendance.
Très peu d’articles sur la pause expliquent ou même mentionnent cet effet, mais il a de profondes implications pour l’interprétation des résultats statistiques.
Le biais dû à la variabilité interne du climat
La contribution de la variabilité climatique interne à la divergence entre les modèles et les observations est illustrée de plusieurs manières. Lorsque la variabilité interne est prise en compte en sélectionnant uniquement les modèles dont la variabilité interne est alignée sur la phase observée de l’oscillation australe El Niño, qui est un facteur déterminant des SST du Pacifique tropical, la divergence entre les observations et les tendances modélisées pendant la période de «pause» est considérablement réduite, voire supprimée (Meehl et al 2014, Risbey et al 2014).
Autre point important, lorsque l’on ne retient que les réalisations des modèles qui reproduisent la pause observée, leur projection de réchauffement pour la fin du siècle ne diffère pas de celle modélisée in fine par les autres réalisations des modèles (England et al 2015). Ces résultats montrent que toute conclusion sur une divergence entre les tendances observées et modélisées basées sur la moyenne multi-modèles du CMIP5 est hautement problématique.
La moyenne multimodèle ne rend pas compte de la variabilité interne du système climatique. Au contraire, elle supprime cette variabilité interne et la température observée ne peut donc pas suivre la moyenne, mais doit plutôt se comporter comme une réalisation de modèle unique. Le climat observé est plutôt une réalisation unique d’un système aléatoire.
Le biais dû au choix de données
Les différences de couverture entre les agences qui fournissent des données sont également importantes pour déterminer les tendances à court terme. En effet, les différences sont liées au fait que la région arctique est bien représentée (Berkeley, Cowtan et Way, GISTEMP) ou non (HadCRUT, NOAA). L’Arctique s’est davantage réchauffé par rapport au taux moyen mondial au cours des dernières années. Cowtan & Way est basé sur HadCRUT mais inclut une couverture de données dans l’Arctique en appliquant des techniques d’interpolation. Les différences entre Cowtan et Way et HadCRUT4 fournissent donc une mesure directe du rôle de la couverture de données, du moins au cours des dernières décennies, lorsque la couverture d’observation est suffisante pour permettre une reconstruction adéquate de la température quasi globale.
GISTEMP et HadCRUT sont également de bons choix pour contraster avec une couverture de données plus faible (HadCRUT) et une couverture presque complète (GISTEMP). HadCRUT fournit l’estimation la plus basse des tendances de réchauffement à court terme tout au long de ladite pause et fournit donc une limite inférieure sur ce qu’un chercheur de pause pourrait ne pas comprendre des différences entre les ensembles de données concernant la tendance GMST.
La biais dû à la tendance
La détermination d’une tendance entre une date de début et une date de fin en estimant une pente pour la droite de régression pose problème. Le calcul de la tendance de cette manière introduit une rupture entre les lignes de tendance contiguës si la période avant ou après la tendance en question est modélisée par une régression linéaire séparée (Rahmstorf et al 2017).
La tendance brisée donne l’impression visuelle d’une tendance très inférieure à celle qu’il y avait auparavant, en ignorant complètement ce qui est survenu avant cette cassure. Là se trouve le problème principal : si la tendance brisée peut avoir de l’intérêt, elle ne doit pas conduire à ignorer ce qui s’est produit auparavant.
La solution à ce problème consiste à calculer des tendances continues à court terme : lorsque des tendances partielles sont continues, elles convergent sur un point commun et partagent cette « charnière », même si les pentes des deux tendances partielles peuvent être différentes.
L’arborescence ci-dessous reflète l’impact des différents biais. Les scientifiques qui comparent les modèles aux observations doivent décider de corriger ou non le problème du biais de sélection (le nœud de décision en haut de la figure). Ils doivent décider comment modéliser l’intervalle de pause (sous forme de tendances interrompues ou continues ; deuxième niveau de nœuds de décision). Ils doivent choisir le jeu de données à utiliser (HadCRUT ou GISTEMP ; troisième niveau). L’arbre identifie les conditions dans lesquelles et quand les preuves apparentes d’une divergence existaient. L’état de la preuve est représenté par les feuilles de l’arbre (petits cercles) au bas de la figure. Les feuilles vertes dénotent l’absence de preuve, définie comme étant plus de la moitié de toutes les durées de tendance possibles pour cette année d’observation dépassant les 10% inférieurs des réalisations synthétiques. Toute feuille partiellement ou totalement orange ou rouge indique l’apparition d’un certain degré de preuve d’une divergence entre les observations et les projections du modèle. Les preuves sont considérées comme médiocres (feuilles orange), juste (feuilles rouges).

L’arborescence montre qu’une divergence n’a pu relever de caractère significatif qu’entre 2011 et 2013 sous conditions : que l’on ignore le biais de sélection (la période retenue), le problème des tendances brisées et le biais de la couverture spatiale (en choisissant HadCRUT).

Laisser un commentaire