Climat

Des tensions entre les certitudes scientifiques et la communication du GIEC

Lors de la présentation du 5è rapport d’évaluation du GIEC, en 2013, les orateurs de la conférence de presse ont tenté de rendre plus concret le réchauffement climatique aux yeux du grand public. Pour cela, les intervenants ont invoqué les derniers records de température. Cependant, lorsque les journalistes se sont enquis de la pause climatique observée entre 1998 et 2013, les membres du GIEC ont rejeté la pertinence de ces échelles de temps, leur opposant celle des tendances à long terme. Une incohérence soulignée dans un article publié par  la revue Nature Climate Change.

Qu’est-ce qui compte vraiment comme une preuve scientifique du réchauffement de la planète ? Au cours de la conférence de presse de 2013 pour présenter leur dernier rapport sur le changement climatique, les orateurs du Groupe intergouvernemental d’experts sur l’évolution du climat (GIEC) ont tenté de rendre la connaissance du climat plus significative par la référence répétée à des phénomènes comme les changements de température à court terme. Mais la conférence de presse n’a pas convaincu tous les journalistes présents. Face au scepticisme suscité par la présentation de ce rapport, des professeurs de l’Université de Nottingham se sont interrogés sur la démarche des membres du  GIEC et la crédibilité de leur tentative pour rendre les résultats scientifiques accessibles au public.

Michel Jarraud, secrétaire général de l’Organisation météorologique mondiale (OMM), le climatologue Thomas Stocker et Rajendra Pachauri, président du GIEC (il a démissionné depuis), ont souligné que « la décennie à compter de 2001 avait été la plus chaude ». Si l’accent mis sur l’échelle décennale peut avoir contribué à faire du changement climatique un fait plus significatif, il a aussi créé des difficultés considérables, notent Gregory Hollin et Warren Pearce, auteurs de l’article et professeurs à l’Université de Nottingham. Les conférenciers ont en effet affirmé dans la même conférence que « les périodes de moins d’une trentaine d’années  étaient moins pertinentes »…

La pause climatique a été abordée lorsque les tendances à court terme ont été considérées par les intervenants de la conférence de presse. Les journalistes présents se sont montrés particulièrement intéressés par cette pause : 6 journalistes sur 18 ont ainsi demandé si elle minait les conclusions du GIEC. Malgré les records de chaleur battus en 2005 et 2010 (puis en 2014 mais la conférence s’est tenue en 2013 !), le rythme du réchauffement climatique a été moins important au début du 21è siècle que pendant les années 1990. David Rose, du « Mail on Sunday », a abordé le sujet, en interpellant les orateurs. « Combien de temps la prétendue pause, ou « hiatus », va-t-elle devoir se poursuivre avant que vous ne commenciez à vous dire qu’il y a quelque chose de fondamentalement mauvais dans les modèles ? », a demandé le journaliste britannique.

Diverses tentatives ont été faites par les orateurs du GIEC pour minimiser l’importance de la pause. Stocker a mis en évidence à plusieurs reprises le manque de littérature publiée sur le sujet et a affirmé que les tendances de moins de 30 ans devaient être considérés comme nettement moins importantes que les tendances de plus de 30 ans. Cette segmentation temporelle a permis de qualifier la pause comme scientifiquement non pertinente, ce qui suggérait que les questions des journalistes sur la question pouvaient être ignorées. Michel Jarraud a écarté la question de David Rose, qui selon lui, était « d’un point de vue scientifique … ce que nous appelons une question mal posée ». Une incohérence frappante a alors été notée par Alex Morales, de Bloomberg News, qui a logiquement demandé pourquoi les périodes de 15 ans étaient donc considérées par les orateurs si elles ne détenaient pas de valeur scientifique.

Cet échange difficile a conduit à la confusion lors de la conférence de presse et à une condamnation ultérieure dans les médias, ont constaté les professeurs de Nottingham. Les orateurs étaient bien intentionnés dans leur effort pour communiquer les implications du rapport mais Gregory Hollin et Warren Pearce pointent l’incapacité des intervenants à reconnaître les tensions entre les significations scientifiques et publiques.

Température moyenne annuelle à la surface du globe depuis 1880 (source : NASA)

Température moyenne annuelle à la surface du globe depuis 1880 (source : NASA)

 Le réchauffement climatique se fait sentir depuis une centaine d’années : les températures ont augmenté de 0,85°C depuis le début du 20è siècle. Le fait que la décennie 2000-2010 ait été la plus chaude apporte une confirmation de cette tendance et permet de rendre le réchauffement plus concret. Mais on ne peut à la fois faire ce constat et rejeter la pause climatique comme non pertinente. Car même si la décennie 2000-2010 est la plus chaude de toutes en 135 ans d’observations, le rythme a bel et bien été plus important dans les années 90. Les données des principales agences qui relèvent l’évolution mondiale des températures montrent que le réchauffement a connu une pause entre 1998 et 2013 avec une reprise de la hausse en 2014 (année record de chaleur) et en ce début 2015.

La qualification de la pause comme non pertinente est d’autant moins compréhensible qu’il était tout à fait possible pour les orateurs de présenter les explications scientifiques de cette pause. Car elles existent : les alizés se sont renforcés lors des années 2000, conduisant à enfouir davantage de chaleur dans l’ouest de l’océan Pacifique ; les éruptions volcaniques de faible intensité ont peut-être joué un rôle plus important qu’on ne le pensait ; les températures de l’Arctique, qui ont fortement augmenté à partir des années 2000, ne sont pas suffisamment prises en compte, faute de couverture totale du globe. Au final, la variabilité naturelle aurait bien pu « enlever » 0,2°C lors de cette décennie.

Une nouvelle explication a été présentée en 2015, mais elle n’était pas encore disponible lors de la conférence de presse du GIEC en 2013. Des scientifiques de la NOAA ont récemment mis en évidence l’écart entre différents types de mesure de la température de surface de l’océan. L’observation de l’océan ne cesse en effet d’évoluer et les données issues des bouées et des bateaux sont plus nombreuses qu’auparavant. Les scientifiques de la NOAA estiment que la correction des données conteste l’existence d’une pause climatique : le réchauffement dans les 15 premières années du 21è siècle a été aussi important que durant la seconde moitié du 20è siècle. Ainsi, la NOAA relève un réchauffement de +0,113°C/décade entre 1950 et 1999 et de 0,116°C/décade entre 2000 et 2014.

Avant le 20è siècle, les périodes de 40 ans marquées par le réchauffement le plus intense n’ont guère dépassé un rythme de +0,1°C par décennie dans l’hémisphère nord. Dans la deuxième moitié du 20è siècle, les variations se sont amplifiées en raison des émissions de gaz à effet de serre : l’hémisphère nord s’est réchauffé de plus de 0,2°C par décade, un rythme deux fois plus rapide que lors des périodes les plus chaudes reconstruites sur les 900 années précédentes.

Mais d’après les projections des modèles climatiques, c’est à partir de 2020 que les taux de réchauffement devraient véritablement surclasser les variations passées avec un rythme de +0,25°C. Vers 2030-2040, le rythme pourrait passer à 0,40°C/décennie, selon le modèle climatique CMIP5 basé sur une sensibilité climatique de 4,5 °C pour un doublement du niveau de CO2.

Publicités

5 réponses »

  1. Un étrange malaise à la lecture de cet article.
    Une réflexion: les méthodes statistiques modernes disposent de moyens exceptionnellement puissants grace aux ordinateurs. Ainsi sont pratiquées depuis pas mal de temps les analyses multicritères ou les analyses en composantes principales; or jamais ne semble-t-il des résultats de telles analyses ne semblent avoir été acquis en ce domaine de l’étude des variations climatiques…
    En existe-t-il? Et si non, pourquoi??

    • Les analyses en composantes principales sont utilisées par les chercheurs, pour évaluer par exemple le poids de certains facteurs dans le réchauffement (CO2, variabilité naturelle) ou pour savoir si un phénomène climatique est lié à différents types de paramètres (température de telle ou telle région de la mer, vents…). Sinon, peut-être que votre question concerne les PCA pour les causes du hiatus. Je n’ai pas de précision dessus mais en revanche en terme de valeur brute, les alizés auraient provoqué un refroidissement de près de 0,2°C. La non-prise en compte de l’Arctique pèserait un peu moins, quand aux volcans, c’est encore assez spéculatif je pense.

  2. Merci, Johan Lorck, de votre réponse.
    J’ai pratiqué l’analyse en composantes principales, souvent couplée avec une analyse des correspondances, mais en matière d’environnement et de taxonomie en particuler.
    L’un des énormes avantages de cette méthode est d’être indépendante de tout manque d’objectivité (le traitement mathématique rend des résultats bruts totalement indépendants d’idées préconsues, sauf à éliminer volontairement des paramètres au départ). Mais sa difficulté en météorolgie me parait résider en le traitement de très nombreux paramètres couplés à de très très nombreuses observations localisées systématiques, et donc lie la méthode à la régularité de ces mesures: il faut des séries complètes d’observations .
    L’évocation du « poids » des facteurs retenus est en effet le sens de cette méthode d’analyse.

    • Les paramètres sont effectivement très nombreux en météo. Pour ce qui est du climat (le temps moyen) on peut quand même noter qu’il y a un consensus autour du rôle du CO2 (ainsi que les aérosols) comme étant la principale variable expliquant les variations de températures (à long terme). A court terme, El Nino paraît un bon candidat.
      Taux de CO2, aérosols, volcans et ENSO semblent être les facteurs de variation les plus importants. L’albédo des glaces va jouer de plus en plus à l’avenir.
      L’énergie du soleil semble avoir un rôle mineur en revanche (pour ce qui est de nos échelles de temps), ce qui n’est pas le cas de la position de la Terre par rapport au soleil.

  3. Si réchauffement depuis 10 ans alors la geoingenerie ne sert rien. C’est du business pour les usa. Trop facile de créer une agence qui décrète un réchauffement pour ensuite balancer des chemtrails. Voir les associations qui luttent contre les pulvérisations d aluminium baryum etc….effectuées par us air force (ascepica) pour lutter contre le réchauffement

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s