Contrepoints

Accueil > Société > Environnement & écologie > La Servitude climatique > Débat et controverses du changement climatique

Débat et controverses du changement climatique

Autour de l’ouvrage de Jean-Michel Bélouve

lundi 28 décembre 2009

Les critiques à l’encontre des travaux du GIEC sont devenues de plus en plus nombreuses à partir du milieu des années 1990. Nous vous proposons de les présenter ici.

La théorie classique du changement climatique

La théorie repose sur un bilan radiatif : notre planète reçoit de l’énergie apportée par le rayonnement solaire. Une partie de celui-ci est réfléchie vers l’espace, et l’autre partie réchauffe la Terre. Le rayonnement de la Terre est invisible. L’oxygène et l’azote, qui constituent la très grande partie de l’atmosphère, sont transparents aux rayons infrarouges.

On appelle irradiance solaire le fait que si l’air n’était constitué que d’oxygène et d’azote, la Terre se maintiendrait à une température d’équilibre fixée à environ – 18°. La Terre reçoit un flux d’énergie du quart de l’irradiance solaire, soit 342 watts / m². Seule une partie de ce flux réchauffe la Terre, environ 70%. En effet, les rayons lumineux sont partiellement réfléchis vers l’espace, et leur énergie est perdue pour la planète. C’est donc un flux d’environ 239 watts/m² qui chauffe effectivement la Terre ; la température qui en résulte peut être calculée par la loi de Stefan-Boltzmann, qui relie la température et l’énergie par la formule suivante : Flux d’énergie = constante * T4

Tout le monde sait bien sûr que la température moyenne de la surface de la Terre n’est pas de -18°C, mais qu’elle se situe à environ 15°. Cela ne peut s’expliquer que si quelque chose s’oppose à la sortie vers l’espace des rayons infrarouges émis par la Terre. Certains gaz présents en petite quantité dans l’atmosphère ont le pouvoir de capter les rayons infrarouges et de réémettre un rayonnement dans toutes les directions, et donc partiellement vers l’espace et partiellement en direction de la surface terrestre. Le phénomène par lequel le système climatique terrestre semble émettre plus d’énergie radiative qu’il n’en reçoit du soleil s’appelle le forçage radiatif.

Les gaz qui font écran aux infrarouges sont la vapeur d’eau, qui a la plus grande capacité à absorber le rayonnement du sol, le CO2, le méthane, les gaz nitreux, l’ozone et quelques autres. Le forçage radiatif de la vapeur d’eau est le plus important ; la quantité de vapeur du moment varie considérablement, car l’eau connaît un cycle très rapide entre son état liquide et son état gazeux.

Il en va tout autrement des autres gaz, tels que le CO2, qui présentent une grande permanence à l’état gazeux dans l’atmosphère, bien qu’on ne connaisse que très approximativement aujourd’hui le temps de résidence du dioxyde de carbone. Les estimations retenues par le GIEC vont de 50 à 200 années de résidence du CO2 dans l’atmosphère. Or les humains produisent du CO2 en brûlant du bois, du pétrole, du gaz naturel et du charbon – et même en respirant –, et cette production s’est accélérée considérablement.

Le supplément de température trouvé ne progresse pas dans les mêmes proportions que la quantité de CO2. Autrement dit, le pouvoir absorbant de rayonnement infrarouge du dioxyde de carbone décroit lorsque sa concentration dans l’atmosphère augmente. Donc, s’il n’intervenait que le CO2, la planète ne connaîtrait qu’un échauffement relativement minime. Mais ce léger échauffement dû au CO2 a des répercussions sur l’eau, via la vapeur d’eau, laquelle a un pouvoir d’absorption des rayonnements infrarouges bien plus élevé. C’est ce qu’on appelle une rétroaction positive. Heureusement, des rétroactions négatives viennent corriger le phénomène : en particulier l’albédo, qui mesure l’effet réfléchissant des nuages et des matières présentes sur la Terre. Le flux d’énergie solaire réfléchi par les nuages vers l’espace, 47 watts/m² en moyenne, est plus important que celui qu’ils retiennent sur terre par effet de serre (29 watts/m²).

A cette approche, le professeur Tom V. Segalstad rétorque que les quantités de CO2 dissoutes dans l’eau des océans sont cinquante fois plus importantes que celles contenues dans l’atmosphère. Autrement dit, l’atmosphère conserve 1/51e du CO2 émis par l’activité humaine. Par ses calculs isotopiques, il a montré que si la durée de résidence du CO2 était de 50 à 200 ans, plages retenues par les modèles du GIEC, l’atmosphère actuelle contiendrait deux fois moins de dioxyde de carbone qu’elle n’en a réellement.

Les outils de la prévision climatique à long terme

Il est impossible de reproduire en laboratoire le système climatique. On utilise donc des pis-aller pour compenser cette faiblesse épistémologique objective. On cherche, en particulier, les périodes du passé le système s’est déjà trouvé dans une situation identique ou au moins très voisine. On consulte les archives historiques, on fore des carottes de glace, on scrute le tronc des vieux arbres. Tout cela est bien loin des sciences exactes. Zbigniew Jaworowski dénie ainsi toute valeur scientifique à l’étude de ces échantillons de glace, estimant que plus les carottes sont profondes, et correspondent donc à des âges reculés, et plus leur composition s’écarte de celle de l’atmosphère d’origine.

On peut estimer avec confiance que le taux de CO2 était stable au cours des huit premiers siècles du millénaire précédent, et qu’il se situait au niveau de 270 à 280 ppm jusqu’au début de l’ère industrielle, vers 1750. Il dépasse aujourd’hui 380 ppm, ce qui constitue une hausse substantielle qu’on peut attribuer en grande partie à l’activité industrielle. Néanmoins, en superposant les courbes de variation de la température et celles de la concentration en CO2 établies par la méthode des carottes glaciaires, on s’aperçut que le taux de concentration carbonique présentait un décalage temporel d’environ 800 ans par rapport aux températures, une hausse du taux de CO2 se produisant postérieurement à l’élévation de température. Le CO2 cessait d’être la cause de la hausse de température, et devenait alors une conséquence de celle-ci. Cette conclusion est soutenue, entre autres, par le climatologue russe Khabiboullo Adboussamatov.

Si l’on suit les conclusions de Michael Mann, le célèbre père de la courbe en crosse de hockey, on observe une décroissance faible mais régulière de la température depuis l’an mil jusqu’en 1900. Or, on a pu établir par ailleurs que le Moyen Age a connu des températures élevées, probablement proches des températures actuelles (l’ « optimum médiéval »), alors que la période 1600-1800 a été particulièrement froide, héritant du nom de « petit âge glaciaire ». Voici à ce propos deux courbes, issues de deux rapports du GIEC. La courbe de gauche, certes, doit être considérée avec précaution. Mais la courbe de droite, celle de Mann, contredit tous les témoignages historiques connus, ainsi que les indices dont nous disposons. La seconde a pourtant remplacé la première dans les rapports officiels. Pourquoi ?

GIF - 15.8 ko
Courbe des temp
GIF - 32.2 ko
Courbe en crosse de hockey de Michael Mann, GIEC 2001
Voir ici

Stephen McIntyre et Ross McKitrick relèvent plusieurs erreurs de programmation dans le logiciel utilisé par Mann. Ainsi, même en l’alimentant de données aléatoires, le programme produit une courbe en forme de crosse de hockey. Les algorithmes utilisés produisent des courbes de cette forme quelles que soient les données introduites. L’erreur et l’incertitude impliquées dans les reconstitutions climatiques de Mann et de ses collaborateurs sont en effet amplifiées par la récurrence de chaque année qui précède. Sur ce sujet, le GIEC garda le silence, se contentant de retirer subrepticement la courbe falsifiée de ses rapports de 2007. Il garda tout autant le silence sur les références professionnelles de Michael Mann et sur l’origine des financements dont ses études ont bénéficié.

Pour Marcel Leroux, autre climatologue de renom, la notion de température moyenne est une ineptie. Pourquoi le GIEC préfère-t-il les mesures de températures faites par les stations terrestres et maritimes, et n’utilise pas les mesures faites par les satellites, a priori plus fiables ? Les techniques utilisées par les stations au sol sont disparates, l’effet « ilot de chaleur urbaine » n’est pas contourné [1].

Les modèles et les simulations informatiques

La possibilité de faire des simulations et des modèles informatiques est tributaire de plusieurs conditions :

- Connaître toutes les lois scientifiques qui régissent les objets et leurs interactions, et avoir une traduction mathématique de ces lois.
- Faire des choix, laisser de côté les objets insignifiants et les relations non susceptibles d’avoir une influence substantielle sur les résultats
- Auditer, tester et valider le logiciel.

Dans les faits, chacune de ces conditions sont délicates. Mettons-nous à la place d’un directeur de recherches et de ses équipes. On lui demande un travail de développement nouveau dont il ne connaît pas encore tous les aléas, et il n’est pas absolument certain que ce qu’on lui demande est réalisable. Si ce directeur appliquait un principe de précaution, il refuserait le travail. Ce faisant, il laisserait l’affaire à un centre de recherches moins scrupuleux ou mieux doté que le sien en compétences et moyens. Son éthique lui fera-t-elle préférer le risque de sous-activité de son établissement, de perte d’emplois, de difficultés financières ? Ajoutez à cela le haut niveau de rémunérations que perçoivent ces chercheurs dans certains pays, et vous comprendrez que ces derniers refusent difficilement une commande ; lorsqu’un donneur d’ordre propose un marché, il se trouvera toujours un développeur pour l’accepter, même si la réalisation du logiciel est aléatoire.

La difficulté scientifique provient du fait que le climat, à l’instar de la théorie du chaos, est à la fois un système dynamique, déterministe, présentant une instabilité fondamentale sous la forme d’une « sensibilité aux conditions initiales » qui, modulant une propriété supplémentaire de récurrence, le rend non prédictible en pratique sur le « long » terme. Autrement dit, si vous n’êtes pas capable de déterminer avec une précision supérieure au un millionième une valeur qui se transforme de façon cyclique comme la quatrième puissance d’elle-même, vous devrez tenir compte d’une marge d’erreur de 7% si le nombre maximum d’itérations est de 8, et de 285% si ces itérations peuvent aller jusqu’à 10, et alors on ne peut plus accorder la moindre confiance au résultat de votre calcul !

Comme l’écrit Hendrik Tennekes, « comme ardent défenseur du paradigme de Lorenz, (…) la tâche de trouver toutes les rétroactions non linéaires dans la microstructure de l’équilibre radiatif est probablement aussi impossible que trouver l’aiguille dans la meule de foin ». Il ajoute : « je suis consterné par l’arrogance des scientifiques qui prétendent être capables de résoudre le problème du système climatique, à condition qu’ils soient très largement subventionnés ».

Vincent Gray ajoute : « les modèles sont basés sur la théorie d’un climat où un quart de la lumière solaire tombe simultanément sur l’ensemble des zones de la terre et que la température est constante. Je considère cette supposition comme complètement irréaliste. Je pourrais changer de point de vue s’ils étaient capables de faire des prévisions convaincantes, mais leurs « projections » sont toujours si lointaines qu’ils auront eu le temps d’empocher leurs confortables pensions et retraites avant que ces projections ne soient vérifiables par les faits ».

Richard Lindzen, l’un des plus éminents climatologues mondiaux, ajoute ceci : « Que des corrections aient besoin d’être appliquées n’est pas du tout surprenant, mais que ces corrections aillent toujours dans le sens « souhaité » est hautement improbable. Cette situation peut faire penser à une malhonnêteté évidente, mais il est tout à fait possible que beaucoup de scientifiques imaginent, dans le contexte scientifique actuel, que le rôle de la science est de confirmer le paradigme de l’effet de serre pour le changement climatique autant que la crédibilité des modèles ».
Alors que le résumé technique du rapport 2001 du GIEC relativisait les observations et conclusions faites, au regard en particulier de l’insuffisance des réseaux d’observation, de l’insuffisance des données de base, du manque de données sur les émissions de gaz, et enfin de l’insuffisance des éléments permettant d’apprécier les variations climatiques régionales et les événements climatiques extrêmes, le résumé à l’intention des décideurs politiques, lui, ne faisait pas état de ces réserves. Il semble bien qu’il n’y ait eu, à ce jour, aucun calcul scientifique de probabilités pour chiffrer le pourcentage de confiance qu’on peut accorder aux projections des modèles. Ni le GIEC, ni les donneurs d’ordre ne semblent avoir prévu des audits scientifiques et techniques des modèles utilisés pour les prévisions climatiques.

Kesten C. Green et J. Scott Armstrong vont plus loin : voici comment ils jugent les prévisions du Quatrième rapport d’évaluation du GIEC (2007) : « ces prévisions constituent-elles une base correcte pour l’établissement de politiques publiques ? Notre réponse est « non ». Pour fournir des prévisions de changement climatique utiles à la décision politique, on devrait prévoir (1) la température globale, (2) les effets de tout changement de température, et (3) les effets des politiques alternatives praticables. Des prévisions justes sur ces trois points sont nécessaires pour des choix politiques raisonnables. (…) Les procédures de prévisions qui étaient décrites (dans le rapport du Groupe de travail n°1 du GIEC) enfreignaient 72 principes. Beaucoup de ces violations étaient fondamentalement graves. Les prévisions du rapport n’étaient pas le résultat de procédures scientifiques. En effet, c’étaient les opinions de scientifiques transformées par les mathématiques et obscurcies par une rédaction embrouillée. (…) Proclamer que la Terre va se réchauffer n’est pas plus crédible que de dire qu’elle va se refroidir ».

On en revient à ce fameux « consensus » au sein du GIEC. Il est indéniable que lorsqu’on fait travailler les experts en concertation, ils s’influencent mutuellement. Un exemple : l’a priori que les températures du passé récent sont optimales et que tout changement est indésirable. Le professeur Seitz, l’un des principaux rédacteurs du Second Rapport du GIEC (1995), explique ainsi que son rapport a été proprement caviardé et que toute nuance a été purement et simplement biffée et supprimée du rapport final [2].

Un autre exemple de relativité du « consensus » du GIEC : Naomi Oreskes a établi que 75% des publications parues jusqu’en 2004 soutenaient explicitement ou implicitement la thèse officielle, alors qu’aucune ne manifestait de désaccord avec la théorie. Comment se fait-il qu’aucun article d’aucun scientifique évoqué ici ne soit considéré ? Benny Peiser a montré que, sur les 12 000 publications mentionnant l’expression « climate change », Naomi Oreskes en a sélectionné 928. Sur quels critères ?
On oublie ainsi allègrement la Déclaration de Leipzig, qui dénonçait le traité de 1992 sur le climat global, ainsi que les bases scientifiques sur lesquelles il reposait. On oublie aussi la lettre que 470 scientifiques ont adressée, le 13 décembre 2007, au secrétaire général de l’ONU, Ban Ki Moon, considérant que la grande majorité des contributeurs et examinateurs du rapport ne sont pas impliqués dans la préparation du Résumé pour décideurs du GIEC. On oublie tout autant le Global Warming Petition Project, que 31 478 scientifiques ont signé, au motif qu’il n’existait aucune démonstration scientifique d’une future catastrophe causée par un réchauffement dû au gaz à effet de serre [3]. On oublie que 700 scientifiques américains ont dénoncé au Sénat américain les conclusions du GIEC et les positions prises par l’ex-Vice Président Al Gore. On oublie la Déclaration de Manhattan, signée d’une association de savants, qui appelle les dirigeants du monde entier à « rejeter les points de vue exprimés par le GIEC de l’ONU ainsi que les présentations populaires mais erronées du sujet telles que Une vérité qui dérange ». Ou encore les travaux de Vaclav Klaus, président de la République Tchèque, et ceux de la Société japonaise pour l’Energie et les Ressources. On oublie tout, au profit du matraquage médiatique du GIEC.


- Jean-Michel Belouve, La Servitude climatique. Changement climatique, business et politique, 2009, M B


[1Selon Antony Watts, 89% des stations de mesure météorologiques américaines ne sont pas conformes au règlement du National Weather Service.

[2Wall Street Journal, 12 juin 1996. Voir en ligne.

[3On l’appelle aussi l’Oregon Petition.

Un message, un commentaire ?

modération a priori

Ce forum est modéré a priori : votre contribution n’apparaîtra qu’après avoir été validée par un administrateur du site.

Qui êtes-vous ?
Se connecter
Votre message

Pour créer des paragraphes, laissez simplement des lignes vides.

Lien hypertexte

(Si votre message se réfère à un article publié sur le Web, ou à une page fournissant plus d’informations, vous pouvez indiquer ci-après le titre de la page et son adresse.)