Il s’est écoulé plusieurs années avant que je me décide à documenter un sujet qui, pourtant, intéresse notre santé, notre style de vie et notre « vivre ensemble »… La survie de l’espèce humaine serait en jeu, à en croire certains messages des médias. Je m’étais longtemps contenté de garder sous le coude des articles, des liens vers des blogs, et quelques volumineux ouvrages taxés de « climato-scepticisme ». C’est précisément de cette littérature qu’il sera question ici, en faisant fi de toute dissonance cognitiveN1. Les écrits sérieux et documentés permettent d’engager un examen critique dédramatisé du « discours sur le climat ».
Avertissement : toute prise de parole sur « le climat » s’expose à une tentative de disqualification entendue des centaines de fois dans les débats francophones : « Mais vous n’êtes pas climatologue ! » Je me demande si les auteurs de tels commentaires savent en quoi consiste le métier de climatologue… Le physicien François Gervais remarque (Moranne JM, 2020A89 p. 4) :
Le mot-clé « climatologie » est l’un des 55 qui définissent le champ de l’enseignement et de la recherche dans le cadre de la section 23, Géographie physique, humaine, économique et régionale, du Conseil National des Universités. De même que les universités savent définir les compétences d’un mathématicien, d’un physicien, d’un chimiste, d’un biologiste, d’un géographe pour éventuellement les recruter, de même la climatologie apparaît à sa juste place, une sous-discipline de la géographie parmi 54 autres. Combien d’auteurs des rapports du GIEC, le Groupe d’experts intergouvernemental sur l’évolution du climat, ont-ils soutenu une thèse en climatologie ?
Mais, après tout, c’est sans importance : quand des journalistes, des politiciens ou des militants (souvent très jeunes) relaient avec fougue un propos alarmiste sur la « crise climatique », personne ne s’autorise à les questionner sur leur culture scientifique et technique. En tout cas, pas moi.
Les arguments d’autoritéN2 servent à interdire tout débat avec les réfractaires à une doctrine, exposée avec passion, qui s’impose à la manière d’un embrigadement. Chacun accuse le camp opposé de complotisme, un autre verrou de l’esprit critique.
Le terme « embrigadement » peut choquer. Mais je le crois approprié, et certainement dans la continuité du « Nous sommes en guerre » déclaré par le Président Macron en mars 2020, au début de la crise sanitaire causée par la circulation du virus SARS-CoV‑2. Car, si l’on fait face à une crise climatique, il est légitime de se mobiliser pour entrer en rébellion…
Documenter le discours sur le climat s’est avéré bien plus difficile que de suivre au jour le jour la crise sanitaire — voir mon article Coronavirus — discussion. Le sujet est plus vaste, plus technique, plus étendu historiquement, et potentiellement porteur d’enjeux à très long terme. Malheureusement, les journalistes se contentent de surfer sur l’immédiat, sollicitant les éléments de langage des porte-voix de « La Science » à l’occasion d’événements météorologiques extrêmes qui sont presque devenus quotidiens en été 2023…
Les articles et ouvrages qui ont retenu mon attention ne sont pas de simples « billets d’humeur ». Les opinions des experts — qu’il est convenu d’accuser d’être « auto-proclamés » — ne m’intéressent pas. Ce sont pour la plupart de maigres extraits, interprétés et extrapolés de manière invérifiable, de Résumés pour les décideurs (SPM) de rapports du GIEC (Gervais F, 2022A47 p. 145). L’absence de sources, dans ces articles de presse, exclut toute analyse critique. Quant à la lecture intégrale d’un rapport du GIEC — 2408 pages pour l’AR6 du Groupe 1 (2021N3) —, elle exigerait beaucoup de temps, et surtout des compétences dans l’intégralité des domaines couverts par la littérature dont ils proposent une synthèse. Mes informateurs n’ont pas peur de manipuler des formules chimiques ou des équations différentielles… Je n’irai pas aussi loin ! 😀
Je me suis intéressé à des ouvrages ou des articles dont les contenus sont étayés par des liens vers des sources primaires — autrement dit, des publications de revues scientifiques à comité de lecture. Exit Wikipedia et son culte des données secondaires, comme expliqué dans ma présentation…
Surprise agréable : les pages de plusieurs blogs francophones climato-réalistes sont ouvertes aux commentaires. Mais surtout, leurs auteurs veillent à répondre aux questions et aux avis contradictoires avec des arguments solidement documentés. On apprend parfois plus à lire les commentaires que les articles qui les ont motivés ! Après tout, « faire de la science » c’est, entre autres, dialoguer avec celles et ceux qui expriment des avis divergents, pourvu qu’ils s’appuient sur des faits.
J’invite les lecteurs de cette page à faire de même : suivre les liens, consulter les articles, lire (en entier) les ouvrages cités, pour ensuite revenir s’exprimer en public dans les commentaires.
➡ La suite de cet article n’est pas transcrite oralement. Il n’est pas possible d’aborder ce sujet sans avoir sous les yeux toutes les données, les images et les liens vers les sources !
Sommaire
⇪ Le GIEC et Al Gore, Prix Nobel 2007
En 1988 a été fondé le Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC). Le terme anglais Intergovernmental Panel on Climate Change (IPCC) ne contient pas le mot « expert », qui en français peut prêter à confusion. En effet, cet organisme ne dirige pas des travaux scientifiques. Il est chargé de documenter et synthétiser toute la littérature ayant trait au changement climatique.
À l’origine, le document “Principles Governing IPCC Work” précisait que le GIEC (IPCC) avait pour mission d’étudier le risque du changement climatique causé par l’activité humaine. Ce lien de causalité a disparu par la suite, une fois établi « par consensus » que l’activité humaine — comprenez, les « gaz à effet de serre » — était la principale cause du réchauffement de la Planète. À tout le moins, en attendant la preuve de ce lien causatif, on pouvait accuser le « réchauffement » d’augmenter la fréquence et l’amplitude des événements météorologiques extrêmesN4 : cyclones, sécheresses, inondations, canicules, vagues de froid, etc.
Le GIEC regroupe 195 États dont les représentants ont un droit de vote identique. Le mode de fonctionnement fait apparaître les décisions comme autant de consensus dans l’interprétation d’articles scientifiques sélectionnés par des groupes d’experts.
Le terme « consensus » s’est imposé dans le discours sur ce qui a été appelé, successivement, « réchauffement climatique », « changement climatique », puis « dérèglement climatique », « crise climatique » et enfin « urgence climatique ». Cette dérive du vocabulaire reflète la conviction croissante de l’influence sur le climat de l’activité humaine : industrie, agriculture, transports, chauffage urbain, etc. Une influence néfaste que les humains ont le pouvoir (et le devoir) de contrecarrer, dans une lutte acharnée contre le réchauffement climatique.
Aux yeux du public — et des décideurs politiques — le consensus est un gage de vérité, bien qu’il soit aux antipodes d’une démarche scientifique, laquelle consiste à soumettre toute hypothèse à l’épreuve du réel. Cet examen procède d’une démarche critique, considérant avec une attention particulière les faits qui paraissent contredire l’hypothèse. La recherche de consensus a poussé le GIEC à privilégier les « scénarios de climat » produits par les modèles mathématiques des climatologues, balayant du revers du coude ses détracteurs et ses propres contradictions (Masson H, 2019A83) :
En inférence statistique, quand après un calcul de courbe de régression, les résidus ne sont pas constants et négligeables, on conclut que le modèle est imparfait et l’on change de modèle. Le GIEC, lui, interprète la non-constance des anomalies de température en clamant que c’est le système climatique qui dérive, tout en gardant une confiance aveugle dans ses modèles.
L’ouvrage Impasses Climatiques (Gervais F, 2022A47) expose clairement les dysfonctionnements qui révèlent une approche pseudoscientifique du sujet. L’auteur a été accrédité par le GIEC comme expert reviewer des deux plus récents rapports AR5 (en 2013) et AR6 (en 2021) dont il a signalé — sans effet — les erreurs et contradictions (2022A47 p. 145–158). Depuis cette « mutinerie », Gervais est catalogué « climatosceptique », alors que ce professeur émérite à l’Université de Tours a dirigé un laboratoire du CNRS (UMR 6157). Ancien conseiller scientifique du Pôle de compétitivité Sciences et Systèmes de l’Énergie Électrique, il est médaillé du CNRS en thermodynamique, et lauréat du prix Ivan Peyches de l’Académie de sciences. Excusez du peu !
Un autre personnage dérangeant, récemment mis sur la touche, est l’un des trois lauréats du Prix Nobel 2022, John Clauser, président de la CO2 coalitionN5. Lire à son sujet un article de Mattias Desmet, sans oublier les compléments de lecture au bas de la page.
En 2007, le prix Nobel de la paix avait été conjointement attribué au GIEC et à l’ancien vice-président des États-Unis d’Amérique, Al Gore, suite à la diffusion de son film An Inconvenient Truth (Une vérité qui dérange), un documentaire alertant sur les effets dramatiques du réchauffement de la Planète causé par l’activité humaine. Selon cette « vérité », le changement climatique serait attribué principalement aux gaz à effet de serre, savamment désigné comme forçage radiatifN6.
On peut rire des prédictions farfelues d’Al Gore, mais la France aussi a eu des clowns tristes de l’alarmisme climatique au sommet de l’État : le 28 septembre 2015, le Président François Hollande avait déclaré, à la 70e session de l’Assemblée Générale des Nations-Unies, que les tsunamis et les tremblements de terre étaient un effet du réchauffement climatique !
L’année 2007 était aussi celle du rapport AR4N7 du GIEC, dont les erreurs ont par la suite été reconnues publiquement (Gervais F, 2022A47 page 146) :
Répété à l’envi par le président du GIEC et par le secrétaire général des Nations Unies, l’AR4 a affirmé que le réchauffement climatique pourrait réduire la production agricole africaine de 50 % d’ici 2020. Le problème est qu’il n’y avait aucune preuve à l’appui de cette affirmation. Le GIEC avait simplement réitéré une affirmation douteuse issue, non d’un article publié dans une revue internationale à comité de lecture, mais d’une brochure publiée par une ONG. Le responsable du groupe de travail du GIEC a été contraint d’admettre en 2010 que l’affirmation n’était nullement étayée.
Le dioxyde de carbone (CO2) était seul dans le viseur, et par chance (pour les dirigeants) le bilan carboneN8 de toutes les activités humaines peut être calculé, puis inscrit dans le circuit économique sous la forme de taxes carboneN9 et de quotas d’émissionN10. Ce n’est pas le cas, par contre, du protoxyde d’azote N2ON11 jugé 298 fois plus « polluant » que le CO2, dont une source importante, bien que non mesurable en quantité, serait la culture du riz sous inondations intermittentesN12 (Kritee K et al., 2018A74).
Enfin et surtout, les calculs faisaient abstraction de l’eau, sous forme de vapeur et de nuages, principal gaz « à effet de serre » (Lindzen R, 2018A77 p. 5). François Gervais écrit à ce sujet (2022A47 p. 79–80) :
Après une nuit sous une couverture nuageuse, la température matinale reste proche de celle de la veille au soir. En revanche, après une nuit sans nuages, elle est généralement beaucoup plus fraîche que celle de la veille au soir. L’écart d’énergie associé à ces changements de température est considérable, beaucoup plus que la contribution raisonnablement attribuable aux émissions de CO2. C’est le cycle de l’eau et ses composantes vapeur et nuages qui régulent le climat de la Terre. Un changement de la couverture nuageuse ou de la distribution de types de nuages, ou de la proportion de vapeur d’eau, est capable de contrebalancer l’effet du CO2 comme l’ont montré Dübal et Vahrenholt (2021A35).
Ces mécanismes sont décrits en détail par Patrice Poyet (2022A108 p. 124–127). Extrait (p. 125) :
On pourrait même dire que le climat est déterminé par la quantité de pluie reçue, mois après mois, par n’importe quelle région de la Terre, et ni la théorie CAGW [catastrophic anthropogenic global warming] ni les modèles de circulation généraleN13 (GCM) associés ne sont bons pour faire des prévisions à cet égard (Koutsoyiannis, 2008A73). Le régime spatial et temporel des précipitations est une conséquence de l’organisation de la circulation atmosphérique, dont le « but » est le transfert de la vapeur d’eau des zones tropicales vers les hautes latitudes où elle se condense et alimente le rayonnement de l’air vers le cosmos dans l’infrarouge thermique (OLR, Outgoing Long-wave Radiation), de manière à compenser exactement, « en moyenne » sur l’ensemble du globe et sur quelques semaines, le flux solaire absorbé par le globe.
La vapeur d’eau, qui se précipite sous forme de pluie ou de neige, ne provient souvent pas de l’endroit où il pleut ; elle provient du balayage par les alizés de milliers de kilomètres vers le nord et vers le sud : ces alizés convergent dans la « cheminée équatoriale » ; pour les averses des fronts froids de nos latitudes, la vapeur d’eau vient de milliers de kilomètres au sud-ouest, et elle est transférée vers le nord-est dans le couloir dépressionnaire qui précède les Anticyclones Mobiles Polaires (AMPA146) qui se déplacent, eux, vers le sud-est.
Veyres (2020) [communication personnelle] conclut « que les histoires de “forçage radiatif par les gaz à effet de serre” sont un non-sens, et que c’est le contenu en vapeur d’eau de la haute troposphèreN14, et non un réchauffement de cette haute troposphère, qui détermine et régule le flux thermique infrarouge émis par le globe vers le cosmos. Rappelons encore une fois que c’est la quantité de vapeur d’eau autour de 9 km qui assure en quelques heures et quelques jours la régulation du rayonnement du globe vers le cosmos. » Par ailleurs, l’effet régulateur de la vapeur d’eau n’a été correctement évalué par aucun des modèles. La plupart de ses effets sont dus à son opacité dans les régions spectrales des ondes longues. Les contributions relatives de H2O, CO2 et O3 à la réduction du flux sortant d’ondes longues sont très différentes, et l’effet de H2O sur les ondes longues est tellement plus important que les effets de CO2 et O3 qu’il ne laisse aucune chance à d’autres gaz de jouer un rôle réel.
Deux articles de Brigitte Van Vliet-Lanoë et Jean Van Vliet (2022A145 ; 2022A146) dressent un bilan de l’influence sur la météo et le climat de phénomènes très importants — pour la plupart non modélisés sur le long terme, et sans lien significatif avec l’activité humaine : circulation thermohaline des océans (thermal conveyor belt), irradiance solaire, jet streamsN15, vent solaire, etc. Conclusion en quelques mots :
L’évolution météorologique est une image à très court terme du système climatique : elle n’a de valeur que si on l’intègre dans un contexte au minimum décennal. Madame Soleil (F) et Monsieur Météo (B) ne peuvent pas prédire l’évolution du climat. Encore moins les médias.
⇪ Représentation des données
Une première faiblesse du discours sur le climat réside dans l’interprétation arbitraire, voire tendancieuse, de données statistiques s’appuyant sur des modes de représentation simplistes.
Le mathématicien Henri Masson (2023A84), par exemple, critique la méthode qui consiste à réduire une série temporelle de mesures à des droites de régression. Le simple choix de l’intervalle temporel permet d’en modifier la pente, et donc la signification en termes d’augmentation ou de diminution. Sur l’image ci-dessous, la régression linéaire des températures de 1979 à 2009 fait apparaître un réchauffement global alors que, de 1998 à 2009, on assisterait à un refroidissement. En divisant l’intervalle en deux sections, on peut faire apparaître une absence de variation entre 1979 et 1997, ainsi qu’entre 1999 et 2009, avec un saut de 0.3 degrés en 1997–1998, résultat d’un événement El NiñoN16. Aucune de ces trois représentations n’est réaliste…

Une méthode plus avancée d’analyse d’une série temporelle consiste à déterminer en premier lieu ses composantes périodiques en faisant appel à la transformée de Fourier de la fonction d’autocorrélation (Masson H, 2023A84 figure 28). Dans l’exemple considéré, quatre composantes présentent une magnitude supérieure à la composante continue (fréquence zéro) qui est de 0.15° C. On peut donc réduire la série à une somme de quatre sinusoïdes et une composante continue : la courbe en rouge ci-dessous. La prolongation de cette courbe suggère un passage par un maximum proche de 0.8°C, qui serait suivi d’un refroidissement : une mauvaise farce pour ceux qui affirment qu’il suffit de prolonger (linéairement) les observations pour prédire la continuation, ou une accélération, du réchauffement ! Voir à ce sujet le graphique en crosse de hockey de Michael E Mann (1998N17).
En l’absence de modèle, cette hypothèse empirique (courbe en rouge) serait envisageable, et certainement plus que celle d’une droite de régression (en pointillés verts), car le coefficient de déterminationN18 est de 0.907 pour les sinusoïdes et seulement 0.647 pour la droite.

La courbe rouge est en réalité proche de celle de l’Oscillation Atlantique Multidécennale (AMON19) qui correspond à un cycle d’environ 60 à 70 ans (Schlesinger ME & N Ramankutty, 1994A127). François Gervais écrit à ce sujet (2022A47 p. 109) :
Le refroidissement de la Terre observé de 1945 à 1975 […] a principalement concerné l’hémisphère nord, comme le montrent de nombreuses études […]. L’AMO est justement observée dans l’Atlantique Nord, et l’oscillation était en phase de refroidissement durant cette période. Elle n’est pas la seule. La comparaison avec l’Oscillation [multidécennale du] Pacifique (PDON20) est confondante, dans la mesure où une phase froide est également observée de 1947 à 1976 (figure 2.10).
Plus globalement, les indices AMO et PDO apparaissent synchrones avec la série de températures HadCRUT4N21. Tous trois confirment une phase montante récente. Si ces cycles se poursuivent, ils devraient être suivis par une phase descendante dans les quelque trente ans à venir.
Gervais (2022A47 p. 110–111) :
Scafetta (2021aA124) identifie plusieurs cycles supplémentaires d’amplitudes toutefois moindres. Il montre surtout, par une analyse de Fourier, que le cycle d’environ 60 ans et les autres sont remarquablement corrélés à la vitesse du soleil par rapport au centre de masse du système solaire (Scafetta N, 2009A121). Le cycle principal d’environ 60 ans implique les deux planètes les plus massives, Jupiter et Saturne, selon que leurs orbites respectives autour du soleil les amènent ou non proches, avec des conséquences gravitationnelles sur la boule de gaz déformable qu’est notre étoile, qui s’ajoutent si elles sont proches, ou non. Scafetta et al. (2020A126) considèrent toutefois d’autres explications possibles à ces observations, toutes plus naturelles les unes que les autres, du moins sans aucun lien avec les émissions de CO2.

La réduction d’une série temporelle à une droite de régression dans le sens souhaité — en choisissant pour cela les dates de début et de fin — révèle un tel amateurisme qu’on est en droit de douter que des « experts du climat » y aient recours. Or cette manipulation des données a été utilisée pour représenter l’indice de puissance dissipée par les ouragans dans l’Atlantique Nord, de 1981 à 2005. Ceci afin d’étayer, dans les rapports de la science du climat aux États-Unis (CSSR, 2014N22 p. 20), la prédiction d’un accroissement du nombre et l’intensité des ouragans en Atlantique Nord (Koonin SE, 2021A70 p. 116–121). Cette prédiction n’était pas celle, entre autres, de James B Eisner et collègues (2006A37 page 92).

Un autre exemple de régression sinusoïdale faisant apparaître une périodicité a été présenté par Gervais (2016A45). La figure ci-contre représente l’évolution de l’incertitude sur les valeurs supérieures et inférieures de la hausse du niveau des océans rapportées par les marégraphes, selon la figure 3.14 du rapport AR5 (2013) du GIEC. La courbe en trait gras est une régression par une sinusoïde de période 62 ans. Elle fait apparaître, sur la période 1900 à 2000, une hausse annuelle moyenne variant entre 1 et 3 millimètres.
Cette oscillation a été confirmée par T Frederikse et al (2020A42), rapportant toutefois une hausse moyenne de 1.52 ± 0.33 mm par an de 1900 à 2018, donc plus faible que la moyenne de la figure de Gervais qui était basée sur seulement 240 marégraphes (2022A47 p. 118).
Un exemple d’interprétation tendancieuse des données — pour parler vrai, une fraude scientifique — était la « reconstruction » des températures du deuxième millénaire dans le troisième rapport du GIEC (2001). L’explication suivante a été fournie par Christopher Walter (2013A148 p. 8) :

Source : Christopher Walter
Monckton of Brenchley (2013A148 p. 8)
⇪ Précision des mesures
Elle est rarement discutée sur les plateaux des médias, en dépit des fortes marges d’incertitudes affichées sur les graphiques des météorologues. Le public a tendance à croire que les mesures par satellite de températures de la surface terrestre sont les plus précises. Or il n’en est rien (SCM, 2015A119 p. 9) :
La température ne peut pas être mesurée directement par les satellites. Dans le cas d’un satellite géostationnaire et d’un temps dégagé, la température est obtenue par application de la loi de Planck, qui lie le rayonnement d’un corps noir (en surface — terre et océans) à la température.
Pour déterminer la température en altitude, les satellites à défilement (en orbite plus basse) utilisent la bande d’absorption du gaz carbonique, ou celle de l’oxygène dans le cas d’un temps nuageux. Dans les deux cas, il s’agit de mesures indirectes.
Les mesures par satellites sont imprécises : des paramètres comme la pression ou la vitesse des vents sont difficiles à estimer par satellite, et l’interaction des nuages avec le rayonnement est encore mal comprise. Les radars infrarouges détectent les nuages les plus élevés, mais pas ceux situés en-dessous. Les capteurs micro-ondes voient à travers les nuages, mais évaluent mal les distances.
Ainsi, les mesures par satellites ne sont fiables qu’en temps dégagé, et la température ainsi estimée doit prendre en compte les incertitudes liées aux autres paramètres, qui sont mal évalués.
➡ Il est certes discutable de citer un document datant de 2015, sachant que les données et les connaissances ont évolué. Mais la qualité pédagogique de ce texte de la Société de Calcul Mathématique m’oblige à le faire, en attendant une mise à jour de son contenu et de ses arguments.

Les données satellitaires font donc l’objet d’ajustements. Patrice Poyet écrit (2022A108 p. 389) :
Par exemple, les données de température (T) sur le graphique de la figure 45 [Poyet P, 2022A108 p. 118] ont été révisées par Mears et Wentz (2017A88) à la suite d’un nombre déconcertant d’opérations, comme le montre la figure 1, p. 7697 de leur article [voir ci-contre]. Après une augmentation de 30 % des ajustements à la hausse, le dernier paragraphe de leur article fournit une longue liste d’excuses pour les futurs ajustements à la hausse. Avec chaque étude, la liste des excuses pour procéder à de nouveaux ajustements à la hausse ne cesse de s’allonger. Et par pure coïncidence, il se trouve que tous les ajustements sont à la hausse. Cela clôture dix années de recherche financée par le contribuable, dont le seul but est de trouver des excuses qui paraissent légitimes, pour procéder à des ajustements à la hausse des données de température satellitaires afin de les rendre compatibles avec la théorie du réchauffement climatique causé par l’Homme.
En mer, les bouées météorologiques les plus utilisées (depuis 1970) étaient dérivantes et transmettaient leurs mesures par radio. Elles suivaient les courants marins et ne mesuraient donc jamais deux fois la température en un même point (SCM, 2015A119 p. 9). D’autres bouées ont été fixées par une ancre au fond de l’océan, mesurant la température à une profondeur. de 3 mètres, et permettent d’étalonner et valider les données satellitaires. En raison de leur coût, ces dernières ne sont pas réparties sur un réseau mondial — voir figure 4 (SCM, 2015A119 p. 14).
Les navires de recherche ont également été utilisés pour des mesures de températures, toutefois avec des erreurs de l’ordre de 0.6 degrés, du fait que le capteur était situé à proximité de la salle des machines (SCM, 2015A119 p. 10).
À partir de 1990, la NOAA a introduit un ajustement appliqué aux données des bouées, ajoutant environ +0.12°C aux relevés des bouées lors de la construction de la série ERSSTv4. John R Christy commente (2016A24 p. 7, 8) :
En 1980, seuls 10 % environ des rapports de données provenaient de bouées, alors qu’en 2000, 90 % environ étaient des données de bouées. Ainsi, étant donné que l’influence des données des bouées s’est considérablement accrue au fil du temps, le simple ajout d’un biais à toutes les bouées depuis le début a créé une tendance au réchauffement à mesure qu’elles devenaient la principale source d’information. […]
La NOAA a utilisé une curieuse variable de référence pour étalonner les températures de l’eau mesurées à partir des prises d’eau des navires : la température de l’air marin nocturne (NMAT). Cette curiosité s’explique par le fait que des ajustements considérables sont nécessaires pour les NMAT elles-mêmes, c’est-à-dire des corrections pour la hauteur du pont du navire, etc. Quoi qu’il en soit, les données des bouées ont ensuite été ajustées pour correspondre aux données des navires. Il semble donc que le processus d’ajustement fondamental dépende des NMAT pour ajuster les données des navires afin d’ajuster ensuite les données des bouées.
Les stations de mesure de la température terrestre sont très irrégulièrement réparties sur le globe. De plus, la NOAA n’utilisait (en 2015) qu’environ un quart des 6000 stations, ce qui rendait encore plus problématique le sous-échantillonnage. À cela s’ajoute le fait que les stations de météo sont de plus en plus souvent situées en zone urbaine, ou près des aéroports, ce qui donne des mesures plus élevées que celles autrefois prélevées dans des zones rurales. Cela rend problématique la construction de séries temporelles cohérentes.
Patrice Poyet écrit (2022A108 p. 388) :
Spencer (2016A135) a calculé l’effet moyen de l’Îlot de chaleur urbain (ICUN23) dans les données météorologiques quotidiennes de surface qu’il a calculées à partir des stations météorologiques du monde entier au cours de l’année 2000, sur la base des différences de température quotidiennes entre les stations de température voisines, et en déduit que « comme on peut le voir, même à des densités de population aussi faibles que 10 personnes par kilomètre carré, il y a un réchauffement moyen de 0,6 C (1° F), qui est presque aussi important que le signal de réchauffement global au cours du siècle dernier » et peut aller jusqu’à 2.2°C pour des densités de population allant jusqu’à 7000 personnes par km2.
Roy W Spencer ajoute (2016A135 p. 10) :
Dans le cas des mesures effectuées à l’aide de thermomètres, ces changements n’ont pas eu d’incidence sur les prévisions météorologiques, car ils sont minimes (généralement un degré ou moins) par rapport à l’ampleur des changements météorologiques quotidiens. En revanche, ils sont conséquents et préjudiciables pour la surveillance de la température à long terme.
Mototaka Nakamura écrit (2018A95 p. 14, cité par Jean-Claude Pont, 2020A106) :
Pour les périodes antérieures les données de température recueillies ne valent que pour de très petites surfaces (par rapport à la surface totale de la Terre) et présentent donc un biais spatial important. Nous ne disposons pas d’une quantité suffisante de données pour calculer la tendance de la température moyenne globale de surface pour la période présatellite. En réalité, ce biais spatial important fait planer une grande incertitude sur la signification (ou l’absence de signification) de la « tendance de la température moyenne globale de surface » avant 1980.

Les méthodes de calcul des moyennes sont expliquées en détail sur le document de la SCM (2015A119 p. 19–23). La moyenne arithmétique, la plus souvent utilisée, n’aurait aucun sens pour la Terre entière, du fait de l’inégalité de répartition des capteurs. Elle est donc réservée à des territoires homogènes comme les États-Unis.
Des corrections de températures ont été effectuées sur des données anciennes, comme celles induites en 2001 par les changements des analyses du GISS (Goddard Institute for Space Studies) et du USHCN (United States Historical Climatology Network). Les mathématiciens protestent (SCM, 2015A119 p. 27, 29) :
Notons encore une fois qu’apporter des corrections à une série de données n’est légitime que si l’on apporte ces corrections à toutes les données ; si on ne le fait qu’à partir d’une certaine date, cela fausse les comparaisons. […]
L’ensemble de l’information relative aux températures mondiales est entièrement dépourvu de valeur scientifique, et ne devrait servir de base à aucune décision politique. On constate, de manière parfaitement claire, que :
• Les capteurs de température sont en nombre beaucoup trop faible pour donner une idée de la température du globe ;
• On ne sait pas, par principe, ce qu’une telle température pourrait signifier. On ne parvient pas à lui donner un sens physique précis ;
• On constate de nombreuses dissimulations et manipulations dans les données ; il y a une volonté affichée de passer sous silence ce qui pourrait passer pour rassurant, et de mettre en évidence ce qui est présenté comme inquiétant ;
• Malgré cela, l’utilisation la plus directe des chiffres disponibles ne montre pas de vraie tendance au réchauffement !
Dans la pratique, ce ne sont pas des « températures » qui sont moyennées, mais les « anomalies de températures » (Poyet P, 2022A108 p. 385) :
La première chose à comprendre est qu’il ne s’agit pas de températures. Comme l’explique Hausfather (2014A58) : « La façon dont le NCDC, le GISS, Hadley, calculent les soi-disant températures consiste à prendre les données des stations, à les traduire en anomalies en soustrayant la moyenne à long terme pour chaque mois de chaque station (par exemple la moyenne 1961–1990), à assigner chaque station à une cellule de la grille, à faire la moyenne des anomalies de toutes les stations dans chaque cellule de la grille pour chaque mois, et à faire la moyenne de toutes les cellules de la grille chaque mois, pondérée par leur superficie respective. » Les détails diffèrent légèrement d’un groupe à l’autre, mais c’est ainsi qu’ils produisent des données, appelées anomalies et présentées sous forme de températures. Non seulement cette méthode “Gridded Anomalies” refroidit le passé et augmente la tendance, et toutes les personnes honnêtes impliquées dans un tel processus l’admettront, mais elle conduit également à remettre en question l’intégrité, l’homogénéité et la stabilité à long terme du processus, étant donné que de nombreux changements se produisent au fil du temps, comme nous le verrons. […]
[…] les changements apportés au GHCN [Global Historical Climatology Network] au fil du temps et les méthodologies utilisées introduisent certains biais qui sont encore aggravés par le fait que le réseau mondial d’observation du NCDC, le cœur et l’âme de la mesure des conditions météorologiques de surface, est confronté à de sérieux défis. L’urbanisation a placé de nombreux sites dans des endroits inappropriés, sur de l’asphalte noir et chaud, à côté de barils d’ordures ménagères, à côté de conduits d’évacuation de la chaleur, et même attachés à des cheminées chaudes et au-dessus de grils extérieurs ! Les données et l’approche adoptées par de nombreux alarmistes du réchauffement climatique sont gravement erronées. Si les données mondiales étaient correctement ajustées pour tenir compte de l’urbanisation et de l’emplacement des stations, et si les questions liées aux changements d’utilisation des sols étaient abordées, il en ressortirait un schéma cyclique de hausses et de baisses, avec une tendance de fond beaucoup moins marquée. […]
Ces séries temporelles sont construites par certains processus — et non simplement mesurées — et […] leur qualité dépend de la confiance que l’on place en elles et dans les processus qui les ont générées.
⇪ Artéfacts
Steven E Koonin a montré (2021A70 p. 100–110) comment le Climate Science Special Report (CSSR), aux USA, affichait les données de températures extrêmes sous un format conciliable avec une conclusion alarmiste (CSSR, 2017N24 p. 19) :
Les températures extrêmes ont connu des changements marqués dans l’ensemble des États-Unis continentaux. Le nombre de records de températures élevées établis au cours des deux dernières décennies dépasse de loin celui des records de températures basses.
La figure suivante sert de justificatif :

Steven Koonin commente (2021A70 p. 102) :
J’ai été troublé par une incohérence apparente entre ce graphique et d’autres, plus bas dans le rapport, en particulier [la figure 6.3]. Elle montre que la température moyenne la plus froide de chaque année a clairement augmenté depuis 1900, alors que la température moyenne la plus chaude n’a pratiquement pas changé au cours des soixante dernières années, étant à peu près la même aujourd’hui qu’en 1900.

[…] il me semblait possible que le rapport entre les records de chaleur et les records de froid illustré par [la figure 6.5] augmente, non pas parce que les records de chaleur deviennent plus fréquents, mais parce que, à mesure que les températures les plus froides se réchauffent, le dénominateur du rapport (nombre de records quotidiens de froid) diminue, tandis que son numérateur (nombre de records quotidiens de chaleur) n’a pratiquement pas changé au cours des dernières décennies.
Koonin explique ensuite (2021A70 p. 103–105) que les records de températures comptabilisés par le CSSR sont des running records (records en continu), autrement dit lorsque la température maximale d’un jour de l’année, pour une station météo, excède celles de toutes les années précédentes. Pour la période étudiée (1930–2017), le nombre de running records était logiquement au plus haut les premières années — démarrant à 365 la première année — puis il diminuait les années suivantes pour atteindre quelques unités au final. Au début de la période, le rapport entre maxima et minima était proche de 1, puis il prenait une valeur de plus en plus incertaine à mesure que le numérateur et le dénominateur diminuaient. C’est pour ces raisons (un simple artéfact mathématique) que les hauteurs des barres de la figure 6.5 apparaissent, au cours du temps, de plus en plus chaotiques — et dénuées de signification. Et non en raison d’un sous-entendu « dérèglement du climat ». Steven Koonin ajoute (2021A70 p. 106) :
Ayant compris que la présentation par le CSSR des températures quotidiennes enregistrées aux États-Unis était très trompeuse, j’ai naturellement voulu savoir ce qu’une analyse correcte — utilisant des records absolus — montrerait. J’ai également voulu savoir ce qu’il en était des températures extrêmes avant 1930…
L’analyse a donc été refaite par le professeur John Christy, de l’Université de l’Alabama, avec le résultat suivant (Koonin SE, 2021A70 p. 107) :

Présentées ainsi, les données sont nettement moins inquiétantes… Steven Koonin ajoute (2021A70 p. 106–110) :
Les records de température montrent clairement que les années 1930 ont été chaudes, mais il n’y a pas de tendance significative sur les 120 années d’observation, ni même depuis 1980, lorsque l’influence humaine sur le climat s’est fortement accrue. En revanche, le nombre de records absolus quotidiens de froid diminue sur plus d’un siècle, cette tendance s’accélérant après 1985. Ces deux graphiques montrent une chose qui va totalement à l’encontre de la perception commune, à savoir que les températures extrêmes dans la zone continentale des États-Unis sont devenues moins fréquentes et un peu plus douces depuis la fin du 19e siècle.
Malgré cela, le résumé de la CSSR met en exergue le graphique de rapports erronés [figure 6.5] avec la légende : « Les records de chaleur journalière sont plus fréquents. » […]
Voilà donc les raisons pour lesquelles j’ai une “Very High Confidence” (confiance très élevée) à identifier et corriger une fausse représentation de la science climatique dans un rapport officiel du gouvernement. Il ne s’agit pas d’un pinaillage, c’est vraiment important. La notion erronée d’une augmentation de la fréquence des records de température aux États-Unis est susceptible de se répercuter dans les rapports d’évaluation ultérieurs, qui citent immanquablement les rapports précédents. […] Il en est de même pour les représentations médiatiques de la science du climat, qui donnent voix à de telles « conclusions » trompeuses. […]
Il se trouve que les preuves d’une augmentation des températures les plus froides sont parfaitement cohérentes avec un réchauffement du globe — mais pas une « planète en feu » qui donne à voir des graphiques d’explosion des températures.
➡ Steven Koonin parle ici de « réchauffement du globe ». Certes, son analyse des données s’écarte du discours d’urgence climatique, mais dans son ouvrage (2021A70) il fait l’économie d’un examen méthodique du lien de causalité affirmé entre ce réchauffement et la production humaine de gaz à effet de serre. Est-ce par prudence ? La deuxième partie de son livre (p. 207–255) désamorce les critiques, étant consacrée à des « réponses » dans l’air du temps : diminuer les productions de CO2, de méthane et de CFC, développer les technologies de production d’énergie « décarbonée », les petites centrales nucléaires, la fusion… ainsi que s’adapter au changement climatique et lutter directement contre le réchauffement par des techniques de géo-ingénierie. Il écrit (p. 249) :
Le climat est en train de changer, les humains y jouent un rôle, et pourtant notre besoin global d’énergie augmente en même temps ; nous devons prendre conscience de ce que cela pourrait impliquer dans l’avenir.
Un autre exemple d’artéfact signalé par Koonin (2021A70 p. 121–126) est le décompte des tornades aux USA. Il apparaît comme croissant sur le site du NCEI (2022N25), laissant supposer que cette augmentation du nombre de tornades serait un effet du réchauffement climatique :

Toutefois, Steven Koonin précise (2021A70 p. 123) :
La violence des tornades est mesurée selon l’échelle Fujita améliorée […] Les catégories de violence vont de EF0, pour des tempêtes très faibles, à EF5, pour des tempêtes dont les vents dépassent les 260 mph [420 km/h]. Aujourd’hui, aux États-Unis, 60 % des tornades enregistrées sont de catégorie EF0, alors qu’en 1950, ces tempêtes ne représentaient qu’environ 20 % du total enregistré. Cela suggère que l’augmentation du nombre de tornades enregistrées est due à la prise en compte d’un plus grand nombre de tempêtes faibles au cours des dernières décennies, ce qui, selon la NOAA, est effectivement le cas.
Nous pouvons corriger le biais d’observation ancien qui empêche de recenser les tempêtes faibles en ne prenant en compte que celles de catégories EF1 et plus — les plus susceptibles de causer des destructions.
Le graphe obtenu sur cette base ne montre aucune augmentation du nombre de tornades dans la période 1954–2014 (2021A70 p. 124) :

Un autre graphe (Koonin SE, 2021A70 p. 124) montre que le nombre de tornades de catégorie égale ou supérieure à EF3 a diminué pendant la même période, alors que l’influence humaine sur le climat allait croissante.
⇪ Fiabilité des modèles prédictifs
Parler de « dérèglement » du climat présuppose qu’il ait pu exister, dans un Eden pré-industriel, une régularité des événements météorologiques. Or ils sont le résultat de l’évolution de systèmes dynamiques complexes non linéaires, tels que théorisés en 1963 par le mathématicien Edward Lorenz (Masson H, 2019A83).
Les modèles mathématiques servant à simuler de tels systèmes, dans l’espoir de prédire certains aspects de leur évolution, sont sensibles à d’infimes variations des paramètres à l’état initial. Une telle incertitude — signature d’un comportement chaotique — était déjà visible sur le modèle ultra-simplifié de Lorenz, qui dépendait seulement de trois variables.
Imaginé aussi par Lorenz, le moulin à eau chaotique est une illustration graphique de l’extrême sensibilité aux conditions initiales d’un système dynamique complexe non-linéaire. Alors que son mouvement est parfaitement déterministe — régi par les lois de la physique — il apparaît imprédictible aux yeux d’un physicien qui n’est pas en mesure de mesurer chaque paramètre, ni de calculer ses variations, avec une précision absolue. Étienne Ghys (2009A53) a montré sa « dépendance sensible aux conditions initiales » en programmant une simulation de deux moulins en tous points identiques et recevant le même débit d’eau, mais dont la roue, au départ, est tournée de 2 degrés sur celui de gauche, et 1.9996 degrés sur celui de droite. Cette infime différence (de 2 pour mille) sur un seul paramètre suffit à faire diverger les trajectoires des moulins, malgré leur apparente synchronisation juste après leur démarrage.
Si les modèles de systèmes dynamiques complexes non-linéaires ne permettent pas de faire des prédictions à long terme — la thèse avancée par Edward Lorenz pour ce qui concerne la météorologie — ils peuvent afficher certaines « régularités ». Par exemple, ici, la distribution statistique de la vitesse de rotation est indépendante de la position initiale de la roue (Ghys E, 2009A53). Mais cela ne vaut ici que pour une variable — dont l’étude statistique n’est pas forcément intéressante — et de manière générale que lorsqu’un seul paramètre initial a été modifié. L’invariabilité de la distribution statistique des vitesses de rotation par rapport à la position angulaire initiale est même un résultat trivial…
Peut-on observer une telle régularité sur des variables jugées pertinentes avec des conditions initiales qui dépendent d’une multitude de paramètres ? C’est le cas des « modèles de climat » dont les paramètres se comptent par centaines ou par milliers.
La prévision d’événements climatiques est aujourd’hui possible sur une durée d’une quinzaine de jours — la « frontière du chaos » — au prix du traitement d’une grande masse de données : c’est le travail des météorologues. Les prédictions saisonnières (à six mois), surtout dans l’hémisphère nord, restent par contre très incertaines (Poyet P, 2022A108 p. 347–349). Dans ces conditions, comment peut-on envisager sainement — à partir du même bagage théorique — une modélisation réaliste couvrant plusieurs décennies ?
Sans surprise, les prévisions des modèles de climat s’écartent des observations chaque fois que le calcul est lancé à partir d’une date antérieure pour vérifier la qualité prédictive du modèle. Certes, on peut bricoler jusqu’à ce que cette « prévision rétrospective » reproduise au mieux les données réelles, mais aucun « réglage » (tuning ou fudge) ayant satisfait cette condition ne garantit que l’extrapolation aux années futures restera réaliste. Patrice Poyet écrit (op.cit. p. 327) :
La science repose sur des preuves et, à moins que des critères minimaux ne soient respectés, nous restons dans le cadre d’une narration à des fins politiques, et non dans celui d’une méthode scientifique adéquate.
Dans leur article Are general circulation models obsolete ? (les modèles de circulation généraleN13 [GCM] sont-ils obsolètes ?), Venkatramani Balaji et ses collègues écrivent (2022A6):
Une deuxième critique à l’égard des MCG porte sur la question de la « mise au point » ou de l’étalonnage des modèles climatiques. Comme indiqué ci-dessus, la physique non résolue (U + P) est représentée à l’aide d’équations dont les paramètres sont contraints dans une certaine fourchette par les observations ou la théorie. Le système couplé est ensuite soumis à des contraintes globales, telles que le bilan énergétique au sommet de l’atmosphère (Hourdin F et al., 2017A60). Le fait que les modèles soient réglés pour reproduire certaines caractéristiques de la planète observée est considéré par certains comme rendant les résultats suspects.
Les auteurs de l’article The Art and Science of Climate Model Tuning (L’art et la science du réglage des modèles climatiques) reconnaissent (Hourdin F et al., 2017A60) :
Les choix et les compromis effectués au cours de l’exercice de réglage peuvent affecter de manière significative les résultats du modèle et influencer les évaluations qui mesurent une distance statistique entre le climat simulé et le climat observé. Bien que le besoin de réglage des paramètres ait été reconnu dans des travaux de modélisation… Il est souvent ignoré lors de l’examen des performances des modèles climatiques… En fait, la stratégie de réglage ne faisait même pas partie de la documentation requise des simulations CMIP phase 5… Pourquoi un tel manque de transparence ? Cela peut être dû au fait que le réglage est souvent considéré comme une partie inévitable mais sale de la modélisation du climat, plus d’ingénierie que de science, un acte de bricolage qui ne mérite pas d’être enregistré dans la littérature scientifique… Le réglage peut en effet être considéré comme un moyen indescriptible de compenser les erreurs de modèle…
Pascal Blamet ajoute (2021A15) :
Ces pratiques traduisent une grande faiblesse face à la complexité du sujet, car les numériciens le savent bien : on peut toujours parvenir à des ajustements numériques, mais si les fonctions ou paramètres ne sont pas représentatifs de la phénoménologie modélisée, les calculs ne valent rien ; de la même façon que les corrélations statistiques sans causalité sont de purs sophismes. […]
Ces points ne sont pas non plus discutés publiquement par la communauté scientifique climatique, pour une raison simple : elle n’est globalement pas compétente en matière de modélisation numérique.
Le mathématicien John Von Neumann disait : « Si vous me laissez quatre paramètres au choix, je peux construire un modèle mathématique qui décrit exactement tout ce qu’un éléphant peut faire. Si vous m’accordez un cinquième paramètre, le modèle que je construis prévoira que l’éléphant peut voler. » (Gerlich G & RD Tscheuschner, 2009A43 p. 352)
La modélisation consiste à mettre en équations des modèles du système Terre (Earth System Models, ESM) capables de décrire de manière réaliste les phénomènes atmosphériques récurrents et d’anticiper leur évolution sur de longues périodes. Un des premiers ESM a été proposé par Phillips (1956A104). Les modèles de circulation générale ont vu le jour à la même époque. Le travail des physiciens reposait dur une base conceptuelle simple et solide (Poyet P, 2022A108 p. 331, citant Goosse et al., 2010A52) :
Les équations fondamentales qui régissent l’atmosphère peuvent être formulées comme un ensemble de sept équations à sept inconnues : les trois composantes de la vitesse, la pression, la température, le pourcentage d’humidité et la densité. […]
Malheureusement, ces sept équations ne forment pas un système fermé. Tout d’abord, la force de frottement et le taux de dissipation thermique doivent être spécifiés. Le calcul du taux de dissipation, en particulier, nécessite une analyse détaillée du transfert radiatif dans l’atmosphère, prenant en compte à la fois les ondes longues et les ondes courtes dans les colonnes atmosphériques, ainsi que les transferts de chaleur associés à l’évaporation, à la condensation et à la sublimation. L’influence des nuages sur ces processus est généralement une source d’incertitude considérable.
Et plus loin (Poyet P, 2022 p. 378) :
Coupler de manière convaincante les cases de circulation océan-atmosphère a été, et reste un défi permanent, mais ajouter les composants de glace, l’utilisation des terres, la végétation, les stocks d’eau douce et tous les processus géochimiques requiert beaucoup de foi pour penser que cela nous donnera une idée de la manière dont la planète Terre se comportera réellement. Le passage de l’échelle temporelle de prédiction des systèmes météorologiques, essentiellement une semaine, à un mois ou un peu plus est démontré comme un défi majeur par la prévision d’événements exceptionnels tels que les vagues de chaleur, par exemple (Weisheimer et al., 2011A151 ; Stéfanon, 2012A139).
François Gervais écrit (2022A47 p. 92) :
Le consortium UCAR (University Corporation for Atmospheric Research) regroupe une centaine d’universités et écoles en sciences de l’atmosphère. Ils ont fait « tourner » un même modèle de climat de l’Amérique du Nord sur 50 ans, avec la même évolution de la concentration de CO2, en ne changeant que d’un millième de milliardième les conditions initiales [Kay JE et al., 2015A64]. Le millième de milliardième est suffisant pour provoquer 30 évolutions différentes. Il s’avère qu’il était impossible de prévoir à l’avance lequel des 30 essais se rapprocherait le plus du climat observé, et lequel s’en est éloigné le plus. Cette expérience conduite sur ordinateur illustre à merveille l’extrême sensibilité d’un système chaotique aux conditions initiales, et la vanité d’espérer une quelconque prédiction fiable.
Le troisième rapport (TAR) du GIEC le reconnaissait explicitement : « Dans la modélisation du climat, nous devons reconnaître que nous avons affaire à un système chaotique non linéaire couplé, et donc que la prédiction à long terme des futurs états climatiques n’est pas possible. » Même si l’on moyenne des comportements chaotiques, on obtient un comportement chaotique moyen, pas une meilleure prédiction.
Une présentation pédagogique des modèles prédictifs de climat a été proposée par Steven Koonin (2021A70 p. 77–96). En observant les incertitudes des modèles comparatifs CMIP3 (2007) et CMIP5 (2013), il constate (p. 87) que les plus récents sont entachés de plus d’incertitude que les plus anciens, alors qu’on s’attendait à l’inverse, compte tenu des progrès en termes de modélisation et de collection de données. François Gervais (2022A47 p. 54) confirme cette augmentation de l’incertitude entre les modèles du CMIP5 (2013) et ceux du CMIP6 (2021).
Une source d’incertitude en modélisation climatique est associée au traitement des nuages, dont les dimensions sont nettement plus petites que la trame servant à partitionner l’atmosphère (Schneider T et al., 2017A129 p. 4) :
Actuellement, nous utilisons des modèles climatiques qui ne sont pas adaptés à cette tâche : leurs modèles atmosphériques ont un espacement de grille horizontal d’environ 50–100 km et un espacement de grille vertical d’environ 200 mètres dans la basse atmosphère. Ceci est beaucoup trop grossier pour résoudre les courants ascendants turbulents de 10 à 100 mètres de large, qui prennent naissance dans la couche limite planétaire et génèrent des nuages bas.
Les physiciens Gerhard Gerlich et Ralph D Tscheuschner ont depuis longtemps souligné radicalement les incohérences de cette modélisation (2009A43 p. 350, 351, 353) :
Les équations de Navier-Stokes sont en quelque sorte le Saint-Graal de la physique théorique, et une discrétisation brute à l’aide de grilles à mailles très larges conduit à des modèles qui n’ont rien à voir avec le problème original et n’ont donc aucune valeur prédictive.
Dans les problèmes impliquant des équations différentielles partielles, les conditions aux limites déterminent les solutions bien plus que les équations différentielles elles-mêmes. L’introduction d’une discrétisation équivaut à l’introduction de conditions aux limites artificielles, une procédure qui est caractérisée par la déclaration de von Storch : « La discrétisation est le modèle. » Dans ce contexte, une déclaration correcte d’un mathématicien ou d’un physicien théorique serait la suivante : « Une discrétisation est un modèle dont les conditions aux limites ne sont pas physiques. » Les discrétisations de problèmes de continuums seront autorisées s’il existe une stratégie permettant de calculer des raffinements progressifs. […] Au mieux, ces modèles informatiques peuvent être considérés comme un jeu heuristique.
En général, il est impossible de dériver des équations différentielles pour les fonctions moyennées et, par conséquent, pour les dynamiques non linéaires moyennées. Il n’y a donc tout simplement pas de fondement physique aux modèles informatiques du climat global, pour lesquels le paradigme du chaos est toujours d’actualité. […]
La climatologie globale moderne a confondu et continue de confondre les faits et la fiction en substituant le concept de scénario à celui de modèle. […] En conclusion, les déclarations sur le réchauffement climatique anthropique induit par le CO2 qui sont déduites des simulations informatiques ne relèvent d’aucune science.
La fiabilité des modèles de climat est étudiée depuis une vingtaine d’années par le World Climate Research Programme (WCRP), à l’origine des Coupled Model Intercomparison Projects (CMIP). Elle a été exposé notamment par Nicola Scafetta (2021bA125). Chaque modèle de circulation généraleN13 (GCM) possède une valeur spécifique de l’Equilibrium Climate Sensitivity (ECS) ou sensibilité climatique à l’équilibreN26. Il s’agit du réchauffement de la surface du globe (à l’équilibre thermique) induit par le doublement de la concentration atmosphérique de CO2 par rapport à la valeur préindustrielle, autrement dit de 280 à 560 ppm.
L’ECS des modèles de circulation générale du CMIP5 variait de 2.1 à 4.5°C, mais il a été réduit à 1.5 à 4.5°C en 2013 par le GIEC. Paradoxalement, les ECS des nouveaux modèles du CMIP6 affichent une fourchette plus large : de 1.83 à 5.67 °C. Cette question est préoccupante, car l’ECS de bon nombre de ces nouveaux modèles dépasse même 4.5°C, qui était la valeur limite supérieure précédemment acceptée (Scafetta N, 2021bA125 p. 2). Scafetta ajoute :
Le problème de l’ECS est à la fois difficile et crucial, car plusieurs études empiriques ont conclu que sa valeur devrait être généralement inférieure aux estimations du modèle de circulation générale, c’est-à-dire entre 0.5 et 2.5 °C. […]
Dans cet article, nous testons 38 modèles de CMIP6 dans la simulation des changements de température de surface observés entre les périodes 1980–1990 et 2011–2021, en utilisant les distributions de surface pour mieux identifier les régions où les modèles échouent le plus. Cette période a été choisie parce qu’elle est couverte par les enregistrements de températures terrestres et satellitaires, et qu’elle est suffisamment longue (plus de 30 ans) pour permettre l’évaluation des modèles. […]
La figure [ci-dessous] montre plusieurs simulations de température de surface de modèle sde CMIP6 (courbes rouges, modèles avec ECS > 3 ; courbes bleues, modèles avec ECS ≤ 3) par rapport aux observations de température (vertes) (ERA5-T2m, ERA5-850mb, et UAH MSU v6.0 Tlt) en utilisant comme référence la période 1980–1990. Le point 2021 pour ERA5-T2m et ERA5-850mb est calculé en utilisant les mois de janvier à juin ; le point 2021 pour UAH MSU v6.0 Tlt est calculé en utilisant les mois de janvier à août. Les modèles à forte ECS (courbes rouges) prévoient un réchauffement nettement plus rapide que ceux à faible ECS (courbes bleues).

De 1980 à 2021, on constate une meilleure concordance avec l’enregistrement ERA5-T2m ; les enregistrements ERA5-850mb et UAH MSU v6.0 Tlt montrent une tendance au réchauffement encore plus faible, qui ne concorde guère qu’avec les simulations les moins chaudes. Ainsi, l’impression générale est que la plupart des modèles CMIP6, et en particulier ceux qui ont des valeurs ECS élevées, surestiment la tendance au réchauffement, comme cela a déjà été constaté pour les modèles CMIP3 (Scafetta N, 2012A122) et CMIP5 (Scafetta N, 2013A123).
François Gervais écrit à ce sujet (2022A47 p. 55) :
McKitrick & Christy (2020A86) se sont penchés sur la question du pourquoi certains modèles CMIP6 « chauffent » trop […] — voir aussi Pascal Blamet (2021A15). Par ailleurs, Zhu et al. (2020A154 ; 2021A155) montrent que les valeurs de sensibilité climatiqueN27 les plus élevées sont en désaccord avec les séries de température paléoclimatiques. Ils mettent en cause le traitement douteux des nuages dans les modèles. […]
L’Annexe en fin de chapitre [p. 74] montre qu’en cas de doublement du CO2, le déficit de flux thermique émis au sommet de l’atmosphère n’excèderait pas 2.6 W/m2. Au rythme moyen d’accroissement d’environ 2 ppm par an observé depuis le début de ce siècle, […] sa contribution par décennie resterait de l’ordre de (20 ppm / 414 ppm) x 2.6 W/m2 = 0.13 W/m2. C’est 100 fois moins que les ordres de grandeur des écarts entre modèles, illustrant à quel point ces derniers peinent à convaincre.
Pascal Blamet (2021A15) écrit :
Dans les cas complexes, et en particulier dans le cas de la modélisation de la géosphère, les équations sont pour partie des approximations, et surtout les paramètres directeurs ne sont pas mesurables. On tente de les ajuster comme on peut : c’est le « réglage » du modèle, passage obligé, très loin d’être simple. C’est ce qui a fait défaut dans le cas du Covid car cet ajustement des paramètres directeurs est d’autant plus incertain que l’objet modélisé est complexe.
Or c’est bien le cas de l’atmosphère qui est un milieu très volatil avec de la convection horizontale et verticale, des échanges avec d’autres milieux (terre, eau, glace), de la thermodynamique complexe, des changements de phase, du rayonnement et des interactions de toutes natures !
Sans compter des éléments spécifiques, comme par exemple les nuages, qui jouent un rôle majeur sur l’équilibre thermique de l’atmosphère, et dont il est très difficile de rendre compte numériquement.
Voici un exemple souvent cité des incohérences des modèles climatiques, en ce qui concerne leurs prévisions de la fonte de glace de mer dans l’Arctique jusqu’en 2100 (Eisenman I & T Schneider, 2011A36 p. 5328) :

Différences entre les projections des MCG (modèles de circulation généraleN13) sur le taux de perte de glace de mer dans l'Arctique
(a) Chronologie des conditions saisonnières d'absence de glace dans l'océan Arctique, indiquée par l'étendue de la glace de mer de septembre dans l'hémisphère Nord au cours du 21e siècle, mise à l'échelle par la valeur moyenne de septembre 1980-2000 pour chaque modèle. Dans la moyenne de l'ensemble, 32 % de la couverture de glace de mer de septembre subsistera à la fin du siècle, mais les projections varient considérablement d'un MCG à l'autre, un modèle conservant plus de 85 % de la couverture de glace et quatre modèles en conservant moins de 1 %.
(b) Sensibilité de l'étendue de la glace de mer, définie comme le changement annuel moyen de l'étendue de la glace hémisphérique par changement de la température moyenne mondiale (Winton 2011A152), dans les deux hémisphères, dans les modèles et dans les observations — voir Appendix C.
Dans l’Appendix C il est précisé (Eisenman I & T Schneider, 2011A36 p. 5334) :
La sensibilité de l’étendue de la glace de mer pour chaque modèle est calculée en utilisant une régression totale des moindres carrés de l’étendue hémisphérique moyenne annuelle de la glace de mer sur la température moyenne mondiale annuelle, suivant la méthodologie de Winton (2011A152). Les températures observées proviennent de l’ensemble de données combinées terre-océan de la température de surface du GISS (GISTEMP).
Richard Lindzen commente cette image (2018A77 p. 8) :
Comme vous pouvez le constater, il existe un modèle pour chaque résultat. C’est un peu comme la formule pour devenir un tireur d’élite : tirez en premier et déclarez que ce que vous touchez est la cible.
Steven Koonin montre par ailleurs que les prédictions dépendent fortement du réglage des paramètres mettant en concurrence le réchauffement causé par les gaz à effet de serre, et le refroidissement dû aux aérosols — eux aussi partiellement liés à l’activité humaine (2021A70 p. 93) :
En d’autres termes, les chercheurs ont ajusté leur modèle pour que sa sensibilité aux gaz à effet de serre corresponde à ce qu’ils pensaient qu’elle devrait être. C’est ce que l’on appelle faire de la comptabilité.
Patrice Poyet commente (2022A108 p. 336) :
Lorsque ces phénomènes de sous-échelle sont traités avec des paramétrages qui n’ont rien à voir avec la physique et les lois fondamentales que l’on nous rappelle constamment pour justifier la crédibilité que nous devrions accorder au modèle, nous saisissons soudain le sens de cette simple citation de Freeman Dyson : « Ces gens-là ne regardent pas les observations. Ils sont dans un monde à eux. »
Pierre Morel, physicien théoriste en mécanique quantique statistique, fondateur du Laboratoire de météorologie dynamique (CNRS) et ancien secrétaire du Programme mondial de recherche sur le climat (1982–1994), déclarait en conférence au Bureau des Longitudes (2009A90) :
En termes d’interprétation des signaux climatiques, l’examen intensif (et passionné) des données globales s’apparente au test de Rorschach : on y trouve ce que l’on veut, il est impossible de parvenir à une conclusion scientifiquement indiscutable sur la seule base des quantités moyennes globales déduites des observations archivées (a fortiori des reconstructions historiques ou paléoclimatiques).
Syukuro Manabe, un des trois lauréats du Prix Nobel 2021, récompensé pour ses travaux de pionnier dans la modélisation du changement climatique, confiait en 2016 à Freeman Dyson, lui aussi Prix Nobel de physique : « Un modèle de climat est un très bon outil pour la compréhension du climat, mais c’est un très mauvais outil pour le prévoir. » Dans un entretien dont l’enregistrement a été partiellement censuré, Freeman Dyson déclarait à propos des modèles de climat (Poyet P, 2022A108 p. 353) :
C’est bien là le problème ! Il s’agit d’une vérité subventionnée, pour les gens qui croient les modèles. Je ne dis pas qu’ils sont malhonnêtes, mais je crois qu’ils sont inévitablement influencés par le fait qu’ils vivent de la peur du public. S’ils n’effrayaient pas le public, ils n’obtiendraient pas le soutien du gouvernement. Les militaires font la même chose. Je pense qu’ils ressemblent beaucoup aux militaires.
La modélisation (informatisée) du climat est une histoire sans fin, à la fois créatrice d’emplois et consommatrice de ressources financières (Poyet P, 2022A108 p. 318) :
Mais la vérité sur les capacités de ces logiciels n’est jamais aussi claire que lorsque leurs développeurs ont besoin d’énormes sommes d’argent pour prétendre mettre au point une nouvelle génération qui corrigera tous les défauts des outils précédents. Apparaissent alors à la lumière crue toutes les limitations, les hypothèses irréalistes, les reconstructions défectueuses du passé, et les affirmations factices de leurs prédictions pour l’avenir. L’inventaire effrayant de leurs limites réelles apparaît au fur et à mesure que la liste des nouveaux fonds nécessaires s’allonge pour rafistoler toutes les capacités soi-disant existantes, ou plutôt les anciennes tentatives ratées, afin de pouvoir prétendument les transformer cette fois-ci en boules de cristal bien nettes qui révèleront enfin le terrible avenir que le réchauffement anthropique nous promet. On rince et on recommence avec une nouvelle génération, deux milliards de plus dépensés, et un ancrage dans la réalité et un respect de la rigueur scientifique qui ne sont pas meilleurs.
Le réquisitoire des physiciens Gerlich et Tscheuschner était, quant à lui, sans appel (2009A43 p. 351) :
Il s’agit manifestement d’une description d’une méthode pseudo-scientifique (c’est-à-dire non scientifique) utilisée par les experts du GIEC. Le prochain niveau méta au-delà de la physique serait un questionnaire auprès des scientifiques comme celui déjà réalisé par von Storch (2007A19) ou, finalement, un vote démocratique sur la validité d’une loi physique. La science exacte va être remplacée par une méthodologie sociologique impliquant une analyse statistique de terrain, et par des règles « démocratiques » de fonctionnement. Cette démarche est en phase avec la définition de la science prônée par le site « scientifique » RealClimate.org qui a fait entrer les déclarations incendiaires, le recours aux attaques personnelles et les mises en cause d’auteurs dans son processus de travail « scientifique ».
Une analyse statistique, aussi sophistiquée soit-elle, repose fortement sur des modèles sous-jacents, et, si ces derniers sont manifestement erronés, l’analyse ne mène à rien. On ne peut pas détecter et attribuer quelque chose qui n’existe pas pour des raisons de principe, comme l’effet de serre du CO2. Il y a tant de problèmes non résolus et insolubles dans la non-linéarité, que les climatologues croient les surmonter tous en travaillant avec des approximations grossières conduisant à des résultats non physiques corrigés par la suite par des procédés mystérieux, le contrôle des flux dans le passé, d’obscures moyennes globales couvrant les instituts climatiques d’aujourd’hui, en excluant manuellement des résultats accidentels de refroidissement global (Stainforth DA et al, 2005A137) perpétuant une tradition de climatologie globale fondée sur l’effet de serre, de moyennes sans signification physique, et de recours à des statistiques mathématiques dénuées de sens du point de vue des sciences physiques.
⇪ Autres approches
Certains artisans des modèles climatiques prédictifs ont rué dans les brancards. Par exemple, le spécialiste de la dynamique climatique et docteur en sciences de météorologie au MIT Mototaka Nakamura, qui a publié (en japonais) Confessions of a climate scientist : The global warming hypothesis is an unproven hypothesis (2018A95), dont des extraits sont commentés par Tony Thomas dans son article A Climate Modeller Spills the Beans (2019A141), ainsi que par Patrice Poyet (2022A108 p. 378–380).
Jean-Claude Pont écrit à son sujet (2020A106) :

Dans son ouvrage, Nakamura passe en revue les éléments qui constituent la colonne vertébrale de l’ensemble de la démarche conduite en vue de prédictions relatives à l’évolution du climat : température du globe, nuages de basse altitude, niveau des mers et des océans, mouvement des glaciers, etc. Dans chaque cas il montre que les particularités et les complexités du système climatique empêchent toute prédiction sérieuse quant à son évolution.
Pont cite et commente Nakamura, notamment (2020A106) :
Je tiens à souligner un fait simple : il est impossible de prédire correctement même le sens ou la direction du changement d’un système lorsque l’outil de prédiction n’a pas de représentation de processus non-linéaires importants et/ou les déforme grossièrement, les rétroactions en particulier, qui sont présentes dans le système réel. […]
On pourrait se demander : « Pourquoi faut-il tant se soucier des océans quand on parle de la température de l’atmosphère ? » Les flux océaniques jouent un rôle extrêmement important dans le climat. Ils sont beaucoup plus lents que les flux atmosphériques, mais transportent une très grande quantité de chaleur en raison de la grande capacité de stockage de chaleur de l’eau. La capacité de stockage de la chaleur océanique est tellement plus grande que celle de l’atmosphère qu’on peut dire que l’atmosphère n’emmagasine pas du tout de chaleur par rapport à l’océan. (…) Sans les flux océaniques, les variations climatiques seraient beaucoup plus simples.
Nakamura est cité par Tony Thomas (2020A141) :
Pour le meilleur ou pour le pire, je me suis plus ou moins désintéressé de la science du climat et je ne suis pas ravi de consacrer autant de temps et d’énergie à ce genre d’écrits, au-delà du point qui satisfait mon propre sens de l’obligation envers les contribuables américains et japonais qui ont soutenu financièrement mes études supérieures et mes activités de recherche spontanées et gratuites. Je vous prie donc de vous attendre à ce que ce soit le seul écrit de ce type que je produise.
Je suis persuadé que certains scientifiques honnêtes et courageux continueront à dénoncer publiquement les affirmations frauduleuses de la communauté scientifique anglophone. Je regrette de devoir le dire, mais je suis également convaincu que les chercheurs japonais dociles et/ou incompétents resteront silencieux jusqu’à ce que le « courant dominant de la science du climat » change de ton, si tant est qu’il le fasse un jour.
Un autre grand climatologue du MIT qui a « viré de bord », faisant de lui la cible d’attaques ad hominem — à défaut d’un débat sur le contenu de ses interventions — est Robert Lindzen qui sera présenté plus bas.
Ce qui précède ne devrait toutefois pas mener à la conclusion que toute étude formelle du système climatique de la Terre (Earth Climate System, ECS) est condamnée à l’échec ! Nous n’avons évoqué, jusqu’ici, qu’une méthodologie visant à produire des scénarios (annonciateurs du pire) pour inciter à « lutter contre le réchauffement climatique »…
D’autres voies de recherche sont explorées, comme par exemple l’identification de systèmeN28, une technique de l’automatique consistant à obtenir un modèle mathématique d’un système à partir de mesures. Voir par exemple G Bastin (2013A8), Nina Golyandina & Anatoly Zhigljavsky (2013A51), et Philippe de Larminat (2016A31) au sujet duquel Patrice Poyet écrit (2022A108 p. 376) :
De Larminat (2014A30) démontre très clairement que pour un système aussi complexe que le climat de la Terre, les techniques d’identification des systèmes fournissent des résultats objectifs et convaincants tels que :
• la période de réchauffement qui a conduit à l’optimum contemporain est essentiellement due à l’effet combiné de l’activité solaire et de la variabilité naturelle (qui se retrouve dans les résidus, comme les cycles de 60 ans qui résultent de paramètres qui ne sont pas pris en compte dans ce modèle de boîte noire) ;
• la contribution anthropique, si elle existe, ne se distingue pas suffisamment des effets précédents pour qu’on puisse prétendre la voir, et certainement pas avec le haut degré de certitude affiché par le GIEC.
Il est clair que les conclusions de ces scientifiques ne trouvent pas leur place dans les messages alarmistes dont se nourrit le discours sur le climat. Les politiciens, les médias et le public sont à l’affût de “breaking news”, ces informations « de dernière minute » qui réactivent des peurs anciennes et les poussent à « l’action »… L’incertitude pathétique des modèles prédictifs permet de recycler le même message sous une forme toujours changeante.
À propos des. techniques d’identification des systèmes, Patrice Poyet poursuit (2022A108 p. 377) :
Les calculs de marge d’erreur et d’incertitude et les tests d’hypothèse fournissent toutes les validations nécessaires d’un point de vue scientifique. En outre, comme le rapporte Veyres [communication personnelle, voir aussi 2020A147] : « Une démonstration plus visuelle de la précision des résultats trouvés est l’accord entre les résultats des calculs et les observations, et la capacité prédictive du modèle ; les simulations à l’aveugle sans aucune information sur les températures après l’année 2000 montrent avec une précision surprenante le “plateau” observé dans le réchauffement climatique depuis 2000. Pour ces prédictions à court terme, des estimations d’état par filtres de KalmanN29 sont utilisées, où l’état reflète l’accumulation de chaleur dans les océans. En plus des sensitivités, la méthode fournit une évaluation rigoureuse de la probabilité qu’un paramètre se trouve dans un certain intervalle, sans toutes ces déclarations très subjectives de “confiance” ou de “vraisemblance” ou de « probabilité subjective » qui ornent chaque paragraphe du rapport du GT1 du GIEC et dont Rittaud (2010A114 ; 2015A115) a souligné le caractère non scientifique. » […]
La vérité est que les meilleurs modèles météorologiques et les logiciels de simulation correspondants doivent être rappelés à la réalité en les confrontant aux données d’observation réelles toutes les six heures environ, sinon ils se perdent dans le fossé. Et, par une ironie du sort, pendant l’épidémie de COVID-19, du fait que la fréquence des vols internationaux a considérablement diminué, les observations faites par les vols commerciaux n’étaient plus disponibles comme d’habitude et la qualité des prévisions météorologiques a considérablement baissé.
⇪ Couplage entre CO2 global et température
On s’intéresse ici à la relation possible — corrélation ou causalité — entre la teneur globale (d’origine naturelle et anthropique) en dioxyde de carbone de l’atmosphère terrestre et la température moyenne de la Planète. Autrement dit, ce qu’on appelle — de manière inappropriée (Gerlich G & RD Tscheuschner, 2009A43 p. 303–309) — « l’effet de serre » ou forçage radiatifN6. C’est la pierre angulaire du discours sur le climat dans lequel se sont engagés inflexiblement (de nombreux) gouvernements, partis politiques, ONG et médias au début du 21e siècle.
Les données sur les carottages de glace à Vostok, dans l’Antarctique, sont présentées au public comme une preuve irréfutable d’un lien causal entre la concentration atmosphérique de gaz carbonique (CO2) et la température globale de l’atmosphère terrestre. Elles ont été publiées par JR Petit et collègues (1999A103), mais leur interprétation en termes de causalité reste au cœur de controverses. François Gervais explique (2022A47 p. 124–125) :
[Les données] sont reproduites [figure ci-dessous] dans la version publiée par Richet (2021A113), censurée par la suite par l’éditeur sous la pression de l’antenne française du GIEC, comme relaté au Chapitre premier [2022A47]. La température de la Terre a varié selon son ensoleillement, en suivant les cycles de MilankovitchN30 dus à l’excentricité, l’obliquité et la précession des équinoxes de notre Planète dans son mouvement autour du soleil. Pour chaque température, les carottages renseignent sur les concentrations atmosphériques de gaz carbonique et de méthane. Alors qu’une synchronicité est observée entre méthane et température, elle est discutable et discutée en ce qui concerne le CO2.
La synchronicité a été affirmée par Parrenin et al. (2013A102). Caillon et al. (2003A22) en revanche notaient un retard d’environ 800 ans du CO2 sur la température. Pour sa part, reprenant une méthode usuelle en spectroscopie, Pascal Richet (2021A113) s’est intéressé à la largeur à mi-hauteur des descentes de température et de concentration de CO2. Dans la figure [ci-dessous], les traits épais horizontaux soulignent des intervalles de temps différents pour la chute des deux grandeurs. Et c’est toujours le CO2 qui est en retard sur la température. Le retard peut atteindre 7000 ans. L’absence de synchronicité souligne l’absence de corrélation, et donc a fortiori l’absence de causalité. Richet (2021A113) conclut : « Interpréter les séries de CO2 et de température des carottes de glace à la lumière des modèles climatiques s’avère méthodologiquement erroné. » […]
Pascal Richet ajoute : « Cela n’a aucun sens de mettre autant l’accent sur les effets du CO2 dans les modèles climatiques ou sur les réductions d’émissions dans les politiques gouvernementales. » On comprend que cela n’ait pas plu aux gardiens du temple, d’où leur acharnement à censurer.

Ce phénomène est-il observable à plus petite échelle ? François Gervais cite des auteurs qui le confirment (2022A47 p. 138) :
La corrélation et le retard du CO2 sur la température, l’inverse de ce à quoi on s’attendrait selon le théorie de l’effet de serre atmosphérique, ont été confirmés et discutés par de nombreux auteurs : Kuo et al. (1990A75), Park (2009A100), Quirk (2009A109), Essenhigh (2009A38), Beenstock et al. (2012A10), Salby (2012A120), Gervais (2014A44), Harde (2017A56 ; 2019A57), Berry (2019A13), Stallinga (2020A138), Koutsoyiannis & Zbigniew (2020A72).
Patrice Poyet est parvenu à la même conclusion : « Le CO2 suit la température » (Poyet P, 2022A108 p. 51–56). Il cite notamment Ole Humlum et al. qui concluaient (2013A62 p. 51, 67) :
La corrélation positive maximale entre le CO2 et la température est observée lorsque le CO2 accuse un retard de 11 à 12 mois par rapport à la température de surface de la mer, de 9.5 à 10 mois par rapport à la température de l’air de surface, et d’environ 9 mois par rapport à la température de la troposphèreN14 inférieure. […]
En résumé, les données mensuelles depuis janvier 1980 [jusqu’à décembre 2011] sur le CO2 atmosphérique et les températures de l’air et de la mer démontrent sans ambiguïté que la séquence des événements de changement de la température globale est 1) la surface de l’océan, 2) l’air de surface, 3) la troposphère inférieure, et que les changements du CO2 atmosphérique sont toujours en retard par rapport aux changements de l’un ou l’autre de ces différents enregistrements de la température.
François Gervais cite comme exemple, sur une période très courte, la comparaison de l’évolution de la température de la Terre mesurée par satellite pendant le pic El Niño de début 2016 à l’évolution du taux de CO2 dans l’atmosphère (2022A47 p. 134) :

Il s’interroge par ailleurs sur ce qui influence les variations des taux de CO2 et des températures (Gervais F, 2022A47 p. 134–135, 138) :
L’année 1992 a été froide. L’éruption du volcan Pinatubo en 1991 a envoyé quantité d’aérosols dans la haute atmosphère qui ont momentanément voilé le rayonnement solaire, provoquant une baisse de température, et ce en dépit d’un épisode El Niño cette année-là et le la bouffée de CO2 crachée par le volcan. Une évolution d’un facteur 10 du CO2 annuel ne saurait traduire des différences d’émissions anthropiques, car elles restent assez similaires d’une année à l’autre. […] Le lien et le retard du CO2 sur la température nous amènent à envisager une composante naturelle de son augmentation dans l’atmosphère. D’où viendrait-il ? Des continents ou des océans ? La figure [ci-dessous] compare l’oscillation saisonnière du CO2 en 1992, année froide donc, à celle de 1998, année chaude due à un pic El Niño, recalée sur la première. Les deux courbes sont quasiment superposées. La composante continentale de la variation du CO2, ainsi mesurée à partir de son interaction avec la végétation, ne semble pas affectée par la température de l’année. […]
[…] contrairement à ce que suggèrent Zeng et al. (2005A153), les fluctuations El Niño/La Niña ne sont pas le seul facteur, puisque l’épisode El Niño de 1992 a été contrecarré par le refroidissement dû aux aérosols envoyés dans l’atmosphère par le volcan Pinatubo, et la chute de température qui a suivi, y compris celle des océans.


Patrice Poyet s’attaque à d’autres mythes (2022A108 p. 55) :
L’étape suivante de cette logique défectueuse [du couplage entre CO2 et température] consiste à élaborer des notions physiques telles que les « forçages » (Myhre G et al., 2013N31), les « rétroactions » et autres qui sont inconnues de la physique, comme nous le rappellent Gerlich et Tscheuschner (2009A43) : « La principale stratégie des défenseurs de l’effet de serre du CO2 semble se cacher derrière de plus en plus de pseudo-explications tirant parti de principes qui ne sont généralement pas enseignés en physique. Un exemple est celui des calculs de transfert radiatif que probablement peu de gens connaissent. Un autre exemple est celui des rétroactions utilisées pour amplifier un effet qui n’est même pas marginal puisqu’il n’existe pas du tout. Manifestement, les défenseurs de la thèse du “CO2-effet de serre” refusent d’accepter des calculs reproductibles pour s’expliquer et ont recours à des calculs non reproductibles.«
Severinghaus (2004A132) ne fait pas exception à la règle en déclarant : « Ce processus entraîne également une augmentation du CO2, environ 800 ans plus tard. Le CO2 réchauffe alors davantage la planète entière, en raison de ses propriétés de piégeage de la chaleur. Cela conduit à une libération encore plus importante de CO2. Il faut donc considérer le CO2 pendant les périodes glaciaires comme une “rétroaction”, un peu comme celle qui se produit lorsqu’on place un microphone trop près d’un haut-parleur. » Ainsi, le troisième auteur d’un article majeur publié dans la principale revue à comité de lecture, à savoir Science, déclare honnêtement et presque candidement, un an après sa publication, qu’il n’a aucune idée de ce qui commence à réchauffer notre monde à partir d’une période glaciaire, mais qu’il sait avec certitude ce qui a causé le réchauffement des trois dernières décennies, invoquant la pseudo-physique des « rétroactions ». Ce n’est plus une discussion géochimique qui prévaut ici, c’est le domaine de la psychologie cognitive rempli de dissonances cognitives et de biais de confirmation qui empêchent même les gens intelligents de s’écarter de l’assurance dogmatique et des croyances sécurisantes.
Le résumé de l’article de Gerlich et Tscheuschner est explicite de leur approche critique en tant que physiciens (2009A43) :
L’effet de serre atmosphérique, une idée que de nombreux auteurs font remonter aux travaux traditionnels de Fourier (1824A41), Tyndall (1861A144) et Arrhenius (1896A4), et qui est toujours soutenue dans la climatologie mondiale, décrit essentiellement un mécanisme fictif dans lequel une atmosphère planétaire agit comme une pompe à chaleur actionnée par un environnement qui interagit radiativement avec le système atmosphérique, mais qui est équilibré radiativement par rapport à lui. Selon la deuxième loi de la thermodynamique, une telle machine planétaire ne peut jamais exister. Néanmoins, dans presque tous les textes sur la climatologie mondiale et dans une littérature secondaire très répandue, on tient pour acquis qu’un tel mécanisme existe et qu’il repose sur une base scientifique solide.
Dans cet article, la conjecture populaire est analysée et les principes physiques sous-jacents sont clarifiés. En montrant que (a) il n’y a pas de lois physiques communes entre le phénomène de réchauffement dans les serres et les effets de serre atmosphériques fictifs, (b) il n’y a pas de calculs pour évaluer une température moyenne à la surface d’une planète, (c) la différence de 33° souvent mentionnée est un nombre sans signification calculé de manière erronée, (d) les formules du rayonnement de cavité sont utilisées de manière inappropriée, (e) l’hypothèse d’un équilibre radiatif est contraire à la physique, (f) la conductivité thermique et le frottement ne doivent pas être négligés, la conjecture de l’effet de serre atmosphérique est falsifiée.
Et plus loin (op.cit. page 280) :
Les climatologues mondiaux affirment que l’effet de serre naturel de la Terre maintient la Terre à 33° C de plus qu’elle ne le serait sans les gaz à l’état de traces présents dans l’atmosphère. Environ 80 % de ce réchauffement est attribué à la vapeur d’eau et 20 % aux 0.03 % de volume de CO2. Si un tel effet extrême existait, il se manifesterait même dans une expérience de laboratoire impliquant du CO2 concentré, sous la forme d’une anomalie de conductivité thermique. Il se manifesterait sous la forme d’un nouveau type de « super-isolation » violant l’équation conventionnelle de conduction de la chaleur. Mais de telles anomalies de transport de chaleur n’ont jamais été observées dans le cas du CO2. C’est pourquoi, dans cet article, les idées populaires sur les effets de serre entretenues par la communauté climatologique mondiale sont réexaminées dans le cadre de la physique théorique et expérimentale.
Les auteurs examinent, une par une, quatorze définitions d’un (hypothétique) « effet de serre radiatif » du CO2 dans l’atmosphère terrestre, dont ils démontrent la vacuité (Gerlich G & RD Tscheuschner, 2009A43 p. 303–309). Une source d’erreurs est liée à la confusion entre absorption/émission et réflexion (op.cit. p. 312–315). La réflexion sur une couche gazeuse n’est possible que pour des ondes radio de relativement faibles fréquences, ce qui est loin d’être le cas de radiations situées dans l’infrarouge.
Georges Geuskens explique l’impossibilité d’un effet de serre radiatif causé par le CO2, résumée ainsi (2019A49) :
1° L’effet de serre, qui résulterait de la désactivation radiative (fluorescence) de molécules ayant absorbé une fraction du rayonnement thermique de la Terre, ne peut exister au niveau des basses couches atmosphériques.
2° Au niveau des basses couches atmosphériques, les molécules ayant absorbé une fraction du rayonnement thermique de la Terre se désactivent par collisions avec les molécules environnantes, principalement N2 et O2.
Ce sujet a été traité plus récemment dans un exposé de Jean Van Vliet : Pourquoi l’effet du CO2 sur le climat est exclu par la physique (2023 lien:jms4). Il souligne avec justesse (p. 20) :
La physique est une science exacte avec des règles strictes, et difficilement accessible aux médias ; la climatologie est au contraire une science humaine, ouverte à l’appréciation et aux pressions politiques.
⇪ Durée de vie du CO2 d’origine anthropique
Examinons maintenant l’affirmation (du GIEC) selon laquelle le CO2 d’origine anthropique — produit par les activités humaines — aurait un temps de résidence dans l’atmosphère d’une centaine d’années, contrairement au CO2 émis naturellement dont le temps de résidence est de l’ordre d’une dizaine d’années. Selon cette thèse « réchauffiste », il s’ensuirait que l’accroissement du taux de CO2, depuis le début de l’ère industrielle (1750), serait intégralement causé par les émissions anthropiques. Quelle que soit la vérité du couplage entre CO2 global et température, une telle augmentation finirait par devenir problématique pour la biosphère et la survie de l’espèce humaine. Les auteurs de romans et films de science fiction sont friands de ce scénario…
Par contre, si — comme plaidé dans le paragraphe précédent — l’accroissement du taux de CO2 dans l’atmosphère est une conséquence, et non la cause, du réchauffement, on peut montrer que le temps de résidence du CO2 d’origine anthropique n’est pas différent de celui du CO2 d’origine naturelle. Dans ce cas, le taux de CO2 global serait simplement corrélé aux cycles de variation de la température, comme observé les millénaires précédents. Tout projet de « décarbonation » serait aussi inefficace qu’inutile.
La parole est aux physiciens… Seules leurs conclusions ont été reprises ici. Il faut suivre les liens pour naviguer dans les équations et capter les étapes des raisonnements !
Patrice Poyet (voir sa présentation) débute ainsi son exposé Anthropic CO2 is 6 % of Tropospheric [CO2] (2022A108 p. 35) :

L’un des principaux arguments brandis par les alarmistes est que la majeure partie du CO2 émis par l’utilisation de combustibles fossiles est restée dans l’atmosphère, qu’elle continuera à le faire pendant plus d’un siècle, et que ses effets néfastes seront différés et ressentis par les générations futures. Essayant ainsi de nous faire porter le chapeau, dès maintenant, pour que des mesures immédiates soient prises afin de réduire les émissions au plus vite, quelles que soient les conséquences économiques désastreuses que cela pourrait entraîner. Cela ne résiste même pas à une vérification rapide des faits.
En effet, le flux dégazé par les océans chauds entre les tropiques et par les sols où se décompose la matière organique est du même ordre de grandeur que le flux absorbé par les océans froids des hautes latitudes et par la végétation, mais jamais tout à fait égal, car ces flux absorbés et dégazés dépendent des températures, des précipitations et des vents dans les zones correspondantes, ainsi que du volume de végétation qui augmente en fonction de la teneur de l’air en dioxyde de carbone. Le rapport (quantité annuelle / flux) entre la quantité de carbone atmosphérique (dans le CO2 de l’air) et le flux absorbé chaque année par la végétation et par les océans aux hautes latitudes est de l’ordre de quatre à cinq, d’où une durée de séjour moyenne dans l’air d’une molécule de CO2 de 4 à 5 ans.
Un cinquième du CO2 de l’air est absorbé chaque année, environ la moitié par la végétation et l’autre moitié par les océans froids des hautes latitudes à leur surface ; presque autant est dégazé par les sols, où la végétation se décompose, et par les océans chauds à leur surface. Il apparaît que les combustibles fossiles ne constituent que 6 % du CO2 de l’air (contre 2 % en 1958), les 94 % restants provenant du dégazage naturel des océans et des sols, en milliards de tonnes de carbone, Gt‑C ou gigatonnes de carbone : 10 Gt‑C/an de « fossiles » contre quelque 170 Gt‑C/an de « dégazage naturel » (Moranne JM, 2020A89).
L’auteur continue avec un calcul justificatif, suivi d’un exposé technique sur le rapport isotopique du carbone (pages 35–50)… François Gervais affiche le même résultat en résumant ainsi (2022A47 p. 139) :
Un autre sujet de controverse concerne le temps de résidence du CO2 dans l’atmosphère. Un élément de réponse a trait au rapport isotopique 13C/12C (Segalstad 1998A131). Le carbone provenant des ressources fossiles affiche un rapport entre les isotopes 12 et 13, 13C/12C de ~ 2.1 % alors que le rapport est de seulement ~ 0.7 % pour le CO2 naturel. Le. rapport a évolué de ~ 0.76 % mesuré en 1982 dans l’atmosphère à ~ 0.85 % en 2017, suggérant une fraction de seulement 6 % de résidu anthropique. Ce résultat correspond à une durée de vie de la perturbation des émissions anthropiques d’à peu près 5 ans : Essenhigh (2009A38), Gervais (2014A44), Harde (2019A57), Poyet (2022A108), Harde et Salby (2021A55). La fraction résiduelle du CO2 anthropique se situerait ainsi au niveau du plus faible ajout observé en 1992 [figure ci-dessus].
Cité par Gervais, Robert H Essenhigh exposait déjà (2009A38 p. 2273) :
Si les résultats du [temps de résidence du CO2 dans l’atmosphère] court (5–15 ans) ont été montrés en quasi-équilibre, cela confirme la conclusion (fondée sur des données indépendantes) selon laquelle l’augmentation de la concentration atmosphérique de CO2 à long terme (∼ 100 ans) ne provient pas de sources anthropogéniques mais, conformément aux conclusions d’autres études, très probablement de l’augmentation de la température atmosphérique qui est due à d’autres facteurs naturels. Cela confirme la conclusion selon laquelle le réchauffement climatique n’est pas d’origine anthropique comme un produit de combustion. L’importance économique et politique de cette conclusion est évidente.
L’article de Hermann Harde présente de manière compréhensible le modèle des physiciens et ceux du GIEC basés sur trois groupes d’hypothèses : Constant Airborne fraction, Bern Model et Absorption Scales with Concentration. Harde écrit (2019A57 p. 144, accent mis par mes soins) :
Ainsi, avec des paramètres bien choisis, toutes les approches étudiées peuvent très bien reproduire les observations effectuées à Mauna Loa. Mais ces modèles sont basés sur des hypothèses et des conditions limites différentes, certains d’entre elles étant même en contradiction mutuelle. Par conséquent, un seul d’entre eux, voire aucun, pourrait être correct. Une bonne conformité avec les observations n’est pas un critère suffisant pour tester la validité d’un modèle, celui-ci doit également être en accord avec les principes physiques de base. Ces derniers sont les seuls à pouvoir nous fournir des explications physiquement cohérentes pour un cycle du carbone, qui est dominé par plus de 95 % des émissions naturelles, et qui est à l’origine d’impacts environnementaux continuels. Il est également évident que ce cycle est régi par les mêmes principes à l’époque paléoclimatique qu’aujourd’hui avec les émissions humaines.
Il va de soi que les fortes variations de taux atmosphérique de CO2 à l’époque paléoclimatique, déduites de l’analyse des carottages de glace, étaient d’origine naturelle… L’auteur conclut (Harde H, 2019A57 p. 145, 154) :
[…] les molécules émises naturellement et celles émises par l’homme ne peuvent pas être traitées différemment. Tant qu’aucune saturation de l’absorption n’est observée, ce qui n’est pas le cas […], une émission supplémentaire par l’Homme doit sous-tendre le même processus d’absorption que les émissions naturelles. Les séparer serait en contradiction flagrante avec le principe d’équivalence. En application de ce principe, il ne doit exister qu’un seul temps d’absorption, τR, avec le même comportement d’absorption, pour les émissions humaines et naturelles. […]
L’augmentation du CO2 au cours des dernières années peut être expliquée par une seule équation d’équilibre, la Loi de Conservation (Lüdecke HJ & CO Weiss, 2016A80), qui couvre dans son entier le cycle du CO2 atmosphérique, comprenant la température et donc des processus d’absorption naturels dépendant du temps, les activités humaines et un processus d’absorption dépendant de la température, à une échelle proportionnelle à la concentration actuelle. Cette absorption est caractérisée par une échelle de temps unique, le temps de résidence d’environ 3 ans, qui a augmenté légèrement avec la température au cours de l’ère industrielle. Ce concept est le seul en totale conformité avec toutes les observations et causalités naturelles.
Horst-Joachim Lüdecke et Car Otto Weiss sont parvenus à cette conclusion, rassurante pour les uns et « démobilisatrice » selon les autres (2016A80) :
Par conséquent, l’augmentation du CO2 atmosphérique cessera progressivement […] Après l’apogée de la concentration de CO2 dans l’atmosphère, ce sont principalement les océans et la biosphère qui seront les puits des futures émissions de CO2 de l’humanité.
Il est question ici de l’effet de quasi-saturation des spectres d’émission thermique du CO2 atmosphérique. Ce phénomène. n’est pris en compte, ni dans les rapports AR5 et AR6 du GIEC, malgré la recommandation pressante de l’expert reviewer François Gervais. Il en fait une présentation technique dans son ouvrage (2022A47 p. 71–73) complétée par une citation ancienne (p. 72) :
Dès 1971, Rasool & Schneider, le second auteur étant le fondateur de la revue Climatic Change, écrivait à propos de la quasi-saturation : « À mesure que plus de CO2 est ajouté à l’atmosphère, l’accroissement de la température est proportionnellement de moins en moins élevé, et l’augmentation finit par se stabiliser. L’emballement de l’effet de serre ne se produit pas, car la bande du CO2 à 15 micromètres, qui est la principale source d’absorption, sature, et l’ajout de CO2 n’augmente pas substantiellement l’opacité infrarouge de l’atmosphère. »
⇪ Réalité de « l’empreinte carbone »
Le Tableau 1.2 (Gervais F, 2022A47 p. 62–63) reproupe les émissions de CO2 des principaux pays émetteurs, ainsi que celles de la France et du Royaume-Uni à titre de comparaison. François Gervais explique (2022A47 p. 60) :
La composante anthropique au réchauffement ressort à 0.2 picodegré par tonne de CO2 (équation 7 page 77) pour l’évaluation Gieco-compatible, et 0.1 picodegré par tonne de CO2 (équation 5 page 76) avec une sensibilité climatiqueN27 de 0.78°C. Ces résultats permettent à toute femme ou homme politique d’évaluer directement l’effet sur le climat d’une réduction chiffrée des émissions. Elle est rarement précisée, au profit de l’antienne selon laquelle l’important est de réduire, sans s’intéresser le moins du monde à l’impact thermique. Ce parti pris permet de cacher sous le tapis un impact infinitésimal. […]
En dépit des 36 milliards de tonnes de CO2 émis en 2019 ou en 2021, et quel que soit le mode d’évaluation retenu, on restait ainsi dans les millièmes de degrés par an, infiniment moins que les fluctuations de température autour des moyennes de saison, ou celles entre le jour et la nuit en l’absence de couverture nuageuse. […]
Nous adoptons […] un seuil intermédiaire de 0.07°C pour le seuil de mesurabilité de la température moyenne de la Terre. La colonne 8 du Tableau 1.2 [page 62] indique pendant combien d’années la contribution du pays au niveau de 2019 resterait imperceptible, car en-dessous du seuil de mesurabilité. Ce nombre d’années, qui dépasserait le siècle pour la plupart des pays, s’inscrit résolument en faux contre l’accusation de « crime contre l’humanité » ou de « trahison » des chefs d’États. […]
Le rapport Road to EU climate neutrality in 2050 (Brouwer & Bergkamp, 2021N32) confirme le Tableau 1.2. [Il] souligne qu’atteindre la neutralité carbone en 2050 pour l’ensemble de l’Union européenne se traduirait par un réchauffement évité de seulement 0.02°C. C’est, là encore, très en dessous du seuil de mesurabilité de la température de la Terre.
L’Union européenne et les Nations Unies ont déclaré l’année 2050 « Objectif de la neutralité carbone ». Les principaux émetteurs de CO2 peuvent-ils éviter à la Planète le « chaos » annoncé d’ici là ? François Gervais écrit (2022A47 p. 69) :
Le Tableau 1.2 [page 62] fournit la réponse dans la colonne 10, en extrapolant d’ici 2050 les émissions de 2019 pour les trois principaux pays émetteurs : Chine 0.04°C, États-Unis 0.02°C, Inde 0.01°C. […] Au rythme actuel, la contribution à la température mondiale n’excéderait pas 0.14°C d’ici 2050. Ni 1°C, ni 2°C, ni 3°C, encore moins 5°C ou d’avantage, comme le répètent à l’envi les médias alarmistes et les manifestants pour « sauver le climat », mais seulement 0.14°C. […]
Les Nations Unies se sentent-elles capables de convaincre la Chine et l’Inde qu’il faille qu’elles cessent impérativement leurs émissions pour éviter un réchauffement, d’ici 2050, de respectivement 0.04°C et 0.01°C ?
Richard Lindzen a fait un bref historique de la doctrine du CO2 anthropique tenu pour. responsable du réchauffement climatique (2018A77 p. 6) :
Bien que plusieurs scientifiques aient avancé ce point de vue au cours des 200 dernières années, il a été, jusqu’aux années 1980, généralement rejeté. Lorsqu’en 1988, le scientifique de la NASA, James Hansen, a déclaré au Sénat américain que la chaleur exceptionnelle de l’été reflétait l’augmentation du CO2, même le magazine Science a rapporté que la communauté des scientifiques du climat était sceptique. Le fait que cette position extrême ait été érigée en dogme au cours de la période actuelle est dû aux acteurs politiques, et à d’autres personnes qui aspirent à exploiter les opportunités qui abondent dans le secteur de l’énergie, d’un montant de plusieurs milliards de dollars.
C’est le cas de Maurice Strong, bureaucrate mondial et affairiste (qui a passé les dernières années de sa vie en Chine, apparemment pour éviter d’être poursuivi pour son rôle dans les scandales du programme « Pétrole contre nourriture » des Nations unies). On attribue souvent à M. Strong le mérite d’avoir lancé le mouvement en faveur du réchauffement climatique au début des années 1980, et il a ensuite contribué à l’organisation de la Conférence de Rio qui a débouché sur la Convention-cadre des Nations unies sur les changements climatiques.
C’est cet accord qui a entériné la thèse du CO2 et du climat, et qui a lancé la série de réunions internationales (qui se poursuivent encore aujourd’hui) visant à planifier le contrôle du climat. Cependant, d’autres personnes, comme le Premier ministre suédois, Olaf Palme, et son ami et conseiller scientifique, Bert Bolin, premier président du Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC), avaient également commencé à exploiter cette question dès les années 1970. Leur motivation était de vaincre la résistance à l’énergie nucléaire en diabolisant le charbon.
L’enthousiasme politique n’a fait qu’augmenter depuis lors, l’idéologie politique jouant un rôle majeur. Il y a quelques années, Christiana Figueres, alors secrétaire exécutive de la Convention-cadre des Nations unies sur le changement climatique, a déclaré que, pour la première fois dans l’histoire, l’humanité se donnait pour mission de modifier intentionnellement le système économique.
Mme Figueres n’est pas la seule à le penser. Le plus proche conseiller du pape François a fustigé les conservateurs sceptiques du changement climatique aux États-Unis, blâmant le capitalisme pour leurs opinions. S’adressant aux journalistes, le cardinal Oscar Rodríguez Maradiaga a critiqué les « mouvements » aux États-Unis qui s’étaient opposés de manière préventive au projet d’encyclique de François sur le changement climatique. « L’idéologie qui entoure les questions environnementales est trop liée à un capitalisme qui ne veut pas cesser de détruire l’environnement parce qu’il ne veut pas renoncer à ses profits », a‑t-il déclaré.
⇪ Disparition (attendue) des glaciers
Patrice Poyet a présenté ainsi ce sujet (2022A108 p. 242–243) :

Comme cela a été détaillé dans la section « Climats passés » de ce document (Poyet P, 2022A108) et les sous-sections correspondantes « Les 2000 dernières années » et « Les 12000 dernières années, bref aperçu de l’Holocène », les glaciers offrent une réponse rapide à tout changement climatique.
Les observations frappantes de [Eugène] Trutat (Annuaire du Club Alpin Français, 1876), effectuées bien avant les émissions anthropiques, ont été rapportées à plusieurs reprises, et elles n’étaient pas isolées (Nussbaumer et al., 2011A96 fig. 4 et 5). C’est pourquoi les glaciers ont souvent été une cible facile des manœuvres alarmistes des fabricants de climat, car ils ont généralement reculé depuis la fin du petit âge glaciaire (Akasofu, 2011A1). En fait, on voit régulièrement de tels rapports dans les médias de masse faire la couverture ou la première page de journaux ou de magazines pour créer une sorte de réponse pavlovienne des masses conditionnées, où des gens crédules et faciles à influencer, parce qu’ils manquent de temps, de volonté ou de moyens pour se forger une opinion éclairée, sont persuadés qu’il n’y a pas à discuter, encore moins à « nier » — allusion implicite à l’holocauste. Les choses sont écrites, la messe est dite, le réchauffement climatique causé par l’homme est irréfutable, les glaciers disparaîtront.
La réalité dérangeante est que même ce pari facile — oui, des glaciers fondent — a souvent été perdu par les manipulateurs. Il a déjà été rapporté que les gestionnaires du Glacier National Park, une vaste zone sauvage située dans les Montagnes rocheuses du Montana, ont dû retirer les panneaux indiquant que « les glaciers auront disparu d’ici à 2020 », car la nature ne voulait pas coopérer avec leurs terribles prédictions. Ce n’était pas la première fois que les glaciers se montraient sournois et contredisaient des prévisions formulées à la légère. La fuite des courriels de l’Unité de recherche climatique (CRU) “Climategate” de l’Université d’East Anglia (UEA), comme si elle n’était pas assez embarrassante, a coïncidé avec l’exposition de certaines erreurs flagrantes dans le rapport AR4 du GIEC (GIEC, 2007N7), plus particulièrement une annonce selon laquelle les glaciers de l’Himalaya disparaîtraient d’ici 2035, affirmation qui s’est avérée totalement dépourvue de fondement scientifique, par exemple (Bagla P, 2009A5 ; Cogley, 2011A27) et a conduit à des excuses contorsionnées du président et des vice-présidents du GIEC, ainsi que des coprésidents des groupes de travail du GIEC (GIEC, 2010).
Le glaciologue Vijay Kumar Raina, anciennement du Geological Survey of India, a dû démentir les affirmations non fondées du GIEC, en rejetant l’idée que les mesures effectuées sur une poignée de glaciers seraient représentatives du sort des quelque 10 000 glaciers himalayens de l’Inde, et qu’ils diminueraient rapidement en réponse au changement climatique (Raina VK, 2009A110). Le document, “Discussion Paper, Ministry of Environment and Forests”, n’est plus disponible sur son site web d’origine (forme électronique du brûlage de livres ?) mais le Heartland Institute l’archive. Dans ce document, Raina affirme que « les glaciers de l’Himalaya, sur une période de 100 ans, se comportent de manière contrastée… Il est prématuré d’affirmer que les glaciers de l’Himalaya reculent anormalement à cause du réchauffement climatique. Un glacier est affecté par une série de caractéristiques physiques et par une interaction complexe de facteurs climatiques. Il est donc peu probable que l’on puisse affirmer que le mouvement du front glaciaire est le résultat de variations climatiques périodiques, tant que l’on ne disposera pas de plusieurs siècles d’observations. Alors que les mouvements des glaciers sont principalement dus au climat et aux chutes de neige, les mouvements du front semblent être propres à chaque glacier » et, en fait, ils « coopèrent » si peu qu’ « un côté de la langue glacière peut avancer tandis que l’autre stagne ou même recule » (Raina VK, 2009A110).
Vijay Kumar Raina est maintenant un ex-employé de tous les postes qu’il a occupés, identifié comme l’auteur d’un document de discussion controversé, et étiqueté par DeSmog comme un membre de la résistance climatique, un honneur ; imaginez qu’il a eu le culot de déclarer : « Le climat change naturellement tout le temps, parfois de façon dramatique. L’hypothèse selon laquelle nos émissions de CO2 ont provoqué, ou provoqueront, un réchauffement dangereux n’est pas étayée par des preuves. » Se débarrasser de lui n’accélérera pas la fonte des glaciers de l’Himalaya, mais nombreux sont ceux qui se sont réjoui d’une aussi belle prise.
Le GIEC a reconnu l’erreur dans une déclaration en date du 20 janvier 2010, dans laquelle il admet : « Nous avons toutefois appris récemment qu’un paragraphe de la contribution de 938 pages du Groupe de travail II à fait référence à des estimations mal étayées du taux de récession et de la date de disparition des glaciers de l’Himalaya. » […]
En fait, Raina (2013A111), compte tenu de sa connaissance approfondie des glaciers de l’Himalaya depuis des décennies, est encore plus prudent que la position que nous aurions pu défendre. Il n’observe même pas une réponse rapide des glaciers aux changements climatiques, et déclare : « Dans la mesure où l’observation des glaciers, depuis plus de cinq décennies maintenant, permet un diagnostic, je n’ai aucune hésitation à faire une déclaration selon laquelle un glacier ne répond pas nécessairement aux changements climatiques immédiats. Les données présentées révèlent que la fluctuation du museau du glacier n’est pas influencée par un seul paramètre, mais par une combinaison de paramètres. Le caractère physiographique de la zone d’accumulation et de la pente de la vallée joue probablement un rôle plus important que les précipitations annuelles et la température atmosphérique en soi » (Raina VK, 2013A111).
Nier l’évidence que les glaciers fondaient bien avant toute émission anthropogénique depuis la fin du petit âge glaciaire, n’aidera pas non plus à cacher que la traversée des Alpes par Hannibal avec ses éléphants pendant la deuxième guerre punique, en 218 avant l’ère chrétienne, n’a été possible que parce qu’il n’y avait pas de glacier sur son chemin ni de glace à l’époque, à la fin du mois d’octobre. La controverse sur la route alpine empruntée par l’armée d’Hannibal du bassin du Rhône vers l’Italie […] a fait rage pendant plus de deux millénaires, mais Mahaney et al. (2018A81) y ont récemment mis fin, en confirmant ce que Polybe avait écrit en 311, à savoir qu’Hannibal avait franchi le plus haut des cols alpins : le col de la Traversette (2947 mètres !) entre la haute vallée du Guil et le haut Pô est bien le plus haut des cols. […]
Le climat a beaucoup changé, avec ou sans nos ridicules émissions anthropiques, et, pour l’instant, même le pari le plus facile des fabricants de climat est régulièrement perdu. Les glaciers d’Alaska ne coopèrent pas non plus comme prévu et, comme le rapportent Berthier et al. (2010A14), les études précédentes ont largement surestimé la perte de masse des glaciers d’Alaska au cours des 40 dernières années. Comme le rappelle Spencer (2007A134), les glaciers réagissent manifestement aux changements de température, mais surtout aux changements de précipitations : « Des remarques similaires peuvent être faites au sujet du recul des glaciers. Les glaciers réagissent à diverses influences, en particulier aux précipitations. Seule une poignée des milliers de glaciers de la planète ont été mesurés pendant des décennies, et encore moins pendant des siècles. Certains des glaciers qui reculent mettent à jour des souches d’arbres, indiquant des époques antérieures où les fluctuations climatiques naturelles étaient responsables d’une étendue restreinte des champs de glace. » Et, à titre de preuve anecdotique, le lecteur se souviendra des troncs d’arbres révélés par le recul du glacier Tschierva en Engadine, par Joerin et al. (2006A63).
L’auteur expose plus loin le cas du Kilimanjaro comme exemple emblématique d’un glacier qui recule sous l’effet de divers facteurs, notamment une perte de précipitations, et certainement pas à cause de l’action néfaste du CO2 (Poyet P, 2022A108 p. 242–243). Les glaciologues soulignent la diversité des facteurs, écartant l’hypothèse d’un lien exclusif avec la température terrestre (Bagla P, 2009A5) :
Pourquoi de nombreux glaciers de l’Himalaya s’écartent-ils de la tendance au recul rapide observée dans les Alpes, par exemple, ou au mont Kilimandjaro, comme l’ont rapporté les Proceedings of the National Academy of Sciences la semaine dernière ? Selon Richard Armstrong, glaciologue au National Snow and Ice Data Center de Boulder (Colorado), « les glaciers de basse altitude réagiront plus rapidement au réchauffement climatique que les glaciers de haute altitude. » « Le régime des chutes de neige est plus important pour la stabilité des glaciers himalayens que les températures », ajoute Rajinder Kumar Ganjoo, glaciologue à l’université de Jammu, en Inde. « Si la hausse des températures était la véritable cause du recul, toutes les masses de glace de l’Himalaya devraient se dégrader uniformément », ajoute-t-il. « La question qui se pose dans les cercles scientifiques », note Kargel, « est de savoir quelle est la durée du temps de réponse et comment il varie d’un glacier à l’autre. »
⇪ L’eau monte ou le terrain descend ?
Si le niveau de la mer s’est élevé de 120 mètres en 18 000 années (source IFREMER), soit 6.6 mm par an, il ne s’est pas élevé de plus que de 1.2 mm par an (SHOM) depuis l’an 1800. Mesuré par 2133 marégraphes, il n’excédait pas 1.04 mm par an (Parker A & CD Ollier, 2015A101), soit 3 centimètres supplémentaires d’ici 2050, année déclarée « objectif de neutralité carbone » par l’Union européenne et les Nations Unies — ce qui est inférieur à l’amplitude de la plus minuscule vague, et très inférieur aux marées quotidiennes (Gervais F, 2022A47 p. 177)…
Quoi qu’il en soit, on n’observe aucune accélération récente de cette lente montée du niveau, ce qui exclut un couplage avec la production humaine de gaz à effet de serre (J Christy & R Spencer, 2003A23).
Le niveau des océans varie en fonction du lieu de la mesure. Entre autres raisons, la terre n’est pas un solide indéformable. Elle est soumise à l’attraction de la lune, et de plus ses plaques tectoniques sont en mouvement (SCM, 2015A119 p. 57–66). Ce qui permet de comprendre, par exemple, qu’au voisinage de Stockholm, le niveau de la mer de monte pas, il s’abaisse de 3.9 mm par an (Gervais F, 2022A47 p. 120). Détail cocasse signalé par Ole Humlum (Crock M & A May eds., 2023A29 p. 10) : le GIEC a mis à la disposition du public un outil de projection des niveaux des mersN33 qui, pour Stockholm, « prédit » à partir de 2000 une élévation du niveau de la mer, en totale contradiction avec les données !
En Grande Bretagne, le niveau de la mer augmente en Angleterre alors qu’il « diminue » en Écosse, du fait de la collision entre les plaques tectoniques eurasiatique et nord-américaine.
Pour ce qui est du lien entre fonte des glaciers et montée des eaux, Nils-Axel Mörner écrit (2016A94 p. 1319–1320) :

L’élévation du niveau de la mer il y a 10 000 à 11 000 ans n’a pas dépassé le taux [de 1 millimètre par an], bien que le forçage climatique ait été exceptionnellement intense, et que le taux de recul des glaciers ait été très rapide (de l’ordre de 200 à 300 mètres par an dans la région de Stockholm). Ceci est parfaitement vrai, mais peut maintenant être illustré d’une manière encore plus expressive. Les relevés de température du Groenland GISP2 [4] [5] enregistrent un changement de température exceptionnellement important qui s’est produit à la fin du Younger Dryas et au début de l’Holocène (figure 1). Et pourtant — et c’est ce qui est étonnant — le niveau de la mer n’a pas augmenté de plus d’environ 10 mm/an (c’est-à-dire 1 mètre par siècle), comme cela a été enregistré avec une grande précision dans le nord-ouest de l’Europe, et testé à l’échelle mondiale [6] [7].
À 11 000 ans avant notre ère, il restait d’énormes quantités de glace dans les gigantesques calottes glaciaires continentales de la dernière période glaciaire. Au Canada, le front glaciaire se trouvait dans la plaine du Saint-Laurent et en Scandinavie, la marge glaciaire se trouvait à Stockholm. Lors de l’impulsion de réchauffement qui a mis fin au Pléistocène et amorcé l’Holocène, la glace a fondu sous l’effet d’une force exceptionnelle. Aujourd’hui, il n’y a ni glace ni forçage climatique qui puisse être comparé à ce qui s’est passé entre 11 000 et 10 000 ans avant notre ère.
La conclusion est évidente : la fonte des glaces et l’élévation du niveau de la mer ne pourront jamais être aussi fortes — et certainement pas plus fortes — que celles qui se sont produites lors de la transition entre le Pléistocène et l’Holocène. Par conséquent, un taux d’élévation du niveau de la mer de +10 mm/an ou 1 mètre par siècle peut être considéré comme la valeur absolument limite de toute élévation du niveau de la mer [1]. Toute élévation actuelle du niveau de la mer doit être bien inférieure à cette valeur, pour être réaliste, compte tenu des données historiques et des facteurs physiques qui contrôlent la fonte des glaces. Par conséquent, nous pouvons également rejeter toute affirmation selon laquelle l’élévation du niveau de la mer dépasserait 1 mètre au cours du prochain siècle, en la qualifiant de pure absurdité et de démagogie infondée. […]
Le taux actuel d’élévation du niveau de la mer varie globalement entre ±0.0 et +1.0 mm/an, c’est-à-dire de zéro à 10 cm en un siècle. Cette valeur correspond très bien à la proposition de l’auteur d’une élévation du niveau de la mer, d’ici 2100, de +5 cm ± 15 cm (Mörner NA, 2015A93 ; 2016A94) .
➡ Le PléistocèneN34 mentionné ici a été marqué par des cycles glaciaires. Des recherches sur les variations génétiques des humains ont révélé que le froid (et la sécheresse) avaient menacé l’espèce humaine d’extinction il y a 900 000 ans (Wu WJ et al., 2023A61) :
Les résultats ont montré que les ancêtres de l’Homme sont passés par un goulot d’étranglement important, avec environ 1280 individus reproducteurs, entre 930 000 et 813 000 ans. Ce goulot d’étranglement a duré environ 117 000 ans et a conduit les ancêtres de l’Homme au bord de l’extinction.
À une époque plus récente, celle de la période chaude médiévale, le Groenland a été envahi par les Vikings et désigné comme « Terre verte » par Erik le RougeN35 pour attirer les colons. Les travaux des archéologues mettent en évidence les événements associés au refroidissement climatique, à partir du 13e siècle, qui a contraint les colons à abandonner ce territoire. Paradoxalement, ce refroidissement s’est traduit par une apparente « élévation du niveau de la mer » qui était en réalité une dépression isostatiqueN36 du terrain causée par le poids de la glace sur la lithosphèreN37 (Borreggine M et al., 2023A17) :

Les premiers témoignages sur les Vikings du Groenland remontent à 985 de notre ère. Les preuves archéologiques permettent de mieux comprendre le mode de vie des Vikings, mais les causes de leur disparition, au 15e siècle, restent énigmatiques. La recherche suggère qu’une combinaison de facteurs environnementaux et socio-économiques, ainsi que le changement climatique entre la période de réchauffement médiéval (environ 900 à 1250 de notre ère) et le petit âge glaciaire (environ 1250 à 1900 de notre ère), pourraient les avoir contraints à abandonner le Groenland. La géomorphologie glaciaire et les recherches sur le paléoclimat suggèrent que l’inlandsisN38 du sud du Groenland s’est réinstallé pendant l’occupation viking, atteignant son apogée au cours du petit âge glaciaire.
De manière contre-intuitive, cette réorientation a provoqué une élévation du niveau de la mer près de la bordure glaciaire, en raison d’une attraction gravitationnelle accrue sur la couche glaciaire et d’un affaissement de la croûte terrestre. Nous évaluons la croissance de la glace dans le sud-ouest du Groenland à l’aide d’indicateurs géomorphologiques et de données de carottes lacustres issues de la littérature antérieure. Nous calculons l’effet de la croissance de la calotte glaciaire sur le niveau régional de la mer, en soumettant notre histoire de la glaciation à un modèle géophysique du niveau de la mer, avec une résolution d’environ 1 km dans le sud-ouest du Groenland, et nous comparons les résultats aux données archéologiques. Les résultats indiquent que le niveau de la mer a augmenté jusqu’à environ 3.3 mètres en dehors de la zone de glaciation pendant la colonisation viking, ce qui a entraîné un recul du littoral de plusieurs centaines de mètres.
L’élévation du niveau de la mer a été progressive, et a touché l’ensemble de la colonie orientale. De plus, les inondations généralisées ont dû forcer l’abandon de nombreux sites côtiers. Ces processus ont probablement contribué à l’ensemble des vulnérabilités qui ont conduit à l’abandon du Groenland par les Vikings. L’évolution du niveau de la mer représente donc un élément intégral et manquant de l’histoire des Vikings.
L’article de Marisa Borreggine M et al. (2023A17) oblige à se demander si l’estimation de l’élévation du niveau de la mer, telle que quantifiée par Nils-Axel Mörner (2016A94) — voir ci-dessus — a bien été corrigée par l’évaluation du mécanisme glacio-isostatique d’élévation du niveau des côtes. Cette compensation été prise en compte par Mörner. Au terme d’une étude détaillée, il concluait (1970A92 p. 178) :
Tous ces éléments signifient qu’il doit être très difficile de trouver une zone vraiment « stable », où les changements du niveau de la mer sont de véritables changements eustatiques [liés au climat]. Cela signifie également qu’une étude détaillée d’une zone soulevée, où le facteur isostatique peut être déterminé avec précision, et où les facteurs eustatiques et isostatiques peuvent être séparés, est certainement l’un des meilleurs moyens de déterminer les changements eustatiques. Pour de telles études, la Scandinavie méridionale est particulièrement bien adaptée (Mörner, 1969aA91 p. 8).
La courbe eustatique de M/Srner est calculée avec une très grande précision (pour les 12 700 dernières années) et les modifications ou ajouts futurs ne concerneront probablement que des détails mineurs. Cependant, il faut se rappeler qu’elle donne les changements eustatiques dans l’Atlantique Nord-Ouest (55–58° de latitude Nord et 10–13° de longitude Est), le niveau de l’océan n’ayant pas nécessairement été réparti de façon égale dans le temps.
Au sujet de la « montée des eaux » dans d’autres régions du monde, François Gervais écrit (2022A47 p. 119) :
Il ne s’agit pas de nier l’érosion du littoral à certains endroits. Mais les pouvoirs publics ne sont pas obligés d’y délivrer des permis de construire. À l’échelle mondiale, Donchyts et al. (2016A34) et Luijendijk et al. (2018A79) rapportent en moyenne un accroissement de la superficie des continents en général, et des plages en particulier. La superficie des îles du Pacifique et de l’océan Indien, y compris les Maldives, s’est accrue de 6 % (Holdaway A et al., 2021A59), celle des Marshall de 4 % (Ford MR et PS Kench, 2015A40).
Un dernier exemple : Jakarta est menacée de submersion, mais, ici encore, rien à voir avec une « montée de l’eau » et encore moins « le CO2 ». La ville s’enfonce de plusieurs centimètres par an, par effet d’un pompage incontrôlé de sa nappe phréatique. Le vécu de ses habitants a été évoqué avec pathos, dans un débat, par une journaliste météo qui y voyait une preuve irréfutable de « l’urgence climatique » (Rittaud B, 2019A116).
Comme le remarquait Richard Lindzen (2018A77 p. 7–8), « le récit est suffisamment simple pour que l’élite puisse enfin penser qu’elle “comprend” la science » :
Les scientifiques ont également une conscience aiguë et cynique de l’ignorance des non-scientifiques et de la peur qu’elle engendre. Cette peur rend les élites « vulnérables » particulièrement soulagées par la certitude que la théorie sous-jacente à l’alarme est trivialement simple, et que « tous » les scientifiques sont d’accord.
⇪ Fonte des calottes glaciaires
Dans son film largement diffusé et acclamé par les militants du climat, Al Gore avait suscité l’émoi en faisant apparaître comme imminente une élévation catastrophique du niveau des mers, consécutive à la fonte des glaces de la calotte Arctique, qu’il prédisait intégrale en 2013, et, il va de soi, causée par l’activité humaine (Rittaud B, 2023A118). Cette prophétie est sans cesse renouvelée, avec des images de blocs de glace se détachant de la banquise chaque été, preuve irréfutable d’une destruction imminente et irréversible…
On peut vérifier en temps réel, sur le site du National Snow and Ice Data Center (NSIDC), l’absence de couplage entre l’étendue moyenne de la glace de mer arctique et le taux croissant de CO2 dans l’atmosphère terrestre :

Source : Arctic Sea Ice News and Analysis (NSIDC, 2023N39)
Patrice Poyet commente (2022A108 p. 269) :
Ainsi, non seulement les prévisions de 2009 du Vice-président Al Gore sont réfutées par toutes les preuves, puisque ni en 2014 ni en 2016 l’Arctique n’a été sans glace pendant l’été, mais les études de Dr Maslowski [2013A82] semblent radicalement erronées, puisqu’il y a plus de glace en 2022 qu’en 2021, 2020, 2019 ou 2018, et même beaucoup plus qu’en 2012.
Malgré la relative constance de l’épaisseur de la glace, la banquise arctique diminue en surface depuis les années 1980 comme le montre ce graphique du NSIDC (2023N40) :

Alan Longhurst écrit (2012–2015A78 p. 184, 187) :
Une reconstruction de la température de l’air de surface au-dessus du Groenland au cours du dernier millénaire, dérivée des bulles d’argon et d’azote dans les carottes de glace prélevées sur le site GISP au centre du Groenland, montre un long déclin des températures depuis la période médiévale et une reprise relativement rapide depuis le début du 19e siècle, une tendance qui diffère de celle observée dans les données relatives aux dates de la période de gel pour les lacs et les rivières de l’hémisphère nord. L’ensemble de l’enregistrement — dans lequel les températures du 20e siècle sont plutôt similaires à celles de la période chaude médiévale — est marqué par des oscillations pluridécennales de plus de 2 à 3 °C, de sorte que les changements récents observés ne sont pas inhabituels, que ce soit en termes d’échelle ou de durée : l’enregistrement des températures dans les carottes glaciaires confirme donc les preuves historiques (Kobashi T et al., 2009A67). […]
Mais le recul actuel des glaciers n’est pas un phénomène uniforme, comme on le décrit généralement. Sur l’île de Bylot, de l’autre côté de la baie de Baffin depuis la côte du Groenland, à environ 73° Nord, une équipe de géologues canadiens a constaté, au cours de l’été 2009, que presque tous les glaciers se trouvaient dans leur moraine terminale, ce qui implique une absence de recul des glaciers à l’échelle régionale (Annual Review, Bedford Institute of Oceanography, 2009).
Patrice Poyet ajoute (2022A108 p. 263) :
Ainsi, le comportement du glacier est très différent, et le concept de CAGW [catastrophic anthropogenic global warming] met l’accent sur les glaciers qui reculent, comme le fait l’article de Wikipedia, en oubliant tous les autres. Mais […] le comportement des glaciers régionaux, et de l’Arctique en général, coïncide avec l’influence des eaux de l’Atlantique à travers les diverses oscillations connues sous le nom d’AMON19 (Chylek et al., 2011A26). Ou par exemple une phase négative de la NAO [North Atlantic Oscillation], c’est-à-dire une anti-corrélation de (r = ‑0.84 à 0.93) avec les températures du Groenland (Chylek et al., 2004A25), etc., mais pas avec un quelconque déséquilibre radiatif.
Pour ce qui est de l’Antarctique, le graphe des anomalies mensuelles de l’étendue des glaces pour la période 1979–2023, publié par le NSIDC (2023N41), ne rend pas évidente « la phase de recul irréversible » annoncée par certains médias alarmistes. Les faibles fluctuations observées ne sont en rien liées au réchauffement climatique ni au CO2 :

Source : NSIDC (2023N41)
Le graphique suivant affiche la température dans l’Antarctique et le CO2 (en échelle logarithmique) sur deux siècles. Malgré l’augmentation massive de CO2, il n’y a tout simplement pas eu de réaction de la température, pour la simple raison que le climat est très peu sensible au CO2… (Poyet P, 2022A108 p. 256) :

⇪ Acidification des océans
François Gervais écrit (2022A47 p. 122–123) :
Autre menace existentielle déclinée dans la longue liste risquant de frapper l’humanité selon les médias alarmistes, l’acidification des océans. La moyenne du pH des océans a effectivement évolué de 8.2 à 8.1 ces dernière décennies. Le pH, ou potentiel hydrogène, mesure la basicité (pH > 7) ou l’acidité (pH < 7) d’une solution aqueuse. Les océans sont donc basiques et non pas acides et le resteront vraisemblablement. « Débasification », en l’occurrence de 0.1 point de pH, devrait être le terme à employer, au lieu de la trompeuse « acidification », probablement plus vendeuse pour les marchands de peur.
La concentration en CO2 est maximale dans les eaux froides parce que sa solubilité augmente à mesure que diminue la température […] Les eaux chaudes sous les tropiques ont plus de mal à le retenir. La variation annuelle de pH d’origine anthropique n’excède pas ‑0.0017 (Byrne RH et al., 2010), valeur reprise par le GIEC, mais restant petite par rapport au pH de 8.1. Ainsi, les variations saisonnières (Wei HZ et al., 2021A150) excèdent-elles largement la minuscule contribution anthropique.
Christopher Walter Monckton of Brenchley était un expert évaluateur du cinquième rapport (AR5) du GIEC (2013). Il résume le problème ainsi (2013A148 p. 12) :
Comme les océans contiennent déjà 70 fois plus de CO2 que l’air, il serait impossible de les acidifier sensiblement, même si tout le CO2 de l’air se retrouvait dans la mer. En outre, les océans sont régulés par les bassins rocheux dans lesquels ils se déplacent, et cette régulation est homéostatique, ce qui permet de maintenir l’équilibre acido-basique actuel, qui est nettement alcalin. Ainsi, même la position de repli adoptée par les profiteurs du malheur face à l’échec de leurs prédictions sur le réchauffement climatique — l’ »acidification » des océans — ne repose sur aucune base scientifique rationnelle.
Pour un exposé beaucoup plus détaillé, voir The Myth of the Acidification of the Oceans (Poyet P, 2022A108 p. 275–292).
⇪ Coup de froid et positionnement éthique
Dans les années 1970, la majorité des spécialistes s’inquiétaient d’un refroidissement planétaire global qui mettait en danger l’existence de l’humanité, ajoutant que les théories nouvelles d’un réchauffement induit par le CO2 étaient encore discutables et incertaines. Par exemple, Ichtiaque Rasool et Stephen Schneider (1971A112) alertaient sur un risque de refroidissement de 3.5 degrés causé par les aérosols, et pouvant conduire au déclenchement d’une nouvelle ère glaciaire.
L’historique du « consensus » des années 1970 sur le refroidissement global, dont se souviennent ceux qui ont connu cette époque — mes parents disaient « à cause des bombes atomiques » — a été systématiquement réécrit (notamment sur Wikipedia) pour donner l’illusion d’une position inverse — voir l’article Refroidissement global dans les années 1970 : un mythe ?
En 1989, peu après la création du GIEC, dont il est devenu auteur principal des rapports, le même Schneider déclarait (Schneider SH, 2011A128, souligné par mes soins) :
D’une part, en tant que scientifiques, nous sommes éthiquement liés à la méthode scientifique, promettant en fait de dire la vérité, toute la vérité, et rien que la vérité — ce qui signifie que nous devons inclure tous les doutes, les mises en garde, les « si », les « et » et les « mais ». D’autre part, nous ne sommes pas seulement des scientifiques, mais aussi des êtres humains. Et comme la plupart des gens, nous aimerions que le monde soit meilleur, ce qui, dans ce contexte, se traduit par notre travail pour réduire le risque d’un changement climatique potentiellement désastreux. Pour ce faire, nous devons obtenir un large soutien et capter l’imagination du public. Cela signifie, bien sûr, obtenir une couverture médiatique importante. Nous devons donc proposer des scénarios effrayants, faire des déclarations simplifiées et dramatiques, et ne pas faire mention de nos doutes éventuels. Cette « double contrainte éthique » dans laquelle nous nous trouvons fréquemment ne peut être résolue par aucune formule. Chacun d’entre nous doit décider du juste équilibre entre efficacité et honnêteté. J’espère que cela signifie être les deux à la fois.
Steven Koonin répond à ce sujet (2021A70 p. 9–10) :
Bien que Schneider ait par la suite abondamment expliqué sa déclaration sur la « double contrainte éthique », je pense que la prémisse sous-jacente est dangereusement erronée. Il ne devrait pas y avoir de question sur « le juste équilibre entre l’efficacité et l’honnêteté ». C’est le comble de l’orgueil pour un scientifique que d’envisager de désinformer délibérément les discussions politiques au service de ce qu’il croit être l’éthique. Cela paraîtrait évident dans d’autres contextes : imaginez le tollé si l’on découvrait que des scientifiques déforment des données sur le contrôle des naissances en raison de leurs convictions religieuses, par exemple. […]
Il n’y a rien de fâcheux à ce que les scientifiques soient des militants, mais le militantisme déguisé en « La Science » est pernicieux.
La position éthique peut être illustrée par une déclaration du célèbre physicien Richard Feynman dans son allocution Cargo Cult Science (1974A39) :
Les détails qui pourraient mettre en doute votre interprétation doivent être donnés, si vous les connaissez. Vous devez faire de votre mieux — si vous savez quelque chose d’erroné ou de possiblement erroné — pour l’expliquer. Si vous élaborez une théorie, par exemple, et que vous en faites la publicité ou la diffusez, vous devez également indiquer tous les faits qui sont en désaccord avec elle, en plus de ceux qui sont en accord avec elle. Il existe également un problème plus subtil. Lorsque vous avez rassemblé un grand nombre d’idées pour élaborer une théorie complexe, il faut vous assurer, lorsque vous expliquez ce à quoi elle correspond, que les éléments auxquels elle correspond ne sont pas seulement ceux qui vous ont donné l’idée de la théorie, mais que la théorie élaborée permet à quelque chose d’autre de s’avérer correct, en plus.
En résumé, l’idée est d’essayer de donner toutes les informations qui aideront les autres à juger de la valeur de votre contribution, et pas seulement les informations qui conduisent à un jugement dans une direction particulière ou une autre. […]
Le premier point est que vous ne devez pas vous tromper vous-même — et vous êtes la personne la plus facile à tromper. Il faut donc être très prudent à ce sujet. Une fois que l’on ne s’est pas trompé soi-même, il est facile de ne pas tromper les autres scientifiques. Il suffit ensuite d’être honnête de manière conventionnelle.
⇪ Météo versus climat
Dans son analyse du rapport AR6 du GIEC, dont il était expert reviewer, François Gervais résume ainsi l’attribution au réchauffement climatique des événements météorologiques extrêmesN4 mis en exergue ces dernières années (2022A47 p. 154) :
L’abondance de « probable » qui constellent le Résumé SPM ne reflète pas ce qui serait attendu pour un texte censé être scientifique. Le corpus de références citées dans cet essai [Impasses climatiques] relativise l’amalgame entre météo et climat qu’a fini par s’approprier le GIEC. C’est un peu trop facile et pas franchement à son honneur. […] Les fluctuations de températures […] ne sont ni plus fréquentes ni plus intenses de nos jours qu’elles ne l’étaient il y a un ou près de quatre siècles. L’amplitude de ces fluctuations, quotidiennes entre le jour et la nuit, saisonnières, excède très largement le minuscule réchauffement annuel anthropique de 0.007°C évalué avec les chiffres du GIEC (bien qu’exagéré compte tenu de la sensibilité climatique trop élevée qu’il reprend), minimisant jusqu’au ridicule l’attribution anthropique des événements météorologiques. Un réchauffement annuel anthropique (exagéré) de sept millièmes de degrés centigrades ne peut évidemment pas causer de manière significative davantage d’incendies de forêt, d’inondations, de sécheresses, ou réduire la vitesse du Gulf Stream. […] En raison du coût pharaonique déclaré par la Banque mondiale, le changement climatique induit par l’Homme reste à démontrer, et ne peut pas seulement être supposé probable.
Ce point de vue est aussi celui de Richard Lindzen, titulaire jusqu’en 2013 de la chaire de météorologie au Massachussetts Institute of Technology.et membre de l’Académie nationale des sciences aux USA. Lors de sa conférence à la Global Warming Policy Foundation à Londres (2018A77 p. 8–9) il déclarait :
En ce qui concerne ces extrêmes, les données ne montrent aucune tendance et le GIEC est d’accord. Même Gavin Schmidt, le successeur de Jim Hansen à l’atelier new-yorkais de la NASA, le GISS, a fait remarquer que « les déclarations générales sur les extrêmes sont pratiquement absentes de la littérature, mais semblent abonder dans les médias populaires ». Il a ajouté qu’il suffit de quelques secondes de réflexion pour se rendre compte que l’idée reçue selon laquelle « le réchauffement climatique signifie que tous les extrêmes doivent augmenter en permanence » est « absurde ».
Au cœur de cette absurdité se trouve l’incapacité à distinguer la météo du climat. Ainsi, le réchauffement climatique fait référence à l’augmentation bienvenue de la température d’environ 1°C depuis la fin du petit âge glaciaire, il y a environ 200 ans. En revanche, les extrêmes météorologiques impliquent des changements de température de l’ordre de 20°C. Ces changements importants ont une origine profondément différente de celle du réchauffement climatique. En termes simples, ils résultent de vents transportant de l’air chaud et de l’air froid depuis des régions éloignées très chaudes ou très froides. Ces vents se présentent sous la forme de vagues. La force de ces vagues dépend de la différence de température entre les tropiques et l’Arctique (des différences plus importantes entraînant des vagues plus fortes). Or, les modèles utilisés pour prévoir le réchauffement climatique prévoient tous que cette différence de température diminuera plutôt qu’elle n’augmentera.
Ainsi, l’augmentation des températures extrêmes serait plus favorable à l’idée d’un refroidissement global qu’à celle d’un réchauffement global. Cependant, les analphabètes scientifiques semblent incapables de faire la distinction entre le réchauffement climatique et les températures extrêmes dues aux conditions météorologiques. En fait, comme on l’a déjà noté, il ne semble pas y avoir de tendance perceptible en ce qui concerne les extrêmes climatiques. Il n’y a que l’attention accrue accordée par les médias aux conditions météorologiques et l’exploitation de cette couverture médiatique par des personnes qui se rendent compte que les projections de catastrophes dans un avenir lointain ne sont guère convaincantes, et qu’elles ont donc besoin d’un moyen de convaincre le public que le danger est immédiat, même si ce n’est pas le cas.
Halène Arezki résume avec brio (2022A3) :
Les médias nous montrent les preuves du changement climatique sur la planète avec les aléas météorologiques comme un ivrogne affirme qu’il est toujours l’heure de l’apéro quelque part sur Terre. Les urbains profonds, y compris ceux qui vivent à la campagne, y voient les premières manifestations de l’apocalypse thermocarbonée qui nous est promise.
Justin Trudeau, premier ministre du Canada, affirmait en été 2023 : « Nous voyons de plus en plus de ces feux à cause du changement climatique. » Les journalistes qui ont diffusé ce message en boucle n’ont pas pris la peine de consulter la base de données des nombres d’incendies et des superficies forestières brûlées au Canada. Celles-ci ne varient pas dans le sens d’une augmentation, et certainement pas en lien avec la production de gaz à effet de serre (2021N42) :

Source : Base de données nationale sur les forêts (BDNFN42)
La confusion entre météo et climat est à la source de généralisations hâtives qui font la une des médias. La longue période de sècheresse suivie de pluies torrentielles en Californie est exemplaire de ces pirouettes rhétoriques (Koonin SE, 2021A70 p. 178) :
Les incertitudes climatiques sont plus importantes au niveau régional qu’au niveau mondial. Par exemple, pendant les cinq ou six premières années de la récente sécheresse en Californie, de nombreux climatologues ont affirmé que les influences humaines sur le climat augmentaient le risque de sécheresse (Diffenbaugh NS et al., 2015A33). Pourtant, il n’a fallu qu’un an environ, après la fin dramatique de la sécheresse en 2016, pour que des articles soient publiés, affirmant qu’un monde qui se réchauffe signifierait également une Californie plus humide (Allen RJ & RG Anderson, 2018A2). Peut-être s’agit-il simplement d’un processus d’affinement des connaissances scientifiques. De manière moins charitable, j’ai la nette impression que la science est suffisamment incertaine pour que n’importe quel phénomène météorologique inhabituel puisse être « attribué » à des influences humaines.
⇪ Le CO2 source de nos malheurs ?
Nous avons vu dans la section Réalité de "l'empreinte carbone" que l’augmentation du taux atmosphérique de CO2 — dont l’attribution à l’activité humaine est quantifiée de manière incertaine — a une influence négligeable sur la température globale de la Planète, puis, dans Météo versus climat, qu’elle ne pouvait pas plus être tenue pour responsable de phénomènes météorologiques extrêmes.
Cette augmentation du CO2 est en réalité un bénéfice pour la couverture végétale, notamment dans les zones arides. La couverture forestière de l’Afrique subsaharienne s’est accrue de 8 % en trois décennies (Bastin JF et al., 2017A9 ; voir sept autres références dans Gervais F, 2022A47 p. 131). Les jeunes forêts tropicales humides peuvent absorber onze fois plus de carbone atmosphérique que les forêts anciennes (Poorter L et al., 2016A107). Le rapport Sécheresse, désertification et reverdissement au Sahel de la Convention des Nations Unies sur la lutte contre la désertification reconnaît (Descroix L, 2021A32) :
[…] un reverdissement général et spontané du Sahel, comme si, 25 ans après le retour d’une pluviométrie « normale » (en quantité de pluie tombée mais leur intensité a crû sensiblement), la végétation parvenait à reprendre sa place et ses droits.
Sous le titre Réprimande et rédemption, Benoît Rittaud écrit (2022A117) :
Le chemin de la rédemption […] emprunte à la fois à la religion et au totalitarisme. La première se lit en filigrane dans les appels à une sobriété toute franciscaine (« heureuse », rassurons-nous), dans la possibilité de racheter nos péchés par les indulgences (les compensations carbone) ou encore dans les grandes processions (les manifestations pour « éveiller les consciences »). Quant à la seconde, elle se voit dans le recours constant à la peur et à la menace, mais aussi dans le fait que chaque instant de notre vie doit désormais être mesuré à l’aune unique du climat. Il nous faut y penser lorsque nous nous nourrissons, lorsque nous nous habillons, lorsque nous nous déplaçons, lorsque nous achetons, ou même lorsque nous jetons.
Le climat ne se contente pas d’être un sujet parmi d’autres, ni même de disposer du statut de « problème le plus important ». Non : il doit être le point focal de toute considération, quelle qu’elle soit. Tout doit trouver le moyen de s’y ramener, qu’il s’agisse d’économie, de défense, des institutions, voire du covid. La « justice climatique » voisine donc avec la consommation « éco-responsable », les « grèves pour le climat » ou encore la Constitution qui, durant le dernier quinquennat, et dans l’indifférence générale, aurait dû se voir affublée de « la lutte contre le changement climatique » dans son article premier.
⇪ Pétitions et déclarations
Le « consensus », à l’époque de Gore, était loin de représenter la « science établie » (settled science), si l’on en juge par la signature d’une pétition sur le réchauffement global (2008N43) qui avait rassemblé pas moins de 31 000 universitaires américains, tout en étant ignorée par la presse (Bast D, 2008A7) :
« La presse grand public est guidée par l’alarmisme », explique M Taylor. « Si vous avez une bonne nouvelle — 31 000 scientifiques ne pensent pas que la fin du monde est proche — la presse ne veut pas vraiment l’entendre, ni la partager avec ses lecteurs et ses auditeurs. »
Une critique radicale du fonctionnement du GIEC a été publiée en 2011 par Ross McKitrick, préfacée par John Howard, ancien premier ministre de l’Australie qui se déclarait « agnostique » en matière de climat. Les points essentiels soulevés par ce rapport étaient (McKitrick R, 2011A87 p. 29) :
• Le processus opaque de sélection des auteurs principaux et le recrutement confidentiel des auteurs collaborateurs ;
• L’absence de toute exigence contraignante permettant d’intégrer l’ensemble des points de vue ;
• Les failles et les lacunes dans la séquence d’examen par les pairs ;
• Les conflits d’intérêts intellectuels.
D’autres déclarations contredisant les annonces du GIEC ont été publiées par la suite. Voir notamment un « Appel au GIEC » (en français) d’Alain Mathieu et Camille Veyres (2021A85) basé sur une Enquête sur l’urgence climatique concrétisée par un échange entre les auteurs et François-Marie Bréon, Président de l’Association française pour l’information scientifique. En conclusion, Mathieu et Veyres soulignent plusieurs décennies d’incertitudes (2021A85 p. 26) :
Le prochain rapport du GIEC devra donc fournir une preuve incontestable et non une croyance, fondée sur des aberrations scientifiques, que les émissions humaines sont la cause du réchauffement. Faute de cette preuve, le scepticisme grandira.
La CLINTEL Foundation a publié une analyse pointilleuse du rapport (AR6N3) du GIEC : The Frozen Climate Views of the IPCC. An analysis of AR6 (Crock M & A May eds., 2023A29).
La pétition « Il n’y a pas d’urgence climatique » (2023N44), initiée par John Clauser a été signée par plus de 1000 scientifiques, universitaires, ingénieurs, professionnels de l’environnement et de la santé de 37 pays, qu’on peut mettre en balance avec les 234 scientifiques de 66 pays signataires en 2021 du rapport AR6N3 du GIEC (Groupe 1). François Gervais a répondu point par point (2022A47 p. 175–179) aux critiques (non étayées) de cette déclaration, publiées sur le site Climatefeedback.
⇪ Disqualification du scepticisme et loi du silence
Benoît Rittaud décrit la campagne de dénigrement qui frappe les scientifiques osant porter un regard critique sur les affirmations du GIEC (2022A117) :
En France, Bruno Latour est efficacement parvenu à étouffer toute pensée véritablement réflexive sur le climat, au profit d’un bréviaire militant qui ne recule pas devant l’ignominie : quelques jours à peine après les attentats de novembre 2015, Latour prenait sa plus belle plume pour écrire que l’indignité des climato-sceptiques était équivalente à celle des terroristes du Bataclan.
Le cas de Latour est révélateur, car ce sociologue des sciences avait au départ tout l’outillage intellectuel pour étudier intelligemment la mécanique à l’œuvre derrière les proclamations de « consensus scientifique ». Il fut un analyste impitoyable des récits un peu trop triomphalistes sur la marche irrésistible et désintéressée de la science vers le progrès. Jadis utile poil à gratter pour faire descendre les scientifiques de leur piédestal, Latour, et tant d’autres avec lui, a hélas choisi la facilité. Son hémiplégie intellectuelle lui fait désormais réserver ses flèches aux épouvantails commodes que sont « la droite américaine » ou les « lobbys du fossile ».
La répression des réfractaires au discours officiel affecte en premier leurs carrières. François Gervais écrit (2022A47 p. 39) :
Certains scientifiques paient un lourd tribut, châtiés qu’ils sont de ne pas adhérer à la pensée unique. Les tous derniers résultats sur le blanchiment de la barrière de corail, par exemple, montrent que la situation de 2016 était vraisemblablement liée au phénomène El Niño d’amplitude majeure cette année-là [lien]. La barrière de corail a depuis complètement récupéré [lien]. Peter Ridd [lien], spécialiste de la barrière australienne qui plaidait pour le phénomène naturel, a été abusivement licencié de son Université, et a été contraint de se lancer dans un recours en justice. Nombre d’autres universitaires affichant des positions sceptiques ont été licenciés ou réduits au silence.
De nombreux autres exemples d’atteintes à la liberté académique sont cités dans les pages suivantes (Gervais F, 2022A47 p. 39–52) :
Les climatosceptiques sont qualifiés de deniers en anglais. Dénier suppose une vérité établie. Mais justement, le Tableau 1.1 [pages 45–49] recense pas moins de 111 articles qui, dans le contexte, ont eu le mérite d’être passés sous les fourches caudines de la revue par les pairs pour conclure à une sensibilité climatiqueN27 égale ou inférieure à 1°C. La fourchette dans le dernier rapport AR6 (2021N3) du GIEC a été resserrée à 1.3–2.1°C, valeurs supérieures à 1°C. Les sensibilités climatiques à l’équilibre, équilibre qui serait peut-être atteint d’ici deux ou trois siècles, sont encore plus élevées. On reste tellement loin d’un consensus que le mot perd tout son sens. Il ne saurait donc y avoir déni, encore moins négationnisme selon le qualificatif d’une rare impudence jeté à la face des sceptiques. L’Holocauste est un fait historique. Les projections de température d’ici la fin du siècle se contredisent. Comment pourrait-on « nier » ou « dénier » ce qui reste trop fortement contradictoire, et surtout ce qui n’est pas encore arrivé ?
L’exemple suivant montre le peu de soin apporté par certains experts des groupes de travail du GIEC à l’examen scientifique des données à leur disposition. Il s’agit ni plus ni moins de fraude scientifique : la mise à l’écart des publications qui ne contribuent pas à renforcer le discours alarmiste du GIEC (Gervais F, 2022A47 p. 50–51) :
Les 111 études du Tableau 1.1 [pages 45–49, qui concluent à une sensibilité climatiqueN27 égale ou inférieure à 1°C] sont à comparer à celles listées par Knutti et al. (2017A66) où 47 sensibilités climatiques TCR [réponse climatique transitoire], ou intervalles de TCR, sont citées. Parmi celles-ci, une seule conclut à 1°C et une seule autre à moins de 1°C (Ollila 2014A99). 78 ECS (Equilibrium climate sensitivityN26) ou intervalles d’ECS sont également passés en revue. Seulement 7 études rapportent 1°C ou moins […].
Pourquoi un tel tri sélectif si différent du Tableau 1.1 ? Knutti est auteur principal du rapport AR5 du GIEC (2013), de son Résumé pour décideurs et du résumé technique. Il est aussi Coordinating lead author du chapitre 12. Son nom apparaît pas moins de 201 fois dans le rapport AR5, y compris via 75 autocitations. Ainsi est-on autorisé à se poser la question de la politisation des rapports, depuis l’AR4, au vu du tri sélectif opéré par le GIEC, de l’autocitation très exagérée, et de l’exclusion du vaste corpus de travaux revus par les pairs, listés dans le Tableau 1.1.
Citant les travaux de Nicola Scafetta (voir ci-dessus), François Gervais écrit à ce sujet (2022A47 p. 54) :
Loin de l’affirmation d’une science établie, les incertitudes des modèles de climat apparaissent grandissantes, atteignant 3.8°C d’écart pour les modèles CMIP6 (Scafetta 2021bA125) comparé à 2.7°C pour les modèles CMIP5. Prendre la moyenne de valeurs fausses, sauf peut-être une, en écartant d’autorité celles inférieures à 1°C du Tableau 1.1, est hautement contestable.
Selon Pascal Blamet (2021A15) :
La simulation numérique est […] une discipline scientifique en soi : le domaine confidentiel, hermétique (et inexistant sur le plan médiatique) des numériciens, infime minorité de chercheurs discrets, et hyper spécialisés, dont l’objectif est d’abord que leur modèle aboutisse à des résultats stables numériquement et plausibles physiquement.
Quant à la « communauté scientifique climatique », elle relève pour l’essentiel d’une juxtaposition de disciplines distinctes, souvent naturalistes, et attachées à des objets spécifiques (glaciologie, océanographie, météorologie, thermodynamique, astronomie, hydrologie, etc.).
Il est frappant de noter que ces scientifiques observent, mesurent (ce qui n’est déjà pas simple) mais, faute de capacité d’interprétation globale, se retranchent derrière le préambule rituel du GIEC de la « faute au CO2 » et la nécessité d’en « sauver la planète ».
C’est tout simplement oublier que la recherche ne relève pas des bonnes intentions, mais d’une démarche intellectuelle où la liberté, la controverse, et surtout la raison critique (exact inverse du complotisme) sont bien sûr primordiales.
En climatologie, sans que cela heurte qui que ce soit, cette dernière a manifestement disparu de la sphère publique, comme si la thermodynamique atmosphérique avait la simplicité et la reproductibilité de la bille qui tombe sous l’effet de la pesanteur !
Ce qui explique sans doute que seuls des professeurs émérites et des scientifiques à la retraite se considèrent en situation de pouvoir émettre des avis critiques : ils sont désormais quasiment les seuls à avoir la liberté de le faire, avec courage d’ailleurs, compte tenu de l’ostracisme dont ils font l’objet, malgré leur expérience.

Un des ouvrages les plus lus dans le monde anglophone, au sujet de la modélisation en climatologie — mais, comme nous l’avons vu, sans aller jusqu’à mettre en doute un réchauffement climatique causé par les gaz à effet de serre d’origine anthropique — est celui de Steven E Koonin (2021A70). Ce professeur de l’Université de New York a participé au développement des tous premiers modèles informatiques en sciences. Il a étudié leur usage en sciences du climat, à partir de 2004, engagé par la firme pétrolière British Petroleum pour un travail de recherche sur les énergies renouvelables. Le Président Barack Obama l’a par la suite nommé sous-secrétaire aux sciences du département américain de l’Énergie.
➡ Les prophètes de « l’effondrement climatique » n’ont de cesse de disqualifier les climato-réalistes en les soupçonnant de « complicité » avec l’industrie pétrolière. La tentation est grande d’en faire de même avec un auteur qui a travaillé pour British Petroleum avant de rejoindre le gouvernement… Sauf que sa mission était d’étudier les options des énergies renouvelables permettant à la compagnie d’aller « au delà du pétrole » — voir Ron Bousso (2020A18) au sujet des ambitions de BP. L’intérêt pour ces industriels serait donc plutôt de soutenir la « transition énergétique ».
Après la publication de son éditorial intitulé Climate Science Is Not Settled dans le Wall Street Journal (2014A68), Steven Koonin avait été confronté à des avis mitigés (2021A70 p. 5) :
Cet article a suscité des milliers de commentaires en ligne, dont la grande majorité était favorable. Ma franchise sur l’état de la science du climat a cependant été moins populaire dans la communauté scientifique. Comme me l’a dit en privé le président d’un département de sciences de la terre d’une université très respectée : « Je suis d’accord avec presque tout ce que vous avez écrit, mais je n’ose pas le dire en public.»
De nombreux collègues scientifiques, dont certains sont mes amis depuis des décennies, ont été outrés que je mette en évidence les problèmes de “La Science” et que je donne ainsi, comme l’a dit l’un d’entre eux, « des munitions aux négationnistes ». Un autre a déclaré qu’il aurait été acceptable de publier mon essai dans une obscure revue scientifique, et m’a reproché de l’avoir fait dans un forum comptant autant de lecteurs. Enfin, un éminent défenseur de l’idée que “La Science” est suffisamment établie a publié une réponse à mon éditorial, qui commençait par demander à l’Université de New York de reconsidérer mon emploi, continuait en déformant beaucoup de choses que j’avais écrites, puis, de manière déconcertante, reconnaissait que la plupart des incertitudes que j’avais signalées étaient bien connues, et avaient fait l’objet de nombreuses discussions parmi les experts (Pierrehumbert RT, 2014A105). Il semble qu’en soulignant ces incertitudes de manière aussi claire et publique, j’avais par inadvertance brisé un certain code du silence, comme l’omerta de la mafia.
⇪ Réparer la « science défaillante »
Steven Koonin avait proposé, en 2017, la création d’une “Red Team” (équipe rouge), un groupe de scientifiques chargé de vérifier rigoureusement l’un des rapports d’évaluation, en essayant d’en identifier et d’en évaluer les faiblesses (Koonin SE, 2021A70 p. 197) :
En principe, on demanderait à un groupe contradictoire qualifié : « Qu’est-ce qui ne va pas avec cet argument ? » Et, bien entendu, la “Blue Team” (vraisemblablement les auteurs du rapport) aurait la possibilité de réfuter les conclusions de l’équipe rouge. (À noter que l’utilisation de “Red” et “Blue” est traditionnelle dans l’armée, où ces exercices ont vu le jour ; cela n’a rien à voir avec la politique américaine.)
L’examen par la Red Team d’un rapport d’évaluation du climat pourrait renforcer la confiance dans cette évaluation et démontrer la solidité (ou l’absence de solidité) de ses conclusions. Elle soulignerait la fiabilité de la science qui se soumet à son examen, et mettrait en évidence, pour les non-spécialistes, les incertitudes ou les points « gênants » qui ont été occultés ou minimisés. En bref, elle améliorerait et étayerait « La Science » par de la science.
Bien entendu, le GIEC des Nations unies et le gouvernement américain affirment que leurs rapports d’évaluation respectifs font autorité, puisqu’ils ont déjà fait l’objet d’un examen rigoureux par les pairs avant d’être publiés. Alors pourquoi exiger un niveau de contrôle supplémentaire ?
La réponse la plus directe à cette objection est que ces rapports présentent d’importantes failles dues à la manière dont ils ont été synthétisés et interprétés.
François Gervais résume ainsi les arguments de Koonin (Gervais F, 2022A47 p. 95, souligné par l’auteur) :
L’une des principales contributions du livre est son compte rendu détaillé de la façon dont le message sur le changement climatique est déformé au fur et à mesure qu’il passe par des filtres successifs. Les travaux publiés sont traduits en rapports, puis en résumés de rapports, qui sont ensuite repris par des médias alarmistes, sans qu’ils se soient évidemment donné la peine de lire les travaux originaux.
Steven Koonin précise (2021A70 p. 199) :
Un grand groupe d’experts bénévoles (y compris, [aux USA], pour l’Évaluation nationale du climat, un groupe convoqué par les académies nationales) révise le projet. Mais, contrairement à l’examen par les pairs des articles de recherche, les désaccords entre les réviseurs et les auteurs principaux ne sont pas résolus par un arbitre indépendant ; l’auteur principal peut choisir de rejeter une critique en disant simplement : « Nous ne sommes pas d’accord. » […] Et — point très important — les « Résumés à l’intention des décideurs » du GIEC sont fortement influencés, si ce n’est rédigés, par des gouvernements qui ont intérêt à promouvoir des politiques particulières.
Deux jours avant la March for Science, le Wall Street Journal avait publié un article dans lequel Steven Koonin proposait une évaluation des déclarations de la science du climat par une “Red Team” (Koonin SE, 2021A70 p. 200) :
J’ai utilisé la description alarmante et trompeuse des données sur les ouragans de l’ANC 2014 pour illustrer la nécessité d’un tel examen, et j’ai expliqué comment il pourrait être mené à bien (Koonin SE, 2017A69).
Cet article avait reçu 750 commentaires pour la plupart favorables. Mais trois articles y avaient répondu par la négative, arguant que les rapports avaient déjà été révisés par les pairs. Steven Koonin commente (2021A70 p. 201) :
Il est révélateur qu’aucun de ces articles n’ait abordé la déformation des données sur les ouragans du NCA 2014 que j’avais mise en évidence, ni expliqué comment elle avait survécu à « l’examen minutieux de plusieurs décennies » de « multiples niveaux d’évaluation formelle et informelle par des experts ». […]
Alors que l’intérêt de l’administration pour un examen par la Red Team s’est poursuivi jusqu’à la mi-2019, d’autres objections ont été émises par des politiciens non scientifiques qui se sont laissés induire en erreur en croyant que « la science est établie ». Le 7 mars 2019, le sénateur Schumer (et d’autres […]) ont soumis un projet de loi sénatoriale S.729 :
… interdire l’utilisation de fonds des agences fédérales pour établir un groupe d’experts, un groupe de travail, un comité consultatif ou tout autre effort visant à remettre en question le consensus scientifique sur le changement climatique […].
Bien que ce projet de loi n’ait jamais abouti, ce n’était certainement pas la première fois que le Congrès tentait d’empêcher une administration de faire quelque chose. […] En tant qu’étudiant en histoire, j’ai trouvé que ce projet de loi rappelait de manière désagréable un décret du Concile de Trente, en 1546, qui tentait de supprimer toute remise en question de la doctrine de l’Église. […].
Comment exercer un esprit critique constructif vis-à-vis des messages émanant de ces rapports relus et révisés par des non-scientifiques ? Steven Koonin propose quelques pistes (2021A70 p. 203–204):
Quiconque désigne un scientifique par les termes péjoratifs de « négationniste » ou « alarmiste » fait de la politique ou de la propagande.
Tout appel au prétendu « consensus de 97% » parmi les scientifiques est un autre signal d’alarme. L’étude à l’origine de ce chiffre (Cook J et al., 2013A28) a été démystifiée de manière convaincante (Johnson, 2016A142). Quoi qu’il en soit, personne n’a jamais précisé ce sur quoi ces 97 % de scientifiques sont censés s’être accordés. Que le climat change ? Bien sûr, je suis d’accord ! Que les humains influencent le climat ? Absolument, j’en suis ! Que nous constatons déjà des effets météorologiques désastreux et que nous sommes confrontés à un avenir encore plus catastrophique ? Ce n’est pas du tout évident […].
La confusion entre météo et climat est un autre signal d’alerte.
L’omission de chiffres est également un signal d’alarme. Entendre dire que « le niveau de la mer augmente » est alarmant […].
Une autre tactique courante consiste à citer des chiffres alarmants hors contexte. Un titre comme « Les océans se réchauffent à la même vitesse que si cinq bombes d’Hiroshima étaient larguées chaque seconde » semble en effet effrayant, d’autant plus qu’il fait référence aux armes nucléaires (Kottasová I, 2020A71). Mais si l’on poursuit la lecture de cet article, on apprend que la température des océans n’augmente que de 0.04°C par décennie.
Les discussions non spécialisées sur la science du climat confondent souvent le climat actuel (observations) et le climat possible (projections de modèles selon divers scénarios).
Tout le monde peut (et devrait) lire les articles sur la science du climat en gardant à l’esprit ces signaux d’alerte. […] Les médias audiovisuels sont mal adaptés à cette tâche, car leurs reportages sont brefs et se résument à des extraits sonores. (Attention en particulier aux présentateurs météo qui se sont transformés en « présentateurs climat et météo » — rendre compte de changements sur trente ans n’est pas exactement un « flash d’information »).
Davis R Legates et collègues ont écrit (2015A76 p. 316) :
Le consensus de 97.1 % revendiqué par Cook et al. (2013A28) s’avère, après inspection, être non pas 97.1 % mais 0.3 %. Leur affirmation d’un consensus de 97.1 % est donc sans doute l’un des plus grands éléments de désinformation qui ait circulé de chaque côté du débat sur le climat.

Michael Sidiropoulos a présenté un concept actualisé de la méthode scientifique, avec l’inclusion, dans la validation, de deux étapes supplémentaires : des critères de démarcation et un critère de falsification modifié. Extraits (2019A133) :
L’accent mis sur le cadre conceptuel de l’effet de serre a conduit à une théorie fondamentalement sous-déterminée. Nous pouvons également l’appeler « sous-contrainte » ou « sous-spécifiée ». Il y a moins d’interactions et de rétroactions dans les modèles et trop de variables inconnues et de degrés de liberté. Un système sous-déterminé a généralement de nombreuses solutions. En d’autres termes, il peut exister d’autres théories compatibles avec le même ensemble d’observations. […]
Il n’est pas certain que l’introduction de nouveaux forçages résoudra le problème de la sous-détermination. Les nouveaux forçages créeront de nouvelles inconnues et de nouvelles interactions (équations) et le déséquilibre entre les inconnues et les équations sera probablement préservé. […]
Les corrélations statistiques peuvent conduire à la formulation d’une théorie mais ne constituent pas une preuve de causalité. Celle-ci doit être apportée par la science théorique et expérimentale. Les essais et les erreurs permettent d’améliorer les modèles. Par exemple, les modèles climatiques ont récemment été modifiés pour inclure l’effet des forêts, une variable manquante importante dans les modèles précédents.
Les tests de la méthode proposée sont appliqués aux hypothèses fondamentales et aux conclusions des deux parties de la théorie de l’effet de serre : (1) l’augmentation des températures mondiales, (2) l’anthropogenèse de l’augmentation des températures mondiales. Plusieurs prémisses de la théorie s’avèrent falsifiables avec les moyens de la technologie actuelle et sont donc des théories scientifiques. D’autres prémisses sont jugées infalsifiables et ne peuvent être incluses dans une théorie scientifique. Ces dernières doivent être éliminées ou remplacées par d’autres propositions falsifiables.
⇪ À quel prix ?
Le remue-méninges à propos du CO2 responsable du « dérèglement du climat » occupe le devant de la scène médiatique, au détriment de la lutte contre la pollution des nappes phréatiques, cours d’eau et océans, la dégradation de la biodiversité par des pratiques agricoles inadaptées, la stérilisation des sols, l’extraction minière de ressources minérales exigeant une consommation massive d’eau — entre autres, le lithium servant à la fabrication de batteries de véhicules électriques destinées à « sauver le climat »…
En 2018, le météorologue Richard Lindzen réprouvait la tournure des événements (2018A77 p. 7) :
En août dernier, un article a été publié dans les actes de l’Académie nationale des sciences. Parsemé de « pourrait » et de « peut-être », il conclut qu’une « action humaine collective » est nécessaire pour « éviter que le système terrestre n’atteigne un seuil potentiel » et pour qu’il reste encore habitable. Selon les auteurs, cela impliquerait « la gestion de l’ensemble du système terrestre — biosphère, climat et sociétés », et cela pourrait impliquer « la décarbonation de l’économie mondiale, un renforcement des puits de carbone de la biosphère, des changements de comportement, des innovations technologiques, de nouvelles dispositions en matière de gouvernance, et une transformation des valeurs sociales ».
N’oublions pas que, dans un monde qui adhère à I’incohérence du « principe de précaution », la simple affirmation d’une possibilité lointaine justifie une action radicale.
La polarisation des esprits sur « l'empreinte carbone » permet aux entreprises — y compris dans le secteur de l’extraction de combustibles fossiles — de s’acheter une « notoriété verte » en compensant leur contribution aux émissions de gaz à effet de serre par des opérations appréciées du public, comme la plantation d’arbres. Mais ce rideau de fumée (verte) masque les problèmes de destruction de l’environnement liés à la surexploitation de ressources et à la défiguration de territoires, qu’aucune « décarbonation » ne peut résoudre.
Sans oublier les milliards d’euros engloutis dans des projets pharaoniques de « séquestration du carbone » (Webb D, 2023A149), ou encore de dispersion d’aérosols pour diminuer l’impact des rayons du soleil (CAMS, 2023A21 ; Koonin SE, 2021A70 p. 240–241).
François Gervais évoque un sujet qui fâche : le chiffrage de cette politique environnementale (2022A47 p. 162, 168) :
Nos ancêtres les Gaulois n’avaient qu’une crainte, que le ciel leur tombe sur la tête. Dans le passé, sécheresses ou inondations étaient attribuées à l’humeur des dieux vengeurs ou des démons. Aujourd’hui, une rhétorique instrumentalise la météo comme prétexte à un changement de paradigme énergétique, lui-même annonciateur d’un changement d’économie, donc de société. […] Faites peur à suffisamment de monde, en particulier les plus jeunes, pour leur faire croire ce que vous souhaitez qu’ils croient, et vous créerez de futurs activistes qui deviendront les fidèles zélotes de l’idéologie de la neutralité carbone au nom d’une « justice climatique ». Si Machiavel avait voulu planifier le plus grand transfert de richesse de l’Histoire, la « finance climatique » pour prétendument sauver la Terre de l’apocalypse aurait certainement été tout en haut de sa liste. […]
L’objectif de ne pas dépasser 0.5°C supplémentaire doit être comparé au coût afférent. On reprendra le chiffrage de la Banque Mondiale de 89 000 milliards de dollars d’ici 2030. Au rythme évalué selon les propres chiffres du rapport AR6 (2021N3) du GIEC de 0.07°C par décennie, on reste très loin de 0.5°C d’ici là. Si l’argent est dépensé, cela sera donc pour de toutes autres raisons que celles qui servent de prétexte. Certains en profiteront immédiatement, tous les autres seront appelés à payer sous une forme ou une autre dans un délai plus ou moins long. […]
Les pouvoirs publics ont dépensé sur le dos des contribuables des milliards pour subventionner les énergies renouvelables sans le moindre impact visible sur l’évolution du CO2. […] La variation de température, si l’on fait abstraction des pics El Niño, phénomènes naturels, reste proche de zéro depuis le protocole de Kyoto, du moins bien plus faible que les projections alarmistes.
Interrogé (en mai 2023) par un sénateur sur le coût de la « neutralité carbone en 2050 » aux États-Unis, le secrétaire adjoint du ministère de l’énergie, David Turk, a répondu « 50 milliards de dollars ». Quand le sénateur lui a demandé quel serait le bénéfice de cette opération, en termes de diminution du réchauffement, il n’a pas su que répondre. On peut en avoir une idée dans la section Réalité de « l'empreinte carbone»…
À la fin du vingtième siècle, les mouvements écologistes ont réhabilité le nucléaire comme solution provisoire jusqu’à une totale transition vers les énergies renouvelables. Les industriels et les décideurs politiques se frottent les mains (Topçu S, 2013A143 p. 327) :
Face à la menace climatique, et dans la lignée des nouvelles exigences de « bonne gouvernance », désormais centrée sur l’écologie et la participation du public, les organismes nucléaires inventent, à partir du milieu des années 1990, le nucléaire « vert », en parfaite contradiction avec les stigmatisations de l’écologie faites deux décennies auparavant.
L’absence de débat contradictoire, et surtout l’accord de la majorité des gens de tous bords sur l’échiquier politique, sont révélateurs d’un mécanisme de formation des masses tel que théorisé par Mattias Desmet. Mais, puisque « nous sommes en guerre », tous les coups ne sont-ils pas permis ? (Kempf H, 2023A65 ; Belaud A, 2023A12 ; Bock-Côté M, 2023A16).
L’hypothèse d’un effet de serre — pour parler chic, d’un forçage radiatifN6 — causé majoritairement par le CO2 et autres molécules produites par l’activité humaine, serait-elle un leurre ? Ce mécanisme n’a jamais été mis en évidence expérimentalement (Gerlich G & RD Tscheuschner, 2009A43 ; Geuskens G, 2020A50 ; 2018A48 ; 2019A49). L’évaluation de son intensité relève d’expériences de pensée qui font débat. Mais surtout, la part effective de l’activité humaine dans ce mécanisme se révèle infime, comme signalé ci-dessus et dans d’autres publications (Terre et Climat, 2023A140 ; Happer W & R Lindzen, 2023A54). L’eau, sous toutes ses formes, serait le principal acteur du changement climatique (Poyet P, 2022A108 p. 124–127). Par conséquent, ce changement serait principalement l’effet de phénomènes naturels qui échappent au contrôle des humains.
Si l’on osait mettre un point d’interrogation — ou de suspension — sur la composante anthropique du changement climatique, c’est la pointe d’une pyramide érigée à l’envers qui se déroberait… Avec elle, la raison d’être d’un investissement monumental, financier et politique, des nations (occidentales) dans leur transition énergétique, sous la menace de procès pour « inaction climatique ».
À l’échelle continentale, cet investissement se matérialise par le Green Deal européen (Belardo T et al., 2023A11) de 100 milliards d’euros, appuyé par le Forum Économique Mondial. Ce dernier s’est donné pour mission d’exercer une pression collective en faveur de la neutralité carbone que l’Agence internationale de l’énergie a baptisée Zéro émission nette d’ici 2050 (Schwab K & T Malleret, 2021A130 p. 82).
Pendant que le roi Charles III, de visite en France en septembre 2023, plaidait pour une nouvelle « entente franco-britannique » sur le climat et la biodiversité — considérant que « le plus grand défi de tous [est] le réchauffement climatique, le changement climatique et la destruction catastrophique de la nature » — le Premier ministre britannique Rishi Sunak annonçait le report de plusieurs mesures phare de la politique climatique du Royaume-Uni, disant à mi-mot que l’objectif de « neutralité carbone » en 2050 lui paraissait irréalisable… Aurait-il une arrière-pensée concernant son utilité ?
Les médias francophones annoncent un recul de l’engouement pour le projet « Zéro émission nette », soulignant son coût économique et sociétal. Toutefois, sans émettre de doute sur sa nécessité. La « bulle climatique » menace-t-elle d’exploser ? Avec quels effets ?
L’enjeu de ces questions est abyssal… Lisez les sources, puis commentez. Mais souvenez-vous : des faits, pas des opinions !

➡ L’ouvrage « Impasses climatiques » (Gervais F, 2022A47) a rendu possible la rédaction de ce premier essai, de par la pertinence de ses analyses et la diversité des sources auxquelles il fait référence. Je suis toutefois déçu par le dernier chapitre consacré aux énergies dites « propres », instruments d’une transition énergétique dont l’auteur s’est efforcé de démontrer la précocité, si ce n’est l’inutilité… Ses arguments me paraissent réduits aux « éléments de langage » de promoteurs (ou de détracteurs) de solutions industrielles.
Notamment (pages 245–249) quand il se fait l’avocat d’un renouveau de l’atome civil avec cet argument éculé : « Pour l’instant, le nombre total de décès dus aux accidents de centrales nucléaires civiles reste cependant très inférieur à celui lié aux ruptures de barrages [hydroélectriques]. » Tout est dans le « pour l’instant » ! Et tant pis pour la Biélorussie, victime en 1986 d’un « incident » nucléaire qui a contaminé le tiers de son territoire et rendu des centaines de milliers d’hectares de terres agricoles définitivement interdites à toute exploitation (Topçu S, 2013A143 p. 219)… Sans oublier les suites de Fukushima.
François Gervais mentionne évasivement le « problème récurrent » (sic) de stockage des déchets radioactifs (p. 247), mais il fait l’impasse sur le démantèlement des anciennes centrales, tout en accordant un crédit à l’utilisation du thorium (OdN, 2022aA97) ou à la fusion thermonucléaire (OdN, 2022bA98).
⇪ ✓ Articles et ouvrages
🔵 Notes pour la version papier :
- Les identifiants de liens permettent d’atteindre facilement les pages web auxquelles ils font référence.
- Pour visiter « 0bim », entrer dans un navigateur l’adresse « https://leti.lt/0bim ».
- On peut aussi consulter le serveur de liens https://leti.lt/liens et la liste des pages cibles https://leti.lt/liste.
- A1 · b36q · Akasofu, SI (2011). A Suggestion to Climate Scientists and the Intergovernmental Panel on Climate Change. EOS, Transactions American Geophysical Union 89, 11 : 108.
- A2 · li2a · Allen, RJ & RG Anderson (2018). 21st century California drought risk linked to model fidelity of the El Niño teleconnection. npj Climate and Atmospheric Science 1, Article number : 21.
- A3 · nbq4 · Arezki, H (2022). FLOP26 : l’échec des négociations climatiques ou les victoires du mondialisme. Blog La Trogne.
- A4 · wd96 · Arrhenius, S (1896). On the Influence of Carbonic Acid in the Air upon the Temperature of the Ground. Philosophical Magazine and Journal of Science 5, 41 : 237–276.
- A5 · b9o5 · Bagla, P (2009). No sign yet of Himalayan meltdown, Indian report finds. Science 326, 5955 : 924–925.
- A6 · u64d · Balaji, V et al. (2022). Are general circulation models obsolete ? PNAS 119, 47 : e2202075119.
- A7 · j4z3 · Bast, D (2008). 30,000 Scientists Sign Petition on Global Warming. Opinion paper. The Hearthland Institute.
- A8 · dob7 · Bastin, G (2013). Modélisation et analyse des systèmes dynamiques : 216 pages.
- A9 · nj3m · Bastin, JF et al. (2017). The extent of forest in dryland biomes. Science 356, 6338 : 635–638.
- A10 · lza1 · Beenstock, M (2012). Polynomial cointegration tests of anthropogenic impact on global warming. Earth Syst. Dynam. Discuss., 3 : 561–596.
- A11 · ur5i · Belardo, T et al. (2023). Innovating for the European Green Deal. White Paper. World Economic Forum.
- A12 · ywz1 · Belaud, A (2023). Bientôt une nouvelle loi pour museler le climatoscepticisme dans les médias ? Site de l’Institut de Recherches Economiques et Fiscales.
- A13 · v4nx · Berry, EX (2019). Human CO2 Emissions Have Little Effect on Atmospheric CO2. International Journal of Atmospheric and Oceanic Sciences 3, 1 : 13–26.
- A14 · d4bn · Berthier, E et al. (2010). Contribution of Alaskan glaciers to sea-level rise derived from satellite imagery. Nature Geoscience 3 : 92–95.
- A15 · ad4a · Blamet, P (2021). Les modèles climatiques : artefacts trompeurs ? Site Association des climato-réalistes.
- A16 · na2d · Bock-Côté, M (2023). Proposition de loi interdisant le climatoscepticisme : la radicalisation de l’extrême centre. Le Figaro, 22 septembre.
- A17 · yu3g · Borreggine, M et al. (2023). Sea-level rise in Southwest Greenland as a contributor to Viking abandonment. PNAS 120, 17 : e2209615120.
- A18 · f5mu · Bousso, R (2021). BP gambles big on fast transition from oil to renewables. Special Report. Reuters.
- A19 · w83a · Bray, D & H von Storch (2007). Climate scientists : Perceptions of climate change science. GKSS — Forschungszentrum Geesthacht GmbH, Geesthacht.
- A20 · xs5j · Breiter, B et al. (2014). Revision of the EPICA Dome C CO2 record from 800 to 600 kyr before present. Geophysical Research Letters 42, 2 : 542–549.
- A21 · anm3 · CAMS (2023). Aérosols : la réduction des émissions de SO₂ contribue-t-elle au réchauffement climatique ? Site Association des climato-réalistes.
- A22 · jg63 · Caillon, N et al. (2023). Timing of Atmospheric CO2 and Antarctic Temperature Changes Across Termination III. Science 299, 5613 : 1728–1731.
- A23 · lr4w · Christy, J & R Spencer (2003). Global temperature report, 1978–2003. Earth System Science Center. The University of Alabama in Huntsville : 18 pages.
- A24 · d78r · Christy, JR (2016). Testimony on 2 Feb 2016 of John R. Christy, University of Alabama in Huntsville. U.S. House Committee on Science, Space & Technology : 23 pages.
- A25 · z4qa · Chylek, P et al. (2004). Global Warming and the Greenland Ice Sheet. Climatic Change 63 : 201–221.
- A26 · kg4f · Chylek, P et al. (2011). Ice-core data evidence for a prominent near 20 year time-scale of the Atlantic Multidecadal Oscillation. Geophysical Research Letters 38, 13.
- A27 · if3g · Cogley, JG (2011). Himalayan Glaciers in 2010 and 2035. In : Singh, V.P., Singh, P., Haritashya, U.K. (eds) Encyclopedia of Snow, Ice and Glaciers. Encyclopedia of Earth Sciences Series. Springer, Dordrecht.
- A28 · cxa3 · Cook, J et al. (2013). Quantifying the consensus on anthropogenic global warming in the scientific literature. Environ. Res. Lett. 8 : 024024.
- A29 · lz4n · Crock, M & A May eds. (2023). The Frozen Climate Views of the IPCC. An analysis of AR6. Site de Clintel Foundation : 172 pages.
- A30 · txl4 · De Larminat, P (2014). Climate Change : Identification and Projections. London : Wiley-ISTE. ISBN : 978–1‑848–21777‑5.
- A31 · mv3c · De Larminat, P (2016). Earth climate identification vs. anthropic global warming attribution. Annual Reviews in Control, 42 : 114–125.
- A32 · uo74 · Descroix, L (2021). Rapport “Sécheresse, désertification et reverdissement au Sahel”. Convention des Nations Unies sur la lutte contre la désertification : 19 pages.
- A33 · s7bi · Diffenbaugh, NS et al. (2015). Anthropogenic warming has increased drought risk in California. PNAS 112, 13 : 3931–3936.
- A34 · e8a7 · Donchyts, G et al. (2016). Earth’s surface water change over the past 30 years. Nature Climate Change 6 : 810–813.
- A35 · b1zy · Dübal, HR & F Vahrenholt (2021). Radiative energy flux variation from 2001–2020. Atmosphere 12, 10 : 1297.
- A36 · m86v · Eisenman, I et al. (2011). Consistent Changes in the Sea Ice Seasonal Cycle in Response to Global Warming. Journal of Climate 24, 20 : 5325–5335.
- A37 · m13f · Elsner, JB et al. (2008). The increasing intensity of the strongest tropical cyclones. Nature 455 : 92–95.
- A38 · vkr6 · Essenhigh, RH (2009). Potential Dependence of Global Warming on the Residence Time (RT) in the Atmosphere of Anthropogenically Sourced Carbon Dioxide. Energy Fuels 23, 5 : 2773–2784.
- A39 · o6mp · Feynman, R (1974). Cargo Cult Science. Some remarks on science, pseudoscience, and learning how to not fool yourself. Caltech’s 1974 commencement address.
- A40 · k6e7 · Ford, MR & PS Kench (2015). Multi-decadal shoreline changes in response to sea level rise in the Marshall Islands. Anthropocene 11 : 14–24.
- A41 · w65c · Fourier, JBJ (1824). Mémoire sur les températures du globe terrestre et des espaces planétaires. Cambridge University Press.
- A42 · r61s · Frederikse, T et al. (2020). The causes of sea-level rise since 1900. Nature 584 : 393–397.
- A43 · u3qw · Gerlich, G & RD Tscheuschner (2009). Falsification of the Atmospheric CO2 Greenhouse Effects Within The Frame Of Physics. International Journal of Modern Physics 23, 03 : 275–364.
- A44 · f33m · Gervais, F (2014). Tiny warming of residual anthropogenic CO2. International Journal of Modern Physics 28, 13 : 1450095.
- A45 · b9m3 · Gervais, F (2016). Anthropogenic CO2 warming challenged by 60-year cycle. Earth-Science Reviews, 155 : 129–135.
- A46 · o3hw · Gervais, F (2021). Climate Sensitivity and Carbon Footprint. Science of Climate Change : 70–97.
- A47 · o85p · Gervais, F (2022). Impasses climatiques : les contradictions du discours alarmiste sur le climat. Paris : Le Toucan.
- A48 · hx2u · Geuskens, G (2018). Forçage radiatif, sensibilité climatique et rétroactions positives. Site Science, climat et énergie.
- A49 · lk5o · Geuskens, G (2019). Le réchauffement climatique d’origine anthropique. Site Science, climat et énergie.
- A50 · f5cw · Geuskens, G (2020). L’effet de serre et le bilan énergétique de la Terre. Site Science, climat et énergie.
- A51 · vp6n · Golyandina, N & A Zhigljavsky (2013). Singular Spectrum Analysis for Time Series. Chapter 2, 61 p., Basic SSA. Springer, ISBN 978–3‑642–34913‑3.
- A52 · jc67 · Goosse, H et al. (2010). Introduction to climate dynamics and climate modelling. Cambridge University Press. ISBN 9781107445833.
- A53 · umh5 · Gys, E (2009). Le moulin à eau de Lorenz. Site Images des Mathématiques.
- A54 · ybt3 · Happer, W & R Lindzen (2013). Comment on the Environmental Protection Agency’s (“EPA”) Proposed Rule. U.S. Environmental Protection Agency.
- A55 · q5ng · Harde, H & ML Salby (2021). What Controls the Atmospheric CO2 Level ? Science of Climate Change : 54–69.
- A56 · iw9k · Harde, H (2017). Scrutinizing the carbon cycle and CO2 residence time in the atmosphere. Global and Planetary Change 152 : 19–26.
- A57 · j70o · Harde, H (2019). What Humans Contribute to Atmospheric CO2 : Comparison of Carbon Cycle Models with Observations. Earth Sciences 8, 3 : 139–159.
- A58 · oxh8 · Hausfather, Z (2014). How not to calculate temperature. Site The Blackboard, June 5.
- A59 · k55g · Holdaway, A et al. (2021). Global-scale changes in the area of atoll islands during the 21st century. Anthropocene 33 : 100282.
- A60 · nf5w · Hourdin, F et al. (2017). The Art and Science of Climate Model Tuning. Bulletin of the American Meteorological Society 98, 3 : 589–602.
- A61 · d2cd · Hu, W et al. (2023). Genomic inference of a severe human bottleneck during the Early to Middle Pleistocene transition. Science 381, 6661 : 979–984.
- A62 · la5o · Humlum, O et al. (2013). The phase relation between atmospheric carbon dioxide and global temperature. Global and Planetary Change 100 : 51–69.
- A63 · y425 · Joerin, UE et al. (2008). Holocene optimum events inferred from subglacial sediments at Tschierva glacier, Eastern Swiss Alps. Quaternary Science Reviews 27, 3–4 : 337–350.
- A64 · ujw5 · Kay, JE et al. (2015). The Community Earth System Model (CESM) Large Ensemble Project : A Community Resource for Studying Climate Change in the Presence of Internal Climate Variability. Bulletin of the American Meteorological Society 96, 8 : 1333–1349.
- A65 · l36s · Kempf, H (2023). Climatoscepticisme dans les médias : des députés planchent sur une loi. Site Reporterre.
- A66 · ld22 · Knutti, R et al. (2017). Beyond equilibrium climate sensitivity. Nature Geoscience 10 : 727–736.
- A67 · t2nc · Kobashi, T et al. (2009). Persistent multi-decadal Greenland temperature fluctuation through the last millennium. Climatic Change 100 : 733–756.
- A68 · c7oa · Koonin, SE (2014). Climate Science Is Not Settled. The Wall Street Journal, 19 September.
- A69 · u128 · Koonin, SE (2017). A ‘Red Team’ Exercise Would Strengthen Climate Science. The Wall Street Journal, 20 April.
- A70 · jr03 · Koonin, SE (2021). Unsettled : What Climate Science Tells Us, What It Doesn’t, and Why It Matters. Dallas : BenBella Books.
- A71 · b0ts · Kottasová, I (2020). Oceans are warming at the same rate as if five Hiroshima bombs were dropped in every second. CNN, 13 January.
- A72 · z47o · Koutsoyiannis, D & ZW Kundzewicz (2020). Atmospheric Temperature and CO2 : Hen-or-Egg Causality ? Sci 2, 4 : 83.
- A73 · qk56 · Koutsoyiannis, D (2010). HESS Opinions “A random walk on water”. Hydrology and Earth System Sciences 14, 3 : 585–601.
- A74 · xysb · Kritee, K et al. (2018). High nitrous oxide fluxes from rice indicate the need to manage water for both long- and short-term climate impacts. PNAS 115, 39 : 9720–9725.
- A75 · m9xo · Kuo, C et al. (1990). Coherence established between atmospheric carbon dioxide and global temperature. Nature 343 : 709–714.
- A76 · c7me · Legates, D et al. (2015). Climate Consensus and ‘Misinformation’: A Rejoinder to Agnotology, Scientific Consensus, and the Teaching and Learning of Climate Change. Science & Education, 24 : 299–318.
- A77 · zzw8 · Lindzen, R (2018). Global Warming For The Two Cultures. London : Annual GWPF Lecture.
- A78 · wg1i · Longhurst, A (2012–2015). Doubt and Certainty in Climate Science. E‑book.
- A79 · nu4p · Luijendijk, A et al. (2018). The State of the World’s Beaches. Scientific Reports 8, Article number : 6641.
- A80 · p0qj · Lüdecke, HJ (2016). Simple Model for the Antropogenically Forced CO2 Cycle Tested on Measured Quantities. Journal of Geography, Environment and Earth Science International 8, 4 : 1–12.
- A81 · ob6l · Mahaney, WC et al.(2018). Reconnaissance of the Hannibalic Route in the Upper Po Valley, Italy : Correlation with Biostratigraphic Historical Archaeological Evidence in the Upper Guil Valley, France. Archaeometry 61, 1 : 242–258.
- A82 · aya1 · Maslowski, W et al. (2012). The Future of Arctic Sea Ice. Annual Review of Earth and Planetary Sciences 40 : 625–654.
- A83 · zmo0 · Masson, H (2019). La science classique s’arrête où commence le chaos… Site Science, climat et énergie.
- A84 · s94q · Masson, H (2023). Mathématiquement, le GIEC a tout faux ! Site Science, climat et énergie.
- A85 · hbe6 · Mathieu, A, & C Veyres (2021). Enquête sur l’urgence climatique. Site de l’Institut de Recherches Economiques et Fiscales : 36 pages.
- A86 · leb1 · McKitrick, R & J Christy (2020). Pervasive Warming Bias in CMIP6 Tropospheric Layers. Earth and Space Science 7, 9 : e2020EA001281.
- A87 · l25u · McKitrick, R (2011). What is Wrong With the IPCC ? Proposals for a Radical Reform. ISBN 978–0‑9566875–4‑8.
- A88 · hc9y · Mears, CA & FJ Wentz (2017). A Satellite-Derived Lower-Tropospheric Atmospheric Temperature Dataset Using an Optimized Adjustment for Diurnal Effects. Journal of Climate 30, 19 : 7695–7718.
- A89 · nx80 · Moranne, JM (2020). Climate Physics, Forget the “Greenhouse Effect” and return to the Fundamentals. E‑book.
- A90 · onn3 · Morel, P (2009). Réchauffement planétaire et science du climat. Conférence au Bureau des Longitudes, 7 octobre.
- A91 · r93q · Mörner, NA (1969). The late Quaternary history of the Kattegatt Sea and the Swedish West Coast. Sveriges geologiska undersökning.
- A92 · mw5k · Mörner, NA (1971). Eustatic changes during the last 20,000 years and a method of separating the isostatic and eustatic factors in an uplifted area. Palaeogeography, Palaeoclimatology, Palaeoecology 9, 3 : 153–181.
- A93 · u8lb · Mörner, NA (2015). Glacial Isostasy : Regional — Not Global. International Journal of Geosciences 6 : 577–592.
- A94 · wp9g · Mörner, NA (2016). Sea Level Changes as Observed in Nature. Evidence-Based Climate Science (Second Edition). Data Opposing CO2 Emissions as the Primary Source of Global Warming : 215–229.
- A95 · m8h9 · Nakamura, M (2018). Confessions of a climate scientist : The global warming hypothesis is an unproven hypothesis. Édition Kindle en japonais.
- A96 · oh2y · Nussbaumer, SU (2011). Alpine climate during the Holocene : a comparison between records of glaciers, lake sediments and solar activity. Journal of Quaternary Science 26, 7 : 703–713.
- A97 · f0yc · OdN (2022a). La fable des réacteurs “au THORIUM”. Site Observatoire du Nucléaire.
- A98 · x63x · OdN (2022b). Fusion nucléaire : une énième “avancée décisive” pour abuser les gogos… et décrocher de nouveaux budgets. Site Observatoire du Nucléaire.
- A99 · c0s1 · Ollila, A. (2014). The potency of carbon dioxide (CO2) as a greenhouse gas. Development in Earth Science 2 : 20–30.
- A100 · e4uk · Park, J (2009). A re-evaluation of the coherence between global-average atmospheric CO2 and temperatures at interannual time scales. Geophysical Research Letters 36, 22 : L22704.
- A101 · i45p · Parker, A & CD Ollier (2015). Discussion of Foster & Brown’s Time and Tide : Analysis of Sea Level Time Series. Physical Science International Journal 6, 2 : 119–130.
- A102 · p26v · Parrenin, F et al. (2013). Synchronous Change of Atmospheric CO2 and Antarctic Temperature During the Last Deglacial Warming. Science 339, 6123 : 1060–1063.
- A103 · i8qw · Petit, JR et al. (1999). Climate and atmospheric history of the past 420,000 years from the Vostok ice core. Nature 399 : 429–436.
- A104 · i68u · Phillips, NA (1956). The general circulation of the atmosphere : A numerical experiment. Quarterly Journal of the Royal Meteorological Society 82, 352 : 123–164.
- A105 · bvz8 · Pierrehumbert, R (2014). Climate Science Is Settled Enough. Slate, October 1.
- A106 · qp21 · Pont, JC (2020). “Confessions d’un climatologue : l’hypothèse du réchauffement climatique est une hypothèse non prouvée”. Lettre d’information sur le climat n°13. Site de l’Association des climato-réalistes.
- A107 · ppk1 · Poorter, L et al. (2016). Biomass resilience of neotropical secondary forests. Nature 530 : 211–214.
- A108 · ky5g · Poyet, P (2022). The Rational Climate e‑Book, 2nd edition. e‑ISBN 978–99957‑1–929‑6.
- A109 · p7fd · Quirk, T (2009). Sources and Sinks of Carbon Dioxide. Energy & Environment 20, 1 : 105–121.
- A110 · ty4q · Raina, VK (2009). Himalayan glaciers : A state-of-art review of glacial studies, glacial retreat and climate change. Ministry of Environment and Forests, Government of India (MoEF).
- A111 · va2d · Raina, VK (2012). Global Warming and the Glacier Retreat : An Overview. In : Sinha, R., Ravindra, R. (eds) Earth System Processes and Disaster Management. Society of Earth Scientists Series. Springer, Berlin, Heidelberg : 9–23.
- A112 · pib3 · Rasool, SI & SH Schneider (1971). Atmospheric carbon dioxide and aerosols : effects of large increases on global climate. Science 173, 3992 : 138–141.
- A113 · x9pm · Richet, P (2021). The temperature – CO2 climate connection : an epistemological reappraisal of ice-core messages. History of Geo- and Space Sciences 12 : 97–110. (Removed)
- A114 · yqi5 · Rittaud, B (2010). Le mythe climatique. Paris : éd. du Seuil. ISBN 978–2021011326.
- A115 · zr4t · Rittaud, B (2015). La peur exponentielle. Presses Universitaires de France. ISBN 978–2130633693.
- A116 · klj4 · Rittaud, B (2019). Débat entre Chloé Nabédian et Benoît Rittaud sur Sud Radio. Site Association des climato-réalistes.
- A117 · f9pi · Rittaud, B (2022). La seule urgence sur le climat est de cesser d’en avoir peur. Site Association des climato-réalistes.
- A118 · l08r · Rittaud, B (2023). Arctique, encore une mauvaise bonne nouvelle. Site Association des climato-réalistes.
- A119 · srl3 · SCM (2015). La lutte contre le Réchauffement Climatique : une croisade absurde, coûteuse et inutile. Livre Blanc rédigé par la Société de Calcul Mathématique SA.
- A120 · l5p9 · Salby, ML (2012). Physics of the Atmosphere and Climate. Cambridge University Press. ISBN 978–0521767187.
- A121 · bon1 · Scafetta, N (2009). Empirical analysis of the solar contribution to global mean air surface temperature change. Journal of Atmospheric and Solar-Terrestrial Physics 71 : 1916–1923.
- A122 · jqr4 · Scafetta, N (2012). Testing an astronomically based decadal-scale empirical harmonic climate model versus the IPCC (2007) general circulation climate models. Journal of Atmospheric and Solar-Terrestrial Physics 80 : 124–137.
- A123 · qc23 · Scafetta, N (2013). Discussion on climate oscillations : CMIP5 general circulation models versus a semi-empirical harmonic model based on astronomical cycles. Earth-Sci. 126 : 321–357.
- A124 · qm64 · Scafetta, N (2021a). Reconstruction of the Interannual to Millennial Scale Patterns of the Global Surface Temperature. Atmosphere 12, 2 : 147.
- A125 · guh2 · Scafetta, N (2021b). Testing the CMIP6 GCM Simulations versus Surface Temperature Records from 1980–1990 to 2011–2021 : High ECS Is Not Supported. Climate 9, 11 : 161.
- A126 · s5vv · Scafetta, N et al. (2020). A 60-Year Cycle in the Meteorite Fall Frequency Suggests a Possible Interplanetary Dust Forcing of the Earth’s Climate Driven by Planetary Oscillations. Geophysical Research Letter 47, 18 : e2020GL089954.
- A127 · p39v · Schlesinger, ME & N Ramankutty (1994). An oscillation in the global climate system of period 65–70 years. Nature 367 : 723–726.
- A128 · k4pk · Schneider, SH (2011). The Roles of Citizens, Journalists, and Scientists in Debunking Climate Change Myths. Site ClimateChange.net.
- A129 · lkv9 · Schneider, T et al. (2017). Climate goals and computing the future of clouds. Nature Climate Change 7 : 3–5.
- A130 · tt6z · Schwab, K & T Malleret (2022). Le Grand récit : Pour un avenir meilleur. Forum Publishing.
- A131 · ss57 · Segalstad, T (1998). Carbon cycle modelling and the residence time of natural and anthropogenic atmospheric CO 2 : on the construction of the « Greenhouse Effect Global Warming » dogma. In Bate, R (ed.) Global warming : the continuing debate. Cambridge (UK) : European Science and Environment Forum (ESEF).
- A132 · a5sa · Severinghaus, J (2004). What does the lag of CO2 behind temperature in ice cores tell us about global warming ? Site RealClimate.
- A133 · dzn5 · Sidiropoulos, M (2019). Demarcation Aspects of Global Warming Theory. Online preprint : 15 pages. (Preprint)
- A134 · bl2w · Spencer, RW (2007). How Serious is the Global Warming Threat ? Society 44 : 45–50.
- A135 · qi25 · Spencer, RW (2016). A Guide to Understanding Global Temperature Data. Texas Public Policy Foundation : 22 pages.
- A136 · jm83 · Spencer, RW et al. (2017). UAH Version 6 global satellite temperature products : Methodology and results. Asia-Pacific Journal of Atmospheric Sciences 53 : 121–130.
- A137 · i0ox · Stainforth, DA et al. (2005). Uncertainty in predictions of the climate responses to rising levels of greenhouse gases, Nature 433 : 403–406.
- A138 · ex76 · Stallinga, P (2020). Comprehensive Analytical Study of the Greenhouse Effect of the Atmosphere. Atmospheric and Climate Sciences, 10 : 40–80.
- A139 · ley5 · Stéfanon, M (2012). Heat waves and droughts in Mediterranean : contributions of land-atmosphere coupled processes on mesoscale. Thèse préparée au Laboratoire de Météorologie Dynamique, Institut Pierre Simon Laplace, 123 pages.
- A140 · hmw5 · Terre et Climat (2023). Le consensus scientifique sur le rôle néfaste du CO2 n’existe pas. Site La question climatique.
- A141 · pu7u · Thomas, T (2019). A Climate Modeller Spills the Beans. Quadrant on line, 23 septembre.
- A142 · n6gk · Tol, RSJ (2016). Comment on “Quantifying the consensus on anthropogenic global warming in the scientific literature”. Environ. Res. Lett. 11 : 048001
- A143 · jb5t · Topçu, S (2013). La France nucléaire : l’art de gouverner une technologie contestée. Paris : éditions du Seuil.
- A144 · wth3 · Tyndall, J (1871). Contributions to Molecular Physics in the Domain of Radiant Heat. London : Longmans, Green, and co.
- Van Vliet, J (2023 lien:jms4). Pourquoi l’effet du CO2 sur le climat est exclu par la physique. Site Science, climat et énergie.
- A145 · d8os · Van Vliet-Lanoë, B & J Van Vliet (2022a). Changements météorologiques et changement climatique : un refroidissement en marche sur l’Atlantique Nord (1/2). Site Science, climat et énergie.
- A146 · cc6s · Van Vliet-Lanoë, B & J Van Vliet (2022b). Les Anticyclones Mobiles Polaires ou AMP, mécanismes logiques de forçage de la météo (2/2). Site Science, climat et énergie.
- A147 · k5kr · Veyres, C (2020). Mise en ligne de documents relatifs au “changement climatique attribué au CO2 des combustibles fossiles”. Site web.
- A148 · nkw8 · Walter, C (2013). Written evidence submitted by Christopher Walter Viscount Monckton of Brenchley (IPCC0005).
- A149 · uqz9 · Webb, D (2023). Achieving net zero : Why costs of direct air capture need to drop for large-scale adoption. Opinion Paper. World Economic Forum.
- A150 · vj0y · Wei, HZ et al. (2021). Evolution of paleo-climate and seawater pH from the late Permian to postindustrial periods recorded by boron isotopes and B/Ca in biogenic carbonates. Earth-Science Reviews 215 : 103546.
- A151 · sn0c · Weisheimer, A et al. (2011). On the predictability of the extreme summer 2003 over Europe. Geophysical Research Letters, 38, 5 : L05704.
- A152 · o3o9 · Winton, M (2011). Do Climate Models Underestimate the Sensitivity of Northern Hemisphere Sea Ice Cover ? Journal of Climate 24, 15 : 3924–3934.
- A153 · vm5m · Zeng, N et al. (2005). Terrestrial mechanisms of interannual CO2 variability. Global Biogeochemical Cycles 19, 1 : GB1016.
- A154 · rv7s · Zhu, J et al. (2020). High climate sensitivity in CMIP6 model not supported by paleoclimate. Nature Climate Change 10 : 378–379.
- A155 · y35k · Zhu, J et al. (2021). Assessment of Equilibrium Climate Sensitivity of the Community Earth System Model Version 2 Through Simulation of the Last Glacial Maximum. Geophysical Research Letters 48, 3 : e2020GL091220.
⇪ ▷ Liens
- N1 · i5rs · Dissonance cognitive – Wikipedia
- N2 · ja6i · Argument d’autorité – Wikipedia
- N3 · xt4q · Sixth Assessment Report – IPCC
- N4 · nv1g · Événement météorologique extrême – Wikipedia
- N5 · abs3 · Providing the facts about CO2 and climate change – CO2 Coalition
- N6 · w7wd · Forçage radiatif – Wikipedia
- N7 · q0f1 · AR4 Climate Change 2007 : Synthesis Report (IPCC/GIEC)
- N8 · xc27 · Bilan carbone – Wikipedia
- N9 · dky1 · Taxe carbone – Wikipedia
- N10 · z4iv · Bourse du carbone – quotas – Wikipedia
- N11 · 6hea · Protoxyde d’azote – Wikipedia
- N12 · sijz · Alternate wetting and drying – Wikipedia
- N13 · iz0f · Modèle de circulation générale – Wikipedia
- N14 · ec6h · Troposphère – Wikipedia
- N15 · tjv8 · Jet stream – Wikipedia
- N16 · t2u5 · El Niño – Wikipedia
- N17 · d04a · Graphique en crosse de hockey – Wikipedia
- N18 · hnf7 · Coefficient of determination – Wikipedia
- N19 · a3ff · Oscillation atlantique multidécennale – Wikipedia
- N20 · vqg0 · Oscillation décennale du Pacifique – Wikipedia
- N21 · nw53 · HadCRUT – Wikipedia
- N22 · s1x4 · Climate Change Impacts in the United States : The Third National Climate Assessment
- N23 · q0ht · Îlot de chaleur urbain – Wikipedia
- N24 · nt0p · Climate Science Special Report : Fourth National Climate Assessment (NCA4), Volume I
- N25 · z325 · Annual 2022 Tornadoes Report
- N26 · bu2j · Sensibilité climatique à l’équilibre – Wikipedia
- N27 · t0ck · Sensibilité climatique – Wikipedia
- N28 · u06r · Identification de système – Wikipedia
- N29 · iy8m · Filtre de Kalman – Wikipedia
- N30 · hvp4 · Cycles de Milankovitch – Wikipedia
- N31 · k0vv · Anthropogenic and Natural Radiative Forcing. Chapter 8, In : Climate Change 2013 : The Physical Science Basis. Contribution of Working Group I to the Fifth Assessment Report of the Intergovernmental Panel on Climate Change
- N32 · moh7 · Rapport “Parvenir à la neutralité climatique d’ici à 2050”
- N33 · nn6d · IPCC AR6 Sea Level Projection Tool
- N34 · ihn0 · Pléistocène – Wikipedia
- N35 · g13b · Erik le Rouge – Wikipedia
- N36 · o1ux · Isostatic depression – Wikipedia
- N37 · f669 · Lithosphère – Wikipedia
- N38 · a54a · Inlandsis – Wikipedia
- N39 · rz7f · Arctic Sea Ice News and Analysis
- N40 · mrb7 · Northern Hemisphere Extent Anomalies August 1979 – 2023
- N41 · pm8t · Southern Hemisphere Extent Anomalies August 1979 – 2023
- N42 · r73p · Superficie forestière brûlée et nombre d’incendies (Canada)
- N43 · p74c · Global Warming Petition Project
- N44 · p7k0 · There is no climate emergency (Il n’y a pas d’urgence climatique) – World Climate Declaration
Cet article contient 34782 mots.
Autrement dit 218269 signes.
Article créé le 28/08/2023 - modifié le 26/09/2023 à 08h28