Les Modèles climatiques

Partager sur facebook
Partager sur linkedin
Partager sur twitter
Partager sur pinterest
Partager sur email

« Les modèles sont les habits des idées, il y a toujours un modèle qui peut faire croire que votre idée est juste. »

 Edmund Hussserl (La crise des sciences européennes)

Introduction

Les Modèles ont montré leurs limites en ce qui concerne la pandémie de Covid : aucune de leurs prévisions exponentielles ne s’est réalisée.

On peut donc légitimement se poser la question concernant les Modèles climatiques qui sont aujourd’hui à la base de la politique économique de l’Europe et de la France : la plupart des données fournies par le GIEC sont en effet issues de « Modèles ».

Pourquoi des Modèles ?

Le fonctionnement du climat, c’est, à la base, de la thermodynamique :

  • l’opacité des Gaz à effet de serre aux infrarouges renvoyés par la surface de la Terre l’empêche de restituer par rayonnement une part importante de l’énergie rayonnante qu’elle reçoit du Soleil : 70% de la chaleur reçue du Soleil ne peut pas être renvoyée par rayonnement ;
  • et donc, tant que ce déséquilibre énergétique (reçu – renvoyé) perdure, la Terre s’échauffe ;
  • … jusqu’au moment où la température est suffisante pour que des mécanismes de régulation viennent le compenser :
    • l’évaporation des océans et des milieux humides d’une part, qui extrait de la surface une quantité considérable d’énergie sous forme de chaleur latente de vaporisation (plus de la moitié de l’énergie reçue du soleil),
    • la convection d’autre part, qui remonte en altitude l’air chaud proche de la surface, ainsi que cette chaleur latente d’évaporation.

Ces mécanismes de régulation sont très puissant, en particulier, l’évaporation, qui augmente d’environ 7% par °C.

  • Toute cette énergie est donc transportée, comme par un caloduc, jusqu’en haut de la couche opaque des gaz à effet de serre, où elle est restituée à l’atmosphère (condensation > nuages > pluie), qui peut alors la rayonner vers le cosmos, et équilibrer, à cette altitude, le rayonnement reçu.

Alors qu’à la frontière avec le cosmos les échanges se font uniquement par rayonnement, à la surface de la Terre interviennent :

  • du rayonnement reçu et du rayonnement renvoyé,
  • de la chaleur latente de vaporisation,
  • de la conduction/convection.

Même si la part de chacun est difficile à évaluer de façon précise, on arrive assez facilement :

  • d’une part à en connaître les ordres de grandeur (disons à 5% près),
  • mais surtout d’autre part à en calculer les variations en fonction de différents facteurs supposés influents.

Ainsi, quelques lignes de calcul suffisent, pour évaluer assez précisément l’incidence d’une variation de concentration de CO2 (voire d’un doublement) : poour ceux que les calculs ne rebutent pas :

  • D’abord l’incidence en terme de rayonnement : Formule (empirique) de Myhre (1998) :

DeltaM = 5,35 Ln(C/C0)

dont le résultat de 3,7 W/m2 pour un doublement de concentration, est d’ailleurs donné chapitre 12 (Box 12.2) de l’AR5/WG1 du GIEC lui-même ;

  • Puis, si on assimile la surface de la Terre à un « corps noir », on peut lui appliquer la formule de Stefan Boltzmann :

M = ε σ T4

            ou, en la dérivant :

DeltaT / T = DeltaM / 4M

A 15°C (ou 288K) (température moyenne de la surface de la Terre), M est environ égal à 350 W/m2 (si on prend en compte une émissivité ε de 0,9),

… et donc DeltaT =   288 x 3,7 / 1400 = 0,76 °C

Ou, si on applique la formule à l’altitude moyenne de rayonnement (-18°C pour équilibrer les 240 W/m2 qui pénètrent l’atmosphère) :

DeltaT =   255 x 3,7 / 960= 0,98 °C

La formule de Myhre n’étant pas particulièrement optimiste, on peut considérer qu’il s’agit là d’un maximum, sur lequel il existe d’ailleurs un assez large consensus scientifique, d’autant plus que cette valeur fait abstraction des mécanismes de régulation (supplément d’évaporation et donc d’évacuation de chaleur latente) qu’elle entraînerait.

Et donc, indirectement, on voit bien que le système ne peut pas s’emballer, d’autant plus que pour passer de 400 ppm à 800 ppm, au rythme actuel, il faudra 200 ans, puis pour passer de 800 à 1600 (nouveau doublement qui produirait le même effet), il faudrait 400 ans de plus, … et probablement beaucoup plus de carbone que ce que contiennent toutes les réserves de combustibles fossiles imaginables.

… Donc il n’y a rien là qui puisse justifier le moindre alarmisme : l’homme aura largement le temps de s’adapter, d’autant plus que ce réchauffement n’a pas que des effets négatifs : selon la NASA, la Terre a verdi de 30% ces 50 dernières années..

Alors le GIEC fait valoir l’augmentation d’effet de serre de la vapeur d’eau, qui serait entraînée par l’augmentation d’évaporation causée par l’augmentation de température, mais :

  • d’une part, l’effet régulateur de l’évaporation (chaleur latente) est beaucoup plus important que l’augmentation d’effet de serre qu’elle pourrait entraîner (sinon, cela signifierait que cet effet régulateur ne fonctionne pas, or il fonctionne),
  • d’autre part, rien ne prouve même qu’un supplément d’évaporation augmenterait l’effet de serre de la vapeur d’eau, déjà saturé à basse altitude, tant qu’on ne sait pas ce qui déclenche la formation des nuages (… et on ne le sait pas vraiment) ; car, plus de nuages, ce serait aussi plus d’albédo (rayonnement solaire réfléchi par les nuages), donc moins de chaleur entrante.

Bref, tout cela est trop simple et insuffisamment alarmant pour justifier l’existence même du GIEC et de ses satellites (ONGs entre autres, mais aussi « scientifiques » climatologues auto-proclamés et grassement payés), ainsi que la politique de décroissance que certains veulent nous imposer, ou l’envahissement des éoliennes qui permet de remplir quelques poches bien ciblées.

D’où l’intérêt de camoufler tout cela derrière des Modèles, car, comme le disait Gilles de Gennes (Prix Nobel de Physique) :

« Le simulateur informaticien est crédible puisque sa machine possède une puissance et une rapidité de calcul dont aucun cerveau humain ne serait capable. Le pouvoir ronflant des chiffres plus le pouvoir de l’image : de quoi entretenir dans l’opinion une mentalité magique pré-rationnelle. « 

(Réf: « Les objets fragiles » P-G de Gennes et J. Badoz, Plon, 1994)

Comment sont faits les Modèles du GIEC ?

Bien entendu, il ne faudrait pas qu’ils soient trop simples, cela pour trois raisons :

  1. seule une élite bien conditionnée doit pouvoir comprendre et analyser ce qu’on y met (sinon, la simplicité ramènera toujours au calcul simple ci-dessus),
  2. ils doivent comporter suffisamment de boutons de réglages pour reproduire un passé supposé bien connu, et qu’on puisse ensuite, pour crédibiliser les futures prédictions, affirmer que la réalité est bien conforme aux prévisions,
  3. ils doivent nécessiter une puissance de calcul qui leur donne toute leur crédibilité.

 

Et donc, on a recours, à la base, aux Modèles météorologiques, les GCM (General Circulation Models), crédibles puisqu’ils sont à la base des prévisions météo, suffisamment complexes pour qu’on ne puisse pas facilement les analyser et les critiquer, nécessitant des puissances de calcul parmi les plus importantes, … et disponibles, ce qui permettait de fournir des résultats utilisables dès la COP21.

Ce sont des Modèles de calcul aux éléments finis, dont la maille horizontale est de l’ordre de 30km de côté et divisés en 105 niveaux verticaux (égaux en pression atmosphérique), qui prévoient la météo jusqu’à une semaine de distance.

On peut légitimement se demander pourquoi on utilise de Modèles incapables de prévoir la météo à plus d’une semaine, pour prévoir le climat à 50 ans ? Alors qu’on sait de façon sûre que le climat est chaotique et qu’il est impossible, de toutes façons, de le prévoir à plus de quelques jours de distance.

En fait, cela n’a strictement aucun importance : on n’est pas là pour prévoir la météo (tendances naturelles, courtes, et localisées), mais pour faire valoir l’incidence de facteurs humains, non pas sur la météo, mais sur le climat (tendances lourdes, et longues) : et puis, s’agissant de la météo, on se cogne à la réalité au bout d’une semaine, mais là, on vise à une distance suffisamment éloignée pour s’affranchir de la réalité à court terme.

Mais on verra plus loin l’intérêt « alarmiste » de ces aspects météorologiques.

Car, implicitement, le GIEC considère (arbitrairement) que les variations « naturelles » sont toujours courtes et faibles alors que les variations liées à l’homme (ou volcaniques) sont toujours lourdes et longues : il est vrai que cet arbitraire est déjà inclus dans la charte du GIEC qui pose comme principe que les changements climatiques sont d’origine humaine (on le verra plus loin).

Mais, continuons notre démonstration :

Et donc, sur cette base, on commence à introduire le facteur CO2, cause supposée de l’augmentation de température constatée ; mais, quelle que soit la façon dont on règle le bouton « CO2« , la corrélation (donc la liaison de cause à effet que l’on veut démontrer) n’est pas parfaite :

Alors on a rajouté, étape par étape, d’autres facteurs pour augmenter le nombre de boutons de règlage :

  • d’abord un modèles de circulation océanique à 3 dimensions, à partir des années 2000,
  • puis des modèles hydrologiques,
  • des modèles de végétation et d’état de surface (influence sur l’albédo),
  • puis des modèles de chimie atmosphérique,
  • puis les aérosols (en particulier volcaniques, mais aussi humains),

 

L’intérêt est triple : d’abord, en terme de communication, cela permet d’affirmer que le Modèle est complet, ensuite, en terme d’opacité et de contrôle éventuel par les « pairs », on le rend encore plus abscons, mais surtout, chacun de ces facteurs introduit de nouveaux « boutons de réglage », de telle sorte qu’on peut in fine :

  • d’une part, reproduire n’importe quelle courbe d’évolution des températures dans le passé (pas trop lointain quand même) : ainsi, lors d’une enquête menée en août-septembre 2014, auprès de différents centres de modélisation, sur 23 centres interrogés, 22 ont déclaré avoir ajusté les paramètres du modèle pour obtenir les propriétés souhaitées (Frédéric Hourdin et al. : The Art and Science of Climate Model Tuning (L’art et la science du réglage des modèles climatiques)) ;
  • d’autre part fabriquer autant d’hypothèses d’évolution future qu’il est nécessaire pour provoquer l’alarmisme (il ne s’agit que d’un jeu de programmeur), sans aucun fondement concret. :

Mais ainsi, alors que l’évolution actuelle des températures, et les calculs de thermodynamique, ne laissent prévoir qu’une augmentation inférieure à 1°C d’ici 2100, les « RCP » (Representative Concentration Pathways) permettent d’envisager les scenarii les plus catastrophiques, qui sont, bien entendu, malgré qu’ils soient totalement arbitraires et irréalistes, les seuls à être repris par les médias … et par les « décideurs ».

Mais, même à ce stade, l’alarmisme n’est pas garanti : la population verra bien un jour que le RCP 8.5 qu’on nous fait valoir (4°C, voire 5, d’augmentation d’ici 2100) est totalement improbable (la ficelle risque quand même de finir par paraître un peu grosse).

Il faut donc amplifier les inconvénients climatiques locaux actuels de façon qu’ils deviennent catastrophiques : ainsi :

  • les zones sèches doivent devenir encore plus sèches, et les zones inondables encore plus inondables,
  • les zones chaudes doivent devenir encore plus chaudes, les zones froides encore plus froides.

 

Et c’est là que le modèle météorologique de base reprend tout son intérêt, grâce à son aspect chaotique et à sa vision locale.

Voici le résultat en température de 30 modélisations de l’évolution du climat (Community Earth System Model (CESM)), avec un maillage de 1° latitude x 1° longitude, sur 50 ans (exactement), entre 1963 et 2012.

La différence entre ces modélisations est simplement due à une différence de 1 milliardième de °C dans les conditions initiales. La figure du bas à droite (marquée OBS) est le résultat des observations réelles (en 2012).

On voit bien qu’on peut faire dire n’importe quoi à ce type de modélisation, et en particulier ce qu’on veut démontrer à une échelle locale : selon le modèle retenu, la température peut varier localement de 5°C en plus ou en moins : il suffit de faire valoir le scénario qui corrobore le mieux l’alarmisme qu’on veut inculquer : il sera de toutes façons crédible, puisqu’il sort d’un ordinateur.

En conclusion, ces Modèles climatiques n’ont aucune crédibilité : comme disent les anglo-saxons : « garbage in, garbage out ! ».

Une façon simple de le prouver, d’ailleurs, serait de leur faire modéliser, dans le même Modèle, l’Optimum Médiéval, et l’évolution climatique actuelle.

Mais alors, peut-on modéliser le climat ?

Ce qui suit émane de Philippe de Larminat, un des spécialistes incontestés de la modélisation des systèmes.

Sans rentrer dans le détail, le climat peut être modélisé sous la forme du diagramme fonctionnel suivant :

dans lequel (sans trop entrer dans le détail) :

  • les seules entrées sont :
    • Fs : le rayonnement solaire : le GIEC néglige ses variations, les taches solaires n’entraînant que de très légères variation de son rayonnement ;
    • Fv : les variations dues aux éruptions volcaniques : elles sont assez bien connues, historiquement ;
    • Fa : le « forçage » anthropique, autrement dit, les variations liées à la concentration de  CO2 : variations supposées nulles par le GIEC jusqu’en 1850, suivies d’une élévation de 50% depuis lors.
    • W est le flux énergétique de variation interne du climat : sur le très long terme (millions d’années), on peut le considérer comme nul (autour d’une valeur d’équilibre) : le GIEC le considère en plus comme constant, … puisque non-anthropique.
  • les seules sorties sont :
    • Ts : la température à la surface terrestre
    • Q0 : la quantité de chaleur océanique
  • Toutes les autres grandeurs intervenant dans les calculs sont des coefficients de proportionnalité ; ils sont, par nature, constants, même si on n’en connaît pas la valeur a priori :
    • Ca est la capacité thermique de l’atmosphère (W/m2/an/°C), dont la valeur est calculable,
    • λ est le Coefficient de réaction climatique,
    • μ et ν sont les coefficients d’échange thermique.

La fonction de transfert s’écrit :

où G(s) est fonction de λ, μ, et ν : on a ainsi 7 boutons de réglage sur lesquels on peut intervenir :

  • la variabilité interne W, que le GIEC considère comme négligeable (petites variations courtes),
  • les Forçages radiatifs :
  • rayonnement solaire, que le GIEC considère comme constant,
  • volcanisme, dont on connaît assez bien l’histoire,
  • et CO2, dont le GIEC considère que la concentration a été constante jusqu’à sa progression récente ;
  • les coefficients λ, μ, et ν, ajustables, mais nécessairement constants dans le temps.

Ce diagramme fonctionnel ne préjuge rien des mécanismes physiques sous-jacents : il s’agit d’une approche purement mathématique qui n’est donc pas contestable au plan physique.

Or, quel que soit le réglage de ces boutons, si on considère que W est négligeable, on est incapable de reproduire les variations historiques de températures exposées par le GIEC, en particulier l’Optimum Médiéval tel qu’il est vu par le GIEC lui-même.

Et donc :

  • soit W n’est pas négligeable, ce qui signifie que les variations naturelles entrent significativement en ligne de compte ;
  • soit l’historique des forçages radiatifs, en particulier celui du CO2, est faux ;
  • soit l’historique des températures du GIEC est faux.

 

De ces 3 possibilités, il est plus que probable que ce soit la variabilité naturelle qui prenne le pas sur les autres facteurs.

Mais la charte du GIEC précise que :

« Le GIEC a pour mission d’évaluer, …, les informations d’ordre scientifique, technique et socio-économique … pour mieux comprendre les fondements scientifiques des risques liés au changement climatique d’origine humaine, cerner plus précisément les conséquences possibles de ce changement et envisager d’éventuelles stratégies d’adaptation et d’atténuation. »

Et donc, c’est statutairement que le GIEC est obligé d’écarter la variabilité naturelle de son champ d’évaluation, … ce qui signifie alors implicitement qu’il lui est interdit de produire un Modèle correct.

Conclusion

Dans ces conditions, les meilleures prévisions sont sans doute celles qui résultent des observations sur le long terme et des calculs thermodynamiques de base, sans qu’on ait besoin de recourir à des modélisations complexes.

Or, ces observations et ces calculs ne montrent actuellement rien de vraiment alarmant.

Comme pour la Covid, les Modèles n’ont d’autre objet que de justifier un alarmisme qui contribue à créer une peur, qui, comme chacun le sait, est le meilleur moteur de gouvernance.

Copyright © , Tous droits réservés.

2 réponses

  1. Je suis depuis longtemps l’évolution des modèles climatiques et je dois dire que je suis très étonné de lire la presse sur ces sujets.
    Vous m’avez l’air d’avoir creusé les choses un peu plus que les journalistes.
    Un problème récurent pour lequel je ne trouve aucune information est celui de la précision des modèles.
    Ayant fait beaucoup de calcul scientifique en son temps, mon chef m’aurait collé au mur si j’avais donné des résultats sans estimer une marge d’erreur. On ne voit rien de tel dans les informations qui traînent sur la toile.
    Par ailleurs, parmi la quelque dizaine de modèles climatiques qui tournent dans autant d’universités et de centres de recherche, une comparaison serait facile à faire à savoir les faire tous tourner avec les mêmes hypothèses (au moins en ce qui concerne l’évolution des concentrations de CO2 et autres gaz à effet de serre) et comparer les résultats. Cela refroidirait quelques têtes lorsqu’il s’agirait d’expliquer les différences.
    Enfin, si tout cela n’est pas possible, une simple comparaison des prévisions de chaque modèle avec ses propres hypothèses serait déjà intéressante (elle existe peut-être mais je ne la connaîs pas. Je subodore qu’on verrait des fourchettes entre deux et cinq degrés ou plus pour les prévisions en 2100. Que signifie dans ces conditions une limitation à 1.5 degrés à la fin du siècle.
    Et pour terminer, une autre interrogation. Que signifie une moyenne de température. Là aussi, mes souvenirs me disent qu’additionner des températures pour en faire une moyenne n’a pas de sens, à la rigueur s’il s’agit de température de volumes équivalents de matière dans le cas de l’atmosphère de l’air et dans les mêmes conditions de pression. J’ai l’impression que pour calculer la température moyenne actuelle, on se contente d’additionner les températures des stations de mesures (également réparties sur la terre?) et divise par le nombre de mesures. Si c’est le cas, cela n’a aucun sens physique, c’est tout au plus un indicateur mais qu’on ne peut appeler une température. Quel est votre avis?

    Merci de me donner votre éclairage sur le sujet si cela est possible.
    Cordialement

    1. Je ne peux que compatir à vos interrogations : de même que le GIEC n’a jamais exposé clairement sa théorie du Réchauffement Climatique Anthropique, de même, à ma connaissance, il n’a jamais fait auditer ses codes de calculs par un organisme habilité.
      On en est donc réduit à devoir le croire sur parole, et lui-même donne une fourchette suffisamment large pour que le futur lui donne raison, quel qu’il soit.
      Concernant la « température moyenne », je suis d’accord, mais j’admets qu’on puisse parler de « variation de la température moyenne », dès lors qu’on la mesure toujours de la même manière.

Laisser un commentaire

Les commentaires sont modérés avant d’être publiés, restez courtois.

Inscrivez-vous pour recevoir la newsletter :

Derniers articles :

Don en ligne