Pourquoi les modèles climatiques numériques échouent à prévoir le climat à long terme

Il y a eu beaucoup de « dénigration de modèles » ici et ailleurs dans les blogs chaque fois qu’il était question des prévisions des modèles climatiques. Cet essai est un très long effort pour calmer le segment le plus instinctif de ce phénomène récurrent.

Nous utilisons tous des modèles pour prendre des décisions ; le plus souvent, il s’agit simplement de modèles mentaux mélangés comme :

« Je ne vois aucune voiture sur la route, je n’entends aucune voiture sur la route, j’ai regardé deux fois dans les deux sens, donc mon modèle mental me dit que je peux traverser la route en toute sécurité maintenant . »

Votre petit modèle « Est-il sûr de traverser la route ? » est parfaitement utile et (sauf preuve inconnue ou non prise en compte) et peut être utilisé pour la sécurité personnelle lors de la traversée de la route. 

Il n’est en aucun cas utile ni correct de dire que « tous les modèles sont des déchets ».   

Ici, sur ce site, les modèles dont nous parlons sont des « modèles climatiques numériques » [ou une recherche plus large de références ici ], qui sont généralement exécutés sur des superordinateurs.  Voici ce que dit la NASA :

« Les modélisateurs climatiques exécutent le code informatique de simulation climatique qu’ils ont écrit sur les supercalculateurs du Centre de simulation climatique de la NASA (NCCS). Lors de l’exécution de leurs simulations mathématiques, les modélisateurs climatiques divisent l’atmosphère en grilles 3D. Dans chaque cellule de la grille, le supercalculateur calcule les valeurs climatiques physiques telles que les vecteurs de vent, la température et l’humidité. Une fois les conditions initialisées à l’aide d’observations réelles, le modèle avance d’un « pas de temps ». À l’aide d’équations, les valeurs climatiques sont recalculées pour créer une simulation climatique projetée. »

Le Wiki explique :

« Un modèle de circulation générale (MCG) est un type de modèle climatique. Il utilise un modèle mathématique de la circulation générale d’une atmosphère planétaire ou d’un océan. Il utilise les équations de Navier-Stokes sur une sphère en rotation avec des termes thermodynamiques pour diverses sources d’énergie ( rayonnement , chaleur latente ). Ces équations sont la base des programmes informatiques utilisés pour simuler l’atmosphère terrestre ou les océans. Les modèles de circulation générale atmosphériques et océaniques (MCGA et MCGO ) sont des composants clés, tout comme les composants de la glace de mer et de la surface terrestre . »

Je suis ouvert à d’autres définitions du modèle de circulation générale de base. Il existe bien sûr des centaines de « modèles climatiques » différents, de types et d’utilisations variés.

Mais examinons simplement le sujet général qui constitue la base des affirmations qui commencent par la phrase :

« Les modèles climatiques montrent que… »

En voici quelques-uns issus d’une simple recherche Google sur cette phrase :

 

Essayons

« la science du climat prédit que »

 

Les exemples sont innombrables. Mais posons-nous la question :

« Que veulent-ils dire quand ils disent que la science climatique prédit… » ?

En général, ils désignent l’un des deux termes suivants :

1) Qu’un climatologue, ou le GIEC, ou un groupe dans un rapport sur le climat, déclare [ou est communément considéré comme ayant déclaré, ce qui n’est très souvent pas exactement le cas] qu’un tel événement/condition futur se produira.

2) Un modèle climatique [ou une exécution unique d’un modèle climatique, ou un certain nombre de résultats particuliers d’un modèle climatique qui ont été moyennés] a prédit/projeté qu’un tel événement/une telle condition future se produira.

Il faut noter que le premier cas est souvent lui-même basé sur le second. 

Rejeter les résultats des modèles climatiques est tout aussi absurde que de rejeter le scepticisme climatique. Il faut un peu d’intelligence et de compréhension pour comprendre l’un ou l’autre. Je ne suis pas d’accord avec certains arguments ou affirmations sur le scepticisme climatique avancés par certaines personnes, et avec d’autres sur la crise climatique. 

Mais je sais pourquoi je ne suis pas d’accord. 

Pourquoi je n’accepte pas la plupart des prédictions ou projections des modèles climatiques sur les futurs états climatiques

Il y a quelques années, le 5 octobre 2016, j’ai écrit Lorenz validated  , un article publié sur le blog de Judith Curry, Climate Etc. C’est une lecture intéressante, et suffisamment importante pour être relue si vous êtes vraiment curieux de savoir pourquoi la modélisation numérique du climat présente des problèmes si graves qu’elle est désormais considérée par beaucoup, moi y compris, comme ne donnant des projections à long terme valables que par accident . Je dis « accidentellement » dans le même sens qu’une horloge arrêtée indique l’heure correcte deux fois par jour, ou peut-être qu’une horloge mal réglée, fonctionnant à une vitesse légèrement erronée, ne donne l’heure correcte qu’occasionnellement et par accident.  

Je ne dis pas qu’un modèle climatique numérique ne donne pas et ne peut jamais donner une projection correcte. 

Jennifer Kay et Clara Deser, toutes deux de l’Université du Colorado à Boulder et associées au   NCAR/UCAR [National Center for Atmospheric Research, University Corporation for Atmospheric Research], avec 18 autres personnes, ont réalisé des expériences avec des modèles climatiques en 2016 et ont produit un merveilleux article intitulé : « The Community Earth System Model (CESM) Large Ensemble Project : A Community Resource for Studying Climate Change in the Presence of Internal Climate Variability ».

L’article complet est disponible en téléchargement ici [.pdf].

Voici ce qu’ils ont fait (en quelques mots) :

« Pour étudier l’impact possible de perturbations minimes du climat et mieux comprendre l’ampleur de la variabilité climatique qui pourrait se produire, Deser et sa collègue Jennifer Kay, professeure adjointe à l’Université du Colorado à Boulder et chercheuse invitée au NCAR, ont dirigé un projet visant à exécuter le modèle communautaire du système terrestre (CESM) basé sur le NCAR 40 fois de 1920 à 2100. À chaque simulation, les scientifiques ont modifié très légèrement les conditions de départ du modèle en ajustant la température atmosphérique mondiale de moins d’un milliardième de degré , déclenchant ainsi une chaîne unique et chaotique d’événements climatiques. » [ source ]

À quoi Deser et Kay font-ils référence ici ?

« C’est le fameux effet papillon », a déclaré Clara Deser… « Un battement d’ailes de papillon au Mexique pourrait-il déclencher ces petits mouvements dans l’atmosphère qui se répercutent sur des changements à grande échelle de la circulation atmosphérique ? » 

Remarque : La réponse à la question originale posée par Edward Lorenz est « non », pour de nombreuses raisons liées à l’échelle et à la viscosité de l’atmosphère et qui font l’objet de débats sans fin . Mais le principe de la question, « l’extrême sensibilité aux conditions initiales », est vrai et correct, et est démontré dans l’étude de Deser et Kay en application pratique dans un modèle climatique réel. – kh

Que s’est-il passé lorsque Deser et Kay ont exécuté le modèle communautaire du système terrestre (CESM) 40 fois, en répétant exactement le même modèle quarante fois différentes, en utilisant les mêmes entrées et paramètres, à l’exception d’une entrée : la température atmosphérique globale ? Cette entrée a été modifiée pour chaque exécution par :

moins d’un milliardième de degré

ou

< 0,0000000000001 ° C

Et ce changement a donné lieu aux projections des « Tendances de la température hivernale (en degrés Celsius) pour l’Amérique du Nord entre 1963 et 2012 », présentées sous forme d’images :

Tout d’abord, remarquez à quel point chacune des 30 projections est différente. Comparez la projection n°11 à la projection n°12 qui se trouve juste à côté. La projection n°11 montre un Canada et un Alaska froids, tandis que la projection n°12 montre un Canada et un Alaska chauds, puis regardez la projection n°28. 

Comparez le n° 28 à OBS (observations, la réalité, l’actualité, ce qui s’est réellement passé). Rappelez-vous, il ne s’agit pas de températures, mais de tendances de température sur 50 ans. Il ne s’agit pas de la météo, mais du climat. 

Regardez maintenant EM, à côté d’OBS dans la rangée inférieure. EM = Ensemble Mean – ils ont fait la MOYENNE de la sortie de 30 exécutions en un seul résultat.

Ils ont mis au point cette expérience pour montrer si les modèles climatiques numériques sont extrêmement sensibles aux conditions initiales. Ils ont modifié une seule entrée d’une quantité infinitésimale – bien en deçà de la précision réelle des mesures dans le monde réel (ou de notre capacité à mesurer les températures de l’air ambiant d’ailleurs). Cette quantité ? Un milliardième de degré centigrade – 0,0000000000001 °C. Pour être tout à fait juste, la modification est inférieure à cela.

Dans l’article, les auteurs expliquent qu’ils sont pleinement conscients de l’extrême sensibilité des conditions initiales dans la modélisation numérique du climat. En fait, dans un sens, c’est la raison même pour laquelle ils ont mené cette expérience. Ils savent qu’ils obtiendront des résultats chaotiques (comme dans le domaine de la théorie du chaos . Et ils obtiennent effectivement des résultats chaotiques. Aucun des 30 tests ne correspond à la réalité. Les 30 résultats sont tous différents de manière substantielle. La moyenne d’ensemble est assez différente des observations, la seule chose qui concorde avec le fait que les hivers seront généralement un peu plus chauds – ceci parce que les modèles sont explicitement informés qu’il fera plus chaud si les concentrations de CO2 augmentent (ce qu’ils ont fait). 

Mais ce qu’ils appellent ces résultats chaotiques est une variabilité climatique interne . 

C’est une erreur majeure. Leurs jolies petites images représentent les résultats numériquement chaotiques de systèmes dynamiques non linéaires représentés par des formules mathématiques (dont la plupart sont elles-mêmes très sensibles aux conditions initiales), chaque résultat étant réinjecté dans les formules à chaque pas de temps successif de leur modèle climatique. 

Edward Lorenz a montré dans son article fondateur,  « Deterministic Nonperiodic Flow » , que les modèles météorologiques numériques produiraient des résultats extrêmement sensibles aux conditions initiales et que plus on les étend dans le futur, plus les pas de temps calculés sont nombreux, plus la propagation des résultats chaotiques est large et étendue. 

Que dit exactement Lorenz ?

« Deux états qui diffèrent de façon imperceptible peuvent éventuellement évoluer vers deux états considérablement différents… Si, par conséquent, il y a une erreur dans l’observation de l’état présent – ​​et dans tout système réel, de telles erreurs semblent inévitables – une prédiction acceptable d’un état instantané dans un avenir lointain pourrait bien être impossible… Compte tenu de l’inexactitude et de l’incomplétude inévitables des observations météorologiques, les prévisions précises à très long terme semblent inexistantes. »

Ces modèles climatiques numériques ne peuvent pas ne pas prévoir ou projeter avec précision les états climatiques à long terme. Cette situation ne peut être évitée. Elle ne peut pas être « contournée ». Elle ne peut pas être résolue par un maillage de plus en plus fin . 

Rien ne peut corriger le fait que la sensibilité aux conditions initiales — la principale caractéristique de l’effet de la théorie du chaos sur les modèles climatiques — fait perdre aux modèles leur capacité à prédire les états climatiques futurs à long terme.

Deser et Kay le démontrent clairement dans leurs articles de 2016 et suivants. 

Qu’est-ce que cela signifie dans la pratique de la science climatique ?

Cela signifie exactement ce que Lorenz a découvert il y a toutes ces années – citant le TAR (ou AR3) du GIEC :

« Le système climatique est un système chaotique non linéaire couplé, et par conséquent la prédiction à long terme des états climatiques futurs n’est pas possible. »

Deser et Kay qualifient les résultats chaotiques de leur article de « variabilité climatique interne ». C’est entièrement, totalement, absolument, magnifiquement faux .

Les résultats chaotiques, dont ils reconnaissent qu’ils sont des résultats chaotiques dus à la sensibilité aux conditions initiales, ne sont ni plus ni moins que :  des résultats chaotiques dus à la sensibilité aux conditions initiales . Cette variabilité est numérique – les nombres varient et ils varient parce qu’ils sont des nombres [plus précisément pas des nombres météorologiques ni des nombres climatiques ].

Les nombres qui varient dans les modèles climatiques varient de manière chaotique car ils proviennent du calcul d’ équations aux dérivées partielles non linéaires, telles que les équations de Navier-Stokes, qui sont un système d’équations aux dérivées partielles décrivant le mouvement d’un fluide dans l’espace, comme l’atmosphère ou les océans. Navier-Stokes joue un rôle majeur dans les modèles climatiques numériques.

« Le problème ouvert de l’existence (et de la régularité) des solutions aux équations de Navier-Stokes est l’un des sept problèmes du Prix du Millénaire en mathématiques » — une solution au problème posé vous rapportera 1 000 000,00 $. Pour cette raison, une version linéarisée de Navier-Stokes est utilisée dans les modèles.

Comment cela se passe-t-il alors dans les modèles climatiques actuels ? Quelle méthode est utilisée pour tenter de contourner ces obstacles à la prévision à long terme ?

« Apparemment, un système dynamique sans caractère aléatoire explicite ou incertitude au départ produirait après quelques pas de temps un mouvement imprévisible avec seulement de très légers changements dans les valeurs initiales. Vu que même les équations de Lorenz (comme on les a appelées au fil du temps) présentent des traits chaotiques, on peut imaginer dans quelle mesure (à court terme, probablement) les équations de Navier-Stokes sur une grille avec un million de points seraient prévisibles. Comme mentionné précédemment, c’est la raison pour laquelle les modèles atmosphériques d’aujourd’hui utilisent un certain nombre d’ hypothèses simplificatrices , de linéarisations et de méthodes statistiques afin d’obtenir des systèmes plus harmonieux. » [ source – ou télécharger .pdf ]

En d’autres termes, le mantra selon lequel les modèles climatiques sont corrects, fiables et produisent des prévisions précises à long terme parce qu’ils sont basés sur une physique éprouvée est faux – la physique est soumise à des hypothèses subjectives qui la « simplifient », à des linéarisations de formules mathématiques connues (qui rendent l’insoluble résoluble) et ensuite soumise à des méthodes statistiques pour « obtenir des systèmes plus rationnels ».  

La variabilité naturelle ne peut être observée que dans le passé. C’est la variabilité observée dans la nature – le monde réel – dans ce qui s’est réellement passé .

Le temps et le climat changeront à l’avenir. Et lorsque nous regarderons en arrière, nous verrons cette variabilité.

Mais ce qui se passe dans les modèles climatiques numériques est l’inverse de la variabilité naturelle. C’est un chaos numérique . Ce chaos numérique n’est pas une variabilité climatique naturelle , ce n’est pas une variabilité climatique interne . 

Mais comment pouvons-nous séparer le chaos numérique observé dans les modèles climatiques du chaos clairement évident dans le système chaotique non linéaire couplé qu’est le climat de la Terre ?

[et là je dois m’en remettre à mon opinion personnelle – une opinion éclairée mais une opinion seulement en fin de compte]

Nous ne pouvons pas.

Je peux (et j’ai) montré des images et des graphiques de la sortie chaotique de diverses formules qui démontrent le chaos numérique . Vous pouvez parcourir ma série Chaos ici , en faisant défiler vers le bas et en regardant les images. 

Il est clair que le même type de caractéristiques chaotiques apparaît dans tous les systèmes physiques du monde réel. Dynamique de population, flux d’air, propagation des maladies, rythmes cardiaques, fonctions des ondes cérébrales… presque tous les systèmes dynamiques du monde réel sont non linéaires et présentent des aspects chaotiques. Et, bien sûr, le climat de la Terre est chaotique au sens de la théorie du chaos.

Mais cela ne signifie-t-il pas que le chaos numérique dans les modèles climatiques est une variabilité interne ou naturelle ?   Non , ce n’est pas le cas. 

Une trajectoire de boulet de canon parfaitement calculée, basée sur la meilleure physique newtonienne, ne fera pas tomber les murs d’un château. Ce n’est qu’une idée, une description. L’énergie calculée à partir des formules n’est pas réelle. Le boulet de canon décrit n’est pas une chose. Et, pour utiliser un cliché d’adage : la carte n’est pas le territoire.

De la même manière, le chaos numérique produit par les modèles climatiques ressemble au type de chaos observé dans le climat du monde réel, mais il ne s’agit pas de ce chaos ni du climat futur . La « découverte » du chaos numérique par Lorenz est à l’origine des découvertes selon lesquelles la théorie du chaos s’applique aux systèmes dynamiques du monde réel. 

Prenons un exemple de l’actualité de cette semaine :

La trajectoire de l’ouragan Rafael a radicalement changé, selon les modèles de suivi

Voici les trajectoires projetées produites par nos principaux modèles d’ouragans à 12h00 UTC le 6 novembre 2024. La tache noire désordonnée juste au-dessus de l’ouest de Cuba est le point de 24 heures où les modèles commencent à diverger fortement. 

Pourquoi divergent-elles ?  Tout ce qui précède, tout ce qui est mentionné dans cet essai, ces projections de trajectoire d’ouragan illustrent parfaitement l’effet du chaos sur les prévisions météorologiques et donc sur les prévisions climatiques. À seulement 24 heures du futur, toutes les projections commencent à diverger. D’ici 72 heures, l’ouragan pourrait se trouver n’importe où, du nord-ouest du Yucatan jusqu’à la côte de la Floride. 

Si vous habitiez à Galveston, au Texas, à quoi vous serviraient ces projections ? Si le NCAR avait « fait la moyenne » des trajectoires pour produire une « moyenne d’ ensemble », cela serait-il plus utile ? 

Revenons à la première image des 30 tendances de température hivernale projetées, une mesure très vague : la moyenne d’ensemble (EM) de ces modèles particuliers, créée à l’aide de l’une des méthodes suggérées par Copernicus Climate Change Service , est-elle plus précise que n’importe laquelle des autres futures ? Ou est-ce simplement accidentellement « un peu comme » les observations ?

# # # # #

Commentaire de l’auteur :

Ce n’est pas un sujet facile. Il suscite la controverse. Les climatologues connaissent la théorie de Lorenz, le chaos, la sensibilité aux conditions initiales, les systèmes dynamiques non linéaires et ce que cela signifie pour les modèles climatiques. Le GIEC le savait autrefois, mais ignore désormais les faits.

Certains commentateurs ici crieront que « ce n’est pas un problème de conditions initiales mais un problème de limites » – comme si cela justifiait tout. Vous pouvez lire à ce sujet de manière très approfondie ici . J’écrirai peut-être sur cette tentative d’esquiver la réalité dans un prochain essai.

Je terminerai en faisant référence aux commentaires éclectiques de RG Brown que j’ai parrainés ici , dans lesquels il dit :

« Ce que personne ne reconnaît, c’est que les modèles climatiques actuels, malgré toute leur complexité informatique, leur taille et leur coût énormes, ne sont encore que des jouets, à des ordres de grandeur de l’échelle d’intégration où nous pourrions raisonnablement espérer réussir. Ils sont utilisés avec une totale insouciance pour générer d’innombrables trajectoires climatiques, dont aucune ne ressemble particulièrement au climat, et ensuite ils sont moyennés d’une manière qui est une obscénité statistique absolue, comme si la moyenne linéarisée d’un arbre de Feigenbaum du comportement chaotique était en quelque sorte un bon prédicteur du comportement d’un système chaotique ! … Ce n’est pas seulement stupide, c’est plus que stupide. Cela trahit littéralement les racines de toute la discipline pour la manne. »

Et c’est ce que je dis.

Merci d’avoir lu.

# # # # #

Nos articles sont généralement publiés sous licence Creative Commons CC BY-NC-SA

Ils peuvent être reproduits sous la même licence, en en précisant la source, et à des fins non commerciales.

Une réponse

  1. Un modèle numérique ne peut être validé que s’il est confronté aux mesures réelles. Et encore ce n’est pas une preuve absolue, ce peut être un heureux hasard lié aux conditions limites. Les modèles actuels « réchauffent » trop par rapport aux mesures réelles . Inversement ils n’ont pas su prédire le pic de 2023/2024. Ils sont donc sans valeur pour le proche passé et le présent. A fortiori pour l’avenir. S’en écarter est donc le seul geste scientifique sensé.
    De plus ils sont insuffisants s’ils ne modélisent pas toutes les causes possibles influant sur le climat, sans compter leurs interactions réciproques. C’est tellement complexe et chaotique…
    Bien avant les causes humaines, il conviendrait de se pencher sur les facteurs naturels:  les cycles de Milankovitch ou cycles astronomiques de forçage (position des planètes géantes par rapport au soleil, champ magnétique solaire, rayons cosmiques influençant les nuages, etc.), avec des périodes approximatives de 26 000 ans, 41 000 ans et 100 000 ans rendant compte des périodes glaciaires observées; les cycles de Bond ou cycles Tidaux lunaires d’environ 1500 années responsables de  pics de réchauffement et refroidissement tous les  750 ans ; les oscillations multidécadales Atlantique  50-70 ans ; les oscillations décadales Pacifique  30-40 ans ; les cycles Hale (activité des taches solaires) de 11 ans et 300 ans ; les oscillations El Nino/La Nina,  2-7 ans et 12-18 mois respectivement ; les oscillations quasi-biennales (30 mois)  peu comprises (liées  en partie à des alignements du Soleil, Jupiter, Saturne et Vénus) ; les cycles climatiques de l’Afrique du Nord 19000 et 23000 ans liés à la gravité et au changement de l’orientation de l’axe de la Terre (précession) ; les éruptions volcaniques sous-marines et aériennes, de fréquence et durée aléatoires, les perturbations d’origine galactique, etc.  (d’après Prof Alain Préat et bien d’autres).
    On remarquera que l’effet de serre ne figure pas dans cette liste. L’effet de serre n’est qu’un sous-produit du rayonnement solaire, il ne fait qu’empêcher de se refroidir les basses couches de l’atmosphère en récupérant les IR renvoyés par le sol. Le gaz à effet de serre largement prépondérant est l’eau, devant le méthane et l’ozone et loin devant le CO2, dont l’origine humaine est marginale.
    La science climatique a encore un long chemin à parcourir…

Laisser un commentaire

Les commentaires sont modérés avant d’être publiés, restez courtois.

Derniers commentaires :

Formulaire de contact

Recevoir la Newsletter hebdomadaire