Les modèles climatiques ont-ils dépassé leur utilité ?

Nous republions ici un article de David Whitehouse traduit de NetZeroWatch du 12 Juin 2022 :

Au-delà de la fascination qu’ils exercent sur le plan académique et de leur contribution à la politique climatique, il semble que nous ayons atteint la limite utile de la modélisation informatique du climat.

Les premiers ordinateurs construits dans les années 1950 ont permis aux climatologues de réfléchir à la modélisation du climat à l’aide de cette nouvelle technologie. Les premiers modèles climatiques informatiques utilisables ont été développés au milieu des années 1970. Peu après, l’Académie nationale des sciences des États-Unis a utilisé leurs résultats pour estimer un paramètre climatique crucial que nous calculons encore aujourd’hui – la sensibilité du climat à l’équilibre (ECS) – de combien le monde se réchaufferait (par rapport aux niveaux “préindustriels”) avec un doublement du CO2 – et a conclu qu’elle se situait dans une fourchette de 1,5 à 4,5°C.

Depuis lors, la puissance des ordinateurs a été multipliée par plus d’un quadrillion et pourtant, on pourrait dire que les modèles climatiques n’ont pas beaucoup amélioré cette estimation initiale. Leur gamme de projections ne s’est pas réduite de manière significative et, par conséquent, la contribution qu’ils apportent à la politique climatique ne s’est pas améliorée de manière concomitante. Le RE5 (2015) ne l’a que légèrement modifié, passant à 1,9 – 4,5°C.

De manière significative, l’évaluation la plus récente du GIEC, AR6 (2021), a fait un pas en arrière en découplant partiellement les modèles informatiques et les prévisions des modèles, en les remplaçant par un “jugement d’expert” de l’ECS qui accorde plus d’importance aux autres sources d’information. Le rapport AR6 n’a pas considéré que tous les modèles climatiques étaient égaux et les a pondérés en fonction de leurs capacités de prévision a posteriori. Par la suite, l’AR6 a réduit la fourchette de l’ECS à 2,5 – 4,0°C. Cela peut difficilement être considéré comme une réelle amélioration.

À l’époque, les climatologues attendaient avec impatience de nouveaux cycles de modélisation informatique, en particulier l’effort du projet CMIP6 (Coupled Model Intercomparison Project) pour réduire l’incertitude de l’ECS. Mais il est apparu très tôt que c’était le contraire qui se produisait, l’incertitude augmentant en fait. CMIP6 a finalement conclu que l’ECS se situait entre 2,0 et 5,5°C. Le fait que CMIP6 ait trop de modèles climatiques qui tournent trop vite nous dit quelque chose d’important. La démocratie des modèles du passé, que nous, au GWPF et d’autres, avons été critiqués pour avoir souligné, était en effet erronée.

En résumé, peu de modèles climatiques concordaient avec la réalité, ce qui a conduit à suggérer que seuls ceux qui concordaient devaient être considérés comme utiles. Au contraire, de nombreuses études ont englobé tous les modèles, y compris ceux qui ne reproduisaient pas les observations, et ont utilisé la médiane de tous ces modèles, ainsi que leur dispersion, comme moyen de prédire le changement climatique futur. Il était toujours gênant que la nature ne suive pas la médiane des modèles, et irritant que les “sceptiques” fassent remarquer qu’il n’était pas scientifique de ne pas écarter les modèles qui ne correspondaient pas aux données du monde réel.

Un commentaire récent dans Nature aborde ce problème en soulignant, enfin, que tous les modèles informatiques ne sont pas égaux : Les plus chauds ne devraient pas être utilisés pour produire des projections de l’orientation future du changement climatique. Il s’agit d’un progrès, même s’il est lent, et il annule un grand nombre d’informations diffusées dans les médias selon lesquelles “les choses vont être pires que prévu”, une alarme qui dépendait des limites supérieures irréalistes des projections.

Les modèles climatiques informatiques ne sont pas aussi bons que le pensent de nombreux lecteurs du Guardian ! Prenons l’exemple d’une étude de 2018 impliquant plus de 30 modèles informatiques et cinq ensembles de données sur les températures mondiales, qui a montré un désaccord grave entre eux sur près de 40 % de la Terre. Ce n’est pas le seul élément de recherche qui fournit des raisons valables de douter de leur exactitude, en particulier lorsqu’il s’agit de prédire le climat localisé qui est la base de la technique très médiatisée de l’attribution des événements climatiques.

La diffusion des résultats des modèles informatiques est également problématique à cet égard.Qu’en est-il de l’avenir ? Les ordinateurs plus puissants sont-ils la solution ? Les modélisateurs du climat veulent ajouter de plus en plus de paramètres pour créer une terre virtuelle et la faire avancer en améliorant les prévisions météorologiques et climatiques. Mais la dépendance à l’égard d’ordinateurs de plus en plus puissants et de modèles climatiques complexes est-elle en réalité un défaut émergent de la science du climat ? En 2009, un sommet international a déclaré qu’en multipliant par mille la puissance des ordinateurs, nous ferions un bond en avant dans notre capacité à prévoir le climat.

Aujourd’hui, nous avons atteint ce niveau de performance, et plus encore, mais notre capacité à prédire le climat ne s’est pas vraiment améliorée. En fait, elle a diminué à certains égards : des ordinateurs plus rapides, plus de mémoire, des codes plus complexes, des grilles plus fines, davantage de paramètres météorologiques ont aggravé la situation.

Plus gros, c’est mieux ?

L’ordinateur Cray XC40 du Met Office britannique est l’un des meilleurs au monde, capable d’effectuer 14 000 trillions d’opérations par seconde. Il possède 2 pétaoctets de mémoire, 460 000 cœurs d’ordinateur et exécute des programmes de plus d’un million de lignes de code. Il a commencé à fonctionner en décembre 2016 et, selon le Met Office, il est à la fin de sa vie utile. Plus tard cette année, il sera remplacé par un autre six fois plus rapide dans le cadre d’un programme de 1,2 milliard de livres financé par le gouvernement.

Le mantra du “plus gros, c’est mieux” continue. Récemment, la Royal Society a publié un rapport rédigé par Dame Julia Slingo, anciennement du Met Office britannique, qui souligne la nécessité d’une plus grande puissance de calcul et de meilleurs modèles climatiques. Selon ce rapport, d’ici 2030, les modèles climatiques fourniront des informations essentielles pour atténuer les changements climatiques et s’y adapter. Le rapport insiste sur le fait que nous avons besoin d’informations plus détaillées et plus précises pour “permettre une prise de décision solide” à l’avenir. En raison des “lacunes imposées par les limites du supercalculateur”, la Royal Society souhaite la création d’une nouvelle installation internationale de grande envergure, sur le modèle du CERN, qui permettrait de faire progresser la modélisation du climat, grâce à une nouvelle technologie informatique majeure capable de prévoir le temps et le climat à une résolution de l’ordre du kilomètre, ce qui permettrait d’améliorer les prévisions et les services relatifs au climat mondial. Mais est-ce scientifiquement réalisable et, dans l’affirmative, serait-il rentable ?

L’absence d’amélioration des modèles informatiques à mesure qu’ils deviennent de plus en plus complexes nous indique peut-être que la plupart des détails et des processus à petite échelle ne sont pas pertinents pour le résultat et ne valent peut-être pas la peine d’être calculés. Il s’agit d’un point de vue impopulaire à l’heure où les institutions et les départements universitaires fondent leur existence sur la nécessité de disposer d’ordinateurs de plus en plus puissants et de modèles de plus en plus complexes pour “améliorer” les résultats dans un avenir qui n’est pas encore arrivé.

Si un modèle simple, considéré comme “irréaliste” selon les normes des modélisateurs climatiques d’aujourd’hui et leurs codes géants, fait un meilleur travail ou l’équivalent d’une prévision climatique qu’un modèle moderne plus “réaliste”, alors que dire de l’évolution de ce domaine et de ses rendements scientifiques et financiers décroissants ? La recherche de la réalité climatique simulée par les incertitudes d’un modèle informatique a révélé une vérité sous-jacente à ce processus. Les modèles se désintègrent dans l’incertitude et personne ne le dit aux décideurs qui fondent toute leur politique sur ces prévisions. Les médias ne l’ont pas remarqué et continuent à écrire des articles vantant les mérites des modèles informatiques comme étant plus précis que nous le pensions !

Il y a autant d’incertitude et de “marge de manœuvre” dans les modèles climatiques qu’il y a quelques décennies. En dehors de la fascination qu’ils exercent sur le plan académique, si l’on considère leur contribution à la politique climatique, il semble que nous ayons atteint la limite utile de la modélisation informatique du climat.

Nos articles sont généralement publiés sous licence Creative Commons CC BY-NC-SA

Ils peuvent être reproduits sous la même licence, en en précisant la source, et à des fins non commerciales.

Une réponse

  1. “et irritant que les “sceptiques” fassent remarquer qu’il n’était pas scientifique de ne pas écarter les modèles qui ne correspondaient pas aux données du monde réel.”

    Tout modèle qui n’est pas recalé sur les mesures réelles doit être écarté. Ce n’est pas sceptique, c’est la base de la physique !

Laisser un commentaire

Les commentaires sont modérés avant d’être publiés, restez courtois.

Derniers commentaires :

Formulaire de contact

Recevoir la Newsletter hebdomadaire