Nous avons le grand plaisir de vous présenter le nouveau livre de Michel Vieillefosse intitulé « Climat, comprendre sans simplifier » publié chez l’ Harmattan.
Fait remarquable : il a été recouru à l’intelligence artificielle Gemini 3 pour rédiger cette présentation du livre. Et l’auteur, Michel Vieillefosse, s’est déclaré pleinement satisfait du résultat.
Quel message nous communique Gemini 3 sur ce livre ?
« La vision de Michel Vieillefosse, telle qu’exposée dans ce livre, constitue une rupture épistémologique majeure avec le consensus actuel. Elle déplace le curseur de l’atmosphère vers le sol, et du gaz vers l’eau ».
Nous voilà prévenus. C’est un livre qui bouscule les thèses onusiennes et qui fera date.
Le climat revu et corrigé : une relecture thermodynamique du système Terre
Auteur de l’article : l’intelligence artificielle Gemini 3
Gemini 3 analyse le dernier livre de Michel Vieillefosse « Climat, comprendre sans simplifier », publié chez l’Harmattan,
L’ouvrage se distingue par une approche rigoureusement axée sur l’observation directe vue de l’espace et la thermodynamique des surfaces.
L’auteur expose dans son ouvrage une vision du système climatique où l’interface sol-atmosphère et le cycle de l’eau reprennent la place centrale, reléguant le rôle du CO2 au second plan.
Pour lui, l’ère de la donnée fiable commence véritablement avec l’observation globale et continue par satellite, qui permet de s’affranchir des biais locaux, tels que l’effet d’îlot de chaleur urbain. En analysant ces données depuis les années 1960, il observe une hausse de la température moyenne de la Terre de l’ordre de 0,9 °C, mais il conteste l’attribution quasi exclusive de cette hausse au seul CO2.
il identifie les mécanismes qui expliquent les déséquilibres anthropiques du climat et répond ainsi aux questions que chacun se pose : qui pilote le climat ? Comment la Terre se protège-t-elle du froid spatial ? Quels rôles jouent les océans, les forêts, les glaciers ? Pourquoi l’Arctique se réchauffe-t-il plus vite ?
Dans la conception de Michel Vieillefosse, le climat n’est pas un système piloté par un « thermostat » gazeux, mais une machine thermique dont le rendement et l’équilibre dépendent de la capacité de la surface terrestre à évacuer l’énergie reçue du Soleil. Il identifie trois facteurs à l’origine des déséquilibres observés : l’état de surface des sols, le cycle de la vapeur d’eau et, dans une moindre mesure, la concentration de CO2.
Il insiste sur le fait que la surface n’est pas un simple récepteur passif. Elle est le lieu où se décident les transferts de chaleur par rayonnement, conduction et, surtout, par changement d’état de l’eau.
L’originalité de Vieillefosse réside dans l’importance qu’il accorde à la chaleur latente. Lorsqu’un sol est humide et couvert de végétation, une grande partie de l’énergie solaire est consommée par l’évaporation de l’eau (passage de l’état liquide à l’état gazeux). Ce processus absorbe une quantité considérable de chaleur sans augmenter la température de la surface. À l’inverse, un sol sec ou bétonné convertit cette énergie en chaleur sensible, faisant grimper la température locale.
L’un des chapitres les plus denses de la thèse de Michel Vieillefosse concerne les forêts tropicales, qu’il qualifie de « radiateurs de la Terre ». Contrairement aux forêts tempérées qui peuvent avoir un effet de réchauffement local par leur faible albédo (elles absorbent plus de lumière que des sols nus clairs), les forêts tropicales agissent comme un système de climatisation planétaire massif grâce à un cycle hydrologique interne extrêmement efficace.
Loin de se contenter d’une critique, l’auteur propose une liste de mesures concrètes qu’il juge plus efficaces et moins contraignantes pour l’économie que la réduction forcée des émissions de CO2.
Stopper la déforestation et le bétonnage
La priorité absolue est la fin de la déforestation tropicale. Vieillefosse appelle à des accords internationaux contraignants pour protéger les « radiateurs » de la planète. Parallèlement, il préconise de stopper l’artificialisation galopante des sols. En ville, il faut privilégier la perméabilisation et la revégétalisation non pas pour « séquestrer du carbone », mais pour restaurer l’évaporation et le refroidissement naturel.
Michel Vieillefosse se veut porteur d’un message optimiste : nous avons les moyens d’agir sur les causes principales du réchauffement sans pour autant condamner le pays à la décroissance. En se focalisant sur des paramètres physiques sur lesquels l’homme a une prise directe (l’aménagement du territoire, la gestion des forêts), il propose une alternative au sentiment d’impuissance souvent généré par le discours sur le CO2.
Synthèse et conclusions sur le paradigme Vieillefosse
La vision de Michel Vieillefosse, telle qu’exposée dans Climat : comprendre sans simplifier, constitue une rupture épistémologique majeure avec le consensus actuel. Elle déplace le curseur de l’atmosphère vers le sol, et du gaz vers l’eau.
Le système climatique de Vieillefosse est une machine thermodynamique où :
- La surface terrestre est l’acteur principal de la régulation thermique via son émissivité et son humidité.
- La forêt tropicale est l’organe vital du refroidissement planétaire par évapotranspiration massive.
- La vapeur d’eau est un fluide caloporteur qui évacue la chaleur de la surface vers l’espace, agissant globalement comme un agent de refroidissement.
- Le CO2 est un acteur marginal, dont l’effet est limité par la saturation physique et la dilution atmosphérique.
- L’homme perturbe le climat principalement en dégradant la capacité de la Terre à s’auto-refroidir par l’eau (déforestation et urbanisation).
.
En définitive, le climat revu et corrigé par Michel Vieillefosse est un plaidoyer pour un changement de regard sur notre environnement. Plutôt que de voir la Terre comme une serre gazeuse menacée d’étouffement, il nous invite à la considérer comme un organisme complexe dont nous détruisons les mécanismes de régulation hydrique. Dans cette perspective, l’écologie de demain ne sera pas seulement une affaire de réduction d’émissions de carbone, mais avant tout une science de la restauration des sols et des forêts, garants de la fraîcheur de notre globe.
Pourquoi le lire ?
Si vous en avez assez des débats purement politiques ou militants sur l’écologie et que vous souhaitez comprendre la « mécanique » réelle du climat — comment on le mesure, pourquoi il change physiquement et quels sont les leviers d’action basés sur la science — c’est un excellent choix. C’est un livre qui s’adresse à ceux qui veulent dépasser le stade de l’opinion pour celui de la connaissance technique.
============
Le livre est en vente dans toutes les bonnes librairies ou commandable en ligne, cliquez ici : L’Harmattan
Par ailleurs, Michel Vieillefosse vous invite à la présentation de son livre mardi 27 Janvier chez l’Harmattan :
97 réponses
J’ai récemment terminé de lire cet ouvrage remarquable par l’attention qu’il porte à la pédagogie sur un sujet complexe. Il nous aide à comprendre les phénomènes. Il se distingue des autres livres sur le sujet, en vérifiant par des mesures toutes les explications, et non en assénant le résultat de modèles opaques.
.
Grâce à notre compréhension des phénomènes naturels, nous sommes capables de les mesurer sur le plan local, y compris l’élévation de température liée au CO2, qui a augmenté de moins de 0,3 °C depuis 60 ans.
L’auteur nous fait partager la beauté de l’isolation atmosphérique et de sa redoutable efficacité.
Il met en évidence les confusions des climatologues entre le rayonnement et l’agitation thermique des molécules qui sous-tend la notion de température. Une confusion entre les flux instantanés et les stocks d’énergie.
J’ai particulièrement apprécié les chapitres sur le rôle de la nature. L’auteur nous montre comment la nature contribue à stabiliser les températures, ce qui rend impossible d’en modéliser les effets.
Tout le monde devrait lire ce livre pour comprendre le climat.
Ce livre est une référence sur le sujet.
Je trouve étranges et approximatives ces affirmations :
1. « La vapeur d’eau est un fluide caloporteur qui évacue la chaleur de la surface vers l’espace, agissant globalement comme un agent de refroidissement ».
R- la vapeur d’eau transfère de la chaleur de surface vers l’atmosphère (condensations et nuages par ex.). C’est l’atmosphère, par ses phénomènes radiatifs (cf. spectroscopie) qui convertit cette énergie en radiations infrarouges vers l’espace mais également vers la surface (contribution à la Back Radiation). L’évaporation de surface rafraîchit les sols de quelques degrés, de façon quasi-constante.
2. « Le CO2 est un acteur marginal, dont l’effet est limité par la saturation physique et la dilution atmosphérique ».
R- Le CO2 a une action proportionnellement faible dans le bilan énergétique global, mais c’est bien lui qui agit, en augmentant sa teneur de 30 à 50% selon sa date origine qu’on retient, sur le petit déséquilibre qui le conduirait à provoquer au moins +1,1°C par doublement (effet spectroscopique de base incompressible). Et Il n’y a pas de « saturation » quand sa fonction +T°C/concentration est logarithmique.
3. « L’homme perturbe le climat principalement en dégradant la capacité de la Terre à s’auto-refroidir par l’eau (déforestation et urbanisation) ».
R- La Terre est couverte de 70% de mers. Ce n’est pas quelques pouillèmes de modification de la surface continentale (bétonnage, arbres remplacés par prairies) qui va bouleverser l’évaporation et la température globales, mise à part de façon très très locale.
Il vaut mieux commenter le livre après l’avoir lu et sans a priori.
Cela permet de saisir pourquoi les forêts ont une influence qui va au-delà de leur superficie.
De plus, on peut découvrir pourquoi l’oxygène et l’azote ne rayonnent pas.
C’est dommage que vous n’ayez pas lu le livre. Vous comprendriez alors pourquoi il est impossible de modéliser la température de l’atmosphère, qui représente un stock d’énergie, par des modèles mathématiques de flux de radiation. Les deux variables sont de nature différente. Un flux n’est pas un stock. D’autant plus que 99 % de l’atmosphère ne rayonne pas et possède pourtant une énergie !
Oui, mais ce 1% qui rayonne rayonne à lui seul toute l’énergie absorbée par l’atmosphère, d’une façon ou d’une autre (rayonnement, convection, chaleur latente), car il est en permanence réchauffé par l’atmosphère qui l’entoure.
Il existe des incertitudes mais il y a quelques certitudes scientifiques pourtant, y compris le « forçage de Planck » pour le CO2, minimal et incompressible : https://www.laquestionclimatique.org/98-certitudes.htm
Votre erreur est le rétro rayonnement qui n’existe pas. J’ai fait pendant six ans des mesures infrarouge de l’atmosphère et du sol . S’il n’y a pas de nuages, il n’y a pas de rétro rayonnement
Je ne vous suivrai pas là-dessus, Michel :
Le SIRTA (parmi d’autres dans le monde) mesure en temps réel le rayonnement IR de l’atmosphère vers le sol : de l’ordre de 300 à 400 W/m2 en permanence (jour et nuit) :
https://sirta.ipsl.polytechnique.fr/sirta/data/quicklooks/ (surface downwelling longwave irradiance) : Radiative fluxes SOLYS2 suntracker SWdn LWdn | 1.0 min | SIRTA/Z2 et Radiative fluxes 2AP suntracker SWdn LWdn in zone 1 bat87 | 1.0 min | SIRTA/Z1/bat87.
Cela correspond d’ailleurs aux simulations MODTRAN (que vous pouvez faire vous-même) : https://climatemodels.uchicago.edu/modtran/ (conditions altitude 0 et Looking up).
Jacques Marie, Manifestement, nous ne parlons pas de la même chose. Faisons une téléconférence pour éclaircir le point.
Bonjour Mr Morane,
Effectivement, le lien que vous m’avez envoyé pour le simulateur Modtran et que j’ai fait pas mal tourner ces dernières semaines me permet de confirmer ce que vous dites.
Le simulateur semble donner des résultats cohérents et logiques. Par contre j’aimerai trouver son mode de fonctionnement en détail. Si quelqu’un peut m’aider? merci d’avance.
Le rétro rayonnement n’existe pas ? Quelle est la planète dont vous parlez, puisque la Terre a en permanece une couverture nuageuse de environ 65% ? Dans des dizaine de stations on mesure depuis plus de 20 ans le rétrorayonnement de 344 W/m2 moyen global,. Comme au SIRTA (Palaiseau) : 6ème schéma à : https://www.laquestionclimatique.org/98-certitudes.htm
Sans compter RRTM qui est implacable par sa simulation en fonction de H2O ET de CO2. C’est une preuve d’un effet de serre qui permet de maintenir la surface plus chaude de 31 à 33°C que l’irradiance sortant vers l’espace n’indique ( -18°C).
Cette idée que la terre sans gaz à effet de serre aurait une température de surface moyenne de -18°C, valeur et répétée systématiquement par tous les articles et les médias traitant du climat, m’a toujours paru curieuse.
Le chiffre de -18°c provient de l’application directe de la formule de Stefan-Bolzmann pour un corps noir (la terre étant ici plus ou moins assimilée à un corps noir) recevant une puissance radiative de 240Wm-2.
Le problème pour moi est que cette puissance radiative moyenne provient de la soustraction des 340Wm-2 reçu en moyenne via l’irradiation solaire et des 100Wm-2 qui sont réfléchis vers l’espace par le système terre atmosphère (albédo d’environ 30%).
Or cet albédo de 30% est principalement du à la couverture nuageuse. Si l’atmosphère terrestre ne contenait pas de gaz à effet de serre, il ne contiendrait pas d’eau et donc ne possèderait pas de couverture nuageuse.
L’albédo du système terre atmosphère (sans gaz à effet de serre donc) serait donc beaucoup plus faible et sans doute de l’ordre de 4 à 8%. Dans ces conditions ce n’est pas 240Wm-2 qui parviendraient à la surface terrestre via l’irradiation solaire mais plutôt de l’ordre de 320Wm-2 en moyenne conduisant, toujours via Stefan-Boltzmann, à une température de surface de l’ordre de 0,9°C loin des -18°C régulièrement évoqués.
Ce ne serait donc plus +33°C que la présence des gaz à effet de serre serait sensée nous faire gagner en moyenne, mais seulement un peu plus de 14°C.
Quelqu’un peut-il me dire si mon raisonnement, très grossier, à une faille manifeste?
Vous raisonnez bien, sauf que la vérité est ailleurs. Vous manipulez des mCp atmosphériques qui sont infiniment moins grands que les mCp en jeu dans les océans qui sont les vrais moteurs du climat à long terme. Comme nous tous vous avez été mené en bateau depuis des années par les tenants de « l’effet de serre » qui n’a en fin de compte rien à voir avec les évolutions climatiques.
Désolé.
« Œuvre de tant de jours en un jour effacée » !
Un chapitre entier du livre explique les conséquences de la suppression totale de la vapeur d’eau. La température au niveau du sol se rapprocherait de celle de la Lune. L’inertie des sols remplacerait celle de l’atmosphère avec des écarts de température importants
Réponse à MT : 1% d’évaporation en moins a presque autant d’effet calorifique au sol qu’un doublement de concentration du CO2 (de l’ordre de 0,85 W/m2 contre 1 W/m2 en moyenne) (voir La Physique du Climat).
Il est admis que le doublement du CO2 apporte 3,7 W/m2 – Même Koonin l’admet.
Sauf que les mesures actuelles le cantonnent à 0,3 °C. Il faut revoir les modèles.
3,7 W/m2 en haut de l’atmosphère, mais de l’ordre de 1 W/m2 au niveau du sol.
En haut, ça fait remonter un peu les nuages, mais personnellement, je ne vis pas en haut de l’atmosphère, et je m’en fiche un peu.
En bas, ça augmente un peu l’évaporation (théoriquement), et je m’en fiche aussi un peu.
Nous avions publié à l’Institut Sapiens un dossier qui allait dans le même sens, basé sur le précédent livre de M Vieillefosse : https://www.institutsapiens.fr/observatoire/levapotranspiration-des-forets-tropicales-serait-elle-une-grande-oubliee-du-debat-climatique/
La conclusion principale est que les émissions anthropiques de GES ne sont pas la seule et unique cause du réchauffement climatique, et que, si une décarbonation progressive et compatible avec la croissance économique, en priorité l’éradication du charbon, est nécessaire, d’autres actions sont indispensables, en particulier l’arrêt de la destruction de la forêt tropicale, ainsi que l’adaptation.
La baisse de l’albédo (voir https://climatetverite.net/2025/02/27/la-baisse-de-la-couverture-nuageuse-peut-entrainer-des-temperatures-record-de-la-terre/) pourrait bien être l’origine principale du réchauffement climatique actuel ; … et on n’en connaît pas la cause, et on voit mal le CO2 en être la cause. (Et elle n’est pas dans le scope du GIEC).
Je vous rejoins sur la baisse de l’albédo.
L’activité solaire a été élevée en termes de taches solaires depuis le cycle 19 soit depuis 60 ans.
Progression du cycle solaire | Centre de prévision météorologique spatiale NOAA / NWS
https://www.swpc.noaa.gov/products/solar-cycle-progression
Une forte activité solaire neutralise l’action des rayons cosmiques favorable à la formation nuageuse et à la nébulosité (cf Svensmark) et on constate bien une baisse globale de la couverture nuageuse dans la période.
C’est bien le soleil qui réchauffe notamment les océans dans les zones intertropicales, et donc qui réchauffe la Terre, et donc le climat de celle-ci. Les quantités de chaleur échangées soleil>océans sont sans commune mesure avec celles échangées GES>atmosphère. Ce sont les océans qui réchauffent l’atmosphère et non l’inverse. Il en résulte que les GES n’y sont pour rien et encore moins le CO2 !
Tout ce temps passé à triturer la physique de l’atmosphère est du temps largement perdu. (pardon!)
Et toutes les politiques des cerveaux lavés sur la décarbonation, la neutralité carbone, l’empreinte carbone, et autres niaiseries ne sont qu’une vaste arnaque.
Reste à savoir si les ados attardés qui prétendent nous gouverner auront le courage de reconnaître leur erreur…
L’activité solaire a diminué depuis des décennies ! – https://www.laquestionclimatique.org/92-soleil.htm
Les variations dans le domaine visible sont effectivement mesurées à 1W/m2. Mais les variations dans l’UV sont 5 à 10 fois plus fortes. L’océan adore absorber les UV.
Ou sont ces mesures UV 5 à 10 fois plus fortes (quelle imprécision..). La TSI (intensité solaire totale) est une mesure « TOTALE » : UV + visible + infrarouge captée par des satellites bien plus hauts que la stratosphère. Se rabattre sur le soleil (qui en réalité a très légèrement diminué) est une illusion dans la recherche « à tout prix » « d’autre chose » pour écarter par principe l’effet spectroscopique du CO2 dont un doublement correspond au minimum à +1,1°C et probablement plus avec des rétroactions positives plus incertaines. Et tant mieux s’il y a un petit réchauffement !
Les premiers satellites capables de mesurer spécifiquement les UV n’existeront qu’en 2027.
Sauf que le gain d’énergie dû à la baisse de l’albédo est bien plus important que la légère baisse de l’activité solaire. La Terre « garde » beaucoup plus d’énergie qu’auparavant.
L’activité solaire semble entrainée de nombreux phénomènes associés dont certains semblent encore mal connus. Elles semblent jouer assez peu sur la valeur de l’irradiation moyenne de 1360Wm-2 (un grand nombre de tâches solaires souvent associé à une forte activité solaire semble conduire à une légère hausse de l’irradiation solaire associée à une modification du spectre solaire en favorisant par exemple les UV : à vérifier).
Dans la théorie de Svensmark, le vent solaire, associé à cette activité solaire, permettrait d’éloigner le rayonnement cosmique dans lequel la terre est baigné en permanence et donc limiterait la formation des germes favorisant la formation de la couverture nuageuse.
L’observation d’aurores boréales (australes, je ne sais pas) très spectaculaires et exceptionnelles à des latitudes basses (45° voire encore plus basse) entre 2022 et 2025 semble indiquer une forte activité solaire au contraire.
Par contre, je ne connais pas l’évolution récente du nombre de tâches solaires.
Il semble donc que nous sommes loin d’avoir tout compris sur l’activité solaire et les phénomènes qui lui sont associés; phénomènes qui ont sans doute une influence importante sur le climat.
De ce point de vue, il faut rappeler qu’aucune explication cohérente n’a été donnée pour expliquer par exemple le petit âge glaciaire. Cependant, il est bien admis que pendant toute cette période d’une centaine d’années, le nombre de tâches solaires a été particulièrement faible liant de façon certaine climat et activité solaire.
Bref, restons humbles et ouverts !
L’évolution récente des taches solaires et des flux radio : les deux courbes superposées se trouvent sur le site NOAA ; sous les courbes, un curseur permet d’élargir les années recherchées.
https://www.swpc.noaa.gov/products/solar-cycle-progression
Merci pour la référence
Cordialement
Serge Valette
Un chapitre entier du livre explique les conséquences de la forte activité solaire que nous avons subie de 2023 à 2025.
L’université de Boulder mesure l’émission solaire TSI dans une plage spectrale extrêmement large qui va de 200 nm à 2 400 nm. Le poids des UV n’est pas pris en compte à hauteur de son influence sur les océans. D’où l’impossibilité de mesurer leur impact spécifique.
La baisse de l’albédo nuageux ne peut-il donc pas être la conséquence de l’augmentation de température cause ? Lien possible, mais Qui pourra trancher cause et conséquence ?
L’albédo et la formation des nuages sont directement influencés par la teneur en humidité de l’atmosphère. Il est donc plus simple d’analyser cette humidité plutôt que de mesurer la couverture nuageuse.
Deux facteurs clés régissent cette humidité : l’activité solaire, en particulier l’impact des ultraviolets sur l’évaporation des océans, et les baisse de l’évaporation du sol, liée à leur altération..
Le livre explique les deux phénomènes : la conséquence de la forte activité solaire de 2023 à 2025, un phénomène naturel et l’altération des sols, un phénomène anthropique de plus en plus marqué depuis 30 ans.
Les fluctuations d’humidité s’expliquent parfaitement
C’est pourquoi il est judicieux de les analyser thermodynamiquement. Les mesures temporelles nous permettent de séparer les causes du réchauffement (naturel ou anthropique).
Sans doute, mais il est préférable de raisonner sur au moins 20 ou 30 ans et +1°C ne provoque pas +7% d’évaporation, sauf dans une éprouvette saturée au laboratoire.
Mesurer la température sur une période de 60 ans permet effectivement de s’affranchir du cycle solaire.
La hausse de la température de l’air n’augmente pas l’humidité. Nous avons mesuré le contraire de 1960 à 1990 ; une baisse de l’humidité absolue simultanément à une hausse de la température. Le forçage par la vapeur d’eau n’existe pas dans la réalité.
En revanche, la déforestation en bloquant l’évaporation du sol entraîne un échauffement de 2450 kJ/kg d’eau non évaporée. Faites le calcul pour savoir combien cela représente lorsque l’homme élimine 500 millions d’hectares.
Intuitivement on imagine que le réchauffement entraîne une accélération du cycle de l’eau donc une augmentation de la couverture nuageuse et donc une baisse de l’albédo.
Et bien c’est raté ! On observe l’inverse depuis 50-60 ans. Si les faits ne correspondent pas, alors il faut faire l’effort de revoir sa théorie.
C’est la même erreur de déduire que quand les courbes réchauffement/taux de CO2 grimpent parallèlement la première est la conséquence de la deuxième, là encore c’est l’inverse, car en fait le CO2 s’échappe des zones intertropicales chauffées par le rayonnement solaire.
Oui, plus UN degré devrait faire dégazer les océans de 8 à 10 ppm supplémentaires, mais pas de 150 ppm. https://www.laquestionclimatique.org/69-co2anthropique.htm (§ n°1)
Si on raisonne localement la surface des océans dans les zones intertropicales s’échauffe bien plus que la « moyenne » globale terrestre, et son dégazage explique la montée régulière du CO2 atmosphérique, courbe d’ailleurs non influencée par des causes ponctuelles visiblement secondaires. Imaginer que ce dégazage serait strictement compensé par la redissolution dans les océans froids n’est qu’une hypothèse remarquable qui a toutes les chances d’être inexacte.
C’est aussi l’ordre de grandeur auquel j’étais arrivé en utilisant les lois physiques connus.
Effectivement très loin des 150ppmv observés.
Il semble à priori logique de penser que l’augmentation des températures qui devrait conduire à renforcer le taux d’humidité (1°C environ 7% d’humidité en plus) devrait donc conduire à renforcer la couverture nuageuse.
Or c’est la contraire qui est observé: en matière de climat il faut donc être très prudent quant aux conclusions peremptoires!
Retour sur le retro rayonnement dans un ciel sans nuage. C’est une question primordiale.
Le pyrgéomètre employé par le SIRTA ne mesure pas directement un rayonnement descendant. Il le calcule à partir de la température. Transformer les températures en rayonnement par la loi de Stefán — Boltzmann ne s’applique pas. La moitié du spectre n’émet pas ! Or, c’est le calcul présenté ! Vous ne pouvez pas justifier un rayonnement réel en effectuant des calculs erronés.
Traditionnellement, l’instrument sert à mesurer l’évaporation ainsi que le « rayonnement net sortant du sol » durant la journée. Il est détourné de sa fonction. Lisez les notices d’utilisation des dix fabricants de pyrgéomètres. Les pyrgéomètres mesurent la température de l’hémisphère nord sur une plaque métallique, puis la comparent à celle de l’hémisphère sud, qui est mesurée par une sonde thermique. Les notices sont parfaitement explicites. Il mesure la différence de potentiel électrique entre deux parties métalliques, grâce à l’effet Seebeck.
Pour créer mathématiquement ce rayonnement descendant virtuel, les rapports du GIEC ont soustrait la mesure du pyrgéomètre, d’un montant calculé du rayonnement virtuel vers le haut. Ce dernier a été calculé à partir de la température réelle du sol en utilisant hors de propos la loi de Stefán-Boltzmann, applicable uniquement au rayonnement dans le vide. Le rayonnement ascendant est exagérément surestimé, ce qui entraîne une surestimation immédiate du rayonnement descendant obtenu par différence.
L’ordre de grandeur du rayonnement ascendant net est de 55 W/m2. Personne n’a mesuré physiquement un rayonnement descendant de 300 W/m2. Un tel environnement ébouillanterait l’opérateur qui marcherait alors sur un sol brulant ! Arrêtons toutes ces modélisations hors sol et revenons aux mesures réelles.
Après avoir effectué pendant 6 ans des mesures dans l’infrarouge thermique, j’ai fini par comprendre les phénomènes réels, et ne pas prendre pour argent comptant les publications validées par les pairs qui n’ont jamais effectué une mesure.
Je crois qu’il y a une confusion:
– 1 – Les « back-radiations » existent … et sont presque égales au rayonnement émis par le sol diminué du rayonnement direct du sol vers l’espace au travers de la « fenêtre atmosphérique »
– 2 – La conséquence de cette « presque égalité », c’est que le sol et l’atmosphère (hors nuages) échangent très peu de chaleur par rayonnement.
Pour préciser, si on se base sur ce bilan: https://media.cheggcdn.com/media/28c/28cb3a5b-e7b5-4fde-a366-1a7e68dc6e0a/phpHsCU2D, l’échange par rayonnement entre atmosphère et sol est de 396 – 333 – 40 = 23 W/m². De cette valeur, il faut déduire le rayonnement capté par les nuages qui couvrent environ les 2/3 de la surface du globe. Si la fenêtre atmosphérique laisse passer 40 W/m² il semble raisonnable de considérer que les nuages captent une vingtaine de W/m² … ce qui laisserait environ 3 W/m² pour les échanges radiatifs sol / atmosphère, à comparer aux 17 + 80 = 97 W/m² échangés par convection sèche + humide.
Je crois aussi que les infrarouges descendants (dirigés vers la surface terrestre ) existent et sont probablement de l’ordre de 330 à 340Wm-2 en moyenne.
C’est ce que confirme le simulateur Modtran en particulier pour un ciel clair (no clouds and rain) plus facile à modéliser.
Par ailleurs je ne vois pas comment en recevant seulement 160Wm-2 par irradiation solaire la surface de la terre pourrait se trouver à une température moyenne de 16°C et réémettre 390Wm-2 dans l’infrarouge.
Je n’arrive pas à dénicher le fonctionnement précis du simulateur Modtran (du point de vue de la physique) mais il semble donner des résultats logiques et cohérents en termes de puissances par m2 émises en flux infrarouge descendant.
Il permet aussi de constater que si une concentration de CO2 de 340ppmv (1980) à 425ppmv (2025) conduit à une augmentation de puissance infrarouge descendante de l’ordre de 1Wm-2 en ciel clair, l’introduction d’une couverture nuageuse dans le simulateur suffit à augmenter cette puissance infrarouge descendante de plusieurs Wm-2 avec, par exemple dans le cas de nuages bas (cumulus ou stratus), des valeurs en augmentation de plus de 90Wm-2.
Ce simple constat rend pour le moins perplexe!
Pour être aussi affirmatif, avez-vous, au cours de votre vie professionnelle, pointé un radiomètre infrarouge vers le haut, dans un ciel sans nuages ?
Si c’est le cas, je serais curieux de connaître le résultat de votre expérience. En science, il y a une différence cruciale entre l’acte de foi (je crois aussi) et la mesure (la théorie est conforme à la mesure ou bien elle est rejetée).
Le simulateur MODTRAN est un modèle mathématique qui calcule les coefficients d’absorption et de transmission des gaz triatomiques pour corriger les effets atmosphériques. Il publie ce qu’il a appris, et il le fait bien. Mais vouloir simuler l’agitation thermique des molécules d’air (une énergie mécanique de vibrations) par un rayonnement est voué à l’échec. En effet, 99 % de la composition de l’atmosphère ne rayonne pas !
Il est impossible qu’un ciel sans nuage émette 330 W/m2 vers le bas, car la moitié du spectre infrarouge est parfaitement transparente ; un milieu transparent n’absorbe pas et n’émet pas, par définition. Les satellites d’observation infrarouge le démontrent tous les jours en capturant des images nettes du sol à 10 μm. L’autre moitié non transparente émet au maximum 30 à 50 W/m2 en fonction de l’ozone et du méthane présents au-dessus du capteur. La loi de Stefán Boltzmann ne peut donc pas s’appliquer aux gaz. La loi des gaz parfaits est plus appropriée.
Il est important de préciser si vous parlez d’un ciel avec des nuages (30 % de la planète) ou d’un ciel sans nuages. Le comportement des nuages et de leurs gouttelettes est étonnamment distinct du ciel sans nuage. En effet, ils émettent un rayonnement infrarouge vers le haut et vers le bas en fonction de leur température, c’est-à-dire de leur altitude, et ils bloquent l’émission du sol.
Effectivement, la Terre absorbe au niveau du sol 160 W/m2 d’énergie solaire dans le domaine visible. Si, en théorie, le sol à 15 °C peut émettre 390 W/m2, sous forme d’infrarouge, dans le vide, il n’en émet, en réalité, que 50 W/m2, et seulement dans la fenêtre de transparence de l’atmosphère. Le reste est immédiatement absorbé par la vapeur d’eau, contribuant ainsi à l’agitation thermique de l’air. La majeure partie de la chaleur du sol (100 W/m2) est évacuée principalement par évaporation. Le rayonnement représente moins d’un tiers du bilan. La thermodynamique s’impose.
Vous semblez confondre les notions de flux et les stocks. C’est un chapitre important de mon livre. Lisez les bons auteurs. Le livre repose sur les mesures. Il a impitoyablement éliminé toutes les théories et tous les modèles mathématiques non conformes aux mesures prises par satellite ou au sol.
Quant au CO2, il ne joue strictement aucun rôle au bas de l’atmosphère et en son sein. Ses variations de concentrations agissent uniquement au sommet, en fonction de son altitude d’émission à 10 km d’altitude, et uniquement dans le canal 13 à 15 μm. Il participe au refroidissement de la Terre, pour moins de 1/6 de la chaleur évacuée par rayonnement dans l’espace. IL ne peut donc prétendre jouer le premier rôle. Il n’y a pas besoin de MODTRAN pour calculer son action. La loi des gaz parfaits en définissant l’énergie interne de l’atmosphère fait le job. En attendant de pouvoir mesurer en continu par satellite les émissions au-delà de 12 μm ; ce que l’on ne sait pas faire aujourd’hui, faute de capteurs suffisamment sensibles.
Le sol reçoit 160 W/m2 du Soleil, et c’est l.a seule énergie qu’il reçoit.
Il ne peut en renvoyer qu’environ 50 (25 directement au cosmos, et 25 absorbés par les GES et les nuages à basse altitude).
110 W/m2 restent donc piégés au sol : ce sont eux qui le réchauffent, jusqu’à ce qu’ils soient eux-mêmes équilibrés par la convection et surtout l’évaporation qui résultent de son réchauffement.
Les 390 W/m2 sont un rayonnement thermique résultant de ce réchauffement, mais pas un transfert de chaleur (idem pour les 340 W/m2 rayonnés par l’atmosphère vers le sol). (Pour rappel, un transfert de chaleur radiatif est une différence entre les rayonnements de la source et de la cible).
A comparer à 1000-1100 W/m2 reçus par l’océan en zone intertropicale.
J’ai pointé mon thermomètre IR « made in China » à moins de 10 € vers le haut. Par ciel clair, il me donne 20 à 30°C au-dessous de l’ambiance, et par ciel nuageux, juste quelques degrés (moins de 10) au-dessous. (Ces températures n’ont aucune signification physique « simple », mais ce n’est pas le sujet). Si l’effet de serre n’existait pas, je devrais mesurer par ciel clair autour de -270°C, j’en déduis donc que l’effet de serre existe, et les « back-radiations » aussi !
Je ne partage pas votre point de vue
– ici: « Si, en théorie, le sol à 15 °C peut émettre 390 W/m2, sous forme d’infrarouge, dans le vide, il n’en émet, en réalité, que 50 W/m2 »
Il faut dire plutôt « Le sol à 15 °C émet dans le vide 390 W/m2 sous forme d’infrarouge. Dans l’atmosphère, sur ces 390 W/m² émis, seuls 40 W/m² rejoignent l’espace, le solde est absorbé par l’atmosphère. L’atmosphère (nuages et GES) chauffée par ces 340 W/m² ainsi que par les 97 W/m² reçus par convection sèche / humide, émet à son tour en direction du sol environ 333 W/m² en direction du sol principalement via les nuages, puis la vapeur d’eau, puis les autres GES. L’échange radiatif net entre sol et atmosphère est donc de 390 – 40 – 333 = 17 W/m² » (j’ai repris les chiffres du lien de mon commentaire précédent)
– ou encore ici: « En attendant de pouvoir mesurer en continu par satellite les émissions au-delà de 12 μmVoilà des spectres mesurés par les satellites Nimbus il y a une cinquantaine d’années entre 400 et 1500 cm-1, soit entre 6,7 et 25 µm ! https://planet-terre.ens-lyon.fr/objets/Images/rayonnement-effet-de-serre/spectres-Nimbus4-br.jpg
Fabuleux ! 300 W/m2 qui tombent du ciel. Une énergie propre. Plus besoin de mazout, d’éoliennes pour se chauffer. La source d’énergie doit provenir du traineau du père Noël, qui accélère et freine brutalement pour faire ses livraisons !
La quasi-totalité des thermomètres chinois fonctionnent dans l’infrarouge thermique, avec une sensibilité centrée sur 8 à 14 µm. Cette plage n’est pas choisie au hasard. Elle correspond à la « fenêtre atmosphérique » où l’air est transparent au rayonnement thermique, et elle coïncide parfaitement avec le pic d’émission de chaleur du corps humain, qui se situe autour de 9,4 µm. Dans la fenêtre 8-14 µm, l’atmosphère est transparente. Pointé vers le ciel, le capteur regarde donc vers l’espace profond, qui est extrêmement froid, proche du zéro absolu, −273 °C, l’appareil sort tout simplement de sa plage de mesure. Celle-ci est souvent affichée sur le côté de l’appareil, et elle descend rarement sous -50 °C.
Aujourd’hui, il n’y a pas de capteur intégré à bord des satellites capables de mesurer les émissions de CO2 dans la plage de 15 µm au-delà de 12,5 µm. Il faut les refroidir… déployer des radiateurs…
Seuls quelques spectromètres ont pu capturer un petit nombre d’images, ce qui s’avère manifestement insuffisant pour analyser les spectres année après année. Les schémas présentés sous forme de nombres d’ondes ne sont pas des diagrammes d’énergie, mais des diagrammes de bandes d’absorption, normalisés par l’énergie des photons au nombre d’onde. On peut les considérer comme des coefficients d’absorption.
L’unité mW/cm-1 ne représente pas une énergie, mais un flux divisé par une énergie. Vous confondez transmittance et énergie.
En conclusion, vous n’avez pas apporté la preuve d’un flux descendant de 300 W/m2. De plus, les rares mesures effectuées avec un radiomètre ne dépassent pas 50 W/m2. Aucun des instruments (pyrgéomètre, MODTRAN, Nimbus , thermomètre chinois) ne démontre l’existence d’un rayonnement descendant.
Les 300 W/m2 qui « tombent du ciel » ne réchauffent pas le sol qui en émet 390 (à 15°C).
C’est toujours le sol qui réchauffe l’atmosphère (dont très peu d’ailleurs par rayonnement), et non le contraire.
La seule énergie reçue par le sol, ce sont les 160 W/m2 solaires.
Je reste toujours dans l’incompréhension.
Si 160Wm-2 est la seule énergie qui permet de réchauffer le sol. Comment celui-ci peut-il réémettre 390Wm-2.
Pour moi il est nécessaire d’avoir un apport extérieur qui vient justement des infrarouges descendant dont l’apport moyen est de l’ordre de 330Wm-2. En moyenne cette énergie moyenne reçue de 160+330=490Wm-2 est redistribuée en chaleur sensible (~20Wm-2) et latente (~80Wm-2) et en émission radiative de la terre assimilée à un corps noir (les fameux 390Wm-2).
Je ne suis pas certain que ce schéma soit rigoureusement exact mais il a l’avantage d’être cohérent.
On peut discuter sur la valeur de 390Wm-2 qui provient directement de la température moyenne de la surface terrestre évaluée à 16°C via la formule de Stefan-Boltzmann dont l’utilisation dans ce contexte particulier est surement critiquable. On peut aussi discuter sur la valeur de 330Wm-2 descendant qui proviennent de l’émission thermique de l’atmosphère (dont je ne sais toujours pas comment elle est simulée en particulier dans Modtran) et des valeurs de chaleur sensible (20Wm-2) et latente (80Wm-2) mais il faut bien que les énergies reçues et renvoyées s’équilibrent.
A moins de faire une erreur grossière de raisonnement ou d’interprétation de ces différentes énergies, je ne vois pas comment contourner ce problème!
Non, non, … mon thermomètre IR ne sort pas de sa plage de mesure, hormis le fait qu’il n’est pas conçu pour mesurer la température des GES. Dirigé vers mon congélateur, il me donne bien des températures de l’ordre de -20°C, dirigé vers l’intérieur de mon poêle + 600°C.
Quand il est dirigé vers le ciel et qu’il indique + 5°C alors que l’ambiance est à +30°C, c’est donc tout à fait dans sa plage de mesure ! Il mesure effectivement dans ce cas un mélange des -270°C de l’espace vus à travers la fenêtre atmosphérique, et des +28 à +30°C reçus des GES aux autres fréquences et trouve une « température moyenne » de +5°C.
De plus, je n’ai jamais dit que 300W/m² « tombent du ciel » (ne me prenez pas pour un « expert écolo » !). Au contrairement, je vous ai dit que le sol fournit 17 W/m² à l’atmosphère et donc, c’est « le ciel » qui refroidit l’atmosphère par rayonnement (plus faiblement que par convection) comme le dit d’ailleurs JMM.
Pour mesurer des zones froides, un radiomètre infrarouge doit être refroidi. Ce qui n’est certainement pas le cas de votre thermomètre. J’aimerais connaître la référence précise de votre appareil ainsi que la plage de température qu’il peut mesurer ? Cette information devrait être indiquée sur l’instrument lui-même.
Si vous ne refroidissez pas le détecteur, celui-ci mesure la zone visée polluée par sa propre température, au lieu de mesurer l’émission du ciel. En d’autres termes, c’est n’importe quoi. C’est précisément pour cette raison que les radiomètres coûtent cher.
Bonjour Mr Viellefosse,
Les différents commentaires de ‘papijo’ et de vous-même sont au cœur même de mes réflexions depuis déjà quelques temps.
Pour résumer, il y a quelques mois, je penchais plutôt du côté, les infrarouges descendants n’existent pas ou, pour être plus nuancé, peuvent exister mais avec des puissances radiatives moyennes au niveau du sol faibles voire très faibles.
Ma conviction reposait sur mes connaissances en optique et sur le fait que toute émission radiative infrarouge permise dans les bandes d’absorption des gaz dits ’à effet de serre’ (vapeur d’eau, CO2, CH4, Ozone…) ne pouvait être effective qu’à deux conditions :
1. Que cette émission soit autorisée, c’est-à-dire que les niveaux d’énergie mis en jeu dans cette émission puissent se désexciter de manière radiative.
2. Que les photons infrarouges potentiellement émis puissent effectivement atteindre la surface terrestre dans un contexte où les milieux traversés présente une absorption optique élevée aux mêmes longueurs d’ondes que celle des photons émis.
Mon raisonnement ne me paraissait par ailleurs valable que dans un contexte de ciel sans nuage ; l’introduction des nuages ne faisant que rendre le problème plus complexe avec en particulier l’existence de véritable réflexions optiques qui ne peuvent exister dans un milieu d’indice optique continu.
Cette vision des choses se heurtait à plusieurs contradictions et incohérences.
– Comment pouvait-on expliquer que la surface terrestre recevant environ 160Wm-2 du soleil (qui représente 99,9% de l’énergie reçue) pouvait présenter une température moyenne de 16°C et donc émettre environ 390Wm-2 en appliquant les lois du corps noir.
Même en considérant que la terre n’est pas un corps noir parfait et en considérant que toutes les modalités d’application de la formule de Planck ne sont pas remplies le flux radiatif montant ne pouvait probablement pas être très inférieur à ces fameux 390Wm-2.
– Comment dans un tel schéma, pouvait-on expliquer le fait que dans la basse atmosphère, une émission radiative pouvait avoir lieu alors que les probabilités de désexcitation par chocs avec les autres molécules de l’air étaient infiniment plus grandes.
Des discussions récentes, m’ont fait comprendre qu’il fallait plutôt raisonner en émission thermique au niveau des couches atmosphériques en utilisant de façon appropriée les relations de Planck dans des domaines de longueurs d’ondes limités (correspondant aux domaines d’absorption de chaque gaz dit à ‘effet de serre’).
L’utilisation récente du simulateur ‘Modtran’ (merci Mr Morane) et les résultats logiques et cohérents obtenus m’ont conforté dans l’idée que cette approche était probablement intéressante et méritait d’être approfondie.
C’est la raison pour laquelle je cherche à connaître plus en détail comment fonctionne ‘Modtran’ car beaucoup de points restent en suspens.
Faire tourner un simulateur ne pose guère de difficultés, comprendre la signification réelle des résultats obtenus par ce simulateur est beaucoup plus délicat !
J’ai cru comprendre que ‘Modtran’ utilisait une approche multicouches rayon par rayon et longueur d’onde par longueur d’onde. Si l’absorption de chaque longueur d’onde en fonction de l’altitude h de la couche considérée doit être parfaitement connue (via Hitran par exemple), la manière dont peut être calculée le niveau de l’émission thermique au niveau de chaque couche est loin de me paraître évident : c’est même à mon avis le véritable point clé du problème car une fois ces deux grandeurs sont connues, un calcul multicouche classique peut-être aisément effectué et conduire aux résultats affichés par ‘Modtran’ au moins dans le cas d’un ciel sans nuage ni pluie (No Cloud or Rain).
Par ailleurs, je suis d’accord avec vous sur la difficulté des mesures infrarouges au-delà de longueurs d’ondes supérieures à quelques microns.
Par contre de nombreux laboratoires dans le monde font état de mesure d’ondes infrarouges montantes et descendantes qui semblent en bon accord avec les valeurs moyennes citées à savoir de l’ordre de 390Wm-2 et 330Wm-2 au niveau de la surface terrestre (304 et 211Wm-2 obtenus respectivement par Modtran à l’altitude 0 dans le cas ‘midlatitude winter’, 415 et 326 Wm-2 dans le cas ‘midlatitude summer’)
Il n’est pas toujours évident de savoir comment ces mesures ont été effectuées à travers les quelques publications auxquelles j’ai accès, mais j’ai supposé que de nombreux spécialistes de ce type de mesure ont dû se pencher sur leur validité et que ces résultats n’auraient pu être publiés et acceptés par la communauté infrarouge s’ils n’étaient pas fiables (enfin j’espère !)
Il y a donc manifestement des incompréhensions entre vous et ‘papijo’, sur un point qui me parait fondamental.
Quelqu’un peut-il nous aider à lever ces incompréhensions et dire à quel moment le problème a été mal posé ou quelle hypothèse émise s’avère fausse.
La nature a résolu le problème mais visiblement pas nous : help !
Le sol doit déjà évacuer les 160 W/m2 de l’énergie solaire absorbée. Pourquoi voulez-vous qu’il émette davantage d’énergie, 390 W/m2 d’infrarouge supplémentaires, ce qui représente un total de 560 W/m2 ? Nous ne sommes pas sur la Lune en présence du vide, mais plutôt immergés dans une atmosphère qui joue le rôle d’isolant. Cette dernière bloque le rayonnement sortant d’environ 100 W/m2. La formule de Stefan Boltzmann, qui s’applique à un corps dans le vide, ne s’applique pas à un corps immergé dans l’atmosphère. Les émissions des bandes spectrales 6-8 μm et 12-15 μm sont bloquées. L’énergie est transmise à la vapeur d’eau, qui fait vibrer mécaniquement l’oxygène et l’azote.
Personne n’a jamais mesuré une émission infrarouge de 390 W/m2, à moins qu’on ne refroidisse considérablement les capteurs et qu’on ne plonge le radiomètre dans un environnement vide.
La température n’est pas liée au rayonnement. Elle dépend plutôt de l’état de la surface. Par exemple, en présence d’une surface polie, l’émissivité sera de 0,5. Le corps pourra alors afficher une température de 40 °C et émettre une puissance de seulement 200 W/m2.
Dans mon ouvrage, je mets en évidence le fait que, dès les premiers centimètres de l’atmosphère, il n’y a plus de rayonnement, mais uniquement un mouvement brownien aléatoire des molécules d’oxygène et d’azote. La thermodynamique s’impose.
Cela fait longtemps que je ne me suis pas plongé dans le site de MODTRAN ; je sais qu’il est en évolution constante. J’attire votre attention que c’est un outil de chromatographie dont l’objectif est de mesurer la transmittance ou l’absorption des principaux composants de l’atmosphère, sans tenir compte de leur représentativité en longueur d’onde. Il n’est pas conçu pour mesurer l’énergie. Comme je l’ai mentionné plus tôt, il faut bien examiner les étiquettes des graphiques, en particulier ceux qui sont exprimés en nombres d’ondes. Les unités W/cm− 1 ne correspondent pas à une énergie, mais plutôt à une transmissivité (une énergie normalisée par l’énergie des photons ayant la même fréquence). En revanche, seuls les graphiques exprimés en W/μm correspondent à une véritable mesure d’énergie. Et vous verrez, car j’ai revisité le site hier, que sur les diagrammes en W/μm, le flux descendant ne représente même pas le quart du flux montant.
Par conséquent, MODTRAN atteste bien que le rayonnement descendant est extrêmement faible. CQFD
Bonjour Mr Vieillefosse,
Votre dernier commentaire me conduit à plusieurs remarques.
Je suis d’accord avec vous que Planck, Stefan et Boltzmann doivent parfois se retourner dans leur tombe quand ils voient la désinvolture avec laquelle leur loi sont parfois utilisées en climatologie.
On oublie souvent que la loi de Stefan-Boltzmann en T4 ne résulte que de l’intégration de 0 à l’infini (en fréquences ou en longueurs d’ondes du rayonnement, au choix) de la loi de Planck pour un corps noir idéal qui n’existe pas. Cela suppose un corps parfaitement absorbant pour toutes les longueurs d’ondes et une émissivité constante et égale à 1 sur tout le spectre. Cela suppose aussi que les seuls échanges d’énergie entre le corps et son environnement se font par rayonnement.
Visiblement Modtran, dans son mode de calcul des ondes infrarouges montantes (‘looking down’) suppose que la terre se comporte comme un corps gris idéal d’émissivité moyenne de l’ordre de 0,96-0,97, ce que l’on peut vérifier en calculant les valeurs d’énergie données pour l’onde montante à l’altitude 0 et les valeurs correspondantes de la température au sol.
Modtran ne semble pas prendre en compte, le second critère d’application de la loi de Planck mais je ne sais pas quelle sont les conséquences d’une telle simplification sur les valeurs d’énergie des ondes infrarouges émises et supposées de l’ordre de 390Wm-2 en moyenne.
Je remarque toutefois que cet ordre de grandeur des énergies montantes ne semble pas aberrant vis-à-vis des mesures expérimentales effectuées par divers centres de recherche dans le monde ou via les satellites d’observation. De toute façon, il ne parait pas très compliqué d’effectuer ce type de mesures tout au moins dans les bandes de longueurs d’ondes où ils existent des détecteurs infrarouges performants (par exemple HgCdTe jusqu’à 15-16µm). Les expériences sont certes délicates mais ont certainement dû être effectuées par diverses équipes dans le monde.
De la même façon, les valeurs d’énergie des ondes descendantes ont dû être mesurées ou tout au moins échantillonnées dans certaine gamme de longueurs d’ondes pour valider les résultats obtenus par Modtran (‘looking up’ et altitude 0).
J’ai l’impression cependant que les résultats expérimentaux obtenus par l’Engineering Center de l’Université du Wisconsin par exemple avec les interféromètres AERI (Atmospheric Emitted Radiance Interferometer) aussi bien sous ciel clair que ciel nuageux donnent des valeurs d’énergie en Wm-2cm-1 de l’ondes descendantes nettement plus faibles que celles simulées par Modtran (d’un facteur 3 à 7 semble-t-il suivant la gamme de fréquences considérée).
Ce point devrait être approfondi et illustre les difficultés de tirer des conclusions cohérentes dans le domaine climatique.
Je suis bien sûr d’accord avec vous qu’un rayonnement n’est pas de la chaleur et qu’un rayonnement ne peut conduire à des élévations de températures que si ce rayonnement rencontre un corps capable de l’absorber. Le passage entre énergie du rayonnement et élévation de température peut être fort délicat.
Pour ce qui est des graphiques Modtran, ils peuvent être exprimées en fonction du nombre d’ondes (cm-1) ou en longueurs d’ondes (microns) mais ce sont strictement les mêmes. Les opticiens préfèrent en général travailler en microns alors que les spécialistes des micro-ondes en cm-1.
Cordialement
Serge Valette
Help!
Vu mon expérience de généraliste dans la sûreté, je prends le problème globalement pour en tirer les enseignements essentiels . La terre absorbe le rayonnement solaire à raison de 93 % par les océans, 3 % par les sols, 3 % par les glaces, 1 % par l’atmosphère. Alors les échanges internes qui suivent apparaissent secondaires. Ceux qui concernent les glaces, pour leur fusion, sont déjà supérieurs à ceux qui régissent l’atmosphère. Au total, le 1 % atmosphérique, dont les GES ne sont qu’une petite fraction, c’est de la météo, le 93 % océanique, vu la chaleur emmagasinée et l’inertie, c’est le climat.
Vous avez compris que je me garderais bien d’intervenir dans des discussions de spécialistes si elles se cantonnent dans le domaine du 1 % . J’en serais d’ailleurs bien incapable, même si je peux les lire.
Zagros,
J’ignore d’où vous tirez ces pourcentages mais, par exemple, le fux solaire absorbé par l’atmosphère est d’environ 80 W / m2 soit le tiers du total absorbé par la planète. D’autre part, ce chiffre n’est pas l’effet de serre qui est mieux rendu par la part évacuée par l’atmosphère soit 200 W/m2 correspondant au 83 % du toral de l’énergie reçue par la planète.
Zagros,
Ah oui, vous êtes dans le stockage de la supposée chaleur excédentaire. Le problème est qu’il s’agit de tentatives de boucler un bilan sur la base de données pourries. De toute façon, les quantités en jeu sont faibles par rapport au prétendu déséquilibre, à la réponse de Planck, et donc à l’évolution de la température de surface.
On peut bien sûr jeter des photons, de l’irradiance, des flux thermiques, des backradiations, de la chaleur, des nuages, le soleil, l’océan et un soupçon CO2 dans un chaudron pour obtenir une soupe infecte. Par bon goût, mieux vaudrait s’en tenir à la thermodynamique classique. Pas de flux thermique qui descende de l’atmosphère mais une irradiance de l’atmosphère réduisant le flux IR montant.
A propos de MODTRAN, ce programme n’est qu’un calcul d’opacité puis d’irradiance en fonction d’un profil thermique donné. Il est parfaitement inutilisable pour calculer quoi que ce soit en relation avec une modification de la structure radiative. En particulier, il ne peut évidemment pas donner la moindre information sur l’évolution de l’irradiance de l’atmosphère en fonction du taux de CO2. Connaître l’irradiance de l’atmosphère pour 800 ppm avec un profil correspondant à 400 ppm n’a strictement aucun intérêt. Cette grande confusion trouve son origine dans l’absurde article de Manabe et Wetherald introduisant une hypothèse escamotée sur l’origine du gradient thermique troposphérique. MODTRAN serait ainsi justifié parce que le profil thermique n’aurait que la translation pour rétablir un déséquilibre radiatif!
Cette pataphysique de l’atmosphère qui a évacué l’entropie a vraiment un succès fou. Ce qu’est l’effet de serre ne peut se comprendre que dans le stricte cadre de la thermodynamique.
Merci de répondre à mon appel à l’aide.
Votre analyse globale est, je dois le dire, séduisante mais elle botte un peu en touche.
Si effectivement le débat en cours porte sur un enjeu de l’ordre de 1%, il parait un peu dérisoire.
Le problème est que l’union européenne et la France en particulier sont en train de mettre en place des projets colossaux sur le plan économique (assortis de choix techniques discutables et de conséquences sociétales potentiellement lourdes) qui reposent justement sur ce petit 1% sujet du débat.
En dehors du fait que j’aime bien comprendre les choses dans le domaine scientifique et plus particulièrement de l’optique qui est mon domaine d’expertise (et pour lequel, malheureusement, je m’aperçois ici que j’ai d’énormes lacunes), il me semble intéressant d’approfondir le débat autour de ce petit 1% et d’analyser en détails son poids véritable.
Toutes les contributions, fussent-elles sur du 1 %, enrichissent le débat scientifique. Et il n’est pas à exclure que son « poids véritable » est plus important qu’on ne le croit. En tout cas il l’est déjà par ses implications politiques comme vous le soulignez justement. On peut attaquer le problème en prouvant l’inactivité du CO2 atmosphérique. On peut aussi souligner que l’effet de serre est un facteur secondaire dans l’évolution climatique à long terme, voie que je privilégie. Tous les moyens sont bons pour dénoncer ces politiques idiotes de l’UE, relayées par le bon petit soldat français écolo-macroniste.
Réponse au commentaire de phy:
Je suis presque certain que vous avez raison et que la thermodynamique est probablement la meilleure façon d’aborder le problème.
Malheureusement, même si un moment de ma vie, j’ai suivi les cours de thermodynamique du professeur Castaing à l’université d’Orsay, j’avoue à ma grande honte que je n’ai rien compris à ce domaine de la physique.
Je crois que Ferenc Miskolczi a particulièrement travaillé sur cette approche et a émis des conclusions claires sur l’impact réel du gaz carbonique dans le débat sur le climat. Je suis hélas incapable de juger la justesse scientifique de son travail.
Pouvez-vous essayer d’expliciter de manière abordable et en termes compréhensibles pour un malheureux opticien, la façon dont la thermodynamique peut apporter les bonnes réponses?
Serge Valette,
Il n’y a aucune raison pour ne pas utiliser les concepts de la thermodynamique classique dans l’explication de l’effet de serre. Dans ce cadre, il n’y a de flux thermique que du chaud vers le froid. Essayez de représenter sur un schéma le flux solaire absorbé, les flux convectifs de chaleur sensible et latente et les flux IR.
Vous allez alors découvrir le vrai rôle des GES du point de vue de l’atmosphère qui est de la refroidir.
L’énergie va toujours de la masse atmosphérique aux GES et pas l’inverse.
Ce sera là déjà là un pas immense dans la compréhension de l’effet de serre.
Ensuite, vous pourrez vous demander ce qui se passe si vous augmentez le taux de CO2.
On sait que dans la stratosphère, cela fait logiquement baisser la température. Et dans la troposphère ?
Personne n’en sait rien parce que la troposphère est aussi le siège des phénomènes convectifs qui réagissent au refroidissement radiatif et personne ne sait calculer ces phénomènes convectifs.
Voilà à peu près et très résumé l’état des connaissances scientifiques sur l’effet de serre.
La thermodynamique replace la température au cœur de ses préoccupations. De plus, c’est la variable que l’on cherche à étudier. J’ai tenté d’expliquer dans mon livre comment fonctionne la thermodynamique de l’atmosphère. Cela représente trois chapitres qui demanderaient un travail considérable à résumer.
Le livre établit les causes du réchauffement, en particulier le rôle du cycle de l’eau. Munis du bon diagnostic, nous pourrions prendre les bonnes mesures. Nous pouvons commencer par celles qui ne coutent pas cher et qui sont les plus efficaces.
La thermodynamique permet aussi d’expliquer l’écart de 33 °C entre la température apparente de la Terre à -18 °C et la température au sol à 15 °C. Écart qui n’a rien à voir avec le CO2.
Je ne vais pas continuer le débat. Je vous conseillerai seulement de vous renseigner sur la « thermodynamique classique » avant d’en inventer une nouvelle, par exemple ici: https://planet-terre.ens-lyon.fr/ressource/bilan-radiatif-terre3.xml
Je vous rassure. Je ne crée aucune nouvelle théorie. La loi des gaz parfaits date de presque deux cents ans. 1834, très précisément. Elle exprime intelligemment que la pression de l’air et son énergie sont proportionnelles au nombre de molécules et à leurs températures. Malheureusement, l’enseignement de la thermodynamique est très mal fait.
Et c’est beaucoup plus facile de mesurer la pression que le rayonnement ! Surtout pour évaluer la température !
Et là c’est magique ! vous pouvez comprendre pourquoi la température au niveau du sol est supérieure à celle relevée au milieu de l’atmosphère : déterminer exactement le nombre de molécules, et leurs températures. (la figure 4 du livre)
Michel Vieillefosse,
Je pense que vous écrivez beaucoup de choses intréressantes, mais là, il y a un gros problème.
Si la température au niveau du sol est supérieure à celle relevée au milieu de l’atmosphère, c’est uniquement parce que les GES refroidissent cette atmosphère. La loi des gaz parfaits est une équation d’état bien incapable d’expliquer la décroissance de la température avec l’altitude. Cette décroissance est strictement liée au flux de chaleur essentiellement convectif qui traverse l’atmosphère pour être évacué radiativement sur toute la hauteur de la colonne.
La décroissance est donc d’origine radiative, elle est atténuée par à la convection mais son amplitude est essentiellement explicable par la compression dans les subsidences et le refroidissement radiatif.
Sans GES, donc sans flux thermique vertical, l’équilibre thermodynamique prévaudrait, donc, isothermie.
Effectivement, il est juste de souligner que la loi des gaz parfaits n’explique pas les raisons sous-jacentes, mais qu’elle permet de caractériser et de mesurer un état donné. Etat que l’on cherche à quantifier
Sauf dans certains cas particuliers, le flux de chaleur qui traverse l’atmosphère est effectivement dirigé vers le haut : convection et évaporation en bas de l’atmosphère, rayonnement en haut. Le rôle des gaz triatomiques est essentiel pour évacuer l’énergie dans l’espace par radiation… après un séjour moyen de 90 jours sous forme mécanique.
Je trouve qu’il est intéressant dans un premier temps de s’intéresser aux états avec précision, même si l’on ne connaît pas les causes, puis dans un deuxième temps, de séparer les causes. En particulier en tenant compte des phénomènes cycliques.
Jacques-Marie Moranne,
Cette explication erronée du gradient thermique troposphérique est très répandue, elle trouve son origine dans Manabe et Wetherald 1967 qui ont affirmé péremptoirement que le gradient troposphérique était uniquement fixé par la convection. Cette curieuse affirmation incohérente avec la thermodynamique n’a fait l’objet d’aucune justification et sert toujours de fondement au calcul de l’effet de serre dans les GCM.
Les lois de la thermodynamique impliquent qu’un gradient thermique est toujours lié à un transfert de chaleur et donc à une source chaude et à une source froide. L’absence de transfert de chaleur implique l’équilibre thermodynamique et l’isothermie.
Vous pouvez vous en convaincre en examinant la situation dans les subsidences qui représentent à peu près le 80 % de la masse troposphérique. Les subsidences se font à sec et donc la compression de l’air descendant augmente sa température de 9.8 °C par km. Le refroidissement radiatif à peu près constant en °C par unité de temps (2 °C par jour) fait baisser la température de l’air descendant d’environ 3.3 °C par km. Le gradient moyen résultant est donc de 6.5 °C par km et la vitesse moyenne dans les subsidences d’environ 1500 m par jour.
Autre façon de se détromper : la convection libre transporte toujours de la chaleur vers le haut, elle ne peut donc en aucun cas expliquer une diminution de la température avec l’altitude.
Manabe restera dans l’histoire des sciences comme le précurseur de la pataphysique de l’atmopshère popularisée par une officine de l’ONU.
Si la compression (descendante) augmente la température de 9,8°C par km, la détente, qui en est le corollaire ascendant, fait exactement le contraire.
Et il n’y a pas de compression ni détente atmosphérique sans convection.
Quant à dire que la convection transporte de la chaleur vers le haut : c’est exact, mais cette chaleur n’augmente pas la température si la transformation est adiabatique : ce sont les effets mathématiques de la Loi de Laplace (PV^gamma=Cte) combinée à la Loi des gaz parfaits PV=nRT.
Je ne suis pas un adepte de Manabe pour le climat, loin de là (utiliser des GCM pour des prévisions à 50 ans est une hérésie), mais je pense que c’était quand même un précurseur pour la météo.
Compression et détente font le contraire en relation avec le déplacement mais la même chose en relation avec la position.
Et oui, justement, il n’y a ni détente ni compression sans convection et c’est donc pour cela que la notion de Gradient Thermique Gravitationnel est malheureuse. La gravitation n’est pas la cause du gradient!
La convection libre transporte toujours de la chaleur vers le haut y compris en milieu adiabatique comme dans la basse troposphère de Vénus.
Et bien sûr, si elle transporte de la chaleur, elle augmente la température de tous le niveaux qu’elle traverse. C’est le mécanisme de la convection qui veut ça. Si une bulle en ascension parvient à un niveau dont la température est égale ou supérieure à la sienne, elle cesse de monter.
La décroissance de la température avec l’altitude, ou plutôt le Gradient Thermique Gravitationnel résulte de la compression/détente pseudo-adiabatique de l’atmosphère, liée à la convection.
Elle serait de -9,8°C/km en atmosphère transparente sèche et échange purement adiabatique (PV^^gamma=Cte, associée à PV=nRT, qui permet de calculer delta(T) en fonction de delta(P), et donc de l’altitude).
Elle n’est que de -6,5°C/km du fait du chauffage de l’atmosphère par le rayonnement solaire et par la condensation.
Jacques-Marie Moranne,
Je vois que je vous ai répondu au mauvais endroit.
J’ajouterais que la condensation intéresse les ascendances rapides, et minoritaires dans la masse troposphérique. Dans ce cas, la valeur du gradient se rapproche effectivement de l’adiabatique humide. Mais même là, la cause de la décroissance de la température avec l’altiude demeure bien sûr le refroidissement de la masse par rayonnement IR vers l’espace.
Le refroidissement de l’atmosphère par rayonnement vers l’espace n’intervient quasiment pas en dessous du sommet des nuages ; or, le gradient thermique intervient dès le sol.
Non, le refroidissement radiatif de l’atmosphère est maximal près de la surface. Il est en fait à peu près proportionnel à la pression en puissance par m3 et presque constant en °C par jour sur la hauteur de la colonne.
https://www.zupimages.net/up/24/08/3fkw.png
Non, l’atmosphère est quasiment opaque.
Si l’atmosphère était quasiment opaque, il n’y aurait pas de fenêtre atmosphérique.
Le fait que la refroidissement radiatif soit presque constant à 2 °C par jour sur toute la hauteur de la troposphère clos de toute façon la question.
Les idéologues du climat sont aux anges quand ils voient leurs contradicteurs pris dans la nasse de la pataphysique du climat.
J’avoue être assez surpris de la difficulté que semble poser la physique de l’atmosphère.
Ce n’est quand même pas la théorie de la relativité! Il serait peut-être temps pour ceux qui entendent parler de l’effet de serre de reprendre leurs conceptions erronées en repartant des bases de la thermodynamique et particulier des transferts de chaleur (sources chaudes, sources froides, loi de Fourrier).
Effectivement, JMM aurait du préciser « … à l’exception des longueurs d’onde de la fenêtre atmosphérique ».
Concernant ces « 2°C/jour » qui semblent vous émerveiller … ,n’avez vous pas remarqué que les différences de températures entre le jour et la nuit sont très supérieures à « 2¨°C/jour » (soit 1°C entre le milieu du jour et le milieu de la nuit »), comment expliquez vous cela ? Par la « pataphysique » peut-être ?
Et si vous arrêtiez un peu de pourrir ce site avec des théories fumeuses ?
Papijo,
Encore raté! 2 °C par jour concerne le refroidissement radiatif de la troposphère très stable parce que la source froide est relativement bien répartie dans la masse troposphérique et agit constamment. Les variations de température journalière près de la surface dépendent essentiellement de la source chaude éminemment variable.
J’ajouterai que la prépondérance du refroidissement radiatif dans la basse troposphère se démontre aisément en considérant que la réduction d’opacité par m d’altitude est évidemment maximale là où la densité est maximale. Et, c’est bien cette réduction d’opacité qui, avec des températures supérieures en partie basse qu’en partie haute, explique la plus importante dissipation d’énergie par radiation près de la surface. L’existence de la fenêtre atmosphérique prouve que c’est bien le cas dès les premiers mètres depuis les sol.
Encore une remarque concernant de la causalité de la valeur du gradient thermique. Elle ne peut pas se tirer du calcul pourtant correcte que j’ai fait plus haut mais qui donne une idée paradoxale de l’effet des composants.
Un calcul sans convection donne un gradient situé entre 15 et 20 °C par km, admettons 17 °C par km.
Le gradient observé est de 6.5 °C par km et donc la convection réduit le gradient de 11.5 °C par km.
Expression de la causalité de la valeur du gradient thermique : le refroidissement radiatif de la troposphère explique le 260 % de la valeur du gradient observé et la convection ajoute à cela une augmentation de la température avec l’altitude de 11.5 °C par km.
Nous ne pourrions pas être plus éloignés de l’explication malheureusement standard de la décroissance de la température avec l’altitude!
Pouvez-vous expliciter votre calcul qui donne 15 à 20°C par km ?
Si mes souvenirs sont bons, Manabe 1964 doit se situer vers 15 °C par km et c’es Gemini qui m’a donné la fourchette 15 à 20 °C par km.
Moi aussi, je vous rassure. La loi des gaz parfaits je la connais aussi, c’est ce que j’ai appris dans mes premiers cours de thermodynamique , il y a près de 60 ans.
Si je ne l’ai pas beaucoup utilisée dans ma vie d’ingénieur, c’est tout simplement parce que, en tant que professionnel et disposant des outils informatiques actuels, on s’intéresse plutôt aux « gaz réels ». A titre d’exemple, l’air humide qui compose notre atmosphère se comporte très différemment d’un « gaz parfait » !
Serge Valette
Il n’existe pas un seul satellite qui mesure l’émission infrarouge au-delà de 12,5 µm, pas même le James Webb Telescope, malgré ses grandes antennes. Si vous en connaissez un, je serais curieux de connaître la référence. Cela pose un véritable défi pour comprendre le réchauffement climatique, car une mesure précise nous aiderait à mieux appréhender ce phénomène.
Concernant les flux descendants, j’ai expliqué que les jeunes climatologues en herbe picorent sur le site MODTRAN sans comprendre les phénomènes, en particulier les simulations exprimées « en nombre d’onde ». Les diagrammes en « nombre d’onde » (W/cm -1) amplifient artificiellement le rôle du CO2 de quatre fois en dilatant les abscisses d’un facteur deux pour le CO2 comparé à H2O, et en dilatant aussi les ordonnées du même facteur. Du pain béni pour le GIEC. MODTRAN donne de bonnes simulations. Mais pour avoir des crédits publics, il les présente en « nombre d’onde ». Si MODTRAN exprime ses simulations en énergie (W/µm), il fournit des valeurs raisonnables : un rayonnement descendant à hauteur du quart du rayonnement montant, identique aux publications des AERI et à ce que j’ai pu mesurer.
Les mesures et les simulations sont cohérentes. La confusion vient des lecteurs qui ne comprennent pas les phénomènes, et ce qu’est la chromatographie.
La source principale de confusion chez les climatologues en herbe repose sur la confusion entre le rayonnement et la température. En effet, ils confondent les flux et les stocks, en appliquant abusivement la loi de Stefan-Boltzmann, qui ne s’applique que dans le cas d’un équilibre, c’est-à-dire lorsque le flux est constant. Or, nous cherchons précisément à mesurer les variations de température ! La notion de température reste une notion difficile. Elle n’est pas comprise.
C’est ce que j’essaye d’expliquer dès la première page de mon livre.
La température de l’air représente un stock d’énergie équivalent à 90 fois le flux solaire journalier. La température du premier mètre de l’eau des océans représente un stock d’énergie thermique équivalent à 4000 fois le flux journalier. Alors et seulement alors on comprend qui est à la manœuvre.
Je suis bien d’accord que la manière de présenter une courbe en choisissant convenablement abscisse peut tromper le lecteur non averti mais si la science du climat en est là, il y a vraiment de quoi être inquiet.
Par contre, si je compare les graphes fournis par Modtran avec les valeurs d’énergie descendantes en Wm-2cm-1 c’est à dire en utilisant des grandeurs identiques pour les abscisses et les ordonnées, j’ai l’impression que Modtran surestime pour l’altitude 0, ces valeurs d’énergie; à vérifier!
Cela pose en particulier le fait de savoir si Modtran obtient ses résultats logiques et cohérents à partir de paramètres ajustables ou à partir de paramètres physiques indépendants.
Quant à la confusion entre chaleur et rayonnement, elle vient aussi je crois du fait que les infrarouges moyens sont souvent appelés infrarouges thermiques: ce qui n’a bien sûr rien à voir, sinon le fait que ce type de rayonnement correspond aux bandes d’absorption de nombreuses substances organiques qui vont donc s’échauffer en les recevant.
La science du climat demande d’avoir fait un effort pour comprendre la physique. Vous ne pouvez pas « picorer « des publications, sans comprendre comment les valeurs sont mesurées et étalonnés. Modtran est un bon simulateuer. Son interface utilisateur est catastrophique. Ses résultats ne sont pas destinés à une utilisation par le grand public qui n’a jamais entendu parler des nombres d’onde.
Nous sommes dans le dialogue de sourds. W/m2.cm -1 ne représente pas une énergie. La valeur simule le rapport d’une énergie transmise, divisée par l’énergie du photon au même « nombre d’onde ». Donc, un coefficient de transmission normalisé, en quelque sorte. Les utilisateurs de chromatographie ne respectent pas la distribution en fréquence des différentes longueur d’onde. Ils opèrent un zoom sur chaque bande d’absorption, en donnant le même poids à toutes les bandes. Ils attribuent ainsi un poids disproportionné à l’infrarouge lointain. Quand vous voyez le suffixe cm-1 , fuyez !
Bonjour Mr Vieillefosse
Je ne vous suis pas sur ce dernier commentaire.
Pour moi, définir un spectre d’absorption ou de réémission avec en abscisse des fréquences en Hertz, des longueurs d’ondes en micron ou utiliser des cm-1 est équivalent.
Les fréquences dans l’infrarouge moyen de l’ordre de 1013-1014Hz ne sont guère pratiques à utiliser. Les cm-1, unité bizarre, ne sont guère prisés par les opticiens mais la correspondance longueur d’onde-cm-1 est bien là :
1µm > 10000cm-1 10µm > 1000cm-1 15µm > 666cm-1
Par ailleurs, je pense que l’unité Wm-2cm-1 est bien une unité de puissance dans Modtran (en fait un flux de photons) et exprime un nombre de Watts par m2 émis dans une bande de fréquence correspondant à 1cm1, et que la puissance en Wm-2 donnée par Modtran correspond bien à la puissance totale reçue dans la bande de fréquence totale considérée pour la configuration choisie.
Désolé mais en copié-collé, les puissances de 10 ne passe pas (lire puissance3 ou 10Pusance 14 pour les fréquences.
Cordialement
Il convient clairement de séparer d’une part la base de calcul Hitran décrivant les transmissions atmosphériques des gaz triatomiques et, d’autre part, les simulateurs d’énergie ajoutés en 2e étape. HItran est utilisé par énormément de climatologues ; je n’ai pas de remarque là-dessus.
Des simulateurs s’emparent de ces données pour calculer le rayonnement. Je ne connais pas le descriptif du fonctionnement des modèles climatiques de l’université de Chicago. Je ne me prononce donc pas sur leur fonctionnement et leur résultat. Nous avons beaucoup de mal à comprendre leur moteur de calcul. Si vous avez un descriptif, je serai ravi de le connaître. La plupart du temps, ils attribuent un poids excessif à l’absorption des gaz triatomiques et minimisent les phénomènes en bas de l’atmosphère liés à la vapeur d’eau, qui sont plus importants. Quand les sites publient en nombre d’ondes (cm -1). C’est un signe où se situe le paramètre essentiel de leur simulateur.
Comme dit JMM, ce qui importe, c’est le bas de l’atmosphère, c’est là où nous vivons. L’essentiel du réchauffement mesuré est lié au phénomène du bas de l’atmosphère. C’est la thèse de mon livre étayé par les mesures satellites.
Phi … vous avez déjà tenté de pourrir le site de Skyfall avec vos théories fumeuses … et je vous retrouve ici ! Commencez vous aussi à apprendre la physique avant de diffuser votre ignorance (ou votre mauvaise foi) ! Je vous contredirai (une fois de plus) sur quelques points:
– La température d’un gaz peut varier sans échange de chaleur (exemple: dans la chambre de combustion d’un moteur la température est de l’ordre de 2000°C, 1 ou 2/100èmes de seconde après, elle est tombée à 600 ou 700°C. L’échange de chaleur par les parois en aussi peu de temps est très faible, c’est le travail fourni au piston pendant la détente qui explique cette baisse de température. Pour l’atmosphère, c’est la même chose – Voir JM Moranne)
– Les GES au niveau du sol ne refroidissent rien du tout. Le parcours moyen des photons IR est extrêmement faible vis à vis de l’épaisseur de l’atmosphère. Seuls les photons émis tout en haut de l’atmosphère ont une chance de s’échapper vers l’espace. Voir par exemple: https://laphysiqueduclimat.fr/wp-content/uploads/2019/05/A6-IR_Thermiques-1.pdf (vous pourrez même vous amuser à convertir les THz ! Je vous montre: 10 THz = 30 µm (= 300 / 10) = 333 cm-1 (= 10 000 / 30)
– Une augmentation de la température avec l’altitude de 11,5 °C/km due à la convection … je m’étonne qu’on ait tant tardé à vous accorder le Nobel !
Vous n’avez jamais compris que je n’ai aucune théorie personnelle et vous seriez bien en peine de contredire ce que j’ai écrit ici parce que cela ne découle que de la science consensuelle au vrai sens du terme.
Je n’ai bien entendu jamais prétendu qu’un gaz ne pouvait pas changer de température sans échange de chaleur. Pour ce qui est du refroidissement radiatif près de la surface, c’est plutôt amusant parce que vous avez vous même donné ce lien https://planet-terre.ens-lyon.fr/ressource/bilan-radiatif-terre3.xml un peu plus haut. Figure 5 de votre référence : le refroidissement radiatif de l’atmosphère à 0 msm est de plus 2 °C par km, même valeur à 10’000 m. Ce qui se traduit par des puissances évacuées maximales en bas de colonne et 4 fois plus importantes qu’à 10 km. Vous ne comprenez pas les lectures que vous fournissez ?
Finalement, pour ce qui est du calcul du réchauffement par la convection, c’est, sur la base d’un gradient de 18 K/km (et pas 17 comme je l’ai indiqué par erreur) de purement radiatif, un réchauffement par convection de 18 – 6.5 = 11.5 K par km. Si vous avez un problème avec ça, vous l’expliquez.
Possible que le simple exposé des mécanismes thermodynamiques soit ressenti par certains comme une manière de pourrir une discussion mais ce serait quand même mieux de préciser. Là, je vois surtout un papijo frustré qui s’emmêle les pinceaux.
Oups, 2 °C par jour et pas par km!
@Phi:
– Je n’ai bien entendu jamais prétendu qu’un gaz ne pouvait pas changer de température sans échange de chaleur.
Dois-je en déduire que vous êtes enfin d’accord pour admettre que l’air en s’élevant par convection se refroidit sans qu’il soit nécessaire de faire appel au rayonnement ? Si vous êtes d’accord avec moi, j’espère que vous accepterez avec moi l’idée que cela conduit à un gradient de 10°C par km en air sec, et en moyenne de près de 6.5°C en prenant en compte l’humidité !
– le refroidissement radiatif de l’atmosphère à 0 msm est de plus 2 °C par [jour], même valeur à 10’000 m.
Et ce refroidissement, il évacue combien de calories ? La réponse se trouve un peu plus haut « Sur les 21 W nets émis à la surface, seuls 35 % sont directement émis vers l’espace. 65 % sont absorbés par la vapeur d’eau, les molécules de gaz carboniques et des autres gaz à effet de serre. » Les GES absorbent donc 21 x 0.65 = 13,6 W/m² (le même ordre de grandeur que les 17 que j’avais pifométrés plus haut) … et il y en a 160 à évacuer ! C’est donc bien la convection qui assure l’essentiel du refroidissement de la surface !
NB: Si on admet que le rayonnement IR évacue 2,5°C/jour au niveau du sol, un courant ascendant à faible vitesse de 1 m/s par exemple (3,6 km/h) atteindra les 300 m d’altitude au bout de 5 minutes seulement et provoquera le même refroidissement qu’une journée de 24 h de rayonnement IR ! Heureusement que la convection est là!
En effet, la vapeur d’eau, en s’élevant par convection, se refroidit, sans qu’il soit nécessaire d’en faire appel au rayonnement. Le gradient de température est bien de 6,5 °C par 1000 m ; nous le mesurons tous les jours.
Convection et évaporation évacuent plus de 100 W/m2 sur les 160 absorbés.
Cette approche basée sur le rayonnement est tout simplement baroque. L’extraction de la chaleur par rayonnement ne dépasse pas 30 %. La moitié est évacuée par l’évaporation de l’eau.
C’est pénible ces discussions interminables sur la physique de l’atmosphère !
Ce n’est pas l’atmosphère ni l’effet de serre qui réchauffent la Terre, c’est le soleil via les océans.
Pitié, à la fin ça devient ridicule et ça fait le jeu des tenants de la doxa, à discuter de l’effet de serre on perd son temps, c’est le piège dans lequel le GIEC et ses dévots veulent précisément entraîner la communauté scientifique. Moi aussi je pourrais parler pendant des heures du recouvrement des raies d’absorption IR du CO2 par celles de l’eau, mais la vérité climatique est ailleurs.
Au delà de l’arnaque au CO2, l’idéal serait d’expliquer les causes du réchauffement que nous observons depuis 50 ans. et de faire une contre-proposition crédible. C’est plutôt là la difficulté que nous devrions affronter. J’ai fait une proposition dont je ne suis évidemment pas certain (l’albédo, Svensmark, Cloud…rejetée par le GIEC ce qui est plutôt bon signe), il vaudrait mieux que chacun s’y colle, pour le bien du pays.
Pardon si je choque quelques-uns mais il est grand temps de revenir au réel et de tourner la page.
Je vous repondrais en deux points.
1. Vous avez écrit sur un autre fil : « Il faut en finir avec la religion des émissions de CO2. »
Fort bien. Et vous faites comment pour venir à bout d’une religion ?
2. Vous écrivez ici : « …l’idéal serait d’expliquer les causes du réchauffement que nous observons depuis 50 ans. »
Oui ce serait peut-être l’idéal. Mais c’est clairement moins à protée que de démontrer les failles béantes de la théorie soutenue par le GIEC.
Nombreux sont les chercheurs qui ont fait de bonnes critiques de la théorie officiel mais se sont malheureusement discédités en voulant à toute force innocenter le CO2 par la théorie. Les connaissances actuelles ne le permettent pas. Avec les observations, c’est autre chose.
Je me permettrai encore une critique.
Vous écrivez : « Ce n’est pas l’atmosphère ni l’effet de serre qui réchauffent la Terre, c’est le soleil via les océans. »
Ok, c’est le soleil qui chauffe, comme un calorifère chauffe une pièce. L’effet de serre, en réduisant drastiquement les pertes radiatives de la surface maintient une température plus clémente comme l’isolation d’un bâtiment éconmise de l’énergie. S’il y a augmentation de l’effet de serre, il y a aussi augmentation de la température.
Quant au « c’est le soleil via les océans », certainement pas. Les océans permettent à la surface d’évacuer une grande quantité d’énergie solaire par vaporisation sans qu’elle soit transformée en chaleur sensible. Les océans refroidissent la surface, ils ne la chauffent pas.
Je vous cite encore : « Pitié, à la fin ça devient ridicule ».
@Phi
Pour ce qui concerne votre dernier commentaire:
– … la source froide est relativement bien répartie dans la masse troposphérique et agit constamment. Non ! La source froide est au sommet de l’atmosphère, ou éventuellement dans l’espace, là où les températures sont les plus froides.
– la prépondérance du refroidissement radiatif dans la basse troposphère se démontre aisément en considérant que la réduction d’opacité par m d’altitude est évidemment maximale là où la densité est maximale Non, ce qui favorise les échanges radiatifs, ce n’est pas la « réduction d’opacité par m d’altitude », mais le niveau de cette opacité. C’est ce qui explique que le refroidissement maximal soit obtenu non à la base de l’atmosphère comme vous le dites mais à 50 km d’altitude (cf la fig 5 de https://planet-terre.ens-lyon.fr/ressource/bilan-radiatif-terre3.xml), 5 fois plus élevé qu’au sol !
NB: Je fais l’effort de vous répondre sur les arguments que vous avancez … pourriez vous en faire de même svp, par exemple: Un refroidissement de 1°C/12h, est-ce que c’est le refroidissement observé entre le jour et la nuit ? N’y a-t-il pas une autre cause beaucoup plus efficace au refroidissement de la basse atmosphère ?
Ou bien doit-on considérer que vos interventions n’ont pour but que de pourrir le site ?