
Dans leur livre Merchants of Doubt, Naomi Oreskes et Eric Conway affirment que les scientifiques « savent reconnaître une mauvaise science lorsqu’ils la voient » :
« Il s’agit d’une science manifestement frauduleuse – lorsque des données ont été inventées, truquées ou manipulées. La mauvaise science est celle où les données ont été sélectionnées – lorsque certaines données ont été délibérément omises – ou lorsqu’il est impossible pour le lecteur de comprendre les étapes qui ont été suivies pour produire ou analyser les données. Il s’agit d’un ensemble d’affirmations qui ne peuvent pas être testées, d’affirmations basées sur des échantillons trop petits et d’affirmations qui ne découlent pas des preuves fournies. Et la science est mauvaise – ou du moins faible – lorsque les partisans d’une position tirent des conclusions hâtives sur la base de données insuffisantes ou incohérentes ».
Peu de gens seraient en désaccord avec les critères d’Oreskes et Conway concernant la « mauvaise science », mais comment utiliser ces critères pour distinguer la mauvaise science de la bonne science ? Oreskes et Conway ont une réponse (souligné dans l’original) :
« Mais si ces critères scientifiques sont clairs en principe, savoir quand ils s’appliquent en pratique est une question de jugement. Pour ce faire, les scientifiques s’appuient sur l’évaluation par les pairs. L’évaluation par les pairs est un sujet qu’il est impossible de rendre sexy, mais qu’il est essentiel de comprendre, car c’est ce qui fait de la science une science et non une simple forme d’opinion. »
Oreskes et Conway décrivent la « science du village Potemkine » comme les efforts déployés par les « marchands de doute » pour faire passer leurs arguments de mauvaise science pour de la science à l’aide de données et de graphiques, afin de tromper les personnes non informées et de contester la bonne science contenue dans la littérature évaluée par les pairs. Les bons publient dans des revues à comité de lecture, tandis que les mauvais ne le font pas.
L’idéalisation de l’examen par les pairs en tant qu’arbitre de la bonne science est problématique pour de nombreuses raisons, mais l’une d’entre elles est qu’elle minimise la possibilité que de la mauvaise science puisse apparaître dans la littérature évaluée par les pairs et de la bonne science en dehors de ces publications.
Aujourd’hui, je me concentre sur l’utilisation et l’abus de la littérature évaluée par les pairs pour produire de la science tactique que je définis comme suit :
Les publications – souvent destinées à la littérature évaluée par les pairs – conçues et élaborées pour servir des objectifs extra-scientifiques, généralement des efforts pour façonner l’opinion publique, influencer la politique ou servir des actions en justice.
J’ai pris conscience de l’existence de la science tactique en 2008, lorsque Stephen Pacala, professeur à Princeton, a expliqué franchement que son célèbre article de 2004 sur les « coins de stabilisation » (avec Robert Socolow) avait en fait été rédigé à des fins politiques et pour marginaliser d’autres chercheurs :
« L’objectif de l’article sur les coins de stabilisation était étroit et simple : nous voulions empêcher l’administration Bush de mettre en œuvre ce que nous considérions comme une stratégie visant à retarder l’action contre le réchauffement climatique en affirmant que nous ne disposions pas de la technologie nécessaire pour y faire face. Le secrétaire à l’énergie de l’époque avait l’habitude de faire un discours disant que nous avions besoin d’une découverte aussi fondamentale que la découverte de l’électricité par Faraday au 19ème siècle.
Nous voulions également mettre un terme au groupe de scientifiques qui rédigeaient ce que je pensais être des propositions de subventions déguisées en évaluations énergétiques. Il y a eu un article célèbre publié dans Science qui a parcouru la liste [des technologies disponibles] en les combattant une par une, sans jamais se demander « et si nous les mettions toutes ensemble ? Il s’agissait d’une analyse dont l’objectif était de montrer que nous ne disposions pas de la technologie nécessaire, avec un appel à la fin pour une recherche de type « blue sky ».
J’y ai vu une collusion malsaine entre la communauté scientifique qui croyait en l’existence d’un problème grave et un mouvement politique qui n’y croyait pas. Je voulais que cela cesse et, pour moi, le document a été étonnamment efficace à cet égard. Je suis très satisfait du résultat, je n’y changerais rien. »
Les scientifiques disent . . .
Depuis lors, j’ai vu la science tactique devenir de plus en plus répandue dans la littérature scientifique sur le climat. Voici quelques exemples de science tactique qui est aussi de la mauvaise science :
- Howarth (2024, publié aujourd’hui même). Financé par la Park Foundation – des opposants au gaz naturel – et publié sous forme de pré-impression apparemment pour soutenir la pause GNL de l’administration Biden. Jonah Messinger explique pourquoi ce document est truffé d’erreurs.
- Serofim et al (2024). Financé par l’EPA – et rédigé par l’EPA, l’un de ses contractants gouvernementaux et d’autres – ce document défend l’utilisation continue par l’EPA du RCP8.5, qui est fondamental pour le « coût social du carbone » de l’administration Biden. Jessica Weinkle a publié un article très intéressant sur ce document. Le RCP8.5 est indéfendable.
- Schwalm et al. 2020. Rédigé par le Woodwell Climate Research Center, financé par McKinsey – un grand utilisateur du RCP8.5 – ce document justifie également le maintien de la priorité accordée au RCP8.5. Ce document s’appuie sur des hypothèses fantaisistes d’augmentation massive des émissions de dioxyde de carbone liées à l’utilisation des terres, en totale contradiction avec les observations et le GIEC.
Aucun des trois documents susmentionnés n’a révélé les intérêts des bailleurs de fonds dans les résultats publiés des analyses. Si vous cliquez sur les liens ci-dessus, vous trouverez des critiques détaillées de chaque document.¹ En même temps, chaque document est abondamment cité dans d’autres recherches et dans des contextes politiques parce qu’il est utile d’un point de vue tactique.
Chaque article est une aberration dans le contexte de la recherche pertinente – et il est peu probable qu’il change la façon dont les évaluations scientifiques examinent l’ensemble de la littérature – ils offrent un contre-pied apparemment plausible à la littérature plus large, ce qui permet de justifier des affirmations politiquement opportunes en termes de « science ».² Les trois articles sur le climat mentionnés ci-dessus sont de la mauvaise science.
Les trois documents sur le climat mentionnés ci-dessus sont de la mauvaise science non seulement parce qu’il s’agit de science tactique, mais aussi parce qu’il s’agit de mauvaise science – dont la démonstration nécessite l’utilisation de bonne science.
La science tactique intervient dans de nombreux contextes au-delà du changement climatique. Par exemple, un groupe de scientifiques cherchant à ouvrir le débat sur les origines du COVID-19 a systématiquement allégué qu’une série d’articles plaidant pour une origine basée sur le marché étaient « basés sur des prémisses et des conclusions invalides, ou étaient potentiellement le produit d’une mauvaise conduite scientifique – y compris une fraude ». Bien sûr, ici au THB et pour le Congrès américain, j’ai largement documenté la façon dont le document dit des origines proximales fournit peut-être l’exemple le plus connu de science tactique.
Que devons-nous faire au sujet de la science tactique ? J’ai quelques suggestions à faire :
- Tout d’abord, nous devrions tous reconnaître que l’examen par les pairs constitue une norme minimale d’examen. Il ne permet certainement pas de faire la distinction entre la bonne et la mauvaise science. Il y a beaucoup de très bons travaux scientifiques qui ne sont pas publiés dans des revues à comité de lecture et beaucoup de déchets dans des revues à comité de lecture – et cela a toujours été le cas, bien au-delà des questions de science tactique.
- En tant qu’experts, nous devrions prêter une attention particulière aux articles évalués par les pairs après leur publication – les affirmations qu’ils font, les preuves qu’ils utilisent, les méthodes qu’ils emploient et les intérêts potentiellement chevauchants des bailleurs de fonds et des auteurs. En bref, une publication évaluée par des pairs ne représente qu’une étape, sans doute précoce, dans l’évaluation des affirmations scientifiques. C’est cette leçon qui a motivé l’intérêt porté ces dernières années à la réplication et à la reproduction des analyses scientifiques.
- La communauté scientifique doit faire beaucoup mieux pour s’assurer que les institutions scientifiques – y compris, mais pas seulement, les revues – font simplement leur travail. Par exemple, j’ai récemment expliqué comment PNAS a refusé de rétracter un article qui utilisait un « ensemble de données » qui n’existe pas. J’ai également publié récemment un article sur les nombreux problèmes liés à la tabulation politiquement opportune du « désastre d’un milliard de dollars ».³ Les rédacteurs en chef des revues sont également des personnes intéressées par la tactique. Une sous-page entière pourrait être consacrée à la science tactique.
- Pour les journalistes et le grand public, il est important de comprendre que l’examen par les pairs produit organiquement la vérité et que les forces qui façonnent les débats publics sur les affirmations scientifiques se manifestent également dans la recherche et l’édition. C’est compliqué, c’est un fait.
En 2024, il est plus difficile que jamais de savoir ce qui est de la bonne science et ce qui est de la mauvaise science. Certains proposent des raccourcis simples vers la vérité : examiner le financement de l’auteur, peut-être ses opinions politiques, la vertu des causes qu’il soutient, ou encore faire appel à l’autorité, au consensus, ou demander à un vérificateur de faits dans les médias. Il est utile de connaître le contexte plus large dans lequel s’inscrit la recherche, mais cela ne nous offre pas un raccourci vers la vérité.
Comme je le dis souvent, il n’y a pas de raccourci – la science est le raccourci.
Les revues à comité de lecture sont de plus en plus devenues une autre arène de conflit politique sur des questions politiquement controversées. Il est bien sûr impossible de séparer totalement la science et la politique. Toutefois, la bonne nouvelle est que nous sommes bien préparés à faire la différence entre la bonne et la mauvaise science, si nous le souhaitons.
Merci de m’avoir lu ! Vos commentaires, critiques et questions sont les bienvenus. En particulier, j’aimerais connaître votre point de vue sur les questions suivantes : Connaissez-vous des cas de science tactique ? Quels sont-ils ? Comment savez-vous qu’il s’agit de science tactique ? Quelles sont vos recommandations sur la manière de traiter la science tactique ?
Le THB bénéficie du soutien des lecteurs. Cela signifie qu’à partir de la fin de cette année civile – lorsque je prendrai ma retraite de l’université du Colorado – je bénéficierai moi aussi du soutien des lecteurs. THB deviendra alors ma principale source de revenus. Si vous appréciez ce que vous trouvez ici (appréciez, pas toujours d’accord !) et la communauté que nous construisons ensemble, envisagez de rejoindre les rangs des abonnés payants !
1 J’ai envisagé d’ajouter à cette liste les publications du groupe World Weather Attribution. De leur propre aveu, les publications du WWA sont de la science tactique – cherchant à influencer la couverture médiatique et à soutenir les poursuites judiciaires. Le WWA mérite son propre article, restez à l’écoute.
2 Rappelons qu’un article affirmant l’attribution de l’augmentation des pertes normalisées liées aux catastrophes a été utilisé par l’évaluation nationale du climat des États-Unis pour contrer les résultats de plus de soixante autres articles qui concluaient que l’attribution n’avait pas encore été réalisée.
3 Mon article, qui a été téléchargé plus de 6 000 fois et se situe dans le 95e centile des scores d’attention Altmetric, attend sa première citation.