Climat en débat, pour en finir avec les idées reçues

Par Caroline de MALET, le 5 décembre 2008  Imprimer l'article  lecture optimisée  Télécharger l'article au format PDF

Journaliste au Figaro, Caroline de Malet couvre depuis près de dix ans les questions liées à l’environnement et l’énergie. Depuis fin 2008, elle gère les pages Débats et Opinions du Figaro.

La conférence internationale de Poznan, organisée en Pologne sous l’égide des Nations unies, attire l’attention sur le changement climatique. Les débats ne sont pas clos sur la question du réchauffement climatique : le nier, refuser toute discussion scientifique argumentée, c’est faire le jeu des idéologues, prompts à asséner leurs idées reçues. Qu’il s’agisse des écolos, parfois jusqu’au-boutistes, ou des sceptiques, sous influence des lobbys.

Dans le cadre de ses synergies géopolitiques, le site diploweb.com est heureux de vous présenter en exclusivité sur Internet un extrait de l’ouvrage de Caroline de Malet, Climat en débats, pour en finir avec les idées reçues, publié aux éditions Lignes de repères.

LA CLIMATOLOGIE, UNE DISCIPLINE JEUNE

Aux yeux de Lord Nigel Lawson, c’est rien moins qu’« un scandale majeur potentiel ». De quoi pousser l’ancien chancelier britannique à interpeller le porte-parole du gouvernement pour l’Environnement de son pays en avril 2004, lors d’une séance de questions au Parlement britannique, sur le bien-fondé des prévisions climatiques du Giec. La polémique est née d’un rapport réalisé par l’économiste danois Martin Agerup et publié par l’ONG britannique International Policy network, qui conteste les scénarios du Giec et met en exergue les limites de sa méthodologie.

Pour l’auteur, « l’IPCC présente comme prévisions des scénarios qui ne sont que des possibilités ». Le postulat sur lequel s’appuie le Giec, selon lequel l’économie mondiale sera 25 fois plus développée dans cent ans, lui paraît invraisemblable. Deuxième argument : Martin Agerup réfute le postulat des experts selon lequel la tendance à la baisse de l’intensité en carbone depuis un siècle se renverserait pour augmenter au cours du siècle à venir, du fait de la hausse attendue de la consommation de charbon. Selon lui, c’est le gaz qui devrait prendre plutôt le dessus. Par ailleurs, les nouvelles technologies devraient permettre de développer des sources d’énergie « propres » comme le solaire et l’éolien. Autant d’arguments qui épousent les thèses du gouvernement américain, pour lequel les nouvelles technologies représentent la meilleure réponse au changement climatique.

Une science encore imparfaite

Une science qui ne remplit pas le critère de réfutabilité de Karl Popper

Depuis quelques années, la modélisation climatique est sur la sellette. En s’adressant aux délégués présents lors de la négociation sur l’avenir de Kyoto à Bali, le trublion sceptique britannique Lord Monckton faisait circuler un document dans lequel il affirmait sans ambages : « Je vous serais reconnaissant de bien vouloir faire passer ces documents à vos conseillers scientifiques qui, s’ils sont honnêtes, admettront au moins que la science qui sous-tend l’analyse du Giec est au mieux incertaine, au pire fausse ». S’ensuivait alors toute une démonstration visant à minimiser le réchauffement.

Même si ce reproche est infondé, il conteste indirectement le caractère scientifique de la climatologie. Un des aspects décriés de la climatologie, c’est sa dimension à la fois inductive et prédictive. Inductive lorsqu’elle s’inspire des constats du passé pour prévoir, par analogie, l’avenir dans les mêmes conditions. Prédictive, parce qu’elle est en mesure de faire des prévisions à très long terme.

Or ce caractère inductif représente un vice épistémologique majeur aux yeux des disciples de Karl Popper. Popper a considéré en effet au début des années 20 qu’une théorie scientifique n’était recevable que si elle était réfutable. « Ce qui me préoccupait à l’époque n’était pas le problème de savoir quand une théorie est vraie ni même quand celle-ci est recevable. La question que je me posais était autre. Je voulais distinguer science et pseudo-science, tout en sachant pertinemment que souvent la science est dans l’erreur, tandis que la pseudo-science peut rencontrer inopinément la vérité » [1].

« Karl Popper renverse la perspective de la philosophie des sciences traditionnelle. Au XIXe siècle, les scientifiques avaient l’impression de découvrir la vérité. Tout au plus cette conviction était-elle tempérée par l’idée qu’il ne s’agissait que d’une vérité approchée. La philosophie de Popper met l’accent sur le fait qu’il y a seulement des « champs de vérité ». Le problème n’est plus de départager le vrai du faux, mais de savoir dans quel cadre l’on peut parler de la vérité d’un énoncé », analyse Michel de Pracontal, dans son ouvrage, L’imposture scientifique en dix leçons [2].

La modélisation climatique : peut mieux faire

Il faut reconnaître que prévoir le climat à cent ans, alors que la météo n’est pas fiable à dix jours, a de quoi dérouter le néophyte. Ce qui est généralement méconnu, c’est la différence dans les façons de travailler entre ces deux disciplines. Les climatologues utilisent en effet des modèles prenant en compte une plus large palette de facteurs que les météorologues, notamment les interactions entre l’océan et l’atmosphère. Ce sont des modèles mathématiques basés sur la physique qui représentent la circulation atmosphérique et océanique, la glace de mer et les surfaces continentales sur des pavés de 100 à 200 kilomètres.

Elaborés depuis des dizaines d’années, ces modèles ont montré leur fiabilité en reproduisant les climats antérieurs. On a en effet utilisé des modèles pour simuler d’anciens climats, comme le climat doux de l’Holocène moyen d’il y a 6 000 ans ou celui de la dernière glaciation remontant à 21 000 ans au maximum. Ils ont été à même de reproduire de nombreux aspects, comme l’ampleur et l’extension du refroidissement océanique.

Mais il faut reconnaître que la modélisation climatique a encore besoin d’être améliorée. Les modèles sont encore très imprécis, reconnaissent les experts eux-mêmes. « Il faut reconnaître que la prévision des modèles reste incertaine », admet Hervé Douville, climatologue au Centre national de recherches météorologiques (CNRM) de Météo France. « Mais les scientifiques ont toujours été prudents dans leurs prévisions ». « Il existe un certain nombre d’approximations que nous sommes obligés de faire, même si nous nous efforçons d’être le plus réalistes possible », admet Pascale Braconnot, climatologue au Laboratoire des Sciences du Climat et de l’Environnement (LSCE). Cela n’empêche pas certains de leurs détracteurs d’avoir tendance à exagérer pour autant cette faiblesse. Michael Crichton reprend ainsi à son compte une réserve émise par le climatologue américain Richard Lindzen, professeur au MIT, qui estime que les prévisions émises par le Giec sont entachées d’une marge d’erreur de 400%.

A l’époque, l’Américain se basait sur les prévisions du troisième rapport de 2001, qui tablait sur une élévation des températures comprise entre 1,4 et 5,8°C de 1990 à 2100. Le fait de présenter ces prévisions sous forme de fourchette déroute. Car elle est souvent mal interprétée.

De fait, les vingt-trois modèles qui ont servi à réaliser les prévisions du quatrième rapport du Giec rendu public en 2007, dont deux sont français, réalisés par quinze groupes de modélisation de neuf pays, semblent, malgré ces limites, assez fiables. Car « les observations actuelles sur l’évolution du climat entre 1990 et 2000 confortent les climatologues dans leurs prévisions passées, sauf que nous nous trouvons dans la fourchette haute des courbes », rapporte Pascale Braconnot.

Les scénarios : l’incertitude est avant tout économique

De fait, « la moitié de l’incertitude qui explique cette fourchette, liée à l’évolution à venir des gaz à effet de serre, est de nature économique », explique Hervé Le Treut. En effet, le réchauffement est lié aux émissions de gaz à effet de serre, donc à l’activité économique, à la démographie, au mix énergétique et aux modes de consommation. Jean Jouzel ne dit pas autre chose, pour qui « la première source d’incertitudes, c’est le comportement humain ». Comment des scientifiques peuvent-ils augurer en effet à l’avance de ces choix de société qui dépendent autant de décisions politiques que de choix individuels ? La seule chose qu’ils sont en mesure de faire, c’est d’établir plusieurs scénarios économiques, comme ceux sur lesquels reposent les scénarios du Giec. D’où le fait que « seule l’autre moitié de la fourchette reflète les incertitudes de la communauté scientifique pour chiffrer l’amplitude du phénomène ». Aussi le climatologue américain Gavin Schmidt, cofondateur du blog realclimate.org, estime-t-il lui, pour sa part, la marge d’erreur du Giec à 60%.

C’est d’ailleurs à peu près le résultat auquel sont parvenus les experts qui se sont efforcés de valider la précision des modèles. Le climatologue allemand Stefan Rahmstorf, qui a invité sept de ses confrères les plus réputés du monde entier à confronter les projections du Giec figurant dans son rapport de 2001 avec les données climatiques observées depuis 1990, s’est attelé à cette tâche. Le résultat est éloquent. La hausse de la température de l’air enregistrée depuis seize ans (+ 0,33°C en moyenne annuelle) se situe dans la fourchette haute des projections du panel d’experts. La concentration en dioxyde de carbone a progressé selon un rythme prévisible. Seule l’élévation du niveau des mers a dépassé toutes les craintes.

Des facteurs d’emballement non pris en compte

Quelle confiance avoir dès lors dans ces modèles ? « Il semblerait que les modèles sous-estiment aujourd’hui le changement climatique, reconnaît Anny Cazenave, car ils ne prennent pas en compte l’instabilité des calottes polaires, découverte récemment. Si ces phénomènes s’emballent, on peut même craindre une contribution de la fonte des glaces à l’élévation du niveau des mers beaucoup plus importante que prévu ». Car il faut bien comprendre que certains de ces phénomènes ont été découverts très récemment, il y a cinq ou six ans. La modélisation sait modéliser les phénomènes lents, mais il est encore trop tôt pour intégrer ces mécanismes extrêmement rapides connus depuis peu. Mais il faut continuer à observer, car ces phénomènes sont peut-être temporaires, ou peuvent s’emballer. Dans l’hypothèse - purement théorique - où le Groenland fonderait totalement, c’est une hausse potentielle du niveau des mers de 7 mètres qui serait alors envisageable.

Autre phénomène susceptible d’emballer la machine climatique : la fonte du permafrost. Egalement appelé pergélisol, cette couche de sol gelé depuis des millénaires, qui affleure à un mètre sous la surface de la Sibérie et plonge à des dizaines de mètres de profondeur, fond sous l’effet du réchauffement. Or les scientifiques craignent qu’avec l’accélération du changement climatique, le permafrost ne relâche dans l’atmosphère des milliards de mètres cube d’azote, de méthane et de gaz carbonique piégés dans le sol, renforçant davantage encore l’effet de serre.

Le fait que la modélisation actuelle prenne insuffisamment en compte les phénomènes de rétroaction pousse même certains scientifiques à dresser un pronostic plus sombre encore que celui de la majorité des scientifiques actuels. C’est le cas de James Lovelock, trublion inventeur de « l’hypothèse Gaïa » [3]. Pour lui, les modèles actuels sous-estiment les rétroactions.

Yves Lenoir, lui, critique la non prise de compte du cycle de l’eau dans les modèles [4]. A ses yeux, modéliser la teneur en eau de la colonne d’air située au-dessus d’une région donnée, entre le sol et la stratosphère, qui est extrêmement fluctuante, relève quasiment de la gageure. Or le cycle de l’eau représente, selon lui, un tiers des échanges de chaleur à l’échelle de la planète. Ne pas prendre en compte l’évaporation artificielle liée à l’action directe de l’homme sur le cycle de l’eau, notamment via l’irrigation, comme le font selon lui les climatologues, est également une erreur à ses yeux. Or ces derniers ne manquent pas de faire remarquer que le cycle de l’eau est bien représenté dans les modèles, la vapeur d’eau, qui constitue un des premiers gaz à effet de serre, en étant une variable de base. Seulement, reconnaissent-ils, il est en effet difficile d’en représenter toutes les facettes et à une très petite échelle.

« Toutes les données physiques sont prises en compte soit, en plus de la température, du vent, de la vapeur d’eau, les transports de chaleur, les différents éléments du cycle de l’eau, les variations des types de surface et des courants et le couplage climat-carbone. Le couplage avec la végétation interactive (dont le type peut changer) commence juste à être pris en compte dans le modèle de l’IPSL. Mais ne sont pas encore pris en compte l’utilisation des terres ni le couplage avec les surfaces englacées comme la calotte glaciaire qui pourrait fondre », explique Pascale Braconnot. L’IPSL commence à travailler sur ce dernier sujet, mais n’a pas encore suffisamment de recul. Enfin, si des couplages avec les aérosols sulfatés ont déjà lieu, les autres aérosols, tels que les poussières ou la suie, ne sont pas encore intégrés dans les modèles. Il existe des simulations sur ces points, mais ils n’ont pas encore été couplés avec les autres phénomènes.

Pascale Braconnot relativise toutefois l’impact de ces phénomènes : « cela ne va pas transformer la forme des courbes, mais ce sont des précisions qui peuvent s’avérer importantes pour prévoir l’adaptation au changement climatique ».

La puissance de calcul : le nerf de la guerre

Une des difficultés de la modélisation, c’est que la plupart des phénomènes qui découlent du réchauffement se développent sur des échelles relativement petites et ne se produisent qu’à une fréquence très faible. Ce qui limite la capacité des modèles actuels à se représenter l’avenir de façon fiable, notamment du fait du manque de puissance de calcul des ordinateurs. Les progrès dans le domaine des supercalculateurs, comme celui du département de l’Energie américain, numéro un mondial avec une puissance de calcul de 478,2 teraflops à lui tout seul (un teraflop équivalant à mille milliards d’opérations par seconde), ont déjà permis de faire des avancées décisives, pour coller de plus en plus à la réalité.

La France, pourtant en pointe en climatologie, a malheureusement pâti ces dernières années d’un sérieux retard en ce domaine. En puissance de calcul installée par habitant, notre pays se hissait péniblement voici deux ans à l’avant-dernière place des pays européens industrialisés, avec 17 teraflops. « Il y a dix ans, notre équipement faisait des envieux au niveau international, mais si l’effort n’est pas maintenu, on recule, car les choses évoluent trop vite », constatait alors à regret Marie-Alice Foujols, du pôle modélisation de l’IPSL. Le calculateur Tera-10, du Commissariat à l’énergie atomique (CEA) arrive bien en cinquième position mondiale des machines dans le classement bisannuel Top-500, mais ses applications sont militaires.

Ces cahiers de doléances ont été entendus. D’où le plan lancé par le gouvernement avec pour objectif affiché de hisser la France parmi les grands pays européens en quatre ans, grâce à une dotation de 100 millions d’euros. Une société civile, baptisée Grand Equipement national pour le calcul intensif (Genci) et dont l’Etat est actionnaire à hauteur de 50%, le CEA et le CNRS 20% chacun et les universités 10%, a été créée en octobre 2006. Cette initiative, qui fait écho au vœu exprimé dans le rapport de Michel Héon et Emmanuel Sartorius en mars 2005, commence à porter ses fruits. Le CNRS vient en effet d’annoncer, en janvier [2008], l’acquisition d’un supercalculateur IBM d’une puissance de 207 téraflops qui hisse notre pays au troisième rang mondial, alors que la puissance de calcul du vaisseau amiral de la recherche française était auparavant limitée à 7 téraflops. La France opère ainsi un rattrapage colossal. Ce nouvel outil permettra de répondre « aux besoins urgents du climat et à nos engagements à l’égard du Giec », souligne le directeur général du CNRS Arnold Migus. Concrètement, les climatologues seront en mesure, avec ce nouveau bijou, de procéder en temps réel à des simulations qui leur demandaient auparavant deux jours. Il reste que ces derniers n’ont pas totalement obtenu satisfaction. « Nous souhaiterions des calculateurs vectoriels et non parallèles », expliquait voici deux ans Hervé Le Treut, directeur du laboratoire de météorologie dynamique de l’IPSL. Mais les besoins d’autres disciplines scientifiques également utilisatrices étant différents, ce n’est le choix qui a été fait. Or les calculateurs parallèles ne sont pas bien adaptés aux codes des calculs développés par les climatologues, qui vont donc devoir les réécrire.


Le livre : Caroline de Malet, Climats en débats, pour en finir avec les idées reçues, Paris : Lignes de repères, octobre 2008, 180 p. 17 euros.

Climat en débat, pour en finir avec les idées reçues
C. de Malet, Climat en débats, éd. Lignes de repères

Les débats ne sont pas clos sur la question du réchauffement climatique : le nier, refuser toute discussion scientifique argumentée, c’est faire le jeu des idéologues, prompts à asséner leurs idées reçues. Qu’il s’agisse des écolos, parfois jusqu’au-boutistes, ou des sceptiques, sous influence des lobbys. Tel est l’objet du livre : faire le point sur ce qu’on sait à coup sûr, et ce qui fait débats, notamment entre scientifiques, sur les deux questions, profondément imbriquées, du climat et de l’énergie pour demain.

Abordant clairement toute une série de questions souvent éludées (Que sait-on vraiment sur le réchauffement et ses causes ? Quels sont les arguments des sceptiques, comme Claude Allègre ? Le réchauffement est-il vraiment une catastrophe ? Quelles peuvent être ses effets, et à quelle échéance ? Faut il lutter contre, ou simplement s’adapter ? Est-ce vraiment la fin du pétrole ? Quelles sont les solutions technologiques pour une énergie propre ?), l’ouvrage décortique aussi le jeu des lobbys et des politiques, souvent prompts à entretenir nos peurs et fantasmes. Sans parler des médias, à la recherche du spectaculaire.

Parce qu’on agit bien pour le climat qu’en parfaite connaissance de cause.

[1Karl Popper, « Conjonctures et Réfutations. La croissance du savoir scientifique », Payot, Paris, 1985.

[2Michel de Pracontal, « L’imposture scientifique en dix leçons. Edition du troisième Millénaire. Editions la Découverte, Paris, 2001.

[3James Lovelock, « La Terre est un être vivant ; l’hypothèse Gaïa », Champs Flammarion, 1999. Selon lui, la Terre est un organisme vivant, malade de l’homme.

[4Le cycle de l’eau est un modèle représentant les flux entre les grands réservoirs d’eau, sous toutes ses formes (liquide, solide ou gazeuse) sur Terre : les océans, l’atmosphère, les lacs, les cours d’eau, les nappes souterraines ou les glaciers. Le principal moteur de ce cycle est l’énergie solaire qui, en favorisant l’évaporation, entraîne les autres échanges.


DIPLOWEB.COM - Premier site géopolitique francophone

SAS Expertise géopolitique - Diploweb, au capital de 3000 euros. Mentions légales.

Directeur des publications, P. Verluise - 1 avenue Lamartine, 94300 Vincennes, France - Présenter le site

© Diploweb (sauf mentions contraires) | ISSN 2111-4307 | Déclaration CNIL N°854004 | Droits de reproduction et de diffusion réservés

| Dernière mise à jour le jeudi 1er décembre 2016 |
#contenu