Déjà plus de
1 million
d'inscrits !
Déjà plus de
1 million
d'inscrits !
Avant de commencer, regarde la vidéo
Les images ne sont pas encore disponibles pour ce cours. Nos graphistes font tout leur possible pour les réaliser au plus vite. 😉 |
Introduction :
Pour connaître le climat du futur, les scientifiques développent des modèles climatiques. Ce sont des constructions numériques du système climatique qui mobilisent des outils mathématiques, physiques, chimiques et biologiques.
Ces modélisations permettent d’appréhender les interactions (échanges énergétiques) entre l’atmosphère, l’océan et les terres. La création de modèles climatiques est un travail autour du bilan radiatif de la Terre avec la prise en compte des actions et rétroactions des différentes enveloppes (atmosphère, hydrosphère, biosphère) vus au chapitre précédent.
Nous allons suivre et détailler la démarche scientifique sous-jacente à la construction des modèles climatiques. Le point de départ est la collecte de données météorologiques ou paléoclimatiques. Puis différents scénarii d’ordre climatique et/ou socio-économique vont venir poser des limites pour la construction du modèle. Enfin, l’étude des modélisations avec les corrections possibles, nous amènera vers les projections du Groupe d’experts intergouvernemental d’étude du climat (GIEC), faisant consensus dans la communauté scientifique.
Recueil de données, scénarii et création des modèles
Les températures de 2050 pourraient atteindre les en France métropolitaine.
Image 1 : les records de températures entre 1950 et 2005 et les prévisions pour 2050
Mais comment les scientifiques établissent-ils ces prédictions ?
Les modèles climatiques s’appuient sur des données connues et fiables, à savoir les données atmosphériques, terrestres et océaniques actuelles faites par différents instituts à travers le monde, mais aussi les données paléoclimatiques.
Chaque modèle aura des limitations spatiales et temporelles. C’est la synthèse de ces différents modèles qui générera des modèles climatiques globaux.
Modèle climatique :
Simulation numérique du climat pour une zone donnée à partir des données climatiques réelles.
La création de scénarios permet aux scientifiques d’orienter le modèle pour l’avenir.
Données météorologiques et paléoclimatiques
En France, deux laboratoires majeurs travaillent sur deux modèles et donc sur des données un peu différentes. Il s’agit du Centre national de recherches météorologiques (CNRM : Météo-France/CNRS) et de l’Institut Pierre-Simon Laplace (IPSL).
Résumé des variables météorologiques utilisées dans les modèles climatiques français
Paramètres météorologiques étudiés |
CNRM | IPSL |
Humidité relative et spécifique près de la surface (%) |
x | |
Flux de précipitations () |
x | x |
Flux de précipitations neigeuses () |
x | |
Précipitations totales () |
x | |
Rayonnement infrarouge incident () |
x | |
Rayonnement visible incident () |
x | |
Températures (moyenne, minimale et maximale) près de la surface (en Kelvin) |
x | x |
Vitesse du vent (horizontale et maximum) à la surface () |
x | x (horizontale) |
Les données de flux de précipitations, de températures et de vent sont nombreuses et sont disponibles sur des temps assez longs (une centaine d’années pour les mesures directes) et sur une échelle globale (pour l’ensemble de la planète).
Les données paléoclimatiques servent de base pour établir des comparaisons entre les situations actuelles et celles d’un passé parfois très lointain, ce qui permet de poser des limites aux modèles.
Ces comparaisons mettent notamment en avant le fait que le paramètre anthropique (lié à l’activité humaine), qui n’était pas présent il y a plusieurs dizaines de milliers d’années, est aujourd’hui au cœur des modèles climatiques.
Forçages anthropiques
L’intérêt de l’établissement des modèles climatiques est notamment de tenter de déterminer un degré d’influence des activités humaines sur l’évolution du climat et d’appréhender la réaction du système climatique face à ces forçages anthropiques.
Le forçage radiatif est une action qui introduit un degré de modification du bilan radiatif terrestre. Autrement, dit, il correspond à une perturbation de l’équilibre radiatif.
Il existe différents types de forçages :
Les forçages anthropiques, et donc la part de l’évolution climatique liée aux activités de l’être humain, s’appréhendent grâce aux données sur les taux d’émissions des différents gaz à effets de serre.
Ces données ont permis aux scientifiques d’affirmer que l’augmentation de la température moyenne depuis la révolution industrielle est ainsi liée aux activités humaines.
Image 2 : Contribution des activités humaines à l’augmentation des gaz à effet de serre en France en 2012
Image 3 : Évolution de la concentration atmosphérique de dioxyde de carbone entre 1850 et 2006
L’unité (partie par million) exprime une fraction massique.
L’augmentation d’origine anthropique du dans l’atmosphère est due à 80 % à la combustion d’hydrocarbures, à environ 17 % à la déforestation tropicale et à 3 % à l’agriculture.
En France, l’Institut national pour la recherche agronomique (INRA) estime que l’agriculture contribue pour 85 % à la production humaine de .
Ce gaz a un potentiel de réchauffement global (PRG) presque 300 fois supérieur au et reste plus de 120 ans dans l’atmosphère. Son augmentation, même en faible proportion, a donc un rôle important dans la prise en compte des évolutions climatiques.
Potentiel de réchauffement global (PRG) :
Le potentiel de réchauffement global ou PRG (en anglais Global Warming Potential ou GWP) est une unité de mesure qui permet de comparer l’influence de différents gaz à effet de serre sur le système climatique. Il est utilisé pour prédire les impacts relatifs de différents gaz sur le réchauffement climatique en se fondant sur leurs propriétés radiatives et leur durée de vie.
En France, l’agriculture contribue à hauteur de 70 % aux émissions anthropiques de .
La première étape dans la construction d’un modèle est donc l’accumulation des données climatiques ainsi que la recherche des causes des variations observées, autrement dit les forçages.
Ce processus est essentiel pour passer à la seconde étape de création des modèles : dessiner un scénario probable avec les connaissances acquises. En réalité, de multiples scénarii vont être crées pour s’adapter aux contextes nationaux et internationaux.
Scénarii et création des modèles climatiques
L’analyse des différentes données collectées (actuelles, paléoclimatiques) a permis au Groupe d’experts intergouvernemental d’étude du climat (GIEC), regroupant de nombreux experts scientifiques à l’échelle internationale, de construire un modèle climatique s’appuyant sur différents scénarii.
Scénario climatique :
Ensemble d’hypothèses sur l’évolution future des forçages (GES, aérosols, rayonnement solaire incident).
D’autres hypothèses d’ordre socio-économique peuvent également être intégrées.
Dans un premier temps (2001-2007), le GIEC a développé des scénarii RSSE (Rapport spécial sur les scénarii d’émissions), ou SRES (Special Report on Emissions Scenarios) en anglais.
Les paramètres pris en compte sont à la fois socio-économique (économie, population, développement industriel…) et climatiques (évolution des GES, aérosols…).
Image 4 : les scenarii RSSE
Ces scénarii ne prennent pas en compte les décisions politiques liées aux grandes conférences pour le climat, comme le protocole de Kyoto en 1997 par exemple.
Il a donc été développé un second jeu de scénarii séparant l’aspect climatique et socio-économique.
De plus, les données socio-économiques ont évolués : le développement économique des pays émergeants a été bien plus important que prévu et la démographie mondiale a été revue à la baisse (l’estimation est passée de 14 milliards en 2100 à 10 milliards à la même date). Les connaissances plus fines sur le système climatique ainsi que la puissance de calcul des ordinateurs ont aussi permis la création de ces nouveaux scénarii.
En 2014, le cinquième rapport du GIEC établit donc quatre nouvelles trajectoires d’émissions et de concentrations de gaz à effet de serreentre 2006 et 2100, parmi 300 scenarii possibles, avec des projections jusqu’en 2250 : les scénarii RCP (Representative Concentration Pathways, ou « Trajectoires représentatives des concentrations » en français).
Ces quatre trajectoires sont envisagées au regard du degré du forçage radiatif, c’est-à-dire du degré de modification du bilan radiatif de la Terre. En effet, on sait que l’augmentation de la concentration en gaz à effet de serre vient perturber l’équilibre entre les flux radiatifs entrants et sortants.
On a ainsi :
La donnée chiffrée associée à chaque RCP correspond à l’augmentation du forçage radiatif à l’horizon 2100.
Image 5 : Évolution des forçages radiatifs en W/m² entre 1850 et 2250 selon les scénarii RCP et RSSE
Les SSP (Shared Socio-economic Pathways, « Trajectoires socio-économiques communes » en français) correspondent quant à eux à des choix politiques, sociaux et économiques.
Les SSP prennent en compte l’adaptation au changement climatique et la contribution à son atténuation (via la diminution des GES).
Image 6 : Les 5 scénarii SSP et leur localisation en terme d’adaptation au changement climatique et d’atténuation des GES
Les scénarii RCP et SSP se croisent et permettent d’envisager différentes alternatives tant sur le plan socio-économique que climatique. D’après Tom Kram, chercheur néerlandais en stratégies climatiques, il existe toutefois des limites et donc des incompatibilités dans le croisement de ces scénarii :
Croisement des RCP et des SSP selon T. Kram
SSP1 | SSP2 | SSP3 | SSP4 | SSP5 | |
RCP 8.5 |
x | ||||
RCP 6.0 |
x | x | x | x | |
RCP 4.5 |
x | x | x | x | x |
RCP 2.6 |
x | x | x |
La création de ces modélisations avec de nombreux scénarii trouve tout son sens dans la confrontation avec la réalité, au fur et à mesure que le temps passe. Le GIEC a commencé à exploiter ses premiers indicateurs au début des années 2000 : les chercheurs disposent donc d’environ 20 ans de recul. Ce temps court à l’échelle des temps géologiques est largement suffisant pour déceler des changements climatiques à l’heure actuelle.
Confrontation de la modélisation à la réalité
Exemple du trou de la couche d’ozone
Au début des années 1980, des géophysiciens britanniques analysent des données satellites sur la couche d’ozone stratosphérique (protégeant la Terre des UV) et découvrent un « trou », ou plus précisément unaffinement anormalde cette couche.
Cette découverte s’insère dans leurs travaux sur l’impact environnemental des chlorofluorocarbures (CFC), largement utilisés dans l’électroménager froid (réfrigérateur, congélateurs) et les sprays en bombe depuis les années 1950.
Une coopération internationale se met en place en 1989 pour signer le protocole de Montréal qui bannit l’usage des CFC. L’ensemble des pays le ratifie et contribue ainsi à la diminution des CFC dans l’atmosphère, suite à l’interdiction totale effective en 2009.
Si l’affinement périodique de la couche d’ozone est bien connu et documentée (mesures et modèles climatiques), les mesures exceptionnellement basses tendent à disparaître.
Cela dénote bien qu’avec une cohésion internationale, l’impact humain peut être réduit.
Image 7 : Vues satellite de la concentration d’ozone au-dessus de l’Antarctique entre 1979 et 2019
Prévision du GIEC et réalité du début du XXIe siècle
En 1990, les émissions de étaient de l’ordre de . Le GIEC faisait alors l’hypothèse qu’en 2025, elles seraient de . En 2019, les scientifiques estiment ces émissions à pour 2025.
Image 8 :Concentration de dans l’atmosphère
Si au début de la recherche sur l’évolution du climat, les valeurs modélisées n’étaient que peu fiables, les modèles actuels permettent une meilleure anticipation des valeurs à venir.
Les projections sur les variations de températures terrestres et océaniques sont assez fiables sur le début des années 2000. De plus, la comparaison de modèles, tous forçages confondus, avec des modèles n’utilisant que les forçages naturels permet de mettre clairement en évidence le rôle des êtres humains dans le changement climatique actuel :
Image 9 : Température de surface entre 1889 et 2010
En 1990, les modèles estimaient que l’élévation du niveau des mers serait de l’ordre de à pour 2100. Les modèles actuels restent sur cette fourchette de valeurs. La perte de glace entre 1990 et 2010 correspond à une élévation de à environ. Les trajectoires semblent donc cohérentes :
Image 10 : Contribution à l’élévation des océans en mm par la fonte des glaciers, du Groenland et de l’Antarctique
Les modèles utilisés par le GIEC sont régulièrement confrontés à la réalité. Ainsi, les scientifiques peuvent affiner les modèles ou fournir des supports fiables pour les décideurs politiques. Cela nous amène à l’objectif premier du GIEC : compiler les données scientifiques pour dessiner notre avenir climatique.
Projections et conséquences pour l’avenir, horizon 2100
Le dernier rapport global du GIEC (IPCC en anglais) date de 2014. Il s’agit d’une synthèse sur tous les aspects du changement climatique mesurés et/ou modélisés par le monde de la recherche.
Nous avons vu que les valeurs mesurées prises en compte vont jusqu’en 2005 en général, mais les projections se font jusqu’en 2100, voire 2250.
Les modélisations climatiques ont permis d’identifier d’importants changements d’un point de vue climatique, mais aussi de mettre en avant les conséquences pour l’avenir.
Ces conséquences concernent à la fois :
Conditions climatiques (températures, événements majeurs)
Les températures moyennes de surface sont particulièrement parlantes quant à l’avenir climatique de la planète.
Image 11 : Projection de la variation de température du globe à l’horizon 2100
Par ailleurs, la variation des précipitations devrait être déterminantes pour de nombreux pays dans leur gestion politique et socio-économique du climat : les zones subissant des fortes précipitations vont connaître des précipitations encore plus abondantes et les zones en déficit hydrique subiront des sécheresses encore plus importantes.
Image 12 : Prévision des précipitations annuelles en fonction du scénario climatique retenu
Ce changement au niveau des températures et des précipitations va entraîner une augmentation du nombre d’événements extrêmes (cyclones tropicaux, moussons, tsunamis, etc.).
Ces phénomènes seront renforcés par un niveau de l’océan en augmentation.
Impacts sur l’océan
L’augmentation du niveau marin est due à l’expansion thermique (environ entre 2000 et 2010), mais aussi à la fonte des glaciers.
Pour rappel, les glaciers ne désignent pas la banquise : les glaciers sont les glaces continentales, tandis que la banquise représente les glaces océaniques. La banquise n’influence pas le niveau marin.
Image 13 : Modélisation de l’augmentation du niveau global des océans
Une élévation de par exemple peut sembler faible, mais elle doit être remis dans un contexte géographique.
Image 14 : Modélisation de l’augmentation du niveau marin relatif entre 1901-1920 et 1996-2015
La fonte des glaciers fait augmenter le niveau des mers d’environ à par an. Sous le scénario RCP 2.6, ce taux serait de à par an et pourrait atteindre à par an sous le scénario RCP 8.5 pour l’horizon 2100.
Il est difficile de quantifier l’élévation des mers au-delà de 30 ans. Toutefois, les scientifiques estiment que le volume de glace au niveau des calottes polaires correspondrait en cas de fonte totale à une élévation de du niveau des mers.
La modélisation scientifique a permis de mettre en avant une autre tendance : l’acidification des océans.
Ce constat découle de l’analyse d’un autre paramètre marin : le des océans.
La diminution du des océans est la conséquence directe de l’augmentation du dioxyde de carbone dans l’atmosphère. L’océan en capte une grande part. Entre 1950 et 2018, on constate que le des océans est passéde à .
Le est une échelle logarithmique, donc une petite variation () engendre en réalité une acidification importante.
Image 15 : Modélisation de l’évolution du pH des océans
L’acidification des océans a des impacts majeurs sur l’écosystème marin : l’eau est moins oxygénée, le plancton est fragilisé, déstructurant les chaînes alimentaires qui en découlent.
La stratification des océans va se poursuivre avec l’accumulation de : la couche superficielle de l’océan ne parvient plus à compenser efficacement l’excès de atmosphérique. L’océan supérieur se décharge alors vers l’océan profond, mais à une vitesse très lente, car les mouvements de masse d’eau sont différents entre et de profondeur et au-delà jusque dans les abysses. L’acidification risque ensuite de se généraliser aussi aux profondeurs.
L’acidification,combinée à la hausse des températures de l’océan, est déjà bien visible au niveau des barrières de corail, où les coraux subissent un blanchissement (squelette calcaire sans vie).
L’impact sur les écosystèmes est aussi marqué au niveau terrestre, mais il est plus difficile de prédire comment cela va évoluer. En effet, la hausse des températures et les moindres précipitations sur les forêts pourraient être compensées par un effet de fertilisation du : le dioxyde de carbone étant un produit nécessaire à la photosynthèse, les plantes en ayant plus sont moins limitées pour produire de la matière organique.
La déforestation et l’usage des terres vont impacter négativement la dynamique des biomes forestiers, par diminution des précipitations, augmentations des émissions de GES, mort des sols et donc modifications potentielles des cycles bio-géo-chimiques du carbone et de l’azote par exemple.
Il apparaît alors que les interactions dans la biosphère mais aussi avec les autres compartiments terrestres (atmosphère, hydrosphère, géosphère) engendrent une multitude de paramètres compliqués à régler pour les modèles climatiques.
L’avenir climatique est de mieux en mieux compris et évalué, mais toutefois, la conscience des enjeux climatiques reste le moteur pour poursuivre l’amélioration des modèles. Le GIEC publiera ainsi à partir de 2021 de nouveaux rapports permettant peut-être de mieux évaluer l’impact du climat sur la biosphère par exemple.
Conclusion :
La construction des modèles climatiques est complexe du fait d’une grande quantité de données à intégrer mais aussi à paramétrer. Contraindre un modèle peut se faire d’un point de vue purement climatique, mais aussi d’un point de vue socio-économique. Une confrontation régulière des modèles à la réalité permet d’affiner les résultats et de tendre vers des prévisions toujours plus proches d’une réalité future.
Le GIEC a un rôle majeur dans l’analyse et la synthèse des différents modèles climatiques utilisés à travers le monde. Il permet aussi de fournir des documents ayant fait consensus au sein de la communauté scientifique pour les grands décideurs de ce monde. Les rapports de ces experts permettent une synthèse globale mais aussi régionale qui pourra être investi par les météorologues.
On perçoit la difficulté pour les scientifiques d’anticiper les changements climatiques avec une forte probabilité. Mais il est apparu que les scénarii reposant sur le développement durable sont un chemin à prendre pour limiter le réchauffement climatique. Il faudra garder à l’esprit que cette démarche est un processus par l’humain pour la planète et pour les humainseux-mêmes. En effet, l’augmentation de phénomènes climatiques extrêmes ou l’augmentation du niveau des océans génèrera par exemple de plus en plus de de réfugiés du climat si nous ne faisons rien.