Suivez-nous :

Le sommet de la COP26 (26e Conférence des Parties) se tient en novembre 2021 à Glasgow, Ecosse.

Plus de détails ici. Elle réunit les parties prenantes (gouvernements, ONG …) pour accélérer l’action vers les objectifs de l’Accord de Paris et la Convention cadre des Nations Unies sur le changement climatique.
La  COP 26 est accueillie par le Royaume-Uni en partenariat avec l’Italie, et se tiendra du 31 octobre au 12 novembre 2021 au Scottish Event Campus (SEC) à Glasgow, au Royaume-Uni.

L'Anthropocène, introduction

Le changement climatique et ses impacts sont aujourd’hui une réalité et font partie intégrante des grands enjeux de société. Depuis le début du 20e siècle, on constate, à l’échelle de la planète, une tendance générale à la hausse des températures avec une forte accélération à partir des années 80. Nous allons essayer de comprendre le changement climatique qui est maintenant attribué de manière certaine à l’action humaine. Les émissions croissantes de gaz à effet de serre d’origines anthropiques, dépendant des modes de production et de consommation des sociétés, augmentent artificiellement et massivement leur concentration dans l’atmosphère, et rompent ainsi l’équilibre thermique sur Terre. L’Anthropocène est cette période où les équilibres naturels ont été rompus.

Etudier la paléoclimatologie

Pour étudier l’Anthropocène, il est nécessaire de partir des périodes qui l’ont précédé et qui étaient beaucoup moins impactées par les humains. C’est le travail du paléoclimatologue qui étudie le fonctionnement du climat dans les temps anciens. Avant l’Anthropocène, le climat changeait sous l’action de facteurs naturels liés à l’énergie que la terre reçoit du soleil. Celle-ci change en fonction de la position de la terre par rapport au soleil, mais aussi en fonction de l’activité énergétique du soleil lui-même. Le paléoclimatologue replace les changements anthropiques actuels dans le contexte des changements naturels.

L'Anthropocène, une période géologique

Avec l’Anthropocène, les impacts des activités humaines sont considérés comme une nouvelle époque géologique. Autrement dit, l’incidence de l’être humain sur sa planète est aujourd’hui tellement évident, que le chimiste de l’atmosphère Paul Crutzen, prix Nobel de chimie en 1995, a fait l’hypothèse que cette influence laisserait pour les futurs géologues des traces significatives sur la biosphère. La conséquence serait que la lithosphère (les roches terrestres) en soit aussi marquée. En effet, cette ère géologique pourrait être  définie comme débutant avec la révolution industrielle. Une coupe géologique dont la couche supérieure est pleine  de plastiques et de déchets divers pourrait représenter cette période.

L'Anthropocène, quand a-t-il commencé?

Le problème le plus important est de dater le début de cette période. Les humains ont commencé à avoir une empreinte sur leur environnement il y a très longtemps. Avec l’invention de l’agriculture au début du Néolithique et encore plus avec l’industrialisation au 19e siècle, cette empreinte s’est renforcée.  Depuis les années 50 tout s’est accéléré ! Certains chercheurs pensent que l’invention de l’agriculture a fait augmenter suffisamment les gaz à effet de serre dans l’atmosphère pour contrer le refroidissement naturel auquel le cycle naturel conduisait. Néanmoins, les courbes liées à notre société industrielle démarrent à peu près toutes une croissance exponentielle à partir des années 1950. Il s’agit de la population mondiale, le produit intérieur brut (PIB), la déforestation, l’extension des villes, la consommation d’énergie primaire, l’épuisement des ressources, l’augmentation de la température, et bien d’autres indicateurs.

L'Anthropocène n'est pas le même partout

Il est cependant abusif de généraliser l’anthropocène à l’ensemble de l’humanité, car l’empreinte varie fortement selon le type d’activités humaines et le niveau de vie des protagonistes. L’empreinte d’un africain qui a une vie proche de la nature est relativement faible, par contre celle d’un occidental qui mène un grand train de vie est des centaines de fois plus élevée. Le graphique de surfaces colorées montre que si on cumule les émissions de gaz à effet de serre depuis le début de l’ère industrielle, le continent nord-américain et l’Europe sont les principaux émetteurs avec les deux tiers des émissions globales. L’Asie émet beaucoup à cause de son grand nombre d’habitants mais son développement est récent.  Par contre l’Afrique n’a pas émis plus de 4 % du total.

La température du globe suit la grande accélération

La courbe de température à droite depuis 12 000 ans montre un réchauffement progressif, un peu rapide jusque 8000 ans avant le présent parce qu’accéléré par la fonte des dernières calottes de glace sur le Canada. L’optimum climatique est atteint au milieu de l’Holocène, vers 8000 ans avant le présent. On entre alors dans le Néolithique qui débute avec l’invention de l’agriculture. Selon certaines hypothèses, la déforestation nécessaire à l’implantation des cultures de céréales, des pâturages pour les animaux et la culture du riz provoquent une augmentation des GES comme le dioxyde de carbone (CO2) et le méthane (CH4) qui enclencherait une nouvelle augmentation lente de la température. A partir de la révolution industrielle du 19e siècle et surtout à partir du 20e siècle, les GES augmentent beaucoup plus fortement provoquant une forte hausse de la température. Aujourd’hui, la température serait 2,5°C plus élevée qu’il y a 12 000 ans, correspondant à une augmentation de 160 ppm (parties par millions).

Le réchauffement actuel se distingue des réchauffements passés

C’est vrai que la Terre a connu des périodes chaudes par le passé, il y a 120 000 ans, au milieu de l’Holocène, vers 8000 à 6000 ans avant le présent et plus récemment pendant la période romaine, il y a deux mille ans, et au Moyen-Age, il y a mille ans. Mais pendant ces périodes chaudes, il y avait des endroits frais relativement à leur climat actuel. On avait une grande hétérogénéité spatiale. Prenons l’exemple du milieu de l’Holocène en Europe. Les deux courbes du graphique représentent la température de l’été. En bleu le nord et en rouge le sud. Si l’on avait bien un optimum chaud au nord, avec des valeurs moyennes de +1°C (au dessus de l’actuel), en Europe du sud, c’était -1°C et même moins. Au sud de l’Europe, de belles chênaies tempérées dominaient comme celles qu’on a maintenant plus au nord. Elles ont été remplacées par des forêts plus clairsemées de pins d’Alep et de chênes verts. Le climat tempéré chaud du milieu de l’Holocène a été remplacé par un climat plus sec, qu’on appelle méditerranéen.

Les changements climatique à l'échelle des derniers millions d'années

La théorie orbitale des changements climatiques, élaborée en 1941 par Milankovitch, rend compte de l’alternance des cycles glaciaires et interglaciaires durant les derniers millions d’années. Une glaciation se produit lorsque les hautes latitudes de l’hémisphère nord reçoivent moins de rayonnement solaire durant l’été. Trois paramètres astronomiques jouent un rôle important dans la distribution de l’insolation sous les hautes latitudes – Le premier est l’excentricité de l’orbite terrestre qui est appelée écliptique. L’orbite terrestre est une ellipse, dont le Soleil est l’un des foyers. L’excentricité de l’ellipse exprime l’écart de forme entre l’orbite et le cercle parfait dont l’excentricité est nulle. La période caractéristique de variation du paramètre d’eccentricité est de de l’ordre de 100.000 ans. Quand la terre est plus proche du soleil, il fait plus chaud, quand elle est plus éloignée, il fait plus froid. – Le second paramètre est l’obliquité de l’axe de rotation de la terre. L’angle formé par la direction des pôles et celle de la normale au plan de l’écliptique varie entre 22° et 24,5° suivant une période de 41.000 ans. L’obliquité influence les saisons. En effet, si la Terre est dans une période de forte inclinaison par rapport au Soleil, alors les saisons seront très marquées et à l’inverse une plus faible inclinaison diminue la saisonnalité. Cependant, il faut préciser que ces différences apparaissent seulement lorsque l’on s’éloigne de l’équateur. – Le troisième paramètre est la précession des équinoxes. La Terre tourne sur elle-même telle une toupie. L’axe de rotation de la Terre balaie un cône, mais celui-ci varie avec des périodes autour de 20.000 ans. L’inclinaison de l’axe de rotation terrestre n’affecte pas la quantité totale de chaleur solaire reçue sur Terre, mais sa distribution. En fait la précession est responsable de la date du changement de saisons. Ces paramètres sont périodiques à cause des attractions gravitationnelles exercées par les autres planètes sur la terre. Les courbes de droite montrent bien ces cycles. En rouge, on voit les variations de la précession avec des cycles entre 19 et 24 000 ans. En vert, on voit les variations de l’obliquité avec un cycle de 41 000 ans. En bleu, on voit les variations de l’eccentricité avec des cycles de 95, 125 et 400 mille ans. Ces trois courbes se combinent pour former la courbe de l’insolation reçue à la surface de la terre. Milankovitch a montré que l’insolation d’été à la latitude de 65°N (en jaune) était un paramètre clé pour les variations des calottes de glace. Ainsi dans la carotte de glace issue du forage antarctique de Vostok (en noir), on retrouve ces cycles de Milankovitch. Il reste néanmoins un problème: c’est que la courbe d’insolation (jaune) n’a qu’un très faible cycle de 100 000 ans alors que les alternances glaciaires/interglaciaires se font tous les 100 000 ans. Il faut donc d’autres facteurs amplificateurs pour mieux expliquer ces cycles. Il s’agit de la circulation océanique et le CO2.

Les changements climatique à l'échelle du millénnaire

Nous allons changer d’échelle et explorer les variations climatiques des derniers millénaires. Il s’agit de l’activité du soleil et des volcans. Le bilan énergétique de notre planète dépend principalement du flux d’énergie radiative solaire. C’est ce qu’on appelle l’activité solaire. Cette énergie peut être plus ou moins interceptée par l’atmosphère de la terre en fonction de sa composition. Les aérosols émis par les volcans interceptent partiellement le rayonnement du soleil. Activités solaire et volcanique sont responsables des variations climatiques des derniers millénaires. Les glaciers alpins ont subi des variations historiques que l’on retrouve dans des peintures et des photos. Le peintre Turner qui a représenté quantité de ciels colorés souvent par des éruptions volcaniques a été le témoin de l’éruption du Tambora en Indonésie. Cette éruption a été une des plus violentes éruptions volcaniques jamais connues historiquement, et surtout la plus meurtrière de l’Histoire. La quantité de matière émise a été de 150 km³. En 1816, les moyennes des températures dans l’hémisphère nord baissèrent considérablement. Les cultivateurs d’Europe et d’Amérique du Nord appelèrent cette année-là l’année sans été à l’origine d’une famine qui fit plus de 200 000 victimes. En ce qui concerne le glacier de l’Argentière, la peinture de gauche montre qu’il atteignait le village en 1864. La photo du milieu montre qu’en 1896 il avait sensiblement remonté. Enfin la photo à droite qui date de 1995 montre qu’il est devenu presque inexistant. A la fin du 19e siècle, le glacier a commencé à perdre du volume et cette perte s’est accélérée depuis lors. Au total le glacier de l’Argentière a reculé de 1200 m et perdu 60% de son volume. On a les mêmes conclusions avec de nombreux autres glaciers de par le monde. La plupart ont beaucoup souffert à cause du réchauffement climatique. En fait il y a perte par défaut d’accumulation de glace à cause de la diminution des précipitations neigeuses en hiver et par augmentation de l’ablation en été à cause de températures plus élevées.

L'Activité solaire

Le bilan énergétique de notre planète dépend principalement du flux d’énergie radiative solaire. L’énergie produite par le soleil varie à cause des variations du champ magnétique du Soleil. Les deux facteurs les plus connus sont l’abondance des taches solaires et l’importance du vent solaire. Le Soleil est régulièrement parsemé de taches solaires, plus sombres et facilement visibles avec quelques précautions. Paradoxalement, plus le nombre de taches est élevé, plus le rayonnement solaire est fort. Un cycle de 11 ans a été constaté dans l’apparition de ces taches. Le vent solaire bloque en partie le rayonnement galactique vers la Terre. Notre Soleil connait des soubresauts matérialisé par des éruptions, des protubérances, des éjections de masse coronale, de tempêtes qui dévient les particules cosmiques. La courbe représente le nombre de tâches solaires depuis 1635. On y distingue assez facilement un cycle proche de 11 ans, dont l’amplitude est quelquefois forte et quelquefois quasi nulle. Ces dernières périodes sont appelées minimums. De 1645 à 1715, lors du minimum de Maunder, aussi bien le rayonnement solaire que la température terrestre étaient basses. Le rayonnement solaire avait baissé de 0,25 %. Ceci c’est reproduit de 1795 à 1830 pendant le minimum de Dalton. La 2e partie du 20e siècle est marquée par une forte activité solaire, mais depuis le 21e siècle, celle-ci a tendance à diminuer. Les scientifiques ont pu conclure que les modifications de l’activité solaire, que ce soit à cause des taches ou du vent, ne peut avoir contribué à plus de 10 % au réchauffement planétaire durant le XXe siècle.

L'Activité volcanique

Tout au long de l’histoire de la Terre, les éruptions volcaniques les plus importantes ont été suivies d’un refroidissement de quelques années. Ceci est dû à la grande quantité de dioxyde de soufre (SO2) et de cendres éjectés par ces éruptions volcaniques. Une bonne partie de la poussière et des particules montent jusqu’à la stratosphère, à 20 km d’altitude et plus. Là, les vents sont forts et les aérosols peuvent faire souvent plusieurs fois le tour de la planète. Comme la stratosphère est stable et les mouvements verticaux réduits, les gaz éjectés peuvent y rester pendant plusieurs années. Les cendres qui ont été envoyées dans la haute atmosphère tombent graduellement de la haute stratosphère stable. Ce n’est pas la cendre qui a le plus d’effet sur le climat, c’est le SO2. Quand le SO2 se mélange avec la vapeur d’eau de l’atmosphère, il se transforme en acide sulfurique liquide et devient ce qu’on appelle un “aérosol”, c’est-à-dire de fines gouttelettes de quelques dixièmes de microns de diamètre. Ces aérosols d’acide sulfurique, absorbent et réfléchissent vers l’espace le rayonnement solaire, alors un réchauffement a lieu dans la stratosphère et il peut atteindre quelques degrés au plus fort de la couche. La température de la troposphère a tendance à baisser. Et parfois cela peut durer 2 à 3 ans après l’éruption. Lors de l’éruption du Pinatubo aux Philippines en 1991, pourtant moins forte que celle du Tambora, le refroidissement a duré jusqu’en 1995. Il a été de -0.6°C en 1992 (globalement).

Un réchauffement climatique naturel n'est pas équivalent à un réchauffement climatique anthropogénique

Cette courbe montre la température moyenne mondiale depuis la dernière période glaciaire (20 000 av. J.-C.) jusqu’à un avenir assez proche (2100) selon un scénario d’émissions de GES moyen. On y voit que la transition glaciaire-interglaciaire a commencé entre 17 et 15 mille ans av. JC, soit il y a un peu plus de 17 mille ans. La température maximale est atteinte entre 9000 et 7000 ans av. JC, donc il y a un peu plus que 9000 ans. La prolongation de la courbe jusque 2100 montre que le réchauffement en cours est à peu près équivalent, mais se déroulera sur seulement un siècle. La mappemonde montre que ce réchauffement, qui s’est déroulé pendant 5 à 6000 ans, a été suffisant pour faire disparaître toute la glace de l’hémisphère nord. Actuellement, il ne reste que celle du Groenland. On peut donc apprécier la force d’un réchauffement de 4 à 5°C. La différence est que maintenant, cette valeur de 4°C va s’ajouter à une température déjà élevée d’un interglaciaire, et tout ça en 50 fois moins de temps.

Un réchauffement global de 4°C modifie complétement la végétation mondiale

On a vu qu’un réchauffement de 4°C détruit une grosse partie des calottes glaciaires, mais transforme aussi profondément la végétation de la terre. En Europe, par exemple, durant le glaciaire on avait une steppe comme on en a en Sibérie actuellement ou une toundra comme au nord de la Scandinavie. Le réchauffement a permis aux arbres de couvrir tout le continent. D’ici la fin du siècle, la sécheresse obligera les espèces vivantes qui ne pourront s’adapter à migrer en altitude ou vers les plus hautes latitudes. Celles qui ne pourront pas le faire, mourront. Actuellement, le nord est couvert par de la forêt boréale ; le sud, le long de la Méditerranée, est couvert de végétation sèche ; entre les deux on a de vastes étendues de forêts tempérées. C’est illustré pour la France par la carte 2005. On étudier les projections futures pour la France, entre 2005 et 2100, selon un scénario optimiste (appelé B2 avec de fortes réductions de GES) et un scénario pessimiste (appelé A2 sans réduction). Selon B2, la végétation méditerranéenne (en rouge) va monter au-delà de Lyon, les forêts océaniques du sud-ouest (actuellement composées de pin) vont envahir le reste de la France à l’exception des montagnes et de l’est de la France. Selon le scénario pessimiste A2, la végétation méditerranéenne va couvrir la moitié sud de la France. C’est donc une modification complète des paysages à laquelle on va assister. De plus, il y a 20 mille ans, l’espèce humaine n’avait pas encore inventé l’agriculture. Actuellement l’agriculture est à la base de la vie. D’ici la fin du siècle, les agriculteurs devront profondément transformer leur façon de travailler pour s’adapter et éviter la famine.

Le GIEC

Pour suivre les avancées de la science du climat et éclairer les décideurs, à la fin des années 80, un chercheur assez visionnaire à lancé le GIEC (IPCC en anglais) avec l’Organisation météorologique mondiale (OMM) et sous le patronage du Programme des Nations unies pour l’environnement (PNUE). Il s’agit du suédois Bert Bolin. Le GIEC est un très bel exemple de plateforme de connaissances dont l’équivalent pour d’autres disciplines n’existait pas. Il a été imité depuis par l’IPBES pour la biodiversité. Le GIEC est composé de centaines de scientifiques qui font l’état des connaissances sur le changement climatique, ses impacts, les solutions d’atténuation et d’adaptation. Il publie des rapports détaillés tous les 6-7 ans et un résumé pour les décideurs et le public. Ces rapports sont passés au crible par d’autres experts afin de détecter les erreurs et d’améliorer le contenu. Il définit également des scénarios pour le futur et qui sont utilisés depuis l’échelle globale jusque l’échelle régionale. Le dernier rapport est sorti en 2013-2014. C’est le 5e depuis la fondation du GIEC en 1988. Le 6e rapport sortira en 2022. Entretemps le GIEC a publié trois rapports spéciaux. Le premier en octobre 2018 sur le gain qu’il y aurait à limiter le réchauffement global à 1.5°C au lieu de 2°C par rapport à l’ère pré-industrielle. Le second, publié en aout 2019 sur les terres émergées et le 3e en septembre 2019 sur l’océan et la cryosphère. Ces rapports servent de base scientifique pour éclairer les négociations annuelles organisées également par l’ONU. Ces réunions annuelles des dirigeants de tous les pays de l’ONU sont appelées les Conférences des Parties (COP). La plus fameuse est la COP21 qui a permis de signer l’Accord de Paris en 2015. On y reviendra plus loin. Parmi les nombreux apports du GIEC, figurent les scénarios pour les siècles futurs qui permettent d’établir des projections climatiques qui, même si elles se sont affinées au cours du temps, ont toujours été cohérentes entre elles. Elles sont basées sur des modèles climatiques qui sont de gros logiciels informatiques qui tournent sur des ordinateurs parmi les plus puissants au monde.

Voir https://www.ipcc.ch/site/assets/uploads/2018/04/FS_what_ipcc_fr.pdf

Voir aussi: https://jancovici.com/changement-climatique/croire-les-scientifiques/quest-ce-que-le-giec/

L'effet de serre naturel et son augmentation par les humains

L’effet de serre est un phénomène naturel qui permet à notre planète de retenir une partie de la chaleur solaire dans son atmosphère et ainsi de maintenir une température qui permet la vie. La moitié du rayonnement visible et ultraviolet du soleil arrive au sol qui en conséquence se réchauffe et émet des infrarouges. En effet la longueur d’onde du rayonnement dépend de la température du corps qui l’émet : comme le sol est beaucoup moins chaud que le soleil, il émet dans une gamme de longueurs d’onde beaucoup plus basses. La partie réfléchie du rayonnement solaire est due au pouvoir d’albédo de la surface qui le reçoit. L’atmosphère est réchauffée par le sol et non pas directement par le soleil. Cela se fait par convection : les couches réchauffées au contact du sol montent dans l’atmosphère et prennent la place des couches plus froides situées au-dessus. Cela se fait également par rayonnement : certaines molécules de l’atmosphère ont la propriété de bloquer le rayonnement infrarouge. Si la composition de l’atmosphère est stable, notre planète a une température stable. Sans atmosphère, cette température serait de -18°C, grâce à l’effet de serre, elle est de +15°C. Mais la composition de l’atmosphère n’est pas stable car depuis la révolution industrielle, les humains ont ajouté des gaz dans l’atmosphère qui augmentent l’effet de serre. C’est donc le processus de rayonnement qui est altéré et non celui de convection. Ces principaux gaz sont présentés en rouge dans l’histogramme. Ils ont pour effet d’augmenter la température. En bleu, les aérosols anthropogéniques émis par nos industries et nos voitures ont un effet similaire à celui des volcans : ils diminuent la température. La barre orange représente la résultante qui est très positive. A comparer avec la barre « irradiance solaire » correspondant à l’activité solaire dont l’importance est faible par rapport à l’effet anthropique.

L'effet de serre est connu depuis longtemps

Penchons-nous un peu sur la découverte de l’effet de serre. Le premier à l’avoir étudié est Fourier en 1824. Il avait compris que notre atmosphère piège de la chaleur et que sans ce piège, elle serait glaciale. 40 ans plus tard, l’américaine Eunice Foote découvre l’effet de la vapeur d’eau et du CO2 qui retiennent plus de chaleur que les autres gaz. Mais ses travaux sont tombés dans l’oubli jusque récemment, probablement parce que c’était une femme. Trois ans plus tard, l’anglais Tyndall précise et confirme sa théorie. L’histoire ne retiendra que lui. Enfin, en 1889, le suédois Arrhenius est arrivé à la conclusion que le CO2 émis en excès par les humains peut augmenter la température de 4°C si on double sa concentration. Cela fait donc 130 ans que les scientifiques savent que l’augmentation du CO2 va induire un réchauffement de la terre mais ils n’ont pas réussi à convaincre les politiques. C’est Keeling qui le premier entreprit de mesurer le CO2 en 1958, à l’observatoire de Mauna Loa d’Hawai. La courbe montre bien une tendance de 300 ppm à plus de 400 ppm, c’est-à-dire parties par millions en volume (400 ppm veut dire 0.04%). Sa concentration est faible mais ce gaz est très actif. On observe également un cycle annuel. Il y a un pic de CO2 au début de la période végétative (mai) et un minimum à la fin de la saison (septembre/octobre). Ces deux extrema correspondent au pompage et au relargage annuels de gaz carbonique opérés par la biosphère. Au printemps, la végétation de l’hémisphère nord (dont la superficie est dominante par rapport à l’hémisphère sud) photosynthétise et absorbe du carbone, ce qui fait diminuer la courbe à partir du mois de mai. Quand on arrive en octobre, la photosynthèse se ralentit et le CO2 atmosphérique recommence à augmenter.

Quels sont les gaz à effet de serre?

Pour être un gaz à effet de serre (GES), la molécule doit avoir au moins trois atomes. En dessous, elle n’est pas capables d’intercepter le rayonnement infrarouge. Plutôt que d’appeler ça effet de serre, les climatologues préfèrent parler de forçage radiatif. L’oxygène et l’azote constituent respectivement 20,9 et 78,1 % de l’atmosphère, mais ils n’ont que deux atomes et sont donc inactifs. L’argon en fait 0.9 % et est également inactif. Le GES le plus important est la vapeur d’eau (H2O) avec ses 0,25 % en moyenne. Son activité de GES est limitée car elle ne reste que quelques jours dans l’atmosphère en changeant facilement de phase. Le GES le plus actif est le CO2 qui n’est présent qu’à 0,04 % (400 ppm). Quand on exprime l’évolution des températures annuelles globales en fonction de la concentration en CO2 (graphique), on obtient une loi quasi-linéaire. Ceci démontre bien que l’augmentation des GES réchauffe le climat.

Quelles sont nos activités qui augmentent les gaz à effet de serre?

Le CO2 est produit par les énergies fossiles (charbon, pétrole, gaz naturel) et la déforestation ; il reste une centaine d’années dans l’atmosphère. Les autres GES sont le méthane (CH4) et le protoxyde d’azote (N2O). Le CH4 est produit par l’agriculture et les déchets et reste 12 ans dans l’atmosphère. Le N2O est également produit par notre agriculture (engrais) et reste 120 ans l’atmosphère. Il y a d’autres gaz produits par l’industrie comme les halocarbures et gaz fluorés qui ont une durée de vie qui se chiffre en dizaines de milliers d’années. Tout le CO2 émis par les activités humaines ne reste pas dans l’atmosphère (graphique de droite). Heureusement, la moitié, à peu près, est captée par ce qu’on appelle des puits de carbone. L’évolution positive depuis 1960 des sources de CO2 sont représentées en gris. Elle est due à l’augmentation de la consommation en énergie fossile (gris foncé) et à l’augmentation de la déforestation (gris clair). Parmi les puits, c’est à dire les réservoirs de stockage du CO2, le plus régulier est l’océan, en bleu foncé.Il absorbe à peu près 25% des émissions.  Ensuite la biosphère continentale, en vert, est irrégulière car sa capacité de stockage dépend du climat (pluies, sécheresses). Le reste, soit 50%, est retenu par l’atmosphère. Tous ces réservoirs ont vu leur capacité augmenter depuis 1960. Mais ça pourrait ne pas durer.

Des effets de rupture sont à craindre: les pergélisols et les clathrates

Nous avons parlé de GES anthropogéniques, mais le réchauffement peut engendrer des déstockages de gaz présents naturellement dans les sols et les océans. Le premier compartiment à haut risque est le pergélisol (permafrost en anglais). C’est un morceau de sous-sol gelé pendant plus de deux années consécutives. Une grande partie est gelée de façon permanente. On le trouve environ aux hautes latitudes et en haute montagne. Il recouvre aujourd’hui environ un quart de notre hémisphère Nord. Il retient d’immenses quantités de carbone et quelques virus et bactéries en sommeil. Le dégel du permafrost pourrait bien accélérer encore un peu plus le réchauffement climatique en libérant dans l’atmosphère une grande quantité de gaz à effet de serre (CO2, CH4). C’est ce qu’on appelle une rétroaction positive. Le dessin montre bien ce processus en quatre temps. Le pergélisol renferme pas moins de 1700 Gt de carbone, soit plus que les forêts (1120 Gt) et plus du double de l’atmosphère (750 Gt). Il reste néanmoins une grande incertitude sur l’évaluation de ces quantités. La fonte du permafrost, qui abrite des bactéries et des virus parfois oubliés, représente aussi une menace sanitaire. Il existe également des stocks de CH4 dans les océans. On les appelle les clathrates. On les trouve sous forme d’hydrates de méthane dans les sédiments océaniques profonds et surtout au niveau des talus continentaux à des profondeurs de quelques centaines de mètres. Ils ont été formés par des dépôts de matière organique (végétation) dans les sédiments et transformés par des bactéries. On estime le stock de 500 à 2500 Gt de carbone. Ils sont très instables quand leur température dépasse un certain seuil et le changement climatique pourrait également favoriser des dégazages et exercer également une rétroaction positive.

Depuis les années 70, de nouveaux records de température sont sans cess battus

La période pré-industrielle est située au 18e siècle avant l’invention de la machine à vapeur qui a signé le coup d’envoi de l’utilisation du charbon à l’échelle industrielle. On n’a que peu de données météorologiques pour cette période. On considère que la période 1850-1880 dont la température a peu changé depuis le 18e siècle peut faire l’affaire pour représenter la période pré-industrielle. On s’aperçoit que la température a cessé d’osciller autour de cette valeur de référence à partir des années 1920. On a une première hausse de l’ordre de 0.3°C entre 1920 et 1950, ensuite une légère baisse. Depuis la fin des années 70, on assiste à une hausse continue. Le record du 20e siècle (+0.84°C) est 1998. Il a depuis été battu ensuite par toutes les années depuis 2015. Le record actuel est détenu par 2016. Si on regarde la tendance qui est de 0,18°C/décennie depuis 1980, on voit qu’on a atteint en moyenne la valeur de +1,1°C en 2020 et si on extrapole cette tendance jusque 2100, la valeur de 1,5°C fixée par l’Accord de Paris sera dépassée en 2040 et la valeur de +2°C vers 2070. Si on restreint cette évolution aux terres émergées qui sont somme toute l’endroit où nous vivons, on est déjà à +1,53°C de réchauffement.

On peut attribuer sans erreur le réchauffement actuel aux émissions de GES

La courbe de la température globale semble avoir marqué une pause au début du 20e siècle, c’est ce que disent les négateurs du changement climatique (appelés aussi abusivement climatosceptiques) qui ont fait remarquer que si les GES (qui eux n’ont pas marqué de pause) étaient responsables du réchauffement, cette pause n’aurait pas du exister. Leur conception du système climatique est simpliste. L’océan par exemple joue un rôle majeur puisqu’il stocke 93 % de la chaleur excédentaire. Il peut temporairement en stocker plus ou moins. Par exemple l’année 1998 était une année dite « El Nino » pendant laquelle le Pacifique se réchauffe anormalement en surface et avec lui de nombreuses régions intertropicales. Cette année a donc été très chaude, ce qui explique pourquoi elle a battu tous les records à cette date. Par la suite, l’océan a repris son rôle de tampon jusqu’au « El Nino » de 2013 qui a été également très puissant. C’est à ce moment que la pause apparente s’est arrêtée. Par la suite toutes les années suivantes ont été nettement plus chaudes que 1998. Il ne faut pas oublier également les éruptions volcaniques qui peuvent également refroidir le climat temporairement. D’ailleurs les climatologues ont fait une expérience sur ordinateur. Avec leur modèles climatiques sur lesquels on reviendra plus tard, ils ont montré que si on ne prend en compte que les facteurs naturels, à savoir les activités solaire et volcanique, le climat ne se réchauffe pas à partir des années 80. C’est la courbe en bleu à droite. Pour pouvoir reproduire la courbe réelle de la température en noir, il faut y ajouter les émissions de GES. Alors on obtient la courbe rouge qui suit d’assez près les observations. Les surfaces bleues et rouges reproduisent les incertitudes de la modélisation.

Qu'est-ce qu'un modèle climatique ?

Les modèles climatiques, qu’on appelle maintenant les modèles du système terre parce qu’ils essaient d’englober l’ensemble des processus de surface de la Terre, sont des gros programmes informatiques tournant sur des ordinateurs parmi les plus puissants au monde. A partie d’entrées qui permettent de guider les simulations, ils produisent des résultats permettant de suivre l’évolution du climat de la Terre et aussi plein d’autres variables importantes pour nos écosystèmes et les sociétés humaines.
Les entrées du modèle, qu’on appelle aussi forçages, sont d’une part des processus naturels comme l’activité solaire, le volcanisme et l’orbite de la terre, et d’autre part des processus anthropiques comme les émissions de GES, les polluants chimiques et l’occupation des sols. Les processus anthropiques sont incertains : ils dépendent du type de développement économique choisi par nos sociétés et de l’augmentation de la population. Il faut faire des hypothèses et établir des scénarios.

Le travail de modélisation consiste tout d’abord à couvrir la Terre (terres et océans) d’un maillage tri-dimensionnel. On écrit alors, aux nœuds de ce maillage, des équations d’évolution qui permettent, d’un pas de temps à l’autre, de faire varier des paramètres tels que la pression, la température, les vents ou les courants. Il inclut des compartiments essentiels tels que la glace de mer, la surface des continents avec sa végétation, les glaciers de montagne et les calottes polaires. Il doit aussi représenter les processus physiques de petite échelle comme les nuages. Ces derniers sont représentés de manière statistique ce qui est une source d’incertitude non négligeable
La résolution spatiale du maillage des modèles a évolué au fil du temps : pour la partie atmosphérique, il est passé de 500 km environ, dans les années 1980, à souvent moins de 100 km aujourd’hui. Pour les océans, le maillage est plus fin car la taille des tourbillons océaniques est plus petite que celle des grands systèmes de la circulation atmosphérique. Le « pas de temps » des modèles atmosphériques doit au contraire être beaucoup plus petit que celui des modèles océaniques car les vents circulent beaucoup plus vite que les courants marins : les modèles atmosphériques évoluent souvent de demi-heure en demi-heure environ, et les modèles océaniques de jour en jour.
Les processus anthropiques sont à l’origine des plus grandes incertitudes. Pour le 5e rapport du GIEC, les scientifiques ont défini des profils représentatifs d’évolution de concentration de gaz à effet de serre: les RCP (Representative Concentration Pathways). Les sorties du modèle sont les différentes variables qui déterminent le climat de la terre, et donc l’évolution des écosystèmes et des sociétés humaines (économie, santé)

Les trajectoires d'émission des GES et les scénarios du GIEC

Les trajectoires décrivent différents types de choix socio-économiques qui vont déterminer l’évolution du climat. A ce jour ils sont au nombre de quatre. Le scénario le plus pessimiste est le RCP8.5 qui est le scénario « business as usual »: on continue sur la même lancée qu’actuellement, ce qui conduira à plus de 1350 ppmv (parties par millions ou en millioniemes par unité de volume) eqCO2 (incluant l’ensemble des autres GES ramenés en équivalent CO2) en 2100 avec un forçage radiatif égal à 8,5 w/m2 qui conduira à un réchauffement de 3 à 5°C. Sautons immédiatement au scénario le plus optimiste, appelé RCP2.6, qui suppose des efforts de réduction des GES radicaux. Alors que la concentration en CO2 est actuellement de plus de 410 ppmv, dans le futur il ne faudra pas dépasser cette valeur de CO2 et de 450 ppmv en eqCO2. Le forçage radiatif sera alors au maximum 2,6 w/m². Cela permettra de limiter le réchauffement à 1,5°C ou 2°C. Il existe deux scenarios intermédiaires, le RCP4.5 qui stabilisera les concentrations de façon à maintenir le forçage radiatif à 4.5 w/m2, ce qui stabilisera la concentration des GES à 650 ppmv et le RCP6 qui stabiilsera le FR à 6 w/m2, ce qui correspondra a une concentration des GES de 850 ppmv en 2100. À partir de ces trajectoires de référence, les équipes travaillent simultanément et en parallèle: les climatologues produisent des projections climatiques utilisant les RCP comme entrée, tandis que les sociologues et les économistes élaborent des scénarios débouchant, en sortie sur des émissions de gaz à effet de serre cohérents avec les RCP. Il s’agit d’expliciter comment on peut réaliser ces trajectoires.

Quels facteurs socio-économiques se cachent derrière ces scénarios?

Chacun des quatre scénarios sont basés sur des trajectoires d’émissions de GES qui dépendent du PIB mondial, de la population mondiale, de la dépendance aux énergies fossiles etc. La population augmente le plus fortement (jusque 12 milliards d’habitants) pour le scénario RCP8.5. La relation au PIB est plus complexe: il est supposé que le PIB augmentera plus si on construit une économie plus verte. D’autres facteurs déterminent également les émissions des gaz à effet de serre. Nous n’allons pas les détailler ici. Il est plus intéressant d’examiner les trajectoires des émissions selon ces quatre scénarios. La courbe noire depuis l’époque pré-industrielle au 18e siècle jusque maintenant est basée sur des données réelles. Les courbes colorées sont basées sur des hypothèses. Pour le RCP2.6, les émissions de CO2 devront se réduire de 10 Gt/an en 2020 à des valeurs négatives en 2100. C’est-à-dire qu’il faudra en capturer plus que ce qu’on en émet, par un reboisement et par d’autres méthodes aptes, par exemple, à permettre le stockage du carbone dans les sols et dans les océans. Les autres scénarios vont s’étaler entre 5 et 28 GT/an d’émission en 2100. Seul le RCP8.5 ne conduira pas à une diminution des émissions. La trajectoire se ralentira néanmoins un peu durant la 2e moitié du 21e siècle, car les ressources fossiles sont limitées. Logiquement le scénario le moins émetteur (RCP2.6) conduira à un moins fort réchauffement que les autres. La gamme de réchauffements variera entre +2°C et +6°C.

La montée des mers: 10 cm ça compte quand on habite près de l'eau

Une autre question qu’on pourrait se poser est la suivante: Y-a-t-il une différence de risques significative entre 1,5°C et 2°C? C’est la question à laquelle le GIEC a répondu dans son rapport spécial sur le réchauffement global à 1,5°C (SR1.5). On peut l’étudier en regardant l’effet respectif de ces deux seuils sur l’augmentation du niveau de la mer. L’évolution respective de la température globale des deux scénarios conduisant à un réchauffement de 1,5°C et un réchauffement de 2°C est présentée dans les deux graphiques supérieurs. L’évolution correspondante du niveau des mers est présentée dans les deux graphiques inférieurs. Dans le premier cas, le niveau des océans aura une augmentation de 40 cm (avec une incertitude de 10 cm) en 2100. Dans le second cas, il aura une augmentation de 50 cm (avec une incertitude de 15 cm) Pour une différence de 0,5°C du réchauffement global, la vitesse d’augmentation en 2080-2100 passera de 4 mm/an à 5.5 mm/an. C’est très significatif et cela aura un impact majeur pour les populations vivant sur le littoral. Cela explique pourquoi les représentants des îles ont tenu à inscrire le +1,5°C dans l’Accord de Paris. Parler de niveau moyen ne suffit pas. Il faut regarder la variabilité qui se cache derrière, c’est-à-dire les marées, les vagues, les tempêtes, les crues liées aux fortes pluies … et tout ça mis ensemble, ça peut faire des différences importantes. Regardons le dessin de gauche. On a le niveau marin normal avec une surcôte qui peut survenir annuellement et une plus grande surcote encore qui peut arriver une fois par siècle. Cette dernière conduit à un débordement (une inondation) tous les 100 ans en moyenne. Si on monte le niveau moyen de 10 cm, le niveau de surcote annuel deviendra un niveau de débordement et le niveau centennal deviendra un niveau de fort débordement. Ce ne sera plus possible de vivre à une petite distance du littoral, puisque cette zone sera inondée une fois par an.

Les événements extrêmes

Une moyenne spatiale cache aussi une variabilité locale. Ainsi, un réchauffement moyen de 5°C a conduit dans le passé, lors du passage glaciaire-interglaciaire à un réchauffement de 12 à 20°C aux hautes latitudes et un réchauffement de 2 à 3°C aux basses latitudes. Les conséquences ont été majeures puisque ça a conduit à la fonte de grandes masses de glace. De même dans le scénario pessimiste RCP8.5, il faut s’attendre à des conséquences majeures aux hautes latitudes C’est la même chose pour la variabilité temporelle. On va déplorer des événements ponctuels catastrophiques, qu’on appelle des événements extrêmes. Il s’agit de canicules et de fortes pluies. Ces événements arrivent déjà indépendamment du réchauffement climatique, mais ils risquent d’arriver plus souvent avec des intensités plus fortes. Prenons le cas des canicules, le premier graphique dépeint bien la situation. Les barres verticales situent les différentes années sur l’axe des températures. On voit que la canicule de 2003 en Europe avec ses 23°C est complètement décalée à droite. Si on trace la courbe de probabilité de ces températures, la valeur la plus probable se situe aux alentours de 19°C et une température de 23°C est extrémement rare. De même une année comme 1956 avec ses 17.5°C est assez rare également. Si on décale cette courbe de probabilité de +4°C, on voit que la température qu’on a eue en 2003 devient la plus probable et que la probabilité d’avoir des températures de plus de 25°C n’est pas négligeable. On va donc avoir des extrêmes plus chauds et plus fréquents. Avec le réchauffement climatique, on va avoir une mer Méditerranée de plus en plus chaude et des épisodes méditerranéens plus fréquents et plus intense (second graphique). En automne, à cause de son inertie, elle reste plus chaude que le continent qui a déjà commencé à refroidir. Une masse d’air qui passe au-dessus de la mer va se charger en humidité (évaporation de l’eau) et quand elle arrive sur le continent, elle est contrainte à s’élever par le relief, cela donne des gros nuages d’orage (cumulo-nimbus) et des fortes pluies pouvant aller jusque 500 mm/jour. On appelle cela des épisodes méditerranéens qui seront d’autant plus intenses et plus fréquents que la mer sera chaude. En général ces épisodes font de gros dégats amplifiés par l’artificialisation des sols (ruissellements, glissements de terrain).

Un demi-degré ça compte énormément

A suite du rapport spécial SR1.5, le monde a été alerté par le fait qu’un monde 2°C plus chaud était sujet à des risques bien plus importants qu’un monde 1,5°C plus chaud. Chaque demi-degré compte nous dit le GIEC. Cette infographie produite par le journal La Monde synthétise bien la situation :

  • Canicules : 1°C plus chaudes en passant de 1,5°C à 2°C
  • Coraux tropicaux : 70 % des récifs coraliens perdus en 2100 vs une perte quasi totale avec +2°C
  • Banquise arctique : étés libres de glace au moins une fois par siècle vs une fois par décennie avec +2°C, c’est donc un facteur 10 en fréquence
  • Pêches : une perte de 1,5 millions de tonnes vs 3 millions, c’est donc un facteur 2
  • Montée du niveau de la mer : une élévation de 26-77 cm en 2100, 10 cm de plus et 10 M personnes menacées de plus avec +2°C
  • Pluies torrentielles : risque plus fort surtout aux hautes latitudes, Asie de l’est et Amérique du nord.
  • Biodiversité : -6 % d’insectes vs -18 %; -8 % de plantes vs -16 %; -4 % de vertébrés vs -8 % seront affectés, c’est donc un facteur 2 à 3 selon les groupes.
  • Agriculture : chaque demi-degré va conduire à des récoltes plus faibles avec un contenu nitrutionel amoindri dans les régions tropicales

Les couts sont particulièrement importants dans les pays pauvres

Des points de bascule et des points de non retour

Si on dépasse le seuil de 1,5°C ou 2°C, pourra-t-on revenir en arrière ? Au niveau de la température et de certains impacts oui, mais certaines conséquences seront irréversibles. Les espèces disparues ne reviendront pas, la glace continentale fondue ne reviendra pas. Les forêts brulées mettront des dizaines d’années à repousser. Quand elle est perturbée, la planète est à certains égards en équilibre instable et si la perturbation se renforce, le risque est grand qu’elle rentre dans un autre équilibre duquel elle ne pourra pas sortir sans une forte perturbation inverse. Ces points de déséquilibre sont alors des points de rupture ou des points de bifurcation (tipping points). Des chercheurs comme Lenton ont synthétisé ces points qui sont variables selon l’endroit. Il s’est basé sur notre connaissance des événements du passé. Par exemple la fonte des calottes de glace du Groenland et/ou de l’Antarctique, la disparition de la forêt boréale, le dégel du pergélisol, la disparition des forêts intertropicales, le verdissement du Sahara, la modification du système El Nino, la modification du système de mousson indienne et/ou ouest-africaine, le trou d’ozone, le changement de formation des eaux profondes en Atlantique du Nord et/ou en Antarctique. Si tout ou une partie de ces bifurcations survenaient, le système climatique basculerait dans un état très différent de l’actuel, comme cela a pu arriver durant les époques glaciaires.

Les Conférences des Parties (COP) et le Protocole de Kyoto

Tout le monde n’est pas inactif devant ces changements globaux. A la suite des mises en garde du GIEC, l’ONU essaie depuis 26 ans d’organiser des négociations sous forme de Conférences de Parties (COP) dans le cadre de la Convention-Cadre des Nations Unies sur les Changements Climatiques (mise en place en 1992 au Sommet de la Terre de Rio). La première a eu lieu à Berlin en 1995. C’est notamment lors de ces COP que les États signataires peuvent entériner des accords sur la réduction des émissions de GES. Ils évaluent également à ces occasions l’évolution de leurs engagements et de l’application de la convention-cadre. Les COP réunissent aussi des acteurs non-étatiques : collectivités territoriales, ONG, scientifiques, etc. A l’occasion de la 3e COP en 1997, le Protocole de Kyoto a été signé : 37 pays développés se sont engagés à réduire leurs émissions de 5% en moyenne sur la période 2008-2012 par rapport aux niveaux de 1990. Seuls les pays développés responsables des émissions passées étaient astreints à réduire leurs émissions, comme le montre la carte. Lors du très médiatisé sommet de Copenhague en 2009 (COP15), aucun accord global n’a en revanche été trouvé. En 2012, l’Amendement de Doha (« COP18 ») a prolongé le Protocole de Kyoto. Il porte sur la période 2013-2020 et prévoit pour les pays engagés une réduction moyenne de 18% de leurs émissions par rapport à 1990.

La COP21 et l'Accord de Paris

La COP21, qui s’est tenue à Paris en décembre 2015, a permis de conclure un accord engageant 195 États à réduire leurs émisisons de gaz à effet de serre. Le dit accord « de Paris » est depuis entré en vigueur le 4 novembre 2016. On peut considérer que l’Accord de Paris est global mais il n’est pas contraignant, contrairement au Protocole de Kyoto. Les promoteurs de l’Accord espèrent que la pression du “qu’en dira-t-on” sera suffisante pour que chaque pays l’applique et renforce ses promesses de réduction des GES. Les COP suivantes se sont déroulées à Marrakech en novembre 2016 (« COP22 »), à Bonn en novembre 2017 (« COP23 », présidée par les îles Fidji) et à Katowice en décembre 2018 (« COP 24 »). La COP25 s’est déroulée en décembre 2019 à Madrid (elle devait initialement se déroule au Chili, à Santiago) et la COP26 a lieu à Glasgow en novembre 2021, retardée d’un an à cause de la crise de la COVID. Lors de la COP21 en décembre 2015, les gouvernements, sous l’égide des Nations Unies, se sont engagées à ne pas dépasser un réchauffement global de 2°C et si possible 1.5°C par rapport à la période industrielle. Grosso-modo, il s’agit de suivre la trajectoire du RCP2.6 qui donnera sans doute un réchauffement global entre 1.5 et 2°C. En réalité nous sommes toujours sur la trajectoire du RCP8.5, mais on peut espérer que les efforts promis par les gouvernements permettront de se rapprocher du RCP4.5, avec un réchauffement global de l’ordre de 3°C, ce qui est encore beaucoup trop chaud.

Comment réduire nos émissions de carbone: sobriété, efficacité, solutions basées sur la nature

Arriver à la neutralité carbone qu’implique de gros efforts de réduction de l’utilisation des énergies fossiles en les remplaçant par des énergies renouvelables, en augmentant l’efficacité énergétique et en poussant à la sobriété, mais on sait que ce ne sera pas suffisant sans compensation par une capture d’une partie carbone émis depuis l’ère industrielle. C’est ce qu’on appelle des émissions négatives. Cette capture peut être basée sur des nouvelles technologies dont les effets secondaires sont mal connus ou bien en mimant la nature qui nous offre une palette de solutions. Le GIEC préconise cette dernière approche. Le graphique de gauche montre comment le scénario peut être mis en place en visant la suppression des fossiles en 2050. Le scénario tendanciel étudié par l’association négaWatt pour la France suppose de remplacer les énergies fossiles par des énergies renouvelables, alors que le scénario négaWatt veut promouvoir la sobriété et l’efficacité énergétique pour réduire fortement la demande énergétique. Il vise une diminution significative de l’ensemble des impacts environnementaux et des risques technologiques associés plus ou moins directement à notre système énergétique. La mise en place de solutions fondées sur la nature intégre l’adaptation au changement climatique et l’atténuation du réchauffement. Il s’agit de rendre leur résilience aux écosystèmes par une restauration des écosystèmes dégradés, une gestion durable et une protection afin de répondre aux défis actuels. Il s’agit de considérer le bien-être humain et les bénéfices pour la biodiversité qui eux-mêmes d’ailleurs se traduiront en services écosystémiques.

Quelques messages liés à l'agriculture et l'alimentation

En ce qui concerne l’atténuation du changement climatique, il y a deux solutions souvent pointées : planter des arbres et restaurer les sols dégradés. Dans les deux cas, il faut imiter la nature, ce qui permettra également de favoriser la biodiversité. Voici quelques messages à ce sujet :

  • Afforestation et reforestation permettent de produire des bioénergies qui finiront par stocker du carbone si on est capable de le capturer et de le stocker (solutions BECCS).
  • La déforestation et la destruction des zones humides correspondent à 15% des émissions
  • Les pertes agricoles et les déchets alimentaires (qui représentent 25% de la production) sont responsables de 8-10% des émissions
  • La promotion de l’agroforesterie et une meilleure gestion des feux permettraient de réduire les émissions et de stocker beaucoup de carbone
  • Amélioration des sols par l’agroécologie permet de stocker du carbone tout en fournissant une nourriture plus saine (programme 4‰)
  • Les régimes alimentaires basés sur les céréales, fruits et légumes de saison sont 10 à 100 fois moins émetteurs de carbone que les régimes basés sur la viande (ruminants + rizières = 50% des émissions de méthane)
  • La plupart des solutions fondées sur la nature ont des retombées positives sur la santé et la biodiversité; elles réduisent les températures extrêmes pendant l’été
  • Importance de la petite échelle: les solutions BECCS à grande échelle auront des effets négatifs clair (il faut 5 M km2 de boisement pour limiter la température à 2°C, soit 8x France)
  • Ces solutions doivent donc venir en appui aux solutions de réduction des émissions

Agrandir la cuve ou fermer le robinet ?

Le dessin à gauche peut nous aider à comprendre les efforts qu’il reste à faire pour satisfaire les Accords de Paris. Depuis la révolution industrielle, nous avons émis un cumul de 2200+320 Gt de dioxyde de carbone (CO2). Il nous reste 580 Gt (420 à 840 Gt) à émettre pour atteindre le seuil de +1.5°C et 1500 Gt (1170-2030 Gt) pour atteindre le seuil de +2°C. Si on n’agit pas, c’est parce qu’on pense qu’on peut agrandir la marmite avec des méthodes technologiques que nos industriels aiment développer. Mais est-ce possible? Il vaut sans doute mieux couper le robinet, ou du moins réduire sa pression par des politiques de réduction des émissions de GES. La figure de droite représente différents scénarios de réduction des émissions en partant de 2000 à 2030. La courbe noire jusque 2019 présente les émissions réelles. Elles ont continué à grossir, même si c’est avec une vitesse plus réduite depuis 2015. La première courbe verte nous indique que si on avait commencé à réduire nos émissions en 2000, ll aurait suffi de les diminuer de 4% par an et on serait arrivé bien tranquillement à zero émission en 2100 pour limiter le réchauffement à 1,5°C. On est en 2020 et c’est juré, on va faire un régime amaigrissant, mais ce n’est plus 4 % mais une décroissance de 7,6 %/an qu’il faut s’imposer. Si on tarde encore, ce ne sera plus possible de retser en dessous de +1,5°C. SI on se contente de 2°C, en 2000 c’était une diminution annuelle de 2 % et en 2030 c’est 9 %/an. Une conclusion importante du rapport du GIEC sur le réchauffement à 1.5°C est que, pour contenir le réchauffement global à +1.5°C, les émissions de CO2 devraient atteindre le “net zéro” vers 2050 [ce serait 2075 pour le seuil de 2°C]. Quand on parle de net zero, cela veut dire que toute émission doit être contrebalancée par une absorption équivalente (par exemple par les forêts ou les sols). Plus on tarde, plus il faudra mettre en oeuvre des moyens technologiques importants soit pour extraire du CO2 de l’atmosphère, soit pour capturer une fraction de l’énergie du soleil avant qu’elle n’atteigne la surface de la terre. Comme ces moyens hautement technologiques peuvent avoir des effets secondaires imprévibles, il vaut mieux les éviter et réduire au maximum les gaspillages d’énergie, privilégier les énergies renouvelables et capturer du carbone par des méthodes basées sur la nature.

On peut encore y arriver: la parabole de la marmite

Le premier peut nous aider à comprendre les efforts qu’il reste à faire pour satisfaire les Accords de Paris. Depuis la révolution industrielle, nous avons émis un cumul de 2200+320 Gt de dioxyde de carbone (CO2). Il nous reste 580 Gt (420 à 840 Gt) à émettre pour atteindre le seuil de +1.5°C et 1500 Gt (1170-2030 Gt) pour atteindre le seuil de +2°C. Si on n’agit pas, c’est parce qu’on pense qu’on peut agrandir la marmite avec des méthodes technologiques que nos industriels aiment développer. Mais est-ce possible? Il vaut sans doute mieux couper le robinet, ou du moins réduire sa pression par des politiques de réduction des émissions de GES.
Le second dessin  représente différents scénarios de réduction des émissions en partant de 2000 à 2030. La courbe noire jusque 2019 présente les émissions réelles. Elles ont continué à grossir, même si c’est avec une vitesse plus réduite depuis 2015.
La première courbe verte nous indique que si on avait commencé à réduire nos émissions en 2000, ll aurait suffi de les diminuer de 4% par an et on serait arrivé bien tranquillement à zero émission en 2100 pour limiter le réchauffement à 1,5°C. On est en 2020 et c’est juré, on va faire un régime amaigrissant, mais ce n’est plus 4 % mais une décroissance de 7,6 %/an qu’il faut s’imposer. Si on tarde encore, ce ne sera plus possible de rester en dessous de +1,5°C. SI on se contente de 2°C, en 2000 c’était une diminution annuelle de 2 % et en 2030 c’est 9 %/an.
Une conclusion importante du rapport du GIEC sur le réchauffement à 1.5°C est que, pour contenir le réchauffement global à +1.5°C, les émissions de CO2 devraient atteindre le “net zéro” vers 2050 [ce serait 2075 pour le seuil de 2°C]. Quand on parle de net zero, cela veut dire que toute émission doit être contrebalancée par une absorption équivalente (par exemple par les forêts ou les sols). Plus on tarde, plus il faudra mettre en oeuvre des moyens technologiques importants soit pour extraire du CO2 de l’atmosphère, soit pour capturer une fraction de l’énergie du soleil avant qu’elle n’atteigne la surface de la terre. Comme ces moyens hautement technologiques peuvent avoir des effets secondaires imprévibles, il vaut mieux les éviter et réduire au maximum les gaspillages d’énergie, privilégier les énergies renouvelables et capturer du carbone par des méthodes basées sur la nature.

L'agroécologie

L’agroécologie est une façon de concevoir des systèmes de production qui s’appuient sur les fonctionnalités offertes par les écosystèmes. Elle les amplifie tout en visant à diminuer les pressions sur l’environnement (ex : réduire les émissions de gaz à effet de serre, limiter le recours aux produits phytosanitaires) et à préserver les ressources naturelles. Il s’agit d’utiliser au maximum la nature comme facteur de production en maintenant ses capacités de renouvellement.

Elle implique le recours à un ensemble de techniques qui considèrent l’exploitation agricole dans son ensemble. C’est grâce à cette approche systémique que les résultats techniques et économiques peuvent être maintenus ou améliorés tout en améliorant les performances environnementales.

L’agroécologie réintroduit de la diversité dans les systèmes de production agricole et restaure une mosaïque paysagère diversifiée (ex : diversification des cultures et allongement des rotations, implantation d’infrastructures agroécologiques…) et le rôle de la biodiversité comme facteur de production est renforcé, voire restauré.

L’agronomie est au centre des systèmes de production agroécologiques. De solides connaissances dans ce domaine sont indispensables, tant pour les agriculteurs que pour leurs conseillers.

Chaque évolution vers un système de production agroécologique doit être raisonnée au cas par cas, en fonction notamment du territoire (conditions pédo-climatiques, tissu socio-économique), mais aussi des objectifs de l’exploitant (qualité de vie).

L’agriculteur adapte les techniques à ses parcelles, en particulier à travers une série d’expérimentations dans ses propres champs. Ces démarches d’expérimentations peuvent être conduites individuellement ou collectivement, avec d’autres agriculteurs et/ou conseillers, en s’appuyant notamment sur l’expertise des acteurs sur leur milieu.

Enfin, l’agroécologie dépasse les simples gains d’efficience des diverses pratiques d’un système de production, telles que le réglage fin des pulvérisateurs de produits phytosanitaires ou le raisonnement des apports d’intrants. L’agroécologie révise les systèmes de production en profondeur : nous sommes dans le domaine de la reconception des systèmes de production.

Les dynamiques des eaux, les cycles bio-géochimiques, les épidémies ou les pullulations de ravageurs sont liés à des échelles plus vastes que celles des parcelles cultivées. Aussi, le passage à l’agroécologie doit aussi être pensé à l’échelle des territoires.

L’agroécologie s’applique à deux niveaux d’organisation : la parcelle agricole et le territoire, qui doivent être intégrés de façon cohérente.

La bonne gestion des fonctionnalités écologiques nécessite l’existence d’infrastructures agroécologiques. Si ces infrastructures n’existent plus, suite par exemple au remembrement, il s’agira de réfléchir à leur (ré-)aménagement.

L’agro-écologie face aux grands défis de l’humanité

Les pratiques agricoles conditionnent à la fois la production de court terme et l’évolution de l’écosystème cultivé (fertilité du sol, biodiversité, microclimat). Depuis la naissance de l’agriculture, diverses évolutions de ses méthodes et techniques se sont succédé, en vue d’une amélioration de son potentiel productif. Aujourd’hui, le secteur souffre d’une crise écologique majeure qui le remet profondément en cause. Du fait de la pression démographique, d’anciens systèmes de gestion de la fertilité (l’agriculture forestière, par exemple) ont disparu sans être remplacés.

De plus, les effets négatifs de la « révolution verte » sont multiples : dégradation de la fertilité des sols, pertes de terres agricoles, diminution de la biodiversité, épuisement de ressources non renouvelables, dégradation des paysages, contribution au changement climatique. Dans les milieux fragiles, où le climat est instable, la « révolution verte » a donné peu de résultats et les paysans s’y opposent souvent. Ailleurs, après avoir permis une forte hausse des rendements, elle semble atteindre ses limites.

L’agro-écologie peut contribuer à la sécurité alimentaire, grâce à une augmentation du rendement agricole global et à une réduction de sa variabilité d’une année sur l’autre.

C’est le cas, notamment, quand elle répond à la crise de fertilité des écosystèmes. Les situations sont plus contrastées lorsqu’elle vient remplacer des systèmes issus de la « révolution verte ».

Du fait de la diversification des productions, l’agro-écologie permet une amélioration de la qualité nutritionnelle et de l’alimentation. Elle offre l’avantage d’une baisse des coûts de production (intrants externes), génère de l’emploi et augmente le revenu et l’autonomie des femmes. Au niveau territorial, on observe des effets indirects sur les revenus et l’emploi (création de filières, stimulation du commerce local, etc.).

En limitant fortement les intrants chimiques, l’agro-écologie contribue à réduire les risques pour l’environnement et la santé des populations. L’utilisation de ressources non renouvelables diminue : eau agricole, énergie, phosphore et potassium. Ses méthodes favorisent la biodiversité et veillent à la fertilité des sols, permettant de récupérer des terres devenues improductives, d’améliorer la résistance aux accidents climatiques (diversité des activités, pratiques de protection des sols) et de participer à la lutte contre le changement climatique.

La transition agro-écologique suppose un soutien prioritaire à l’agriculture familiale. En effet, celle-ci regroupe l’immense majorité des agriculteurs, au niveau mondial, et est à l’origine de près de 70 % de la production. De plus, l’agro-écologie repose largement sur des connaissances et des savoir-faire accumulés au cours des siècles par l’agriculture familiale, qui devra sa survie à l’amélioration de l’écosystème, dont dépend à long terme sa propre reproduction sociale. Encore faut-il que les conditions socio-économiques de la production y soient favorables.

Il importe que les politiques agricoles génèrent un environnement propice à l’agriculture familiale. Soulignons que si celle-ci réussit à concilier les objectifs de court et de long termes (dont la reproduction de l’écosystème) en période de relative prospérité, elle privilégie en situation de crise le court terme, voire sa survie immédiate. La transition agro-écologique devient alors illusoire, d’autant qu’elle implique des investissements initiaux importants (y compris en travail) et présente un risque aux yeux des agriculteurs. L’État doit donc tout particulièrement encourager ces investissements pendant la période de transition (subventions, crédits spécifiques). La sécurisation de l’accès à la terre est cruciale, car les investissements dans l’écosystème peuvent difficilement être mis en œuvre, si la famille n’est pas certaine de bénéficier des résultats.

L’agro-écologie suppose par ailleurs des connaissances et des savoir-faire spécifiques, souvent préexistants localement. La recherche agronomique devrait s’appuyer davantage sur les solutions agro-écologiques, en articulation avec les expérimentations paysannes et les échanges d’expériences entre agriculteurs, sans oublier les organisations de producteurs. L’enseignement agricole ne porte pas encore assez sur le fonctionnement des écosystèmes cultivés et les logiques économiques paysannes, et omet de valoriser les connaissances et les savoir-faire des paysans.

L’État et les collectivités locales auraient tout intérêt à s’engager dans la valorisation des produits de l’agro-écologie par la création de filières, le soutien des systèmes de garantie participative, les achats publics, la promotion de marchés paysans, etc.

L’agro-écologie repose sur la préservation et la valorisation d’une grande diversité génétique, d’où la nécessité de reconnaître la possibilité pour les agriculteurs de réutiliser, échanger, vendre les semences et protéger l’agriculture des contaminations par les OGM.

Il ne s’agit donc pas seulement de « verdir » quelques composantes de la politique agricole, mais de la réorienter, tout en veillant à la cohérence de l’ensemble des décisions prises, y compris dans d’autres secteurs d’activités. La coopération internationale a un rôle à jouer : appui aux politiques nationales, mise en valeur des méthodes des programmes de recherche, promotion d’échanges de pratiques et d’expériences (vers une plateforme mondiale des compétences ?), soutien à la résistance contre les intérêts des lobbys.

L’agro-écologie n’est pas une approche dogmatique ou réductrice. La transition agro-écologique, qui prend en compte toutes les marges de progrès possibles pour remplacer peu à peu des techniques conventionnelles non-adaptées, mérite une ambition partagée des différents acteurs pour, avec un minimum de bon sens, revenir aux fondamentaux de l’agriculture et construire sur les territoires des systèmes agricoles et d’échanges plus autonomes, moins risqués pour notre société. C’est cette agro-écologie paysanne qui permettra de revaloriser le métier, les savoirs et les savoir-faire des paysans. Elle récréera du lien social, basé sur le respect et la confiance entre la société et une agriculture qui ne violente plus la nature.

Texte de Laurent Levard (https://ideas4development.org/lagro-ecologie-repondre-aux-defis-du-xxie-siecle/)

Voir aussi:

https://fne.asso.fr/dossiers/quest-ce-que-lagro%C3%A9cologie

https://www.actu-environnement.com/ae/news/agriculture-pesticides-agro-ecologie-rendement-transition-31993.php4

Le GREC-Sud

Le groupe régional d’experts sur le climat en région Sud Provence-Alpes-Côte d’Azur (GREC-SUD) a vocation à centraliser, transcrire et partager la connaissance scientifique sur le climat et le changement climatique en région Sud Provence-Alpes-Côte d’Azur. L’objectif prioritaire du groupe est d’informer les gestionnaires et décideurs du territoire (élus et techniciens des collectivités locales, des espaces protégés, des grands équipements, etc.) dans l’optique d’une meilleure compréhension et d’une prise en compte des résultats scientifiques dans les politiques publiques.

Le groupe réalise des publications thématiques (ouvrages et articles web) et organise des événements (conférences, journées thématiques…) qui ont pour vocation :

  • d’être accessibles à un public non scientifique ;
  • de proposer un état des lieux de la connaissance et de l’expertise scientifique ;
  • de rendre visibles les conséquences du changement climatique sur un
    sujet donné en facilitant la compréhension des résultats scientifiques ;
  • d’identifier et éclairer les enjeux forts, les principaux points de
    vulnérabilité des territoires en région et les leviers d’action ;
  • de mettre en avant les solutions existantes et les différentes
    initiatives concernant les enjeux d’atténuation et d’adaptation ;
  • de favoriser les interactions entre acteurs du territoire et ceux de la recherche.
 
Voir détails: http://www.grec-sud.fr/

Les Parcs Naturels Régionaux (PNR)

Dans un Parc, tout le monde doit s’épanouir, la nature comme les populations. C’est dans cette logique que les Parcs inventent un urbanisme soucieux aussi bien de l’environnement que du maintien de l’habitat dans un cadre de vie préservé. Pour les Parcs péri-urbains, cet équilibre est précaire et les actions pour le maintenir tout en assurant une mixité sociale sont nombreuses. Aussi, les Parcs aiment partager leur projet. Ils organisent des sorties découverte, développent des programmes d’éducation à l’environnement, organisent des activités culturelles et éditent brochures et documents. La plupart des Parcs ont un journal qu’ils adressent aux habitants. Enfin, les Parcs sont ouverts vers l’extérieur : ils accueillent de nombreux visiteurs.

Pour les Parcs, une mission reconnue tardivement mais fortement ancrée aujourd’hui. Aujourd’hui, les Parcs doivent vivre et faire vivre. Rien à voir avec des espaces sous cloche. Avec 320 000 entreprises (7 % du tissu économique français), 730 000 salariés (3 % de l’effectif salarié national), les Parcs sont directement concernés par les enjeux de renouvellement du tissu économique. Mais sur ces territoires, tout n’est pas permis.

On privilégie les activités économiques respectueuses de l’environnement. Celles qui valorisent les ressources naturelles et humaines. Le tourisme vert, la vente à la ferme, l’agriculture bio ou raisonnée, les nouvelles technologies et les savoir-faire locaux par exemple. On y expérimente la transition écologique avec des systèmes de déplacement, de chauffage ou de production énergétiques alternatifs.

Les PNR de la région PACA se sont fédérés dans un réseau des parcs et a passé une convention avec le GREC-Sud pour les aider à introduire la lutte contre le changement climatique et l’adaptation à ce dernier dans leur charte. Les territoires des parcs sont des lieux privilégiés de conscientisation des habitants et d’expérimentation de solutions.

Les neuf parcs naturels régionaux de la région Sud sont:Alpilles, Baronnies, Camargue, Luberon, Préalpes du Sud, Queyras, Sainte-Baume, Vercors, Verdon

Le vin nature

  1. Un vin nature doit être issu de vignes travaillées et certifiées en agriculture biologique ou en agriculture biodynamique. Ces certifications apportent un premier niveau de garantie : celui qu’aucun produit phytosanitaire de synthèse (insecticide, fongicide ou herbicide) n’est utilisé dans les vignes. Il y va de la santé des personnes qui y travaillent et de celle de l’environnement avoisinant : les riverains bien sûr mais aussi la faune et la flore. La viticulture représente en France moins de 3% de la surface agricole mais plus de 25% du tonnage de pesticides consommés.
  2. La vendange à la main est un gage de qualité des raisins. A la différence de la vendange à la machine qui brutalise les ceps pour faire tomber les grappes (mais aussi les feuilles et tout ce qui se trouve sur les ceps), la vendange manuelle permet de choisir les grappes et d’éliminer les grains pourris. C’est une approche douce qui vise à amener au chai les plus beaux raisins possibles.
  3. Un vin nature ne doit contenir aucun autre intrant que le soufre. Derrière le terme intrants se cachent tous les produits autorisés lors de la vinification. En agriculture conventionnelle la liste est longue donc pas question de vous assommer avec sa version exhaustive, mais on y retrouve des acides (lactique, tartrique, ascorbique, malique), des levures, des enzymes, des correcteurs d’acidité (Bicarbonate de potassium – Bisulfite de potassium – Bisulfite d’ammonium – Carbonate de calcium). L’exigence pour un vin nature est en cela bien plus grande que pour un vin bio car le cahier des charges AB est relativement permissif sur la question.
  4. Qui dit vin nature dit vinification naturelle. Les techniques de vinifications ont considérablement évolué, principalement dans le secteur du vin conventionnel. L’idée n’est pas de faire un procès au progrès technologique mais plutôt de comprendre les finalités : bien souvent ces procédés (thermo-vinification, filtration tangentielle, osmose inverse,…) sont utilisés pour corriger un vin et lui prêter des vertus qui n’étaient pas présentes dans les raisins….Les vignerons naturels excluent toutes ces pratiques car ils considèrent qu’elles dénaturent le raisin et faussent l’expression du terroir. Leur arme à eux, c’est le temps et la patience, pour laisser travailler les levures indigènes (naturellement présentes sur la peau des raisins, par opposition aux levures chimiques). Dans le même esprit, un vin naturel est très rarement filtré ou collé (opération qui consiste à ajouter du blanc d’œuf pour faire s’agglomérer les particules présentes en suspension dans le vin et ainsi le rendre plus clair) ou filtré. L’idée est de ne pas enlever de richesse au vin.
  5. Les vignerons naturels s’engagent à ne pas dépasser les doses suivantes pour le soufre : 30mg/litre pour un vin rouge et 40mg/litre pour un vin blanc ou un vin rosé sec. Là où des divergences existent, c’est que certains vignerons s’astreignent à un niveau d’exigence plus élevé et visent à ne pas dépasser 10mg/litre de soufre dans leurs analyses.
  6. Pour ou contre la labellisation ? Certains vignerons naturels pensent que seule une labellisation officielle permettra de donner une vraie reconnaissance au vin naturel et évitera les « tricheries » marketing que l’on commence à observer dans les linéaires de certains supermarchés (avec des vins « pseudo » nature, sans soufre, etc…). A l’inverse d’autres sont convaincus qu’un label constituera obligatoirement un « enfermement » et supprimera ce qui fait la richesse du vin naturel, à savoir la liberté ! Libre à vous de vous faire votre opinion et de prêcher pour votre paroisse… tout en respectant les avis divergents

 

Repris de https://www.vinibee.com/vin-nature-definition/

Le changement climatique dans les sations de ski

Dans un article paru en mars 2021 dans le journal en ligne The Cryosphere, une équipe internationale, composée de scientifiques issus des six pays alpins européens (Allemagne, Autriche, France, Italie, Slovénie et Suisse), évalue l’évolution de l’enneigement depuis les années 1970. Il s’agit de la première étude qui porte sur l’enneigement de l’ensemble des Alpes. Cette synthèse examine les résultats, en s’attachant plus spécifiquement à ceux du sud des Alpes françaises. Il ressort de cette étude que:
  • en moyenne altitude, diminution d’environ 20 cm de l’épaisseur moyenne de la couche neigeuse et d’un peu moins de 50 cm de la hauteur maximale de neige. À noter : le chiffre relatif à la hauteur maximale est deux fois plus grand que celui de la hauteur moyenne, mais, en pourcentage, la perte la plus significative concerne la hauteur moyenne. Pour la durée de neige au sol, la perte est de 35 jours, soit un peu plus d’un mois;
  • au-dessus de 2000 m d’altitude, l’impact est plutôt moins sensible, avec 15 cm de perte en hauteur moyenne et 45 cm en hauteur maximale. La durée de neige au sol n’a perdu que 5 jours en haute altitude.

Le réseau MedECC

Le MedECC (experts du changement climatique et environnemental en région méditerranéenne) est un réseau indépendant de scientifiques fondé en 2015. Il évalue les meilleures connaissances scientifiques disponibles sur le changement climatique et environnemental et les risques associés dans le bassin méditerranéen afin de les rendre accessibles aux décideurs, aux parties prenantes et à la population. À l’heure actuelle (avril 2020), le MedECC compte plus de 600 membres scientifiques qui contribuent individuellement sans contrepartie financière. Les scientifiques du MedECC sont issus de 35 pays, dont 19 sont des Parties contractantes à la Convention pour la protection du milieu marin et du littoral de la Méditerranée (Convention de Barcelone) et 23 sont membres de l’Union pour la Méditerranée. Le Secrétariat de la Convention de Barcelone – PNUE/PAM, via son Centre d’activités régionales Plan Bleu, travaille en partenariat avec le Secrétariat de l’Union pour la Méditerranée afin de soutenir le MedECC et contribuer à l’établissement d’un processus d’évaluation scientifique solide et transparent. Les rapports du MedECC sont préparés à l’intention des décideurs et d’un public plus large. Ils sont élaborés uniquement sur la base de critères scientifiques ; les auteurs des rapports du MedECC sont donc seuls responsables de leur validité. Plus de détails dans : https://www.medecc.org/

Le régime alimentaire méditerranéen

Le régime méditerranéen, également appelé régime crétois ou diète méditerranéenne est une pratique alimentaire traditionnelle dans plusieurs pays autour de la mer Méditerranée caractérisée par la consommation en abondance de fruits, légumes, légumineuses, céréales, herbes aromatiques et d’huile d’olive, une consommation modérée de produits laitiers d’origine variée (chèvre et brebis essentiellement et issus de la vache dans une moindre mesure), d’œufs et de vin, une consommation limitée de poisson et une consommation faible de viande. Un petit verre de vin quotidien est également autorisé

Plusieurs études montrent que le régime méditerranéen permet :

    • de diminuer la mortalité et la morbidité par maladies cardiovasculaires ;
    • de diminuer le risque de maladie d’Alzheimer et de maladie de Parkinson ;
    • d’améliorer les chances de grossesse lors d’une fécondation assistée.

Il s’agit de co-bénéfices sanitaires qui complètent assez bien les bénéfices pour le climat.

Malgré leurs différences, les pays méditerranéens ont une culture culinaire en partie commune : composition en aliments, mais aussi pratiques culinaires (importance du farci, du feuilletage), des goûts communs pour certaines saveurs (parfums d’herbes aromatiques, d’épices, goût pour l’acidulé, l’aigre doux…), mais aussi une idée commune de la diététique partagée par les médecins grecs ou romains de l’Antiquité (Hippocrate, Galien…), les médecins perses (Rhazès, Avicenne…), les médecins européens (Arnaud de Villeneuve, Aldebrandin de Sienne…). Malheureusement ces pays sont également envahis à l’heure actuelle par la cuisine de type occidental grasse et sucrée qui a des effets négatif sur la santé et le climat.

Voir Wikipedia: https://fr.wikipedia.org/wiki/R%C3%A9gime_m%C3%A9diterran%C3%A9en

 

Les centrales solaires Noor au Maroc

Étendu sur plus de 3 000 ha, le complexe Noor Ouarzazate est constitué de quatre centrales solaires utilisant des technologies différentes (CSP à miroirs cylindro-paraboliques / CSP à tour / Photovoltaïque) : Noor Ouarzazate I, Noor Ouarzazate II, Noor Ouarzazate III, et Noor Ouarzazate IV, en plus d’une plateforme de recherche et de développement. La puissance installée du complexe est de 580 MW. Les trois premiers Noor sont en fait des fours solaires (les miroirs concentrent les rayons du soleil vers des tubes ou un réservoir où est chauffé un liquide à forte capacité thermique) tandis que Noor IV utilise la technologie photovoltaique (les panneaux transforment les rayons du soleil directement en courant électrique). Le procédé à concentration peut stocker la chaleur 3h (Noor I) à 8h (Noor II et III). Noor I et II ont une forme rectangulaire et ils concentrent les rayons du soleil vers des tubes dans lesquels circulent un fluide colporteur dont la température peut monter de 250°C à 1000°C, cette chaleur sert à produire de la vapeur qui actionne une turbine qui génère l’électricité. Noor III a une forme circulaire et le point de concentration des rayons est une tour siuée au milieu du cercle. Pour Noor IV à panneaux photovoltaiques, le stockage ne peut se faire que par batterie. Voir Wikipedia: https://fr.wikipedia.org/wiki/Complexe_solaire_Noor_Ouarzazate

Venise et le système Moose (Moise)

Le projet MOSE est un ambitieux système d’ingénierie complexe composé de 78 digues mobiles placées stratégiquement aux portes de l’Adriatique, aux points d’entrée de la lagune : Lido, Malamocco et Chioggia,. Ces digues doivent pouvoir se relever en trente minutes, et une barrière capable de résister à une montée des eaux jusqu’à trois mètres au-dessus de la normale. En d’autres termes, ces caissons doivent permettre “d’imperméabiliser” la ville, lorsqu’il y a une montée brutale des eaux. L’idée du MOSE a germé dans les années 1970, après le traumatisme infligé par l'”acqua alta” de 1966, qui avait inondé et paralysé la ville tout entière pendant plus d’une semaine. Élaboré dans les années 1980, le chantier a démarré en 2003 et il aurait dû être prêt il y a déjà trois ans. Mais il a pris du retard à cause de scandales de corruption et de surcoûts. Il a déjà coûté sept milliards d’euros, contre deux initialement prévus. Un premier test, effectué vendredi 10 juillet 2020 a été couronné de succès mais les critiques émergent malgré tout. Est-il suffisant face au réchauffement climatique et à l’élévation du niveau de la mer annoncée pour la fin du siècle ?   Tiré de : https://www.lci.fr/international/comment-moise-doit-sauver-venise-des-eaux-2159037.html   Le MOSE n’est pas un ouvrage isolé, mais fait partie du Programme général d’interventions (PGI) pour la sauvegarde de Venise et de sa lagune que le ministère des Infrastructures et la Magistrature des Eaux de Venise (bras opérationnel du ministère dans la lagune) a lancé en 1987 par l’intermédiaire du Consortium Venezia Nuova. Ces interventions sur le littoral et dans la lagune, déjà terminées ou en cours, constituent le plus grand programme de défense, récupération et requalification environnementale jamais lancé par l’État italien. En même temps que les travaux du MOSE, la commune de Venise procède actuellement à des interventions de surélévation des rives et des pavages pour défendre les agglomérations lagunaires contre les hautes eaux et les moyennes eaux (c’est-à-dire inférieures à 110 cm, niveau limite établi avant l’intervention des digues mobiles). Ces ouvrages présentent une complexité particulière, en particulier dans les zones urbaines comme Venise ou Chioggia où la surélévation doit tenir compte d’un contexte architectural et monumental délicat. Les interventions de requalification de la lagune visent à freiner la dégradation des structures morphologiques entraînée par les phénomènes de subsidence (abaissement du niveau du sol) et d’eustatisme (élévation du niveau de la mer) et par l’érosion provoquée par le mouvement des vagues. Les ouvrages, en cours de réalisation dans tout le bassin lagunaire, ont pour objectif la protection, la reconstruction et la renaturalisation des barènes (terres émergées recouvertes d’eau lors des fortes marées), des velmes (terres immergées, découvertes lors de basses marées) et des bas-fonds, ainsi que la défense et la récupération des petites îles et des canaux lagunaires. Voir https://fr.wikipedia.org/wiki/Syst%C3%A8me_MOSE

Le Printemps Syrien

 

Après plusieurs années de sécheresse qui ont réduit l’indépendance alimentaire de la Syrie, le Printemps arabe qui a commencé en Tunisie arrive également en Syrie au début de décennie 2010. Il serait abusif d’expliquer tous ces bouleversements politiques par les événements climatiques et par l’évolution de la balance commerciale agricole, mais il convient de rappeler le lien qu’a toujours établi le parti ba’thiste, au pouvoir depuis 1963, entre sa  “réussite” politique et ses succès agricoles. En Syrie, comme en Égypte et en Israël, l’irrigation occupe une place importante dans la construction politique du pays, tant du point de vue de sa structuration territoriale que de sa recherche de stabilité interne.
Si la maison ba’thiste brûle en 2011, l’agriculture, qui a donc fait figure de marqueur politique du régime, éprouvait déjà des difficultés réelles avant le soulèvement syrien : les aléas climatiques, la croissance démographique et l’urbanisation qui accroissent la part des autres usages de l’eau, l’amenuisement du poids relatif – et donc politique – des paysans syriens, les projets hydrauliques des pays voisins… tout concourait à la menacer.

Mais l’agriculture syrienne souffrait aussi de ses propres excès, en particulier des prélèvements d’eau souvent incontrôlés qu’elle a fait subir à un sous-sol dont les réserves hydriques ne sont pas illimitées, loin s’en faut. Ces prélèvements semblaient échapper en partie au contrôle étatique. Un article scientifique publié par un climatologue, Colin Kelley, a lancé la polémique sur la responsabilité du climat dans cette révolution (https://www.pnas.org/content/pnas/112/11/3241.full.pdf). Dans cette figure, tirée de son article,  on voit bien les sécheresses à répétition entre 1990 et 2010 (la plus forte est celle de 2007-2010) amplifiées par l’augmentation des températures. Il faut noter également l’augmentation de la population Syrienne, en partie alimentée par les réfugiés Irakiens qui en 2010 faisaient 20% de la population totale.

Tiré de https://www.cairn.info/proche-orient–9782724612615-page-287.htm

Voir aussi sur Wikipedia: https://fr.wikipedia.org/wiki/Guerre_civile_syrienne

Les capitales vertes de l'Europe

jjjj