effet de serre climat et energie

Et lutte contre les pseudo-sciences et les obscurantismes

Message par Crockette » 14 Nov 2006, 17:27

L'hypothèse selonlaquelle il existe un lien entre réchauffement climatique et taux de gaz carbonique ds l'atmosphère a été formulée en 1894 !!

Autant dire que le suédois SVANTE ARRHENIUS n'a pas dû être pris au sérieux comme le scientifique qui avait émis l'hypothèse au début de 20ème siècle que l'amiante était dangereuse pour la santé.

Que dire aussi de certains intellectuels romains qui avaient émis aussi l'hypothèse sur la dangerosité du plomb (que l'on mettait dans des futs de vins pour donner du gout)...

Qui sera le prochain illuminé qui osera affirmer l'hypothèse que le nombre de tempetes et leurs forces ont une corrélation avec l'effet de serre ?

Aujourd'hui des records de t° ont été enregistrées en france avec plus de 20° ds le sud...voir ds certaines villes 24°...

Rassurez vous citoyens : aucun lien scientifique n'est formellement démontré entre ces records de douceur en france et l'effet de serre. :hypocrite:





Crockette
 

Message par canardos » 15 Nov 2006, 08:13

l'agence internationale de l'énergie constate la hausse des émissions de CO2 liée à la production d'énergie...

elle constate que cette hausse s'explique essentiellement par le recours accu au charbon...

elle constate que les etats unis et la chine vont encore augmenter l'utilisation du charbon...

et ellle n'a plus comme principale solution à proposer que le stockage du CO2 dont tout le monde sait maintenant que c'est un expédient dangereux à terme.

a écrit :

[center]La consommation énergétique progresse à un rythme insoutenable[/center]

AFP
Nairobi

L'Agence internationale de l'énergie (AIE) a lancé mardi à Nairobi un «message d'urgence» aux délégués à la conférence internationale sur le climat, en leur rappelant que la consommation énergétique était «insoutenable» à terme.

«J'ai un message d'urgence: nous ne sommes pas engagés sur une voie tenable à terme et on ne peut pas attendre encore une décennie en espérant que les technologies vont résoudre le problème», a déclaré le directeur-exécutif de l'AIE, Claude Mandil, lors d'une conférence de presse.

«Les émissions de CO2 du secteur de l'énergie ont progressé de 1,2 M t entre 2003 et 2004, soit beaucoup plus que prévu, surtout dans les deux dernières années et surtout dans les pays (en voie de développement) en raison du recours accru au charbon», responsable à lui seul de 60 % de la hausse des émissions, a souligné M. Mandil.

Le dioxyde de carbone (CO2), l'un des principaux gaz à effet de serre responsables du réchauffement du climat, est essentiellement produit par la consommation d'énergies fossiles (pétrole, gaz, charbon).

«Nous devons appliquer maintenant des politiques alternatives d'efficacité énergétique, sinon les émissions de CO2 vont continuer d'augmenter dans les dix prochaines années et deviendront énormes», a-t-il ajouté.

À ce rythme, a-t-il poursuivi, «en 2030, les énergies fossiles représenteront encore 85 % de la consommation totale, ce qui n'est pas tenable en termes de sécurité d'approvisionnement avec de moins en moins de pays producteurs, ni de croissance économique en raison des coûts élevés et volatiles» de ces énergies.

L'AIE préconise un scénario alternatif misant sur la performance énergétique des nouvelles constructions et modes de transports, une série de taxes et d'incitation à réduire la consommation, le développement du nucléaire et des énergies renouvelables.

Par ailleurs, M. Mandil a souhaité que se développent et s'accélèrent les expériences de capture et de stockage du CO2.

«C'est la technologie-clé, parce qu'on ne voit pas l'Inde, la Chine, ou les États-Unis réduire leur consommation de charbon».

«Il faut accélérer le rythme des expérimentations et surtout leur échelle, passer à des expériences de quelques millions de tonnes par an à des milliards de tonnes de CO2 par an», a-t-il insisté.

canardos
 
Message(s) : 18
Inscription : 23 Déc 2005, 16:16

Message par Crockette » 16 Nov 2006, 13:07

:-P Alors j'ai trouvé une solution et je suis dépositaire de cette idée grace à ce forum : au lieu de pulvériser des milliers de tonnes de poussières de souffre et d'aluminium dans la stratosphère (idée génialement idiote mais crédible car faites par un scientifique...) on devrait pulvériser de la poussière de bois !!!
Non je déconne c'est pas assez réfléchissant.

Plus sérieusement ( :-P ) on devrait suspendre dans l'air (grace à des zepellins qui coutent zéro en énergie)) des millions d'arbres chargés d'absorber le CO2.

Comment les alimenter ces arbres ? ben on fait déjà comme pour la culture intensive de tomates sous serre, on les plonge dans des bains chimiques nutritifs...contenus dans des sachets plastiques étanches récupérés dans les grandes surfaces (le poids est ainsi réduits et on recycle les milliards de sachets produits sur la planète et ça coute zéro en énergie pour transformer ou bruler les sachets) .

:w00t:



Crockette
 

Message par canardos » 16 Nov 2006, 13:10

:smoke: :smoke: :155: :155: :155:

pauvre crockette!

des le matin quelle tristesse!
canardos
 
Message(s) : 18
Inscription : 23 Déc 2005, 16:16

Message par Crockette » 16 Nov 2006, 13:13

tu préfères que je parle d'allegre :hinhin: :hinhin: :hinhin:
Crockette
 

Message par Crockette » 25 Nov 2006, 16:21

record de douceur encore aujourd'hui avec 17° dès le petit matin à PARIS.du jamais vu.
Crockette
 

Message par canardos » 27 Nov 2006, 08:50

un dossier de synthèse intéressant de Saga Science sur le réchauffement climatique, sa découverte, la création du GIEC, les differents scénarios envisagés....le dossier est un peu ancien, janvier 2005, mais reste dans l'ensemble à jour, à part sur le protocole de Kyoto qui a du plomb dans l'aile.

a écrit :

Le réchauffement climatique : historique scientifique et politique - scénarii futurs
Expertise



jeudi 27 janvier 2005, par Gérard Mégie, Jean Jouzel

Activités humaines et réchauffement du climat : la prise de conscience

Le précurseur

Dès le 19ème siècle, le suédois Svante Arrhénius, attire l’attention sur le fait que l’homme est en train de modifier la composition de l’atmosphère en gaz carbonique à travers l’utilisation du charbon. A partir d’un calcul relativement simple, il estime que notre planète devrait se réchauffer de 5°C d’ici la fin du 20ème siècle... Mais ce n’est qu’à partir des années 1970 que ce problème de l’action potentielle des activités humaines sur le climat devient l’objet de l’attention des scientifiques.

Les modélisateurs

Les modélisateurs en prennent d’abord conscience. Les années après la seconde guerre mondiale voient l’apparition des premiers calculateurs, alors bien rudimentaires. La prévision du temps est l’un des domaines explorés à partir de modèles fondés sur un système d’équations physiques qui permettent de décrire le mouvement de l’atmosphère et le cycle de l’eau depuis l’évaporation à la surface des océans jusqu’à la formation des précipitations. Développés en vue d’applications en météorologie, science qui s’intéresse à la prédiction des perturbations dont on ne peut suivre l’évolution individuelle que sur quelques jours, ces modèles sont alors utilisés sur des échelles climatiques, celle du mois et au-delà. Dans ce cas, les prévisions portent sur des valeurs moyennes et non plus sur le suivi de perturbations individuelles. Les premières expériences conduites dans les années 1960 permettent de vérifier que ces modèles sont aptes à simuler les grandes caractéristiques du climat.

Les climatologues

Mais les climatologues s’intéressent très vite à la capacité de ces modèles à rendre compte de climats différents de celui dans lequel nous vivons actuellement. Les expériences réalisées au cours des années 1970 examinent le cas du doublement de la teneur en gaz carbonique. Elles confirment qu’une telle modification se traduirait par un réchauffement significatif. Ces résultats sont pris au sérieux et motivent réunions scientifiques et rapports d’experts dont un publié en 1979 à l’initiative de la NSF (la Fondation Nationale des Sciences aux Etats-Unis) aux conclusions déjà très bien documentées. Mais c’est au cours de la décennie suivante que s’opère la véritable prise de conscience non seulement au sein de la communauté scientifique mais bien au-delà, à mesure que l’ampleur des conséquences de ce changement climatique, tant écologiques qu’économiques, commence à être cernée.

Sur les aspects scientifiques, les résultats des modèles climatiques s’accumulent. Certes, ils diffèrent sensiblement d’un modèle à l’autre ; ainsi le réchauffement prédit par 4 modèles différents (trois modèles américains, l’autre anglais) en cas de doublement instantané de la teneur en gaz carbonique varie entre 1.5 et 4.5 °C. Cette amplitude d’un facteur 3, dans la valeur de ce que les climatologues appellent dans leur jargon, la « sensibilité du climat », résulte pour l’essentiel de la façon dont est traitée la formation des nuages. Leurs propriétés optiques font qu’à la fois ils absorbent et réfléchissent le rayonnement solaire. Ils sont en outre affectés de façon différente selon qu’il s’agit de « nuages hauts » ou de « nuages bas ». Cette complexité fait que le comportement des systèmes nuageux est difficile à prendre en compte dans les modèles, et qu’il reste d’ailleurs une source majeure d’incertitude vis à vis de la prédiction du climat du futur. Mais, au-delà de ces incertitudes, tous les modèles, et cette affirmation reste quasiment vérifiée maintenant que le nombre de simulations a été multiplié par près d’un facteur 10, prédisent un réchauffement. Qui plus est, ce réchauffement est systématiquement plus important que celui, légèrement supérieur à 1°C, qui serait obtenu dans ce cas d’un doublement de la teneur en gaz carbonique, qui correspond à un forçage radiatif de 4 W m-2, en l’absence de toute rétroaction climatique. Il y a donc des mécanismes amplificateurs qui dominent la réponse du climat lors d’un accroissement de l’effet de serre et ce de façon tout à fait démontrable. Ainsi un réchauffement de l’atmosphère va, avec un certain délai, se transmettre aux couches de surface de l’océan. Ceci entraîne une augmentation de l’évaporation, qui croît exponentiellement en fonction de la température, et par voie de conséquence de la quantité de vapeur d’eau présente dans l’atmosphère. Comme la vapeur d’eau est elle-même un « gaz à effet de serre », le forçage radiatif est amplifié. La diminution de la glace de mer, très réfléchissante vis à vis du rayonnement solaire, en réponse à ce réchauffement progressif de l’océan constitue un second facteur d’amplification (elle est alors remplacée une surface océanique beaucoup plus absorbante). A l’inverse, aucun des mécanismes compensateurs qui peuvent être évoqués n’apparaît efficace.

La communauté scientifique

Dans une large majorité, la communauté scientifique est rapidement convaincue de l’ampleur du problème et de la nécessité d’en analyser toutes les facettes. Les premiers résultats obtenus sur les glaces antarctiques de Vostok suggèrent également que le climat est un système amplificateur et participent de cette prise de conscience. A l’évidence, celle-ci bénéficie également du fait que les températures moyennes mesurées à la surface de la Terre dans les années 1980 sont clairement à la hausse.... La communauté s’organise alors en conséquence. Dès 1979 l’Organisation Météorologique Mondiale (OMM) met sur les rails le Programme de Recherche Mondial sur le Climat (PMRC). Puis le CIUS, comité international qui regroupe l’ensemble des organisations scientifiques, conscient des interactions fortes qui existent entre climat et environnement, lance en 1986 un programme ambitieux dédié à l’étude de la géosphère et de la biosphère (le Programme International Géosphère Biosphère : PIGB). PRMC et PIGB sont deux des quatre composantes de ce qui est désormais connu sous le nom de programme « Global Change » (les deux autres sont consacrées à la biodiversité et à la dimension humaine du changement climatique). Grâce à ces initiatives internationales, bien relayées dans de nombreux pays par les organismes de recherche, la compréhension des mécanismes complexes qui gouvernent l’évolution du climat a largement progressé au cours des vingt dernières années.

Les gouvernements

Les gouvernements ne tardent d’ailleurs pas trop à emboîter le pas, conscients qu’il s’agit là d’un problème que l’on ne peut délibérément ignorer. D’autant que le Protocole qui bannit la production de composés contribuant à la destruction de la couche d’ozone, signé à Montréal en 1987, constitue un premier exemple de ce qui peut être entrepris en matière d’environnement global. Avec le recul, les décisions prises dans ce cadre s’avèrent tout à fait judicieuses et, grâce à elles, on peut espérer un ralentissement de la diminution de la couche d’ozone dans les décennies à venir puis une inversion du processus. Le consensus scientifique qui s’est rapidement établi, les conséquences bien identifiées et le nombre restreint de producteurs a largement facilité la signature puis la mise en œuvre de ce protocole. Mais, s’il présente de nombreuses similarités, la réponse apportée au cas de l’ozone stratosphérique n’est pas entièrement extrapolable au problème du changement climatique, dont la complexité est beaucoup plus grande. L’existence d’un lien entre activités humaines et réchauffement climatique ne repose alors que les prédictions de modèles dont on sait qu’ils restent assez rudimentaires et les conséquences de ce réchauffement sont mal cernées. Par ailleurs, si des mesures visant à limiter l’utilisation des combustibles fossiles doivent être décidées, elles seront difficiles à faire accepter tant les notions de développement économique et de confort individuel sont étroitement mêlées à celle de consommation d’énergie. La première étape est donc d’établir un diagnostic.

La création du GIEC (IPCC, en anglais)

C’est avec cet objectif qu’en 1988 se crée, sous les auspices conjoints du Programme des Nations Unies pour l’Environnement (PNUE) et de l’OMM, le Groupement Intergouvernemental sur l’Etude du Changement Climatique (GIEC) qui nous est plus familier sous son sigle anglais d’IPCC (International Panel on Climate Change). Ce problème est alors pris en compte sur un plan plus politique et il est l’un des thèmes centraux abordés lors du Sommet de la Terre de 1992 de Rio au cours duquel est discutée la Convention Cadre des Nations Unies sur le Changement Climatique (CCNUCC), ratifiée en 1994. En réponse aux arguments très documentés apportés par les scientifiques à travers les travaux du GIEC, le problème est rapidement pris au sérieux par les gouvernements. Ceux-ci mettent sur pied ce qu’il convient d’appeler la Conférence des Parties (COP), qui de Rio de Janeiro (COP1) à Kyoto en 1995 (COP3 ?) puis Marrakech en 2001 (COP7) ont été autant de jalons visant à mettre en place des règles de limitation des émissions anthropiques des gaz à effet de serre dont le sommet de Johannesburg pourrait voir une première concrétisation.

De Rio à Marrakech : l’empreinte des rapports du GIEC.

Dés le départ, le GIEC s’intéresse à trois volets distincts : le groupe I traite des aspects scientifiques de l’évolution du climat, les deux autres étant respectivement en charge d’en examiner les impacts et d’analyser les mesures d’adaptation et d’évaluation (groupe II) et d’en étudier les aspects socio-économiques (groupe III). A ce jour trois rapports complets ont été publiés, le premier en 1990, le second en 1996 et le troisième en 2001. Chaque rapport individuel est divisé en chapitres dont la première rédaction est confiée à une équipe d’une dizaine de chercheurs de différents pays. Pour accomplir cette tâche chaque rédacteur sollicite des contributions de chercheurs impliqués dans le domaine concerné. A partir de ces très volumineux rapports (près d’un millier de pages) sont rédigés des résumés d’une cinquantaine de pages puis les " Résumés pour décideurs " beaucoup plus courts et écrits de façon très accessible. Le tout est complété d’un rapport de synthèse. Une fois rédigés, chacun de ces documents reçoit les commentaires de la communauté scientifique (re-lecteurs) et ceux des représentants des instances gouvernementales. Le processus de rédaction et de relecture prend, à chaque fois, plus de deux ans pour que soit proposé aux gouvernements un texte qui ait l’approbation de la communauté scientifique. Le chiffre de 3000 personnes, mentionné pour le second rapport, comprend les rédacteurs (une centaine), les contributeurs (quelques centaines) et les re-lecteurs. Les commentaires provenant des différentes sources (communauté scientifique, instances gouvernementales mais aussi organisations non gouvernementales) sont pris en compte par les rédacteurs et les textes sont amendés en conséquence. Si les rédacteurs jugent un commentaire non-recevable, ce qui est parfois le cas, ils doivent justifier de la ou des raisons qui les ont conduit à ne pas le prendre en considération.

Un consensus entre plus de 100 pays

Vient alors la dernière étape avant publication, celle de l’approbation par les gouvernements membres du GIEC (plus d’une centaine de pays). Les « Résumés pour Décideurs » sont discutés ligne à ligne par les délégués de ces différents pays et approuvés, après modifications éventuelles au cours de réunions auxquelles peuvent assister, au titre d’observateurs, des représentants d’organisations non gouvernementales. La règle est celle du consensus et celui-ci est quelquefois fort difficile à atteindre malgré les efforts des responsables du GIEC et des rédacteurs présents à cette réunion finale, dont l’objectif commun est de parvenir à une solution acceptable pour tous et qui reflète bien les rapports complets. Le contenu de ces derniers n’est pas rediscuté, mais celui des résumés étendus est également soumis à approbation et la cohérence entre les différents étages des rapports fait l’objet d’une très grande attention.

Nous nous intéresserons ici essentiellement aux conclusions du groupe I qui traite de la science du changement climatique. Nous en résumons les travaux à travers une série de 4 conclusions.

user posted image
1 : Variation de la température moyenne de la planète depuis 1861

La modification de l’atmosphère par les activités humaines et le réchauffement du 20ème siècle Les deux premières font l’objet d’un consensus qui s’est affirmé au fil des 3 rapports du GIEC. L’une, que nous avons déjà largement traitée, affirme que les activités humaines modifient la composition de l’atmosphère en gaz à effet de serre. L’autre, déjà évoquée concerne le réchauffement observé au cours du 20ème siècle (figure 1). Déjà visible au moment du premier rapport du GIEC, l’enregistrement disponible jusqu’à l’année 2001 en donne désormais une idée plus claire Ce réchauffement s’est accéléré au cours des années récentes. L’année 1998 a été la plus chaude depuis 1880 et si l’on cherche les 10 années les plus chaudes, elles sont concentrées au cours des deux dernières décennies. Et c’est ce graphique pris dans son ensemble qui permet aux experts de conclure que notre climat s’est réchauffé d’un peu plus d’un demi degré (0,6 avec une incertitude de ± 0, 2 °C) depuis la fin du 19ème siècle. Ce réchauffement s’est opéré en deux étapes la première entre 1910 et 1945, la seconde depuis 1976. Certains aspects, qualité et couverture géographique des données les plus anciennes corrections qu’il faut apporter aux températures océaniques mesurées par les bateaux marchands, biais apporté par l’urbanisation pour les stations qui, initialement à la campagne, se sont peu à peu retrouvées en milieu urbain, .... ont été l’objet de nombreuses discussions. Ces points ont été pris en compte de façon indépendante par différentes équipes et les courbes obtenues sont tout à fait similaires. A noter aussi la polémique engagée lorsque l’on compare, sur leur période de recouvrement, les températures mesurées à la surface de la planète et celles obtenues à partir de ballons sonde et d’observations satellitaires. La température de l’atmosphère observée depuis 1979 à partir des deux dernières méthodes augmente trois fois moins vite que celle de la surface et il est difficile de dire s’il s’agit là d’un phénomène réel ou si cette différence est liée au fait que la période de comparaison est relativement courte. Par contre de nombreuses observations témoignent de façon indirecte de ce réchauffement : l’étendue des glaciers alpins diminue de façon quasi générale (les exceptions s’expliquent soit par la modification de la circulation atmosphérique, soit par l’augmentation des précipitations), la couverture neigeuse et l’épaisseur de la glace de mer décroissent dans beaucoup de régions, lacs et rivières sont moins longtemps gelés, l’océan se réchauffe en surface, le niveau de la mer a augmenté d’une dizaine de centimètres au cours du 20ème siècle, il y a plus de vapeur d’eau dans l’atmosphère..... Malgré quelques zones d’ombre, le consensus est général : le climat se réchauffe.

Le réchauffement du 20ème siècle : impact de l’homme ?

La troisième concerne un point certes important pour le scientifique mais qui s’avère être la question clé pour le décideur : le réchauffement que nous vivons à l’échelle de la planète a-t-il un lien avec l’augmentation démontrée de l’effet de serre ? Sans évoquer les grandes périodes glaciaires, il suffit de se tourner vers le passé récent pour observer qu’il n’est nul besoin que l’homme intervienne pour que le climat change de façon tout aussi notable qu’il l’a fait au cours du 20ème siècle. Pour la période que nous appelons le petit âge glaciaire entre le milieu du 15ème siècle et la fin du 19ème, le constat est sans appel. Il s’appuie sur de nombreux témoignages tel celui de l’avancée des glaciers alpins ou ceux des peintres flamands et de leurs tableaux d’hivers rigoureux aux fleuves et rivières prises par les glaces. Lors de cette période froide qui a atteint son paroxysme entre 1550 et 1700, la température était, tout au moins en Europe de l’Ouest, d’au moins un degré plus froide que notre 20ème siècle. A l’inverse, le début du dernier millénaire, époque à laquelle le sud du Groenland était une terre hospitalière, était relativement plus chaud. Difficile dans ces conditions d’affirmer que le réchauffement que nous vivons actuellement est bien lié à l’augmentation de l’effet de serre dû aux activités humaines. L’effet de serre l’augmente et le climat se réchauffe mais il y a-t-il bien relation de cause à effet ? A cette question, le premier rapport du GIEC répond que « l’importance du réchauffement observé est grossièrement cohérente avec les prédictions des modèles climatiques mais qu’elle est aussi comparable à la variabilité naturelle du climat. Le réchauffement observé pourrait donc être dû à cette variabilité naturelle ». Il y a une dizaine d’années, au moment du sommet de Rio, la réponse des scientifiques était donc « on ne sait pas ». Mais elle a fortement évolué grâce à un ensemble de résultats scientifiques nouveaux qui permettent aux experts du GIEC d’indiquer dans le rapport 1995 « qu’un faisceau d’éléments suggère une influence perceptible de l’homme sur le climat global ».

Un premier obstacle est levé. Jusqu’alors si on tient compte de l’augmentation des gaz à effet de serre depuis le début de l’ère industrielle, les modèles d’évolution du climat prédisent un réchauffement voisin de 1°C. C’est le double de celui observé, estimé alors à une valeur comprise entre 0.3 et 0.6 °C. Mais ces prédictions ne tiennent pas compte de tous les aspects liés à l’activité humaine. Ainsi elles ignorent l’effet de refroidissement résultant de la présence de particules microscopiques en suspension dans l’air. Celles-ci produites, en particulier, à partir de composés soufrés, partiellement produits par l’utilisation des combustibles fossiles, rendent l’atmosphère un peu moins transparente et absorbent une faible partie de l’énergie qui nous vient du soleil, de l’ordre de 0,5 W m-2. C’est en fait suffisant pour contrecarrer une partie du réchauffement du à l’augmentation de l’effet de serre et gommer le désaccord entre prédictions et observations. Plus convaincante pour le spécialiste est la mise en évidence de toute une série d’indices qui correspondent à autant d’empreintes attestant que le réchauffement observé n’est vraisemblablement pas uniquement d’origine naturelle. Ceux-ci s’appuient sur des comparaisons géographiques, saisonnières et verticales du réchauffement, dont les caractéristiques prédites et observées concordent d’autant mieux que les modèles tiennent compte du rôle de l’effet de serre et de celui des aérosols et non seulement de causes naturelles de variabilité climatique telles les éruptions volcaniques, qui peuvent provoquer un refroidissement notable mais de courte durée, ou les faibles fluctuations de l’activité solaire. En outre, la prise en compte des aérosols soufrés donne une explication plausible au fait que la température se réchauffe plus le jour que la nuit car leur effet de refroidissement n’intervient que sur la partie visible du rayonnement et donc que le jour. Aucun de ces éléments, pris individuellement, ne constitue en soi une preuve mais c’est leur convergence qui a amené les scientifiques à suggérer que l’action de l’homme est déjà perceptible. C’est une conclusion importante qui, à l’évidence, a joué un rôle clé dans les négociations du Protocole de Kyoto. Suggérer, même avec prudence, que les activités humaines commencent à avoir une influence sur le climat, met désormais le changement climatique au centre des problèmes que notre société aura à affronter en matière d’environnement et lui donne une dimension socio-économique indéniable.


user posted image
2 : Estimation de la température moyenne de l’hémisphère nord au cours du dernier millénaire

Le diagnostic s’est affiné entre les rapports GIEC de 1996 et 2001. Tout d’abord le climat a continué à se réchauffer et à ceci s’ajoute une meilleure connaissance des variations du climat au cours du dernier siècle. Déjà amorcée en 1995, elle se concrétise par la publication d’une courbe de la variation du climat au cours du dernier millénaire qui doit aux efforts conjugués de paléoclimatogistes qui ont reconstruit différentes séries climatiques à partir d’approches complémentaires et de statisticiens qui les ont combinées et en ont extrait une valeur moyenne. Celle-ci reste entachée d’une grande incertitude (figure 2) mais elle laisse peu de doute : le réchauffement récent sort de la variabilité naturelle. Les modèles climatiques, qui ont fait beaucoup de progrès, confirment ce diagnostic. Des simulations longues montrent que le réchauffement des 100 dernières années ne peut vraisemblablement pas être dû uniquement à des causes naturelles. En particulier, le réchauffement marqué des 50 dernières années ne peut-être expliqué que si l’on tient compte de l’augmentation de l’effet de serre. D’où cette conclusion « il y a de nouvelles et fortes indications qu’une grande part du réchauffement observé au cours des 50 dernières années est attribuable aux activités humaines ». De « peut-être » en 1995, nous voici à « probablement » en 2001. Le camp des sceptiques de l’effet de serre se rétrécit et cette conclusion, approuvée par le Groupe I au moment de la conférence de La Haye et entérinée dans le rapport de synthèse avant celle de Marrakech, a eu pour conséquence d’y placer le débat scientifique au second plan ... Dans l’esprit des décideurs, l’interrogation puis le doute vis à vis de l’action de l’homme sur le climat se sont transformées en quasi-certitude.

Des interrogations qui subsistent

De notre point de vue des interrogations subsistent comme celles liées à l’influence éventuelle des changements de l’activité solaire ; il nous faudra au moins une dizaine d’années pour transformer ce " probablement " en certitude. Mais un point extrêmement important est que la réponse à cette question ne préjuge pas de l’ampleur du réchauffement qui nous attend au cours de ce siècle et au-delà. Même si l’influence de l’effet de serre additionnel était toujours masquée par la variabilité naturelle du climat, l’augmentation prévue est d’une telle ampleur (de 4 à 8 W m-2 supplémentaires) qu’un réchauffement significatif peut sans ambiguïté être prédit d’ici la fin de ce siècle. C’est là la quatrième conclusion du rapport du GIEC qui indique également que de nombreuses incertitudes restent associées à la prédiction de l’évolution future de notre climat. Avant de les présenter nous revenons, plus en détail, sur la façon dont l’homme modifie et continuera à modifier la composition de l’atmosphère.

Effet de serre et activités humaines : état des lieux et évolution future.

Sans vouloir négliger l’importance des autres gaz à effet de serre, nous centrerons la discussion sur le gaz carbonique non seulement parce que sa contribution à l’effet de serre additionnel est de loin la plus importante (60%) mais aussi à cause de son temps de résidence très long dans l’atmosphère. Ceci implique que la maîtrise de l’évolution de cet effet de serre additionnel passe obligatoirement par un contrôle des émissions de gaz carbonique. Cette maîtrise est inscrite dans la CCNUCC qui stipule que « l’objectif est de stabiliser les concentrations de gaz à effet de serre dans l’atmosphère à un niveau qui empêche toute perturbation anthropique dangereuse du système climatique. Il conviendra d’atteindre ce niveau dans un délai convenable pour que les écosystèmes puissent s’adapter naturellement aux changements, que la production alimentaire ne soit pas menacée et que le développement économique puisse se poursuivre d’une manière durable ».

Le CO2 atmosphérique, partie intégrante du cycle du Carbone

L’augmentation de la teneur en gaz carbonique dans l’atmosphère n’est que le reflet d’une perturbation beaucoup plus importante, qui affecte l’ensemble du fonctionnement de la planète Terre. Le carbone est en effet contenu dans chacun des compartiments de l’environnement terrestre : atmosphère, océan, biosphère, Terre interne. Dans l’atmosphère, on le trouve essentiellement sous forme de gaz carbonique. Sur les continents, on le trouve en profondeur dans les combustibles fossiles, et en surface dans la végétation et la matière organique des sols. Dans les océans, il est principalement sous forme de carbonates, en particulier dans le principal réservoir de carbone que constitue l’océan profond. Tous ces compartiments sont en équilibre entre eux grâce à des flux d’échanges permanents, comme par exemple la respiration et la photosynthèse entre l’atmosphère et la biosphère, les échanges gazeux entre l’atmosphère et les océans, ou l’assimilation du carbone par les microorganismes dans l’océan. Ce système complexe est équilibré à l’échelle des millénaires. Naturellement, lors de la transition entre une ère glaciaire et une période interglaciaire, les échanges entre compartiments de l’environnement terrestre se modifient et le système ne retrouve son équilibre qu’au bout de quelque siècles, voire quelques millénaires. Aujourd’hui l’homme induit à son tour un tel déséquilibre par les sources d’émission additionnelles qu’il contribue à créer : combustion des carburants fossiles (charbon, pétrole, gaz naturel), émissions dues au pratiques agricoles, déforestation qui diminue la capacité de la végétation à piéger le gaz carbonique contenu dans l’atmosphère. Certes, cette perturbation due aux activités humaines reste relativement faible en termes de flux d’échange, puisqu’elle correspond à l’émission annuelle de 7 milliards de tonnes (GtC) de carbone vers l’atmosphère, dont la plus grande part (6 GtC) est liée à la combustion des carburants fossiles. En effet, les flux d’échange naturels se chiffrent à l’équilibre en dizaine de milliards de tonnes. Mais cette amplitude est suffisante pour modifier les concentrations atmosphériques et surtout, sa rapidité est inquiétante. Même si une partie (2.0±0.8 GtC) est absorbée par les océans, une autre, (1.9±1.9 GtC) par la végétation et les sols, ce sont en moyenne plus de 3 GtC de carbone qui, chaque année, s’accumulent dans l’atmosphère.


user posted image
3 : Emissions de gaz carbonique, méthane, oxyde nitreux et dioxyde de soufre

Les émissions de CO2 dans le futur : scénarios extrêmes Qu’en est-il pour le futur ? Pour ce qui concerne les émissions nous nous tournons vers les économistes auxquels le GIEC a demandé de proposer différents scénarios prenant en compte celles de l’ensemble des gaz à effet de serre mais également des composés soufrés dont, nous l’avons vu, l’effet radiatif est négatif. Ces scénarios, au nombre de 40, sont établis en tenant compte de différentes possibilités vis à vis des développements démographiques et économiques futurs et des avancées technologiques qui peuvent raisonnablement être attendues. Nous ne les décrirons pas en détail mais, et ce n’est pas une surprise, le scénario auquel sont associées les émissions les plus élevées allie un développement économique rapide et une utilisation privilégiée des combustibles fossiles, tandis que les émissions les plus faibles correspondent à une économie de services et d’information avec une recherche optimale de techniques propres et d’efficacité énergétique. Dans le scénario maximum (figure 3), les émissions annuelles de gaz carbonique (un peu moins de 30 GtC) vont à la fin du siècle vers un quadruplement de leur valeur actuelle (7 GtC) tandis que dans le scénario minimum, elles croissent légèrement puis reviennent à un niveau de 5 GtC. Les émissions des autres gaz, méthane et oxyde nitreux, sont également plus importantes dans le scénario maximum tandis que celles des composés soufrés diminuent dans presque tous les scénarios du fait des efforts importants entrepris depuis plusieurs années pour diminuer les causes de cette pollution.

Les concentrations de CO2 atmosphériques dans le futur : scénarios extrêmes

L’étape suivante consiste à passer des émissions aux concentrations dans l’atmosphère à partir de modèles biogéochimiques. Pour le gaz carbonique ceux-ci tiennent compte des puits océanique et biosphérique et de leur évolution, et du fait qu’une fois dans l’océan le carbone y reste de l’ordre d’un millier d’années tandis que le stockage par la végétation n’est que très transitoire (quelques dizaines d’années). Là non plus pas de surprise : plus les émissions sont importantes, plus les concentrations deviennent élevées. Le scénario maximum nous entraînerait d’ici la fin du siècle vers des concentrations proches de 1000 ppm pour le gaz carbonique (triplement), 3 ppm pour le méthane (doublement) et 0,45 ppm pour l’oxyde nitreux (+50%). Traduites en termes de forçage radiatif, celui-ci serait augmenté de 8 W m-2.... Mais même le scénario minimum, celui pour lequel les émissions moyennes de gaz carboniqu sont au cours du 21ème siècle proches de leur niveau actuel, a des conséquences alarmantes avec en 2100 une concentration supérieure à 500 ppm et, tenant compte de l’ensemble des composés, un forçage radiatif supplémentaire de près de 3 W m-2.

La stabilisation de la concentration de CO2 atmosphérique

Maintenir les émissions de gaz carbonique à un niveau constant ne suffit donc pas pour que sa concentration se stabilise alors que la stabilisation des émissions de gaz à courte durée de vie tel que le méthane se traduit en quelques décennies au niveau de sa concentration dans l’atmosphère. Nous touchons là un point essentiel qui explique pourquoi les scientifiques considèrent que le protocole de Kyoto qui stipule une légère diminution des émissions de gaz carbonique n’est qu’une étape d’autant plus qu’en étaient dispensés les pays en voie de développement. Ceci étant, et nous y revenons plus en détail à la fin de cet article, c’est un premier pas indispensable, un passage obligé pour qu’ultérieurement, puissent être mises en place des règles plus contraignantes. Et même si les règles édictées à Kyoto ont été assouplies au cours des COP successives, si les Etats-Unis, principal émetteur de gaz carbonique refusent désormais toute contrainte, l’accord entériné à Marrakech, représente toujours un bel espoir qui, s’il est ratifié à Johannesburg, sera salué comme un pas en avant prometteur.

L’objectif de stabilisation

Mais beaucoup reste à faire pour que l’objectif de stabilisation visé par la CCNUCC puisse un jour être atteint. Pour s’en convaincre adressons nous non pas aux économistes mais aux spécialistes du cycle du carbone. Pour que la concentration de gaz carbonique se stabilise, il faut que les émissions soient contrebalancées par les puits océanique et biosphérique. Ce que confirment les modèles. Quelle que soit que la concentration visée, il faut qu’à un moment donné dans le futur, les émissions annuelles redescendent en- dessous de leur valeur actuelle pour atteindre des valeurs de 2 à 3 GtC, voire moins. Si l’on se contente d’une stabilisation à 1000 ppm, ce qui du point de vue du climatologue est complètement déraisonnable, il faudra néanmoins que les émissions n’excèdent jamais 15 GtC puis reviennent en dessous de leur niveau actuel dans 2 siècles. Une stabilisation à 550 ppm, soit déjà le double de la concentration préindustrielle, requiert que les émissions ne dépassent pas 12 GtC en 2040 puis redescendent à leur valeur actuelle vers 2100 et à environ 2 GtC à la fin du 22ème siècle. Mais si nous nous assignons un objectif, plus raisonnable, de 450 ppm, c’est dès 2020 que les émissions doivent diminuer pour atteindre leur valeur actuelle en 2050 et moins de 3 GtC à la fin du siècle. Certes la photosynthèse est favorisée par l’augmentation de la concentration en gaz carbonique avec, à la clé, l’espoir d’un puits biosphérique de plus en plus important. Mais d’autres effets (augmentation de la décomposition de la matière organique des sols, répartition différente des espèces...) annihilent l’absorption supplémentaire résultant d’une croissance plus importante de la végétation. Ils vont même au-delà et l’on peut craindre que la végétation ne se transforme de puits de gaz carbonique en source.... La capacité cumulée d’absorption de l’océan et de la biosphère risque en fait de diminuer à partir du milieu du 21ème siècle. Entre les 30 GtC du scénario maximum, celui pour lequel aucun effort n’est fait pour limiter l’effet de serre et celui certainement souhaitable d’une stabilisation à une concentration pas trop éloignée de sa valeur actuelle, c’est donc à terme un effort de l’ordre d’un facteur 10 qu’il faut réaliser. Le fossé est immense....

Quelques valeurs comparatives

Aujourd’hui, l’essentiel des émissions de gaz carbonique provient de l’utilisation des combustibles fossiles qui correspond à environ 6 milliards de tonnes de carbone émises par an. La stabilisation des concentrations atmosphériques impliquerait une réduction des émissions de plus de 40%. D’où l’ampleur du problème puisque ce sont directement les modes de production de l’énergie qui sont ainsi mis en cause. Ceux-ci reposent en effet pour 40% sur le pétrole, 20% sur le gaz et 25% sur le charbon. Il est intéressant ici de réfléchir à ce que pourrait être une répartition équitable des 2 à 3 milliards de tonnes auxquelles il faudrait revenir pour stabiliser la concentration atmosphérique en gaz carbonique. Pour une population de 6 milliards d’habitants, chaque habitant de la Terre disposerait donc de 500 kilogrammes de carbone fossile par an. Ce chiffre représente environ 10% des émissions actuelles d’un Américain, 15% de celles d’un Allemand, 25% de celles d’un Français, mais 120% de celles d’un Indien et 200% de celles d’un habitant de certains pays d’Afrique subsaharienne. On peut également noter que ce plafond est atteint par un seul aller et retour Paris - New York en avion ou l’utilisation de 2 tonnes de béton. L’effort à fournir pour stabiliser les concentrations de gaz à effet de serre est donc immense et en tout cas incompatible avec une vision du développement fondé sur l’idée de consommer toujours plus. Face aux inégalités actuelles et à la nécessite de développement des pays émergents, la voie de sortie consiste vraisemblablement à faire en sorte que l’Inde et la Chine puissent se développer sans augmenter dans le futur leurs émissions de gaz à effet de serre, mais que, dans le même temps, les pays riches en émettent considérablement moins.

Notre action sur les 15 prochaines années : un engagement sur le 21ème siècle

D’autant, nous l’avons vu que le problème n’est pas seulement quantitatif et que la variable temps joue aussi sur le niveau de stabilisation, compte tenu notamment des constantes de temps mises en jeu dans le cas du gaz carbonique par les échanges avec les océans et la biosphère. Ainsi, les décisions que l’on prendra au cours des 15 ou 20 prochaines années fixeront les trajectoires, raisonnables ou plus catastrophiques, à l’échelle du 21ème siècle, et même des siècles suivants.

user posted image
4 : Prédiction, jusqu’en 2100, de l’augmentation de la température moyenne de la planète et du niveau de la mer

Quel futur pour les climats de la Terre ?

Une fourchette pour le réchauffement futur Alors que l’étude des climats actuel et passé combine observations et simulations numériques, la prédiction de son évolution future ne peut faire appel qu’à la modélisation. Prenant en compte les différents scénarios évoqués ci-dessus, les modèles climatiques fixent une fourchette d’augmentation moyenne de la température à l’horizon 2100 comprise entre 1,4°C et 5,8°C (figure 4). Ainsi le 21ème siècle sera certainement un siècle de rupture, caractérisé par une transition extrêmement rapide et une amplification importante du réchauffement moyen comparé à celui observé au 20ème siècle. L’amplitude de la fourchette tient à deux causes principales, dont chacune représente à peu près la moitié de l’incertitude. La première est bien évidemment notre connaissance imparfaite du système et l’imprécision relative des modèles déjà mise en évidence. La seconde est liée à la difficulté de prévoir nos comportements en matière d’émissions de gaz à effet de serre. Ce réchauffement sera accompagné d’une augmentation du niveau de la mer, largement liée à la dilatation de l’océan et dont l’estimation est comprise entre 9 et 88 cm.

user posted image
5 : Inertie de différentes composantes du système climatique

L’importance de l’inertie du système Terre

Un aspect que met en exergue le troisième rapport du GIEC concerne l’inertie du système (figure 5). Nous l’avons discuté pour ce qui concerne le lien entre concentration atmosphérique et émissions de gaz carbonique. Il intervient également pour la température et, encore plus, pour le niveau de la mer. Plaçons nous à un moment dans le futur où les concentrations auront été stabilisées. La température moyenne de la planète va cependant continuer à augmenter avec, suivant les cas, de 50 à 90% du réchauffement réalisé ceci à cause de l’inertie de l’océan de surface qui met du temps à s’équilibrer avec l’atmosphère. Suivant le niveau de stabilisation de l’effet de serre, la température une fois l’équilibre atteint pourrait avoir augmenté de 3 à 8°C. Pour le niveau de la mer l’inertie est beaucoup plus grande car c’est l’océan dans son ensemble qui est impliqué dans le processus de dilatation thermique. Une fois les concentrations en gaz carbonique à l’équilibre, le niveau de la mer continue à monter de façon quasi linéaire pendant plusieurs siècles : s’il est monté de 50 cm à la fin du siècle, il passera à plus de 2 mètres au milieu du millénaire. S’y ajoute le risque non négligeable que la calotte du Groenland, située dans une région de haute latitude dans laquelle le réchauffement est amplifié, ne commence à fondre et contribue de quelques mètres supplémentaires à l’élévation du niveau des mers. Même dans le cas d’une politique très volontariste conduisant à la stabilisation de l’effet de serre, on peut donc raisonnablement craindre à l’échéance de quelques siècles des augmentations de température de l’ordre de celles qui ont accompagné le passage d’une période glaciaire à une période interglaciaire et une montée du niveau de la mer qui pourrait atteindre 5 mètres. Nul besoin devant ces chiffres d’insister sur l’absolue nécessité d’une politique de réduction des émissions.

La variabilité du système climatique

De plus, ces indicateurs correspondent à des valeurs moyennes dont l’estimation est largement basée sur l’utilisation de modèles simples qui seuls permettent d’examiner l’ensemble des scénarios. Mais comme tout système subissant une perturbation, le système climatique est également soumis à une variabilité accrue autour de ces valeurs moyennes. Celle-ci peut alors se traduire par une augmentation de la fréquence des événements extrêmes : périodes plus chaudes ou plus froides, pluviosité accrue ou sécheresse intense, renforcement des tempêtes. Elle implique également une modification des phénomènes qui régissent la variabilité naturelle du climat aux échelles de temps interannuelles. Ceux-ci ressortent principalement d’interaction entre les océans et l’atmosphère, à l’exemple du phénomène El Nino qui affecte régulièrement, tous les deux à quatre ans, l’Océan Pacifique tropical. Il est caractérisé par un déplacement des eaux chaudes de surface de l’ouest vers l’est du Pacifique et entraîne une modification importante des régimes de précipitations sur ces régions. Il engendre ainsi des sécheresses redoutables en Australie, Indonésie et dans le Nordeste brésilien, et des inondations violentes au Pérou, en Argentine et jusqu’en Californie. Les évènements El Nino observés récemment semblent montrer que l’intensité de ce phénomène s’accroît dans un climat plus chaud.

La prédiction à l’échelle régionale : les difficultés

C’est une difficulté supplémentaire que de prévoir ces changements climatiques aux échelles pertinentes des phénomènes, du local au régional. Ceci ne peut se faire que grâce à l’outil de modélisation et de simulation du système de l’environnement terrestre qui a été développé au cours des 20 dernières années. C’est un outil extrêmement complexe puisqu’il s’agit, sur la base des lois de la physique, de la dynamique et de la chimie, de simuler le comportement des différents compartiments de l’environnement : océan, atmosphère, biosphères terrestre et marine, cryosphère. Ces modèles sont d’autant plus complexes, qu’ils doivent non seulement rendre compte du comportement de chaque compartiment, mais également des couplages qui les lient entre eux. Ils sont bien sûr loin d’être parfaits, et ce pour deux raisons essentielles.

La première est que notre compréhension du fonctionnement de l’ensemble du système reste incomplète. La seconde tient au fait que les modèles ne peuvent simuler ce fonctionnement avec la résolution quasi infinie qu’impliquerait la prise en compte des échelles les plus fines des phénomènes mis en jeu (résolution spatiale de l’ordre du centimètre ou moins, et résolution temporelle supérieure à la seconde). Ils ont aujourd’hui des mailles de l’ordre de quelques dizaines de kilomètres et des échelles de temps de l’ordre de quelques jours, voire du mois. Ceci suppose donc que les phénomènes d’échelles plus courtes spatialement et plus rapides temporellement, soient paramétrés, ce qui constitue une importante source d’incertitude. Une des difficultés essentielles étant l’extrême hétérogénéité des échelles spatiales et temporelles, et notamment le fait que la différenciation des processus sur les échelles verticales s’opère sur des distances beaucoup plus faibles que sur la dimension horizontale. Une variation d’altitude de quelques dizaines de mètres dans l’océan ou l’atmosphère induit des différences extrêmement importantes. Dans ce contexte, une étape importante reste la validation de ces modèles qui prend en compte l’ensemble des données dont nous pouvons aujourd’hui disposer. Ces validations se fondent aussi bien sur la comparaison avec les observations actuelles, que sur la reconstitution des climats du passé.

Les conséquences du changement climatique

Une difficulté supplémentaire survient lorsque l’on veut prévoir les conséquences potentielles d’un changement climatique. Pour que ces prévisions aient un sens et puissent déboucher sur des mesures d’adaptation ou de correction, celles-ci doivent être évaluées à des échelles d’espace au moins régionales, voire locales. Or, en règle générale, les modèles les plus performants ne s’accordent que sur des fourchettes d’évolution des valeurs moyennes. Leur accord est moins bon dès lors qu’il s’agit de quantifier la variabilité climatique dans le temps et dans l’espace. Pour la température à la surface du globe, les modèles convergent pour montrer que le réchauffement sera plus intense dans les régions de hautes latitudes, en particulier dans l’hémisphère Nord. Mais, lorsque l’on s’intéresse aux précipitations, si tous les modèles prévoient une intensification du cycle de l’eau, avec des précipitations accrues dans les régions des hautes et moyennes latitudes, et des périodes plus sèches dans les régions tropicales et des basses latitudes, la limite entre ces deux régimes reste pour le moins difficile à préciser. Pour rendre compte de cette incertitude, on pourrait dire « qu’il pleuvra plus au Nord et moins au Sud d’une ligne passant par le centre de la France à 1 500 km près » ! Ce qui, on en conviendra, laisse une certaine marge de manœuvre pour l’aménagement du territoire métropolitain.

Conséquences potentielles sur le climat régional

Néanmoins, un certain nombre de conséquences potentielles du changement climatiques peuvent d’ores et déjà être mises en avant, de façon plus ou moins précise. Si la Terre se réchauffe en moyenne, les isothermes vont se déplacer, entraînant des modifications des écosystèmes : mutations des grands types de végétation avec en particulier un recul des surfaces boisées, sécheresse accrue dans les latitudes tropicales et risque de conditions extrêmes. En outre, certains écosystèmes assez fragiles seront particulièrement sensibles aux changements climatiques, et notamment les écosystèmes de montagne et les écosystèmes côtiers. Dans ce dernier cas, l’effet conjugué de variations climatiques locales et de l’élévation du niveau des mers peut avoir des conséquences importantes si l’on se souvient qu’une grande partie de la population du monde vit à proximité des côtes, et notamment dans les deltas des grands fleuves. En ce qui concerne la France, il est difficile, compte tenu des incertitudes déjà citées, de prévoir les conséquences à l’échelle régionale d’un changement climatique. Le climat sera vraisemblablement plus sec au sud, et plus pluvieux au nord. Les évènements extrêmes comme les tempêtes pourraient être plus fréquents, et l’enneigement diminuer sur les reliefs alpins.

L’amplification de la variabilité ?

Comme nous l’avons déjà noté, tous les modèles montrent qu’en dehors de la valeur moyenne, c’est la variabilité du climat qui risque de s’amplifier au cours des prochaines décennies. Celle-ci dépend pour une large part des couplages entre les différents compartiments du système Terre et est donc d’autant plus difficile à prévoir avec précision. Il est cependant très probable que les régions désertiques et subdésertiques seront particulièrement concernées. Autrement dit, certains des pays en voie de développement, qui doivent déjà faire face à des problèmes difficiles d’alimentation, risquent à nouveau d’être perdants dans la perspective d’un changement climatique. Une autre difficulté tient au fait que dans cet effort d’appréciation du futur, les données du passé ne sont pas suffisamment précises pour nous apporter des éléments de réponse. Une référence pourrait ainsi être la période de l’optimum climatique de l’holocène, voici environ 8 000 ans, quand les températures étaient en moyenne supérieure de 2°C à 3°C aux valeurs actuelles. La France était alors une gigantesque forêt avec des types de végétations variés. Mais les conditions étaient également trop différentes en termes d’occupation des sols pour que l’on puisse en tirer quelque conséquence que ce soit. Ce que nous confirment en revanche ces reconstitutions du passé, c’est qu’un écart de température de quelques degrés en valeur moyenne suffit à modifier complètement la nature des écosystèmes.

Des surprises possibles

L’approche des changements climatiques ne peut pas non plus se restreindre à une simple extrapolation linéaire des évolutions actuelles à l’échelle des décennies ou des siècles. Nous ne sommes probablement pas à l’abri d’une « surprise » plus rapide, liée au caractère non linéaire des couplages entre les océans, l’atmosphère et la biosphère. Un tel effet non linéaire s’est déjà produit dans l’atmosphère sous la forme du « trou d’ozone » dans l’Antarctique. Dans le cas du changement climatique, l’exemple d’un ralentissement du Gulf Stream est parfois mis en avant. Le Gulf Stream est ce courant chaud qui amène sur l’Europe de l’Ouest de l’énergie thermique en provenance des zones équatoriales et tropicales et qui nous permet d’avoir un climat largement plus doux que celui de nos amis canadiens, qui sont pourtant situés aux mêmes latitudes. Il est lié et alimenté par la plongée des eaux dans les hautes latitudes de l’océan Arctique Nord. Or, si la fonte des glaces de mer dans cette région, qui semble s’accélérer au cours des dernières décennies, n’a pas d’influence sur le niveau des mers, en revanche, elle diminue la salinité de l’océan puisqu’elles sont constituées d’eau douce. Comme la salinité est l’un des facteurs qui détermine précisément la plongée des eaux vers les profondeurs, sa diminution pourrait conduire à un ralentissement du courant. On sait que cette situation d’absence du Gulf Stream s’est déjà produit plusieurs fois dans le passé, à l’échelle de centaines de milliers d’années. En effet, on retrouve dans les sédiments le témoignage de périodes beaucoup plus froides. Dans le cas présent, un tel basculement pourrait s’opérer en quelques décennies, et nous obliger à nous adapter rapidement à un climat analogue à celui du Québec. Ainsi, le réchauffement moyen de la Terre risquerait conduire, du fait d’une instabilité climatique, à un refroidissement rapide de certaines régions. Ce risque n’est cependant pas confirmé par les modèles couplés les plus complexes. En cas de réchauffement climatique, ceux-ci prédisent bien un ralentissement du Gulf Stream lié à l’accroissement de l’évaporation dans les régions tropicales auquel sont associées des précipitations supplémentaires dans l’Atlantique Nord. Cependant c’est un moindre réchauffement, plutôt qu’un refroidissement qui est alors prédit sur l’Europe de l’Ouest.

L’impact sur la santé ?

Un groupe de travail du GIEC s’est également intéressé aux conséquences des changements climatiques sur la santé humaine. Il importe dès le départ de noter que leur appréciation reste largement de l’ordre du qualitatif. Les premières conséquences pourraient être liées à la recrudescence de phénomènes extrêmes comme les cyclones, les inondations ou les vagues de chaleur. En revanche, la fréquence des périodes très froides pourrait diminuer à nos latitudes. On peut ensuite penser à des effets secondaires : par exemple une fréquence accrue des périodes sèches peut entraîner des phénomènes d’érosion, et donc une mise en suspension plus importante de poussières et de pollens dans l’atmosphère augmentant les risques d’allergie. Des maladies infectieuses comme le paludisme, la fièvre dengue, la fièvre jaune, ou les encéphalites risquent de connaître une recrudescence dans les zones de basse et moyenne latitudes liée à l’augmentation de la température moyenne, et à la possibilité de remontée des maladies tropicales vers des régions plus septentrionales. D’autres facteurs peuvent également influencer la santé humaine, comme la diminution du rendement des productions agricoles, en particulier dans les zones tropicales, avec l’occurrence de périodes de sécheresse plus aiguës et des problèmes exacerbés de malnutrition et de famine. Il est enfin pour le moins évident que la vulnérabilité des populations sera directement fonction de leurs ressources naturelles, de leur ressources techniques et sociales, et on peut donc légitimement penser que ce seront à nouveau les populations les plus fragiles qui auront à subir, en termes d’alimentation et de santé, les conséquences maximales des changements climatiques.

Changement climatique, énergie et développement durable

La maîtrise raisonnée des émissions

Il est évident que les climatologues ne peuvent pas « guérir » le climat. Compte tenu des incertitudes actuelles très importantes sur le fonctionnement même du système de l’environnement terrestre, toute tentative de réparation, fondée sur une modification anthropique de tel ou tel processus climatique, s’apparenterait à un jeu d’apprenti sorcier. La seule façon que nous ayons aujourd’hui de diminuer les effets de la perturbation anthropique est d’en limiter l’amplitude. Il nous faut donc réfléchir à une maîtrise raisonnée des émissions de gaz à effet de serre, qui renvoie immédiatement au problème des sources d’énergie et du développement durable.

Le protocole de réductions des émissions, Kyoto, 1997

La prise de conscience de l’ampleur du problème à l’échelle mondiale remonte seulement au début des années 1990 avec la signature de la Convention de Rio de Janeiro sur le changement climatique. Un protocole de réduction des émissions a ensuite été signé à Kyoto en 1997 qui prévoit un objectif moyen de réduction des émissions de -5% en 2008-2012 par rapport au niveau atteint en 1990. Nous sommes effectivement loin de la réduction de 40% nécessaire pour stabiliser les concentrations de gaz à effet de serre dans l’atmosphère, mais les premières mesures sont souvent les plus difficiles à prendre. De plus, il faut tenir compte du fait que la prolongation des tendances d’accroissement annuel des émissions observées dans les années 1980 conduirait à des émissions en 2010 supérieures de 30% à 40% à celles de 1990. C’est donc bien une véritable rupture qu’implique le protocole de Kyoto. Ses objectifs sont modulés suivant les différents pays. Les engagements de Etats-Unis sont ainsi de -7%, ceux de la Russie de 0%, du Japon de -6% et de l’Union Européenne de -8%. Dans la bulle européenne, l’objectif fixé à la France est de 0%, celui de l’Allemagne de -21%, celui du Royaume Uni de -12,5%, alors que le Portugal et la Grèce peuvent augmenter leurs émissions de 25% et l’Espagne de 15%. Les pays en voie de développement et notamment la Chine et l’Inde ne sont pour l’instant pas concernés par ces réductions.

La position particulière de la France

La France occupe une position particulière dans ces négociations, liée au fait que la majeure partie de l’énergie électrique est issue de modes de production qui ne sont pas fondés sur l’utilisation des combustibles fossiles : le nucléaire pour 80%, l’hydroélectrique pour environ 15%. De ce fait la principale contribution aux émissions de gaz à effet de serre vient des activités agricoles (45 millions de tonnes), dont l’essentiel résulte directement ou indirectement de l’élevage. En effet, en bilan consolidé (L’Effet de serre, H. Le Treut et J.M. Jancovici, Flammarion 2001), la production d’une tonne de blé revient à émettre 110 kilogrammes d’équivalent carbone, alors que la production d’une tonne de viande correspond à l’émission de 8 tonnes d’équivalent carbone. Les émissions directes des procédés industriels correspondent à la seconde source d’émissions de gaz à effet de serre (35 millions de tonnes), puis viennent la consommation des ménages (25 millions de tonnes) et les transports (25 millions de tonnes). En fait, les émissions de gaz à effet de serre ont diminué en France entre 1970 et 1990 du fait du développement de l’énergie nucléaire, en particulier dans les secteurs déjà cités de la transformation de l’énergie et de l’industrie. Ceci explique que notre pays ait, au sein de la bulle européenne, un objectif affiché de stabilisation des émissions en 2008-2012 par rapport au niveau atteint en 1990. Celui-ci reste néanmoins difficile à atteindre, dans la mesure où les efforts importants ayant déjà été faits dans le domaine des modes de production énergétique et de l’efficacité des processus industriels, la flexibilité principale reste liée à notre capacité à stabiliser les émissions dans les secteurs du transport et de la consommation des ménages qui ont fortement tendance à augmenter. Ce problème met donc en cause les modes de vie de chacun d’entre nous.

Le protocole de Kyoto : toujours en attente d’être ratifié

Quatre ans après sa négociation le protocole de Kyoto n’est toujours pas ratifié, même si les accords entérinés à Bonn puis à Marrakech en 2001, laissent espérer une ratification prochaine. L’entrée en vigueur du Protocole requiert en effet qu’un ensemble de pays représentant plus de 55% des émissions de gaz à effet de serre s’engagent dans le processus. Le refus des Etats-Unis de ratifier le Protocole de Kyoto impose alors que l’Union Européenne, la Russie, le Japon et le Canada ou l’Australie soient parmi les signataires, ce qui semble aujourd’hui acquis. Mais la position des Etats-Unis principaux émetteurs de gaz à effet de serre à l’échelle mondiale pose les conditions d’une réduction rapide des émissions, malgré le volontarisme affiché par les autres pays. Il est plus que probable que les objectifs, même modestes, fixés par le Protocole de Kyoto pour la période de référence 2008-2012 ne seront pas atteints. Aujourd’hui, l’Union Européenne n’a réduit ses émissions que de -1%. Quant aux Etats-Unis, dont l’objectif est de -7%, ils en sont à +20% par rapport à l’année de référence 1990. Seul les Pays de l’Est et la Russie ont d’ores et déjà réussi à remplir leurs objectifs du fait du ralentissement majeur de leur économie au cours des années 1990, se traduisant par une baisse des émissions de 38%. Ce qui dans le cadre de la mise en œuvre d’un marché mondial de permis d’émission excite bien des convoitises. Cette difficulté qu’ont les principaux pays à se conformer aux objectifs du Protocole n’est d’ailleurs pas indépendante des positions affichées aujourd’hui quant à sa ratification. En ce qui concerne les pays en développement, les mécanismes mis en œuvre dans le cadre de la Convention de Rio de Janeiro et du Protocole de Kyoto, notamment ceux liés au développement propre, portent l’espoir d’une solution raisonnable à moyen terme.

La ratification du Protocole de Kyoto est certainement une première étape nécessaire si l’on considère que de notre capacité à prendre rapidement les décisions qui s’imposent dépendra pour une large part l’avenir des générations futures. C’est tout l’enjeu d’un développement durable à l’échelle de la Planète, qui ne saurait laisser de côté les pays en voie de développement. Il implique un changement décisif de nos modes de vie et de consommation et une volonté partagée par une large part de l’humanité. C’est un enjeu politique déterminant pour le 21ème siècle.

canardos
 
Message(s) : 18
Inscription : 23 Déc 2005, 16:16

Message par canardos » 28 Nov 2006, 21:20

a écrit :

Le mardi 28 novembre 2006


[center]La France connaît son automne le plus chaud depuis 1950[/center]

AFP

Toulouse


Cet automne est le plus chaud depuis 1950 avec des températures supérieures de 2,9 degrés à la normale saisonnière durant les trois derniers mois, a constaté mardi Météo France.

«On s'oriente vers une anomalie de température pour l'ensemble de l'automne de 2,9 degrés. Ce qui situe cet automne au rang des automnes les plus chauds depuis 1950, loin devant les automnes 2005 avec plus 1,4 degrés et 2000, plus 1,1 degrés», a indiqué Michel Schneider, ingénieur à la direction de la climatologie.

Le mois de septembre a été supérieur de 2,9 degrés à la normale et de 3,3 en octobre, ce qui place ces deux mois au second rang des plus chauds depuis 1950. Novembre devrait également dépasser de 2,4 degrés la normale saisonnière, le portant au quatrième rang des mois les plus chaud depuis 56 ans.

«Après une semaine particulièrement fraîche, novembre a ensuite connu des températures particulièrement douces, notamment autour du 15 et du 25. En fin de mois, les observations supérieures a 20 °C ont été nombreuses sur la moitié sud de la France. À Paris, la température est montée à 18,5 °C le 25», a précisé M. Schneider.

Les températures du début du mois de décembre devraient rester supérieures à la normale, a-t-il ajouté.

canardos
 
Message(s) : 18
Inscription : 23 Déc 2005, 16:16

Message par Sterd » 30 Nov 2006, 18:34

("Le Monde" a écrit :Un Gulf Stream ralenti aurait provoqué le Petit Age glaciaire
LE MONDE | 30.11.06 | 16h45  •  Mis à jour le 30.11.06 | 16h45

Historiens et climatologues en conviennent : le climat européen a connu, après les températures clémentes de l'"optimum médiéval", un net refroidissement. Les causes de cet âge glaciaire miniature, qui s'est ressenti entre le début du XIVe siècle (voire plus tôt) et le milieu du XIXe, demeurent l'objet de spéculations.

Certains invoquent une baisse de l'activité solaire. D'autres mettent en cause des cycles lents modifiant les courants océaniques. "Une des explications généralement avancées est celle d'une perturbation de la circulation des masses atmosphériques", dit Valérie Masson-Delmotte, climatologue au Laboratoire des sciences du climat et de l'environnement (LSCE).

Sans exclure aucune des causes possibles - dont les effets ont pu se cumuler ou s'induire -, des chercheurs américains sont parvenus à corréler le Petit Age glaciaire avec un ralentissement moyen du Gulf Stream d'environ 10 % sur la période concernée. Leurs travaux, publiés jeudi 30 novembre dans la revue Nature, reposent sur l'étude de carottes sédimentaires prélevées sur deux zones situées au large de la Floride - Dry Tortugas et Great Bahama Bank - par lesquelles transite le Gulf Stream. Ce courant marin charrie vers l'hémisphère Nord les eaux chaudes formées dans le golfe du Mexique et sert de régulateur climatique à l'Europe occidentale.

"L'approche proposée ici est totalement nouvelle, estime Marie-Alexandrine Sicre, chercheur au LSCE et spécialiste de l'analyse des sédiments marins. Mais il existe aujourd'hui très peu d'archives sédimentaires sur les périodes climatiques récentes et il faudra davantage de mesures à l'échelle du bassin atlantique pour comprendre le rôle de l'océan dans les transferts de chaleur vers le nord et les mécanismes qui les sous-tendent." Les travaux publiés ne concernent en effet qu'une portion du Gulf Stream située aux basses latitudes.

La reconstruction de l'histoire du Gulf Stream et de son influence sur le climat européen est d'actualité. Les océanographes et les climatologues prédisent en effet un ralentissement de la circulation océanique en raison des effets du réchauffement et en particulier à cause de la baisse de la salinité des eaux de surface dans l'Atlantique nord. L'ampleur de ce ralentissement à l'horizon de la fin du siècle et l'importance de son effet sur le climat européen sont des questions très débattues. L'étude de Nature apporte de nouveaux éléments de réponse.

Stéphane Foucart
Sterd
 
Message(s) : 0
Inscription : 27 Nov 2005, 20:51

Message par Crockette » 01 Déc 2006, 17:54

pour ce qui est du petit age glaciaire, la seule preuve que l'on est ce sont des tableaux de peintres...rien ne dit que la cause n'est pas une éruption volcanique comme celle de 1814-1815. Qui a provoqué un hiver rigoureux partout sur la planete.
J'ai fait une synthèse du document de CANARDOS
Voilà j'ai mis les principaux facteurs qui aggravent la situation de l'humanité face au défis du réchauffement climatique et à la qualité de l'air.

1) les éruptions solaires aggravent le réchuaffement de la planete.
2) les dégazages des hydrates de méthanes des abysses ou des grands lacs de l'hémisphère nord (cf articles de canardos ya quelques semaines) sont une menace potentielle illimitée en conséquences sur le changement de l'atmosphère.
3) la fonte de la banquise aggrave le réchauffement en faisant perdre totalement à la planete son pouvoir réfléchissant.
4) les trous de la couche d'ozone peuvent augmenter la puissance du soleil sur la terre.
5) la hausse de la vapeur d'eau dans l'atmosphère aggrave l'effet de serre.
6) les millions de tonnes de CO2 (canardos devrait nous expliquer les 4 à 8 W m-2 je comprens pas) chaque année ne peuvent plus être absorbés par les océans et les forets.
7) le role des nuages et des particules de souffres sont ambivalents. Moi je dirais qu'ils augmentent l'effet de serre mais ils empechent aussi le soleil de réchauffer sérieusement la planete.
8) j'ai rajouté un facteur perso : le développement de fermes usines où de smilliers de porcs et de vaches sont élevés intensivement et relachent très vite du méthane ds l'atmosphère. on parle de 50 litres de gaz liés à la digestion par bete et par jour !...
Crockette
 

PrécédentSuivant

Retour vers Sciences

Qui est en ligne ?

Utilisateur(s) parcourant ce forum : Aucun utilisateur inscrit et 1 invité