ecole de musique piano
     
menu
 
 
 
 
 
 

DE L'EXOBIOLOGIE À L'ASTROBIOLOGIE

 

De l’exobiologie à l’astrobiologie
Émergence et développement d’une nouvelle science interdisciplinaire
François Raulin

Dès qu’il a commencé à regarder et à observer le ciel, l’Homme a imaginé qu’il y avait dans ces lointains ailleurs d’autres mondes habités par d’autres vies, bien que souvent à l’image de la vie terrestre. François Raulin revient sur cette quête des mondes extraterrestres.
The Exobiology branch conducts research in Exobiology seeking to increase our knowledge of the origin, evolution, and distribution of life in the universe. To what extent did chemical evolution occur in the primitive bodies of the solar system? How did life originate on the Earth, and what role did minerals play? What evidence exists between biological and environmental evolution?

Plan
Une question de tous les temps
La naissance de l’exobiologie
Le champ s’élargit
La situation internationale
L’exobiologie en France
Le futur ?

Texte intégral
Signaler ce document


Une question de tous les temps
1
La question de l’existence et de la nature d’une éventuelle vie extraterrestre a été réservée pendant très longtemps à la littérature, qu’il s’agisse de textes philosophiques ou d’ouvrages de science fiction... L’idée est en effet présente dans de très nombreux écrits. En particulier les réflexions d’Anaximandre de Milet (610 à 546 av. J. C.), d’Empédocle (490 à 435 av. J. C.), de Démocrite (460 à 435 av. J. C.) et d’Aristote (384 à 322 av. J. C.) sur l’origine de la vie suggèrent fortement l’idée que ce phénomène est universel et que la vie est aussi présente ailleurs. De Giordano Bruno, qui périt sur le bûcher de l’église catholique et romaine en 1600, et son Infini, l’univers et les mondes, à Bernard de Fontenelle (1657-1757), et ses Entretiens sur la pluralité des mondes, ou plus récemment Camille Flammarion (1842- 1925) et ses nombreux ouvrages de vulgarisation, dont La pluralité des mondes habités, la notion d’une vie ailleurs, et même d’une vie intelligente, est largement développée.
2
Toutefois, malgré quelques actions ponctuelles, comme la recherche de micro-organismes dans des météorites par Louis Pasteur, la science de la vie extraterrestre a tardé à apparaître. Les observations de la planète Mars pendant la deuxième moitié du XIXe siècle ont généré le long épisode des canaux martiens, et laissé croire, jusqu’au début du XXe, à la présence de canaux artificiels sur Mars (contribuant sans doute au mythe des petits hommes verts). Les observations ultérieures faites avec des télescopes plus performants ont conduit à abandonner totalement cette hypothèse. On a toutefois continué de penser que Mars pouvait être habitée. Jusqu’aux années 1960, les changements de couleur de la surface martienne observés par les astronomes étaient même interprétés comme la présence de végétation.
3
En parallèle, le développement de la radioastronomie a ouvert de nouvelles possibilités pour rechercher une vie ailleurs, et, plus précisément, une vie intelligente : il « suffisait » d’écouter le cosmos et de détecter d’éventuels messages dans le domaine des ondes radio. Cette approche est appelée aujourd’hui « SETI » de l’acronyme Search for ExtraTerrestrial Intelligence (recherche d’intelligence extraterrestre). La première expérience SETI a été effectuée en 1960 par le jeune radioastronome Franck Drake. Des centaines d’écoutes de ce type ont été menées depuis, avec des outils de détection et de traitement de données plus adaptés, y compris en France au radiotélescope de Nançay sous l’impulsion de Jean Heidmann et François Biraud. Cependant, la systématique dans le domaine de la recherche de vie extraterrestre est issue d’une tout autre approche : l’exploration spatiale.
La naissance de l’exobiologie
    •   
4
C’est pendant le développement du programme Apollo de la NASA que le mot « exobiologie » a été inventé. La NASA se préparait à envoyer des astronautes sur la Lune. Ils allaient y collecter des échantillons et les rapporter sur Terre. N’y avait-il pas là un risque que ces échantillons contiennent des micro-organismes lunaires, susceptibles d’interagir avec la vie terrestre et de la mettre en péril ? La NASA a alors constitué un groupe de travail pour étudier cette question. Un des membres de ce groupe, Joshua Lederberg1, lauréat du prix Nobel de médecine en 1958, introduisit le mot « exobiologie » pour désigner la science qui s’intéresse à la vie extraterrestre.
5
Nous connaissons aujourd’hui les conditions hostiles qui règnent à la surface de la Lune, irradiée par les rayonnements très énergétiques émis par le soleil (UV et vent solaire) et les rayons cosmiques, incompatibles avec l’apparition et le développement de systèmes vivants. Aussi, l’hypothèse de la présence possible sur notre satellite naturel de micro-organismes vivants, y compris ceux que nous aurions pu y apporter lors des missions d’exploration, est-elle abandonnée. En revanche, l’exobiologie était née et ce nouveau domaine scientifique allait connaître une expansion très rapide. Six ans seulement après le premier pas de l’Homme sur la Lune, la NASA lançait la mission Viking vers Mars. Chacune des deux sondes Viking qui se posèrent à la surface de la planète rouge l’été 1976 incluait les premières expériences exobiologiques de l’exploration spatiale : trois instruments spécifiquement destinés à mettre en évidence une activité biologique dans le sol martien.
Le champ s’élargit
6
Depuis, le domaine de l’exobiologie a largement évolué, sous l’impulsion de microbiologistes mais aussi de chimistes et d’astrophysiciens, comme Carl Sagan. Ce scientifique qui a travaillé avec Lederberg, a su marier de façon efficace et fructueuse les sciences physiques et sciences de l’Univers avec les sciences de la vie. Premier exobiologiste ayant une réelle approche pluri- et interdisciplinaire, il a su aussi promouvoir ce nouveau domaine par une activité de vulgarisation exceptionnelle. Aujourd’hui, l’exobiologie a largement repoussé ses frontières. Ce domaine englobe à présent l’étude de l’origine, de la distribution et de l’évolution de la vie dans l’Univers, ainsi que des processus et structures qui sont liés à la vie. L’exobiologie est donc devenue aujourd’hui l’étude de la vie dans l’Univers. En parallèle, la communauté des astronomes et principalement des radioastronomes s’intéressant aux expériences « SETI », a introduit au début des années 1980 l’appellation « Bioastronomie ». Elle a aussi convaincu l’Union astronomique internationale de créer une commission sur cette thématique. Cette communauté organise depuis une conférence internationale tous les trois ans.
7
Plus récemment, au milieu des années 1990, la NASA a introduit le terme « Astrobiologie » pour désigner un domaine scientifique quasi identique (à la différence indiquée par l’agence américaine, que l’astrobiologie inclut le futur de la vie). Coïncidence ou stratégie, la NASA a lancé cette appellation alors qu’elle préparait son ambitieux programme d’exploration de Mars et avait besoin d’un soutien important du Congrès. Ce programme a pu être développé avec succès, en commençant par les lancements des missions Mars Global Surveyor et Mars PathFinder en 1996. Au même moment, la NASA créait son programme d’institut virtuel d’astrobiologie (NASA Astrobiology Institute ou NAI) qui réunit aujourd’hui seize centres aux États-Unis, avec de larges collaborations internationales.
8
En fait, ces trois appellations (sans compter une quatrième, « Cosmobiologie », peu utilisée) sont quasi-synonymes et, grosso modo, désignent toutes l’étude de la vie dans l’Univers. Il s’agit d’un domaine faisant appel à de nombreuses disciplines, allant des sciences souvent considérées comme « dures », telles que la physique (et l’astrophysique), en passant par les sciences « moins dures » de la chimie, la géologie, la biologie et les sciences de la vie en général, et allant même jusqu’aux sciences de l’homme et de la société.
9
Les approches sont nombreuses. Elles comprennent bien sûr la recherche de vie ou de signatures biologiques, présentes ou passées, ailleurs que sur Terre. Cette recherche peut se faire dans le système solaire par télédétection ou, depuis peu, grâce au développement des technologies spatiales, par mesures in situ. Elle peut aussi se faire hors du système solaire, par l’approche SETI et devrait pouvoir se faire dans un futur proche, par la détermination de la composition des atmosphères des planètes extrasolaires ou « exoplanètes », que nous savons détecter depuis plus de dix ans (près de 300 répertoriées à ce jour).
10
Mais l’exobiologie (et ses synonymes) inclut aussi l’étude du seul exemple de vie dont nous disposions pour l’instant : la vie terrestre comme référence. Plus précisément, l’étude de son ou ses origine(s), de sa diversité, de son évolution et de la vie terrestre dans des conditions extrêmes. La vie sur Terre est l’aboutissement d’une évolution chimique de composés organiques (~carbonés) en présence d’eau liquide, et sous flux d’énergie. Aussi l’exobiologie comprend-elle également l’étude de la chimie organique dans des environnements extraterrestres.
La situation internationale
11
La communauté exobiologique existait en fait avant l’invention de ce mot. On peut considérer qu’elle a commencé à se structurer au milieu des années 1950, et ce autour d’une nouvelle thématique : la chimie « prébiotique ». Stanley Miller venait de publier en 1953 dans la revue Science les résultats de son expérience, à présent célèbre. Il démontrait que l’évolution chimique de composés très simples dans des conditions simulant l’environnement primitif terrestre, peut conduire à des composés d’intérêt biologique, première étape vers la vie.
12
Il montrait aussi l’importance de la chimie de composés organiques simples dans l’eau liquide. De nombreuses équipes de chimistes et physicochimistes dans le monde se sont alors lancées dans des études de cette chimie particulière que l’on appelle à présent « prébiotique ».
13
Dès les années 1970, une société savante internationale est créée qui couvre tous les domaines liés à l’origine de la vie : l’ISSOL (International Society for the Study of the Origin of Life). Une conférence internationale sur l’origine de la vie (International Conference on the Origin of Life) est organisée tous les trois ans. La quinzième a eu lieu en août 2008 à Florence et a rassemblé près de 400 participants. Du fait des très forts recouvrements entre les questions traitées lors de cette conférence et celle de bioastronomie, il est prévu qu’en 2011 les deux soient combinées. La communauté exobiologique française a proposé de l’organiser à Montpellier, ce qui vient d’être accepté par les responsables des deux organismes.
14
Le domaine de l’exo/astrobiologie est aussi présent depuis la fin des années 1960 dans les commissions scientifiques du COSPAR (Committee on Space Research), organisme international qui s’occupe de la recherche spatiale sous tous ses aspects. L’assemblée générale du COSPAR qui a lieu régulièrement depuis 1960 (tous les ans, puis tous les deux ans depuis 1980) réunit plusieurs milliers de scientifiques, dont de nombreux exo/astrobiologistes. Sa commission des sciences de la vie comprend d’ailleurs depuis 2004 une sous-commission d’astrobiologie.
15
Le domaine a connu un accroissement très important depuis les années 1980, et les communautés exo/astrobiologiques se sont structurées dans de nombreux pays dans les années 1990. Aux États-Unis, cette structuration s’est effectuée, comme indiqué précédemment, avec la création du NAI en 1998. En France, au même moment le GDR Exobio est créé par le CNRS et va jouer ce rôle. De nombreux autres pays suivent ces exemples : Centre d’astrobiologie en Espagne (CAB), en Grande-Bretagne, Suède, Russie, Australie, Finlande, Japon et Mexique, entre autre. Malgré l’établissement de ces structures nationales, l’Europe n’est pas en reste. La société savante européenne d’astrobiologie (European Astrobiological Network Association, EANA) voit le jour en 2001, sous l’impulsion de nombreux exo/astrobiologistes responsables ou représentants des structures nationales citées ci-dessus, et avec le soutien de l’Agence spatiale européenne (ESA). L’un des principaux acteurs dans la création de l’EANA est un français, André Brack, qui en a assuré la présidence jusqu’en 2008.
16
Parallèlement, le développement des activités spatiales en Europe et des missions d’exploration planétaire est en train d’ouvrir l’approche « recherche in situ » de l’exo/astrobiologie à une communauté scientifique de plus en plus large. L’appel à proposition de mission « Cosmic Vision, 2015-2025 » fait par l’ESA en 2006 a donné lieu à de nombreuses réponses de la communauté internationale, dont une quarantaine intéressant l’exo/astrobiologie.
L’exobiologie en France
17
Dès les années 1970, plusieurs équipes travaillent en France sur l’origine de la vie (parfois appelée alors « Biogenèse »). Chimistes, biochimistes, biophysiciens osent se fourvoyer dans un domaine alors très éloigné des thèmes prioritaires soutenus par les grands organismes de recherche, dont le CNRS. Des expériences et/ou des concepts sont développés par les équipes de René Buvet, de Charles Sadron, d’Orcel, de Pulmann. De très jeunes (à l’époque) chercheurs sont attirés par ce domaine et rejoignent ces équipes. Certains parmi eux iront aussi effectuer des séjours de longue durée aux États-Unis : au début des années 1970, André Brack chez Leslie Orgel (chimie prébiotique des acides nucléiques) ; François Raulin chez Carl Sagan (synthèse prébiotique d’acides aminés), puis en 1979 chez Cyril Ponnaperuma (chimie organique extraterrestre en relation avec la mission Voyager). C’est à cette époque que la recherche spatiale a commencé à prendre de l’importance dans la communauté exobiologique, avec le développement d’expériences d’irradiation en orbite basse, et surtout de missions d’exploration planétaire.
18
La thématique exobiologie est reconnue par l’agence spatiale française (Centre national d’études spatiales, Cnes) dès la fin des années 1970, du fait des expériences en orbite terrestre. Elle fait alors partie du domaine des sciences de la vie et est scientifiquement coordonnée par un biologiste : Hubert Planel. Dix ans plus tard, avec la perspective des missions d’exploration planétaire, l’exobiologie passe dans le domaine de l’exploration de l’Univers au Cnes.
19
La communauté française est alors prête à se structurer. Coordonné par plusieurs d’entre eux, dont F. Raulin et A. Brack, et avec le soutien du CNRS et du Cnes, le premier colloque national d’exobiologie a lieu à Roscoff en 1997. Une demande de création de structure nationale d’exobiologie est envoyée au CNRS l’année suivante. Il en résulte en 1999 la création par le CNRS d’un Groupement de recherche en exobiologie (GDR Exobio) qui sera dirigé jusqu’en 2006 par F. Raulin, puis depuis 2007 par Frances Westall. Le GDR Exobio est en fait une fédération d’équipes qui a pour but de promouvoir et coordonner le développement de programmes en exo/astrobiologie en France, avec l’appui du CNRS (ex-SDU, actuellement MPPU) et du Cnes. Il concerne plusieurs dizaines de laboratoires et environ 200 chercheurs. Il lance un appel annuel à propositions, incite l’organisation de nombreux ateliers sur ses thématiques. Une école d’été d’exobiologie est organisée tous les deux ans (l’École de Propriano, coordonnée par Muriel Gargaud, de l’observatoire de Bordeaux). Enfin, il organise régulièrement un colloque national d’exobiologie (le dernier, fin mai 2008).
20
En 2004, compte tenu de l’expansion du domaine, le Cnes décide de créer un groupe thématique d’exo/astrobiologie, analogue pour l’exobiologie de ce qu’est son groupe Système solaire pour l’exploration planétaire.
21
Enfin, le CNRS crée en janvier 2007 un nouveau Programme interdisciplinaire « Origine des planètes et de la vie ». Le PID OPV avec un budget (500 kEuros/an) d’un ordre de grandeur supérieur à celui du GDR, devrait progressivement intégrer ce dernier. Son conseil scientifique comprend d’ailleurs de nombreux membres du GDR Exobio, dont Marie-Christine Maurel et F. Raulin, respectivement présidente et secrétaire scientifique du PID OPV. De plus, le PID OPV est dirigé par deux astrophysiciennes, Anne-Marie Lagrange et Maryvonne Gerin. Ce programme est un exemple d’interdisciplinarité : 50 propositions ont été reçues en réponse à son dernier appel d’offres, venant d’équipes appartenant à une large variété de départements du CNRS (MPPU, SC, SDV, SHS en particulier).
Le futur ?
22
L’exobiologie est par essence même basée sur l’interdisciplinarité, faisant intervenir la plupart des grands champs disciplinaires classiques, des sciences dures, aux sciences molles... La chimie est quasiment située à la frontière entre ces deux grands domaines. Or, les chimistes ont été parmi les premiers exobiologistes en France, c’est sans doute une conséquence de cette place particulière.
23
Mais il faut aussi noter le rôle clé joué par l’astrophysique et la planétologie dans le développement de l’exobiologie : la création du GDR puis celle du PID OPV en sont une illustration claire. L’interdisciplinarité, c’est l’avenir de la science. L’adaptation puis l’utilisation d’outils développés par d’autres champs disciplinaires peut être une source très riche de nouvelles découvertes. Le développement des recherches dans le monde des sciences de la vie et celui des sciences de l’environnement (atmosphère, climat) l’a déjà démontré. Ce devrait être encore plus exemplaire dans le cas de l’exobiologie, qui couvre toutes les sciences, des plus dures aux plus douces...
24
Or, les grands organismes qui gèrent la recherche publique en France sont encore bien mal adaptés à ce besoin d’interdisciplinarité. Le découpage en départements et/ou en sections du CNRS rend parfois bien difficile les actions transdisciplinaires, telles que celles s’appuyant sur la chimie ou les sciences de la vie et la planétologie, dans le cadre de programmes tels que le PID OPV. Avec l’établissement de commissions interdisciplinaires, le CNRS a, en partie, résolu les problèmes.
25
En revanche, ces problèmes persistent de façon très pénalisante pour les domaines tels que l’exobiologie en ce qui concerne l’enseignement supérieur, avec le découpage en sections du CNU dont les cloisonnements restent difficilement compatibles avec une réelle interdisciplinarité.
.text wResizable
Haut de page
#text
Notes
1 Biologiste américain, professeur et directeur des laboratoires de médecine moléculaire à l’université Stanford, Joshua Lederberg est le fondateur de la génétique moléculaire.

Pour citer cet article
Référence électronique
François Raulin, « De l’exobiologie à l’astrobiologie », La revue pour l’histoire du CNRS [En ligne], 23 | 2008, mis en ligne le 03 janvier 2011, consulté le 15 mai 2015. URL : http://histoire-cnrs.revues.org/8883

Auteur
François Raulin
Ancien directeur du Laboratoire interuniversitaire des systèmes atmosphériques du CNRS, François Raulin y est responsable du groupe de physico-chimie organique spatiale. Il est aussi le fondateur du GDR Exobio, une fédération de laboratoires du CNRS travaillant dans le domaine de l’exobiologie. Par ailleurs, il participe aux missions en cours ou en préparation d’exploration de la planète Mars, des comètes et du système solaire externe (Europe, Titan et Encelade).

 

  DOCUMENT     histoire-cnrs.revues.org   LIEN

 
 
 
 

L'ASTRONOMIE ET LE CNRS

 

L’astronomie, une belle aventure humaine
Pierre Léna

Résumé
En jetant un regard vers le demi-siècle écoulé (1950-2000), il est passionnant d’observer les développements majeurs qu’a connus l’astronomie en France et dont ce numéro se fait l’écho. Des acteurs de premier plan y racontent quelques-unes des belles aventures scientifiques de ces années et leur étonnante fécondité.

Indexation
Mots-clés :astronomie, astrophysique


Il aurait fallu dix fois plus d’espace et de témoins pour rendre justice à cet effort collectif, qui a remis notre pays à la place qui avait été la sienne dans l’histoire de l’astronomie européenne, avant que les terribles guerres du XXe siècle ne le rabaissent presque jusqu’à l’abandon. Jean-Claude Pecker, qui vécut la renaissance de l’après-guerre, témoigne de ces premiers moments où la vitalité scientifique de l’Institut d’astrophysique du CNRS allait développer les liens des astronomes avec la physique française, elle-même en plein renouvellement.
2
Le grand enjeu des années 1960-1970 fut celui des moyens d’observation, à toutes les longueurs d’onde du spectre. Dans notre pays, la volonté de redressement et l’intelligence des astronomes d’alors, conjuguées à de solides collaborations internationales, donnèrent naissance à la radioastronomie avec le radiotélescope de Nançay, aux débuts de l’aventure spatiale dans l’ultraviolet et l’infrarouge avec les fusées et satellites du Centre national d’études spatiales, à la construction d’un grand télescope optique moderne avec l’instrument CFH d’Hawaii.
3
Dans le même temps, la dimension politique, si essentielle dans la science moderne quand elle fait appel à de grands équipements, prenait forme. Au sein du CNRS, la création de l’Institut national d’astronomie et de géophysique (Inag) dotait les astronomes français d’un outil de pilotage et de réalisation au sein duquel il devenait possible de confronter les objectifs, de concerter des décisions stratégiques engageant l’avenir, enfin d’offrir aux pouvoirs publics une position solidement élaborée. Il est réconfortant de noter que l’Inag, devenu Insu en étendant son périmètre à toutes les sciences de l’Univers, sert aujourd’hui de modèle au concept d’Institut adopté par le CNRS. C’est un même mouvement qui, après la loi Savary de 1984, rénova les liens entre universités et observatoires – devenus Observatoires des sciences de l’Univers (OSU) – sur bien des campus, de Bordeaux à Strasbourg, et enracina désormais la recherche astronomique dans la vie universitaire. La création de deux grands laboratoires nouveaux, sur les campus d’Orsay et de Grenoble, conforta ce mouvement qu’accompagna le Commissariat à l’énergie atomique par son puissant Service d’astrophysique.
4
La renaissance de l’Europe scientifique, avec la création du Cern, allait servir de modèle à la création en 1962 de l’Observatoire européen austral (ESO), comme le raconte ici Catherine Cesarsky, qui dirigea récemment cette institution parvenue au premier plan mondial, tant avec le Very Large Telescope dans le domaine optique, qu’avec le projet Alma en radioastronomie, un projet qui doit tant aux compétences construites autour de l’Institut de radioastronomie millimétrique (Iram) bâti vingt ans plus tôt entre la France (CNRS), l’Allemagne et l’Espagne. Dans le VLT comme dans Alma, le rôle de l’astronomie française fut et demeure considérable.
5
L’exploration du système solaire et de ses planètes ainsi que les observations stellaires, extragalactiques ou cosmologiques ont connu une extraordinaire floraison avec l’accès à l’espace qui s’est amplifié lors de la création de l’Agence spatiale européenne en 1975, et les collaborations de toutes espèces qui se nouèrent tant avec les États- Unis qu’avec l’Union soviétique d’alors. Deux acteurs de premier plan y font ici écho : Thérèse Encrenaz, qui tout au long de sa carrière a accompagné la floraison de missions spatiales vers les planètes et participé aux découvertes associées ; François Mignard, qui a vécu l’aventure européenne du satellite Hipparcos. Ce projet a entièrement renouvelé une science ancienne, l’astrométrie, que certains croyaient tombée en désuétude, et ouvert la voie à la magnifique mission Gaia, que l’Europe se prépare à lancer et dont cet auteur est un des acteurs majeurs.
6
Si cette seconde moitié du XXe siècle fut l’âge d’or de l’astrophysique, ce qui se dessine à l’avenir n’est pas moins attirant : les grandes missions cosmologiques, telle la mission Planck lancée en 2009, s’attaquent à l’un des plus grands problèmes de la physique contemporaine révélé par l’astrophysique, celui de la matière noire. La découverte des planètes extrasolaires a conforté les premiers pas d’un nouveau champ de recherche, la bio-astronomie, qui s’interroge sur les conditions d’apparition de la vie sur Terre et l’éventuelle – ou probable ? – occurrence d’un phénomène analogue ailleurs dans l’Univers. François Raulin, qui fut parmi ces pionniers, décrit ici l’émergence de ce champ, et le rôle tout à fait éminent que la structure très interdisciplinaire du CNRS a joué dans celle-ci.
7
Ce panorama, largement évoqué dans les pages qui suivent, serait incomplet s’il n’évoquait pas l’enthousiasme de jeunes et brillants apprentis chercheurs qui ont, année après année, apporté pendant ces décennies leur créativité dans nos laboratoires et les font vivre aujourd’hui. À raison de quelques dizaines de thèses soutenues chaque année – entre 50 et 80 environ pour toute la France – nos écoles doctorales ont su attirer une grande diversité de talents, tantôt plus mathématiciens, plus ingénieurs, plus expérimentateurs, plus observateurs, plus théoriciens. Ces écoles ont offert à beaucoup d’entre eux le marchepied qui leur a permis d’accomplir, souvent après moult difficultés, leur rêve : devenir chercheur en astronomie, que ce soit au CNRS, dans une université ou une organisation internationale.
.text wResizable
Haut de page
#text
Pour citer cet article
Référence électronique
Pierre Léna, « L’astronomie, une belle aventure humaine », La revue pour l’histoire du CNRS [En ligne], 23 | 2008, mis en ligne le 03 janvier 2011, consulté le 14 mai 2015. URL : http://histoire-cnrs.revues.org/8583

Auteur
Pierre Léna
Pierre Léna est professeur émérite à l’université de Paris Diderot-Paris 7.

 

DOCUMENT        hitoire-cnrs.revues.org    LIEN

 
 
 
 

LE MÈTRE

 

 Le  Mètre


Le mètre (symbole m, du grec ancien μέτρον, métron mesure1) est l'unité de base de longueur du système international (SI). Il est défini, depuis 1983, comme la distance parcourue par la lumière dans le vide en 1/299 792 458 seconde2.


Au début de l'ère chrétienne, une relative uniformité des unités de longueur avait régné, dans le bassin méditerranéen, grâce à la suprématie de l'Empire romain qui avait imposé de fait le pied romain.
Avec la décadence puis le morcellement de l'Empire romain, chaque peuple a progressivement défini une unité de mesure de longueur adapté à sa région ou à son activité.
Plusieurs projets d'unification, lancés par divers monarques, n'ont pu mettre fin à ces pratiques locales3.
Prémices d'une définition universelle[modifier | modifier le code]
En 1668, John Wilkins publie la description d'une « mesure de longueur universelle », d'une unité de mesure dans le système décimal et qui serait la longueur d'un pendule qui oscille avec un battement d'une seconde, soit une période de 2 secondes. Sa longueur fondamentale est de 38 pouces de Prusse (1 pouce prussien = 26,15 mm), soit 993,7 mm. Dans ce même ouvrage, il en déduit la mesure du litre et du kilogramme, même si elles ne sont pas nommées ainsi4.
Sept ans plus tard, Tito Livio Burattini publie Misura Universale, ouvrage dans lequel il renomme la mesure universelle de Wilkins en metro cattolico (littéralement « mesure catholique » c'est-à-dire « universelle ») et confirme sa définition.
Il faudra cependant attendre plus d'un siècle pour que le mètre soit adopté et son usage généralisé par l'esprit des Lumières et de la Révolution française. Auparavant, les longueurs étaient mesurées en référence à l'humain (le pouce, le pied, la toise) ; comme chaque être humain est différent, on prenait souvent comme référence le roi, ce qui était un symbole monarchique fort. En pleine période révolutionnaire, en France, il fut donc décidé, afin de supprimer toute référence à un homme particulier et pour faciliter la diffusion du savoir, de choisir un étalon non humain unique et d'utiliser des multiples et sous-multiples de 10. Fini ainsi le pied qui valait 12 pouces.
Une longue série de tentatives va ainsi être concrétisée par l'adoption à l'Assemblée nationale, le 8 mai 1790, de deux décrets (signés par le roi Louis XVI, le 22 août) relatifs au projet d'unification des poids et mesures, proposé par Charles-Maurice de Talleyrand-Périgord, permettant le début des travaux d'une commission de l'Académie française des sciences5.
Première définition du mètre[modifier | modifier le code]
Le rapport de l'Académie des sciences du 19 mars 1791 — présenté par Nicolas de Condorcet — préconisait, parmi les propositions de Jean-Charles de Borda, que l'unité de longueur, baptisée mètre, soit basée sur une distance correspondant à une partie de l'arc du méridien terrestre5. Elle suggérait aussi que « l'on mesure, non pas tout un quart de méridien, mais l'arc de neuf degrés et demi entre Dunkerque et Montjuïc (Barcelone), qui se trouve exactement de part et d'autre du 45e parallèle et dont les extrémités sont au niveau de la mer5. »
Le mètre est défini officiellement le 26 mars 1791 par l'Académie des sciences comme étant la dix-millionième partie de la moitié de méridien terrestre (ou d'un quart de grand cercle passant par les pôles), ou encore le dix-millionième de la distance pour aller par le plus court chemin d’un pôle à un point donné de l’équateur3. Il s'avère que cette grandeur est quasiment identique au mètre du pendule défini à une latitude de 45° et au niveau de la mer, puisque celui-ci valait 0,993977 m de la nouvelle unité6,N 1.
Si ce n'est le corps humain, la nature restait donc la référence ; bien que la définition de Burattini aurait pu s'avérer plus précise, la définition du mètre par rapport à la longueur d’un chemin fut jugée plus compréhensible que celle d’un pendule liée à la définition de la seconde mais aussi à d'autres grandeurs comme la pesanteur6, N 2.
Toutefois, cette définition géophysique ne permettait pas de concrétiser le mètre pour le légaliser. En juin 1792, Jean-Baptiste Joseph Delambre fut chargé de mesurer la distance entre Dunkerque et Rodez pendant que Pierre Méchain mesura celle de Barcelone à Rodez. Ils devaient se retrouver à Rodez. Cela devait permettre d'établir précisément et concrètement la valeur du mètre.
En 1793, à Montjuïc près de Barcelone, Méchain détecta une incohérence entre les longueurs relevées et le relevé astronomique de la position des étoiles. La guerre franco-espagnole l'empêcha de réitérer ses mesures. Cet écart, qui n'était en fait pas dû à une erreur de manipulation mais à l'incertitude des instruments utilisésN 3, le plongea dans un profond trouble et il mit tout en œuvre pour éviter de devoir rendre compte de ses travaux à Paris.
En août 1793, la Convention nationale décréta que le système nouveau des poids et mesures se substituerait à l'ancien pour toute la République française.
C’est finalement la mesure de Delambre qui fut adoptée par la France le 7 avril 1795 comme mesure de longueur officielle7,6.

De février 1796 à décembre 1797, seize mètres-étalons gravés dans du marbre furent placés dans Paris et ses alentours, pour familiariser la population avec la nouvelle mesure. Aujourd'hui, il n'en subsiste que quatre :
    •    l'un est au 36 de la rue de Vaugirard, à droite de l'entrée ;
    •    le deuxième, replacé en 1848, est au 13 de la place Vendôme, à gauche de l'entrée du ministère de la Justice,
    •    le troisième est à Croissy-sur-Seine (Yvelines), dans un mur de la rue au MètreN 5,
    •    le quatrième à Sceaux (Hauts-de-Seine).
En 1799, Méchain se résigne à se rendre à une conférence internationale qui salue son œuvre scientifique. Il maquille alors ses résultats, ce qui rend le mètre-étalon de 1795 trop court de 0,2 mm par rapport à sa définition initiale de 1791 donnée par l’Académie des sciences. Ainsi en 1799, un nouveau mètre-étalon en platine fut créé à partir de cette définition et devint la référence (loi du 19 frimaire an VIII)8. La « fraude » de Méchain ne sera découverte par Delambre qu'en 1806, année où il réétudiera l'ensemble des résultats lors de la rédaction de Base du système métrique, sans pour autant renier ce nouveau mètre-étalon qui ne correspondait plus à la définition de 1791 de l’Académie des sciences. Ce second mètre-étalon (qui sera utilisé pendant 90 ans, soit la plus longue période légale pour ce mètre) ne correspondait donc déjà plus à la Terre.
Le système métrique décimal est officiellement adopté en France par la loi du 4 juillet 1837 qui favorise la connaissance à l'étranger de ce système. Avant même d'y être officiellement adopté, il est progressivement utilisé aux Pays-Bas en 1816, en Grèce en 1836, en Espagne en 1849, en Italie en 1850, aux États-Unis en 1866, en Allemagne en 1868, au Canada en 1871, etc.9
Le premier mètre étalon du BIPM[modifier | modifier le code]
En 1889, le Bureau international des poids et mesures (BIPM) redéfinit le mètre comme étant la distance entre deux points sur une barre d'un alliage de platine et d'iridium. Cette barre (la troisième concrétisation légale du mètre-étalon) est toujours conservée au pavillon de Breteuil à Sèvres10.
Cette concrétisation du mètre s'avérera vite assez peu compatible avec les progrès réalisés et avec les besoins de précision demandés par le milieu scientifique. Celui-ci s'inquiète déjà des conditions de conservation de ce mètre légal également difficile à reproduire en laboratoire, le mètre-étalon légal n’étant pas assez accessible pour permettre des mesures comparatives précises sans en même temps en altérer irrémédiablement ses propriétés physiques.
Définitions modernes[modifier | modifier le code]
En 1960, la 11e Conférence générale des poids et mesures (CGPM) redéfinit le mètre comme 1 650 763,73 longueurs d'onde d'une radiation orangée émise par l'isotope 86 du krypton11.
La 17e CGPM de 1983 redéfinit la vitesse de la lumière dans le vide absolu à 299 792 458 m/s, ce qui a pour effet de réviser la valeur du mètre comme étant la distance parcourue par la lumière dans le vide en 1/299 792 458 seconde2,3.
La vitesse de la lumière dans le vide étant la même en tous points (résultat établi par l'expérience de Michelson-Morley et ayant servi de base à la relativité restreinte), la définition de 1983 est plus précise que l'antérieure car la seconde est l'unité du Système international (SI) qui est mesurée avec la plus faible incertitude11,2.
Conversions et repères[modifier | modifier le code]
Relation avec d'autres unités de mesures[modifier | modifier le code]
Il existe une relation entre l'unité de mesure (mètre), l'unité de masse (kilogramme), les unités de surface (mètre carré) et les unités de volume (mètre cube et litre, souvent utilisés pour désigner des volumes ou des quantités de liquides) :
    •    un mètre carré (m2) est, par exemple, la surface d'un carré dont chaque côté mesure un mètre ;
    •    un mètre cube (m3) est, par exemple, le volume d'un cube dont chaque arête mesure un mètre ;
    •    à l'origine, le kilogramme fut défini comme la masse d'un décimètre cube (dm3) d'eau pure, avant d'être remplacé par un étalon en platine d’un kilogramme (voir : Historique du kilogramme).
Dans certains métiers (terrassement, de construction, etc.), on parle de « mètre linéaire (noté : « ml »). Il s'agit d'un pléonasme, puisque le mètre désigne précisément une longueur de ligne et que la norme NF X 02-00312 précise qu'on ne doit pas affecter les noms d'unités de qualificatifs qui devraient se rapporter à la grandeur correspondante. Par ailleurs le symbole mℓ ou mL correspond dans le SI à millilitre, ce qui n'a rien à voir avec une longueur et est une source de confusion.
On emploie usuellement pour les gaz le normo mètre cube, anciennement noté « mètre cube normal », qui correspond au volume mesuré en mètres cubes dans des conditions normales de température et de pression. Cette unité n'est pas reconnue par le BIPM. Sa définition varie selon les pays et selon les professions qui l'utilisent.
En fait, et de façon générale, « le symbole de l’unité ne doit pas être utilisé pour fournir des informations spécifiques sur la grandeur en question. Les unités ne doivent jamais servir à fournir des informations complémentaires sur la nature de la grandeur ; ce type d’information doit être attaché au symbole de la grandeur et pas à celui de l’unité13 » (ici le volume). On doit donc dire « volume mesuré en mètres cubes dans les conditions normales de température et de pression », abrégé en « volume normal en mètres cubes ».

( cliquer  sur  le  LIEN  pour  lire  la  suite )

 

DOCUMENT           WIKIPEDIA         LIEN

 
 
 
 

LE CLIMAT : MÉCANISMES ET VARIABILITÉ

 

Texte   de la 207ème conférence de l'Université de tous les savoirs donnée le 25 juillet 2000.


Le climat
par Robert Sadourny

Qu'est-ce que le climat ?
Comme la météorologie est la science des météores, en particulier du temps qu'il fait ou qu'il va faire, la climatologie est la science du climat, c'est à dire la science des probabilités ou des statistiques sur le temps. On entend trop souvent dire qu'une fête a été gâchée (par exemple) « en raison des mauvaises conditions climatiques », alors qu'il s'agit là, bien sûr, de mauvaises conditions météorologiques : le climat ne change pas quand en quelques jours, on passe du beau temps au mauvais temps !
Quand nous parlons de climat, de quel système physique parlons-nous ? Le système climatique inclut naturellement les basses couches de l'atmosphère où nous vivons, et les couches plus élevées dont le comportement est étroitement lié à celles-ci : principalement la troposphère et dans une moindre mesure, la stratosphère. Ce système inclut aussi les océans et les couches superficielles des terres émergées, qui échangent de l'eau et de la chaleur avec l'atmosphère, et bien sûr, les glaces de terre et de mer. Mais l'étude du climat ne se réduit pas à celle d'un système physique. Le climat interagit très fortement avec la chimie de l'atmosphère et de l'océan, et aussi avec la biosphère, c'est à dire l'ensemble des êtres vivants.
Étudier le climat, c'est non seulement observer continûment, sur l'ensemble du globe et durant de longues périodes, le comportement de l'atmosphère, de l'océan, des glaces et des terres émergées, mais aussi modéliser l'ensemble des mécanismes du système pour simuler son évolution. C'est en comparant le climat simulé au climat observé que nous mesurons notre niveau de compréhension des mécanismes, et donc nos capacités à prédire les évolutions futures. La climatologie s'est développée très rapidement à l'ère des satellites et des calculateurs. Les sondeurs spatiaux placés à bord de satellites à défilement, à orbite quasi-polaire, comme la série météorologique opérationnelle américaine Nimbus, permettent de suivre l'évolution des profils verticaux de la température et de l'humidité sur l'ensemble du globe. Les radiomètres à bande large, comme ERBI, ScaRaB ou CERES nous permettent de suivre les variations spatio-temporelles du bilan d'énergie de la planète. Les satellites géostationnaires comme Météosat observent en permanence les tropiques et les latitudes moyennes de leur position équatoriale à 36 000 km d'altitude. L'altimètre de TOPEX-Poséidon mesure, avec une précision de quelques centimètres, l'altitude du niveau de la mer, qui nous renseigne sur la dynamique des courants.
Quant aux modèles de climat, ce sont bien sûr des modèles pronostiques, qui décrivent une évolution dans le temps à partir d'une situation initiale donnée, comme les modèles de prévision météorologique. Mais ils doivent inclure, en plus de l'atmosphère, des océans et des glaces de mer interactifs, ainsi que les couverts végétaux et l'hydrologie des terres émergées. Ces modèles simulent en particulier le cycle de l'eau dans son ensemble, la formation des divers types de nuages, la formation de glaces de mer ; ils commencent aujourd'hui à inclure une végétation interactive et certains cycles chimiques comme le cycle du carbone et celui de l'ozone stratosphérique. Le coût de calcul est tel que, dans la pratique, la durée d'une simulation dépasse rarement le siècle ; pour des simulations plus longues, il faut user de modèles simplifiés. Le résultat d'une simulation est une évolution, c'est à dire une succession d'états instantanés du système ; l'interprétation climatologique de cette simulation repose ensuite sur l'analyse statistique de cet succession d'états. C'est d'ailleurs bien parce que le climat est un problème statistique que nous pouvons prolonger nos simulations bien au delà de la limite de prévisibilité de l'atmosphère (une douzaine de jours au plus) : on ne s'intéresse plus, comme dans la prévision du temps, aux perturbations individuelles, mais à leurs probabilités d'occurrence. Ces statistiques sont basées, soit sur des moyennes temporelles, soit sur des ensembles de simulations indépendantes. Ces dernières sont relativement faciles à construire. Il suffit par exemple de perturber très légèrement les états initiaux : à cause des instabilités du système, deux solutions initialement très proches deviennent totalement décorrélées dès qu'on atteint la limite de prévisibilité.
Énergie et climat
Le climat est d'abord une affaire d'énergie. L'apport d'énergie vient presque exclusivement du soleil ; il se répartit dans l'espace et dans le temps en fonction du mouvement orbital de la Terre, de la rotation de celle-ci sur elle-même, et des variations dans le temps de la puissance solaire. La façon dont cette énergie solaire incidente traverse l'atmosphère, pénètre à la surface, se transforme en d'autres types d'énergie comme l'énergie latente ou l'énergie potentielle, puis est réémise vers l'espace à travers l'atmosphère sous forme d'énergie infrarouge, dépend de la composition physico-chimique de l'atmosphère, du cycle de l'eau, des propriétés optiques de l'océan, de l'état des surfaces émergées et de leur couvert végétal, et enfin du transport d'énergie d'un endroit à l'autre de la planète par les mouvements de l'atmosphère et de l'océan. L'ensemble du système peut s'interpréter comme une sorte d'énorme machine thermique.
Intéressons-nous d'abord aux valeurs moyennes qui déterminent le climat terrestre. La luminosité solaire actuelle correspond à un flux incident d'énergie solaire d'environ 1368 Wm-2 ; si nous répartissons ce flux sur l'ensemble de la surface terrestre (soit quatre fois la section du cylindre intercepté par la Terre), nous obtenons une valeur moyenne de 342 Wm-2. De ce flux incident, environ 30 %, soit 102 Wm-2, est réfléchi ou rétrodiffusé vers l'espace par les nuages, les aérosols, la neige et les parties les plus réfléchissantes de la surface, notamment les déserts. Restent donc 240 Wm-2 qui sont réellement absorbés par le système : environ 65 par l'atmosphère, le reste, environ 175, servant à chauffer la surface. Le fait que presque les trois quarts de l'énergie solaire absorbée le soit au niveau de la surface entraîne naturellement que la température de l'air décroît quand on s'élève ; mais l'effet de serre accentue très fortement cette décroissance. En effet, la surface chauffée par le rayonnement solaire restitue son énergie à l'espace principalement sous forme de rayonnement infrarouge, dont une partie est absorbée et réémise vers le bas par l'écran des gaz à effet de serre (vapeur d'eau, CO2, méthane, N2O, ozone, halocarbures) ainsi que par les nuages. Cet effet de serre piège ainsi une grande quantité de chaleur dans les basses couches, dont il contribue à élever encore la température. Le rayonnement intercepté par l'effet de serre est de l'ordre de 155 Wm-2 ; cette valeur est une mesure de l'effet de serre total. Une autre mesure possible de l'effet de serre est le réchauffement qu'il entraîne pour la surface : 33°C, calculé comme la différence entre la température moyenne de la surface (288 K), et la température de la Terre vue de l'espace à travers l'atmosphère (255 K).
Les radiomètres à bandes larges comme ScaRaB (CNRS-CNES), qui mesurent le bilan radiatif depuis l'espace, nous renseignent sur les flux nets de rayonnement solaire et infrarouge irradiés par la Terre vers l'espace. Combinées avec les mesures de surface, les données de ces instruments permettent par exemple d'étudier la modulation de l'effet de serre par la température de surface, par la vapeur d'eau (le plus abondant des gaz à effet de serre) et par les nuages. D'après ScaRaB, la contribution des nuages à l'effet de serre global est d'environ 30 Wm-2, alors qu'ils augmentent la réflectivité de la planète de 48 Wm-2 : l'effet radiatif net des nuages va donc dans le sens d'un refroidissement du climat par 18 Wm-2. Bien sûr, il s'agit là d'une valeur moyenne : l'effet radiatif varie selon les types de nuages, et se répartit diversement en fonction des lieux et des saisons.
En moyenne sur le globe et dans le temps, le bilan d'énergie de la planète Terre est à peu près équilibré : la Terre irradie vers l'espace dans l'infrarouge une énergie sensiblement égale à celle qu'elle reçoit du soleil. Mais il est bien évident que cet équilibre ne peut être qu'approché, à cause des oscillations permanentes - diurnes, saisonnière et autres - du système climatique, et aussi, aujourd'hui, de la perturbation faible mais significative due à l'activité planétaire des hommes.
Le rôle de l'atmosphère et de l'océan
Par contre, en un point donné de la Terre, le bilan des échanges d'énergie avec l'espace est loin d'être équilibré. Dans les tropiques, la Terre reçoit plus d'énergie solaire qu'elle n'émet de rayonnement infrarouge ; dans les régions polaires, c'est l'inverse. Les régions d'excédent ou de déficit énergétique sont modulées par les saisons : l'hémisphère d'hiver est partout déficitaire, c'est à dire qu'en tout point, il perd de l'énergie vers l'espace. Certaines régions du globe sont même déficitaires durant toute l'année. C'est le cas des déserts subtropicaux comme le Sahara : l'air au dessus du Sahara étant particulièrement sec et sans nuage, l'effet de serre est minimal, ce qui entraîne une forte perte d'énergie infrarouge (d'où des températures nocturnes très basses) ; en outre, l'absence de végétation se traduit par une forte réflectivité de la surface, qui renvoie vers l'espace 30 à 40 % de l'énergie solaire incidente. La conjugaison de ces deux mécanismes fait de la région saharienne un puits d'énergie qui persiste tout au long de l'année.
La distribution du bilan net, ou flux net d'énergie entre la Terre et l'espace, nous renseigne sur les mouvements de l'atmosphère et de l'océan. En effet, ce sera le rôle de ces deux fluides de transporter l'excès d'énergie reçue ici ou là, vers les régions où le déficit domine. En particulier, l'océan et l'atmosphère vont transporter l'énergie de la bande tropicale vers les moyennes et les hautes latitudes, plus particulièrement du côté de l'hémisphère d'hiver. Intégrés sur un parallèle et sur l'épaisseur de l'atmosphère et de l'océan, ces flux méridiens sont de l'ordre de 5x1015 Watts. L'océan et l'atmosphère prennent une part sensiblement égale à ces transferts.
Comment l'atmosphère et l'océan peuvent-ils transporter l'énergie d'un endroit à l'autre de la planète ?
Un premier mécanisme est le mélange horizontal des masses d'air. Il est surtout efficace dans l'atmosphère, aux latitudes moyennes et pendant l'hiver, là où la température varie très rapidement avec la latitude. L'instabilité de l'écoulement atmosphérique crée des perturbations (basses pressions autour desquelles l'air tourne à peu près horizontalement dans le sens inverse des aiguilles d'une montre) qui brassent l'air chaud et souvent humide venant des subtropiques, avec l'air froid et plutôt sec venant des hautes latitudes. Cet échange se traduit par un flux de chaleur et d'énergie latente (ou vapeur d'eau) allant des subtropiques vers les hautes latitudes. Le brassage par les perturbations n'est efficace pour transporter l'énergie que parce qu'il mélange des masses d'air subtropical très énergétique, avec des masses d'air subpolaire qui le sont beaucoup moins.
Dans la bande tropicale, ce type de transport devient totalement inefficace, car les températures sont horizontalement très uniformes, et il en est de même des niveaux d'énergie. L'énergie sera transportée par des mouvements tridimensionnels, organisés en rouleaux, avec des régions d'ascendance et des régions de subsidence, le fluide allant dans les hautes couches, des régions d'ascendance vers les régions de subsidence, et dans les basses couches, des régions de subsidence vers les régions d'ascendance. Pour comprendre comment des rouleaux verticaux peuvent transporter de l'énergie suivant l'horizontale, il nous faut dire quelques mots de deux propriétés très importantes de l'atmosphère et de l'océan : il s'agit de la stratification et de la stabilité.
L'atmosphère et l'océan sont des fluides presque partout stratifiés en densité, en pression et en température : la densité, la pression et la température varient beaucoup plus vite (par plusieurs ordres de grandeur) suivant la verticale que suivant l'horizontale. L'origine de la stratification en température de l'atmosphère est, on l'a vu, le chauffage par la surface et l'effet de serre ; quant à l'océan, il est aussi chauffé par la surface et la température décroît naturellement quand on s'enfonce. Il va de soi que, partout où ces stratifications sont établies, elle sont stables, c'est-à-dire que le fluide léger est situé au dessus du fluide plus lourd ; les mouvements sont quasi-hydrostatiques. On démontre qu'une stratification est stable si l'énergie croît quand on s'élève.
Puisqu'il en est ainsi, il est clair que dans une circulation en rouleaux, la branche supérieure transporte plus d'énergie des ascendances vers les subsidences, que la branche inférieure n'en transporte des subsidences vers les ascendances. Le bilan net sera donc un transport d'énergie des ascendances vers les subsidences : les régions excédentaires en énergie seront des régions d'ascendance, et les régions déficitaires, des régions de subsidence.
Dans l'atmosphère, les régions excédentaires se trouvent principalement dans les tropiques, là où l'atmosphère reçoit un fort apport d'énergie à la surface : sur les continents, là où le soleil est au zénith, et sur l'océan, là où la surface de l'eau est particulièrement chaude. Cet apport d'énergie à la base a un effet déstabilisateur : les ascendances s'accompagnent de puissants mouvements convectifs (cumulonimbus pouvant atteindre jusqu'à 20 km de hauteur) qui transportent l'énergie vers le haut et restabilisent la stratification. Les masses d'air léger, chaud et humide qui montent dans ces tours convectives se refroidissent, leur humidité se condense et retombe en pluie : le passage du soleil au zénith sur les continents tropicaux correspond ainsi à la saison des pluies ou mousson. C'est donc un air froid et sec qui atteint les hautes couches et se dirige vers les régions déficitaires en énergie comme les déserts, où il redescend vers la surface. Ainsi, la désertification favorise le développement d'une subsidence d'air sec, qui en retour, favorise la désertification. Le contraste entre les régions convectives et humides, et les régions de subsidence où l'air est sec sont particulièrement visibles sur les images du canal vapeur d'eau de Météosat.
Dans l'océan, c'est la déperdition d'énergie à la surface, aux hautes latitudes, qui tend à violer la condition de stabilité et déclenche la convection. Celle-ci se produit surtout dans les mers de Norvège et du Labrador, et, près de l'Antarctique, dans la mer de Weddell, où l'eau lourde, froide et salée plonge et alimente la circulation abyssale.
La vapeur d'eau dans l'atmosphère, le sel dans l'océan sont tous deux des facteurs déstabilisants pour la stratification. Les seules sources de la vapeur d'eau atmosphérique (ou énergie latente) se trouvent à la surface : c'est l'évaporation sur l'océan, les surfaces d'eau ou les sols humides, ou l'évapotranspiration des couverts végétaux. De plus, la pression de vapeur saturante décroît exponentiellement quand la température s'abaisse : un air très froid ne peut absorber que très peu de vapeur d'eau. L'énergie latente est donc confinée dans les tropiques et surtout dans les basses couches de l'atmosphère, ce qui va à l'encontre de la loi de stabilité. C'est la raison pour laquelle la convection tropicale est dominée par la convection humide. Dans l'océan, l'évaporation à la surface alourdit l'eau superficielle en la chargeant en sel. Aux hautes latitudes, la formation de glace de mer est une source additionnelle de sel : le sel expulsé par la glace vient alourdir l'eau de surface, favorisant l'apparition de cheminées convectives, où se forme l'eau profonde.
Dans l'atmosphère tropicale, la circulation en rouleaux peut se schématiser en moyenne zonale sous le nom de cellule de Hadley, qui transporte l'énergie de ce que l'on appelle l'équateur météorologique, vers les subtropiques de l'hémisphère d'hiver. Au delà des subtropiques, c'est le mélange horizontal qui prend le relais pour transporter l'énergie vers les pôles. Il est intéressant de noter que lorsqu'on s'élève, si l'énergie totale et bien sûr l'énergie potentielle croissent, la chaleur sensible et l'énergie latente décroissent. Si donc les rouleaux exportent de l'énergie totale des régions d'ascendance, ils y importent en même temps de l'énergie sensible et latente, favorisant ainsi la convection et le maintien des rouleaux.
L'analogue dans l'océan des circulations en rouleaux dans l'atmosphère est la circulation tridimensionnelle dite thermohaline, parce qu'elle est gouvernée par les variations de flottaison due à la dilatation thermique et à la salinité. L'eau froide et salée qui plonge dans les mers de Norvège et du Labrador s'écoule lentement vers le sud au fond de l'Atlantique, franchit l'équateur et contourne le cap de Bonne Espérance pour rejoindre l'Océan Indien où une partie remonte à la surface ; le reste poursuit sa route vers l'est et remonte à la surface à son tour dans le Pacifique équatorial. Sous l'effet des alizés, ces eaux de surface reprennent ensuite le chemin inverse, et remontent vers le nord de l'Atlantique où elles se refroidissent, se chargent en sel, et ainsi alourdies, plongent à nouveau. Cette circulation de « tapis roulant océanique » est extrêmement lente, puisque la durée du cycle est de l'ordre de 500 ans à 1 000 ans. C'est elle qui réchauffe aujourd'hui le climat européen et en fait, à latitude égale, le plus tempéré du globe.
L'atmosphère et l'océan nous apparaissent ainsi comme les deux acteurs principaux du grand jeu climatique. Le dialogue entre ces deux acteurs joue un rôle central : les vents entraînent les eaux superficielles de l'océan ; en retour le mouvement des masses d'eau transporte de grandes quantités de chaleur qui réchauffent à leur tour l'atmosphère, modifiant ainsi le régime des vents qui vont à leur tour entraîner l'océan. Les interactions de ce type, ou rétroactions, sont monnaie courante dans le système climatique ; elles engendrent les instabilités et les oscillations naturelles qui dominent le comportement du système.
Oscillations internes
Parmi les oscillations liées aux interactions océan-atmosphère, la plus connue est le phénomène portant les noms d'El Niño (pour sa partie océanique) et d'Oscillation Australe (pour sa partie atmosphérique). Pour aborder les mécanismes d'El Niño, il faut indiquer tout d'abord que la rotation terrestre impose une domination des vents alizés (c'est-à-dire des vents d'est) dans les tropiques : c'est l'existence des alizés qui assure que la Terre solide transmet par friction sa rotation à l'atmosphère. L'entraînement des eaux superficielles du Pacifique tropical vers l'ouest par les alizés conduit à une accumulation d'eaux chaudes (plus de 30°C) dans toute la partie ouest, et à des remontées d'eaux froides au voisinage des côtes du Pérou. L'énorme quantité d'énergie ainsi emmagasinée à l'ouest se transmet à l'atmosphère, et entretient au voisinage de l'Indonésie une activité convective intense. Il en résulte, comme nous l'avons vu plus haut, une circulation en rouleau dite circulation de Walker, avec des ascendances sur les eaux chaudes de l'ouest du Pacifique et des subsidences sur les eaux froides de l'est. L'établissement de cette circulation se traduit, dans sa branche basse, par un renforcement des alizés. Nous avons là un exemple de ces rétroactions qui conduisent à des oscillations propres du système. Dans les périodes d'intensification des alizés, le Pacifique oriental est très froid, la convection sur l'Indonésie très intense. Dans les périodes d'affaiblissement des alizés, la masse d'eau chaude superficielle reflue vers l'est, la convection quitte l'Indonésie pour le centre et l'est du Pacifique. Toute la circulation en rouleaux de la bande tropicale s'en trouve modifiée : on observe des sécheresses dramatiques dans certaines régions comme l'Indonésie ou l'Australie, et des pluies diluviennes sur d'autres comme le Pérou. Le schéma le plus simple de cette oscillation est un schéma unidimensionnel, dans lequel les constantes de temps de l'oscillation sont déterminées par la propagation longitudinale d'ondes équatoriales. La réalité est naturellement plus complexe, et met en jeu l'ensemble des interactions entre les circulations tridimensionnelles de l'atmosphère et de l'océan au voisinage du Pacifique équatorial. Ces phénomènes commencent d'ailleurs à être assez bien modélisés pour que l'on aborde le stade des prévisions expérimentales.
El Niño est une oscillation interannuelle, avec une pseudo-période de l'ordre de deux à quatre ans. Il existe aussi dans les tropiques des oscillations intrasaisonnières, dont les périodes sont de l'ordre de quelques décades ; elles sont caractérisées par la propagation d'amas convectifs vers l'est, de l'ouest de l'Océan Indien vers le Pacifique équatorial. Ces oscillations sont elles aussi liées aux interactions océan-atmosphère ; elles interagissent avec la mousson asiatique et avec El Niño, ce qui leur confère une importance particulière pour l'économie et pour la société, dans des régions où la population dépasse aujourd'hui les deux milliards d'individus.
Plus proches de nous, il faut citer l'Oscillation Nord-atlantique, qui se traduit par des modulations d'intensité du contraste entre les basses pressions d'Islande et les hautes pressions des Açores. Elle concerne plus particulièrement les conditions hivernales sur l'Europe, quand ces systèmes de hautes et basses pressions sont particulièrement actifs. Un anticyclone des Açores plus intense que la normale correspond à une ligne des tempêtes atteignant l'Europe du nord : le temps y est alors plus doux et humide, tandis qu'il fait anormalement sec et froid sur l'Europe du sud. C'est l'inverse quand l'anticyclone s'affaiblit : la ligne des tempêtes atteint plutôt l'Europe du sud, y apportant davantage de précipitations.
Une autre oscillation interne, à des échelles de temps beaucoup plus longues, est la possibilité de modulation de la circulation thermohaline, donc du flux de chaleur océanique et de la formation d'eau profonde dans l'Atlantique nord. La densification des eaux du surface dans la mer de Norvège et la mer du Labrador est sensible, par exemple, à l'apport d'eau douce par les précipitations et par les fleuves, ou encore, par la fonte partielle des glaciers ou des calottes glaciaires. Un réchauffement temporaire des moyennes et hautes latitudes boréales, en activant les précipitations et la fonte des glaces, tend normalement à faire baisser la salinité de l'Atlantique nord, donc à affaiblir la circulation thermohaline, ce qui entraîne un refroidissement de l'Atlantique nord et des régions continentales qui le bordent, plus particulièrement l'Europe. Nous avons encore ici la source d'oscillations possibles, qui pourraient intervenir dans un certains nombres de changements climatiques rapides du passé, comme le début de l'épisode du Dryas Récent, brusque récession vers le froid intervenue en quelques décennies au cours de la dernière déglaciation, il y a environ 13 000 ans, ou d'autres épisodes de la dernière glaciation connues sous le nom d'oscillations de Dansgaard-Oeschger. De tels épisodes pourraient se produire de la même manière lors d'un réchauffement climatique dû aux perturbations anthropiques actuelles. La vitesse de ces variations climatiques rapides semble avoir pu atteindre dans le passé des valeurs de l'ordre de 10°C en 50 ans ; c'est là un changement climatique intense à l'échelle d'une vie d'homme.
Oscillations forcées naturelles
Le système climatique nous apparaît donc comme un oscillateur assez complexe. Cet oscillateur a ses modes d'oscillation propres, dont nous venons de donner des exemples ; mais, bien sûr, il réagit aussi aux sollicitations externes.
Nous ne citerons que pour mémoire la dérive des continents qui, à l'échelle de quelques dizaines de millions d'années, change du tout au tout les climats régionaux et modifie même le climat global, par exemple en érigeant des montagnes, ou en limitant, voire en supprimant, la possibilités de formation de calottes glaciaires. Une Terre, par exemple, où les calottes arctiques et antarctiques seraient entièrement occupées par des océans ouverts ne connaîtrait sans doute pas de glaciations, les courants océaniques apportant suffisamment d'énergie jusqu'aux pôles.
À des échelles de temps moins longues, quelques dizaines de milliers d'années, la variabilité climatique a pour source principale les variations lentes de la distribution de l'insolation, due aux irrégularités du mouvement orbital de la Terre. Le mouvement de la Terre autour du soleil est en effet perturbé par l'attraction des autres planètes du système solaire. Il est possible, par des développements en série, de reconstituer ce mouvement de façon très précise sur des périodes de temps de quelques millions d'années. Les variations correspondantes de l'insolation sont entièrement définies par les variations dans le temps de trois paramètres : l' excentricité de l'ellipse, qui module le contraste entre une saison chaude globale où la Terre est proche du soleil, et une saison froide globale où elle est éloignée du soleil ; l' obliquité de l'équateur terrestre sur l'écliptique, qui module le contraste entre l'hémisphère d'été et l'hémisphère d'hiver ; et enfin, la précession, qui définit le déphasage entre la saison chaude globale et l'hiver ou l'été de l'un ou l'autre des deux hémisphères. L'excentricité varie entre 0 (cercle parfait) et 0,07, avec une période d'environ 100 000 ans. L'obliquité varie entre 22° et 25°, avec une période de 41 000 ans. La précession est un phénomène un peu plus compliqué : la précession astronomique est le mouvement de rotation de l'axe des pôles sur le cône de précession dont la période est 26 000 ans, auquel s'ajoute le mouvement de nutation ; mais pour arriver à ce que l'on appelle la précession climatique, c'est à dire à la phase des saisons le long de l'orbite, il faut aussi tenir compte de la rotation de l'orbite elle-même : d'où deux périodes principales de 19 000 ans et 23 000 ans.
Il est aujourd'hui universellement admis que les grandes variations du climat qui ont dominé les deux derniers millions d'années sont dues à ces variations orbitales et aux variations d'insolation qui en découlent. Les phénomènes les plus marquants sont les alternances d'époques glaciaires et interglaciaires, rythmés par la lente accumulation, puis la disparition relativement rapide d'énormes calottes de glace sur l'Amérique du Nord et le nord de l'Europe. Le dernier cycle glaciaire-interglaciaire a duré environ 120 000 ans. L'accumulation de glace sur les pôles est toujours lente, car il faut beaucoup de temps à l'atmosphère pour transporter de la vapeur d'eau en quantité suffisante aux hautes latitudes où l'air est froid et peu porteur d'humidité. Le retour à l'interglaciaire par fonte ou déstabilisation des calottes est beaucoup plus rapide. Nous nous situons aujourd'hui à la fin d'une période interglaciaire qui a débuté il y a environ 10 000 ans. Le dernier maximum glaciaire, c'est à dire l'époque où le climat a été le plus froid et où les calottes glaciaires ont atteint leur extension maximale, s'est produit il y a environ 20 000 ans. À cette époque, le Canada et le nord des États-Unis étaient recouverts par plus de trois kilomètres et demi de glace, et le nord de l'Europe et de la Russie, par plus de deux kilomètres de glace ! La température moyenne du globe était de cinq à six degrés plus basse qu'aujourd'hui, et les pôles étaient plus froids d'environ dix degrés. Juste après le retour à l'interglaciaire, il y a six à dix mille ans, le climat était légèrement plus chaud qu'aujourd'hui : la précession était telle que la Terre était proche du soleil durant l'été boréal (c'est le contraire actuellement) : les étés de l'hémisphère nord étaient donc plus chauds, les moussons africaines et asiatiques étaient plus intenses et pénétraient plus au nord dans les deux continents : le sud de ce qui est aujourd'hui le désert saharien était relativement verdoyant et peuplé d'animaux et de pasteurs, comme le rappellent les fresques du Tassili.
Nous disposons sur les quatre derniers cycles glaciaires-interglaciaires, c'est à dire sur les quatre cent ou cinq cent mille dernières années, de ces véritables archives de l'évolution du climat que sont les calottes glaciaires et les sédiments marins ou lacustres, que l'on explore par carottage, stratigraphie, analyse isotopique et analyse chimique. La teneur des glaces, par exemple, en isotopes lourds de l'oxygène et de l'hydrogène nous renseigne sur l'histoire du cycle de l'eau (marquée lors de l'évaporation par des fractionnements isotopiques), donc sur les températures, les précipitations et le niveau des mers, qui, il y a 20 000 ans, à l'époque des grandes calottes glaciaires, était 120 mètres en dessous du niveau actuel (on allait à pied sec de France en Angleterre, et de l'Asie continentale jusqu'à Java et Bornéo). Les fines bulles d'air prisonnières de la glace nous permettent de retrouver la composition chimique de l'air (en particulier sa teneur en gaz à effet de serre : dioxyde de carbone et méthane) au moment où la glace s'est formée, jusqu'à il y a plusieurs centaines de milliers d'années.
Ce que nous disent ces archives et les modélisations que l'on peut faire de l'évolution du climat sur ces périodes de temps, c'est que le système climatique se comporte comme un amplificateur des impulsions orbitales, grâce aux multiples rétroactions dues par exemple au cycle de l'eau : la formation de calottes glaciaires et l'accroissement du manteau neigeux, en renvoyant davantage d'énergie solaire vers l'espace, intensifient le refroidissement ; ou encore, dues au dioxyde de carbone et au méthane : la teneur de ces gaz dépend de l'activité biologique et diminue lors des baisses d'insolation, avec pour conséquence un affaiblissement de l'effet de serre et donc un refroidissement supplémentaire.
Une autre cause naturelle, externe, de variations climatiques, est l'activité même du soleil. La « dynamo » solaire est modulée par des cycles de 22 ans ; la luminosité varie, elle, suivant des cycles de 11 ans, car elle ne dépend pas du signe du champ magnétique. Les périodes d'activité maximale du soleil se manifestent par la multiplication de taches solaires (surcompensées par des facules ou plages extrêmement brillantes). Nous disposons d'observations quantitatives de l'évolution de l'activité solaire depuis la fondation de l'Observatoire de Paris dans la deuxième moitié du XVIIe siècle (apparition, disparition, nombre de taches, variations du diamètre du soleil qui varie en raison inverse de son activité). Nous savons ainsi que la deuxième moitié du XVIIe siècle a été une période d'activité solaire particulièrement faible, allant jusqu'à une disparition totale des taches durant des périodes de plusieurs années. Aujourd'hui, des radiomètres à cavité, embarqués sur des plate-formes spatiales, mesurent ces variations avec une grande précision en s'affranchissant des perturbations dues à l'absorption par l'atmosphère. Dans un cycle de 11 ans actuel, la luminosité solaire varie d'environ un Watt m-2 (sur une valeur moyenne d'environ 1368 Watts m-2) : ces modulations sont donc très faibles et ne peuvent donner lieu à des effets climatiques importants, d'autant plus que 11 ans est une durée trop brève pour perturber l'inertie thermique de l'océan.
On sait toutefois que l'activité solaire est modulée par des cycles plus longs que le cycle de 11 ans ; le plus court est le cycle de Gleisberg (environ 80 ans). Ces cycles peuvent avoir des influences climatiques plus fortes. Néanmoins, nous ne disposons pas encore de véritables modèles tridimensionnels de la dynamo solaire et nous ne savons pas reconstruire très précisément les variations de la luminosité au cours des derniers siècles. Des modèles simplifiés ont permis d'estimer la baisse de puissance du soleil au XVIIesiècle, époque dite du minimum de Maunder, à environ 0,4 %, ce qui donne une diminution du flux solaire absorbé d'environ un Watt par mètre carré pendant au moins un demi-siècle. Cette époque semble avoir été particulièrement froide, comme en témoignent les canaux gelés des peintures hollandaises, et diverses archives climatiques (notamment la dendroclimatologie qui étudie les variations de la croissance passée des arbres et les relie aux variations de température et de pluviosité). Néanmoins, nous ne sommes pas sûrs que le refroidissement observé, qu'on a appelé assez suggestivement « petit âge glaciaire », ait été un phénomène réellement global ; il pourrait bien s'être en fait limité à l'Europe.
Perturbations anthropiques
Nous nous étendrons peu ici sur les conséquences climatiques de l'effet de serre anthropique, dû à l'injection dans l'atmosphère de produits de la combustion et d'autres activités humaines : celles-ci font l'objet d'un autre exposé dans cette même série. On notera seulement qu'il faut toujours replacer ces effets, avec leurs propres constantes de temps (de quelques décennies à plusieurs siècles) dans le cadre des variations naturelles du climat, auxquelles elles se superposent et avec lesquelles elles peuvent interagir. Par exemple, nous nous dirigeons aujourd'hui naturellement vers une nouvelle glaciation qui devrait se développer progressivement dans les 100 000 ans qui viennent. Certaines études montrent que la modification de cette évolution naturelle par le réchauffement climatique dû aux hommes pourrait perdurer sur plusieurs milliers d'années.
Revenons au présent ou à un avenir plus proche. L'effet de serre n'est pas, et de loin, la seule perturbation d'origine anthropique. Les divers types de combustion, dont les sociétés modernes font un si grand usage, injectent aussi dans l'atmosphère, à doses plus ou moins grandes, des pollutions visibles sous forme d'aérosols, petites particules en suspension dans l'air, à base de carbone suie, de carbone organique, de dioxyde de soufre, etc. Beaucoup de ces particules ont des tailles de l'ordre des longueurs d'onde du rayonnement solaire : elles interceptent une partie de ce rayonnement et l'empêchent d'atteindre la surface, soit en le renvoyant vers l'espace, soit en l'absorbant : dans une atmosphère très polluée, la couche d'aérosols peut être assez dense pour masquer complètement le soleil un jour de beau temps. À l'opposite de l'effet de serre, les aérosols tendent ainsi à refroidir la surface, et donc le climat. Le fait que certains aérosols, les aérosols soufrés, sont hygroscopiques les rend aptes à jouer en plus le rôle de noyaux de condensation : à quantité donnée de vapeur d'eau, la présence d'une grande quantité d'aérosols soufrés multiplie donc le nombre de gouttelettes ; les gouttelettes qui se forment sont plus petites, elles se forment donc en plus grandes quantités et restent en suspension plus longtemps : un même volume de gouttes d'eau offre ainsi une surface réfléchissante plus grande et plus persistante. Cet effet refroidisseur supplémentaire est ce que l'on appelle l'effet indirect des aérosols soufrés.
Contrairement aux gaz à effet de serre, les aérosols ont une durée de vie courte. Ceux dont la durée de vie est la plus longue sont les aérosols stratosphériques naturels, injectés dans la stratosphère par les grandes éruptions volcaniques tropicales comme récemment, El Chichon ou le Pinatubo : ils sédimentent lentement et leur rôle de refroidisseur n'excède pas deux ou trois ans. Les aérosols soulevés par le vent dans les déserts, et les aérosols anthropiques restent pour l'essentiel dans les basses couches et la plus grande partie (notamment les aérosols soufrés) sont lessivés rapidement par les pluies. Leur durée de vie est de l'ordre d'une semaine, leurs panaches ont une extension limitée, contrairement au CO2, par exemple, qui est très bien mélangé dans l'ensemble de l'atmosphère. Néanmoins, ces panaches peuvent affecter notablement les climats régionaux. Pendant l'hiver 1999, la campagne INDOEX a étudié le panache issu de l'Inde et de l'Asie du Sud, qui, poussé par les vents de nord-est, s'étale de décembre à mars sur tout le nord de l'Océan Indien, jusqu'à la ligne des grands systèmes convectifs située vers 5 à 10°S, où la plupart sont lessivés. Le contraste est impressionnant, entre l'atmosphère lourdement polluée au nord de cette ligne convective, et l'atmosphère très pure située au sud. INDOEX a montré que ces pollutions régionales modifiaient fortement le bilan radiatif à la surface, créant des déficits d'énergie à la surface de la mer de l'ordre d'une vingtaine de Watts par mètre carré ; ceci doit entraîner des perturbations notables de l'interaction océan-atmosphère, en particulier des déficits d'évaporation pouvant influencer les précipitations dans des endroits très éloignés. Certaines études ont montré que de même, pendant l'été, la pollution émise sur le sous-continent indien influençait négativement les précipitations de mousson, parce qu'elle limite l'excédent énergétique à la surface qui est le véritable moteur de la saison des pluies. Le problème est évidemment que la pollution, comme l'effet de serre, est directement liée au développement et à l'explosion démographique. Les effets climatiques étudiés par INDOEX ne pourront que croître très fortement dans les décennies à venir, même si des mesures anti-pollution commencent à être mises en Suvre.
Enfin, on ne peut pas parler des perturbations climatiques liées à l'activité humaine sans évoquer, au moins brièvement, l'évolution du climat du Sahel. Les années soixante-dix ont été marquées par une baisse catastrophique des précipitations dans la bande sahélienne. Cette évolution fut vraisemblablement due, en partie à des causes naturelles, en partie à des causes anthropiques.
Les causes naturelles peuvent être rapportées aux interactions océan-atmosphère. On a vu que les précipitations tropicales (la saison des pluies) étaient liées aux branches ascendantes des circulations en rouleaux. Celles-ci se développent au dessus des continents, là où l'énergie solaire reçue est maximale, et, au dessus des océans, là où la température de la mer est particulièrement élevée. On conçoit que ces deux mécanismes puissent interférer, et qu'une anomalie d'eau chaude sur l'océan, en créant de nouvelles ascendances et de nouvelles subsidences, puisse accentuer ou limiter les ascendances continentales. C'est ce qui se produit avec El Niño, qui entraîne des sécheresses sur l'Indonésie, l'Australie, le Mozambique et le Nordeste brésilien, ainsi que des moussons généralement médiocres sur l'Inde. De même, il existe de fortes corrélations entre certaines anomalies de température océanique, et les sécheresses sahéliennes. Ceci dit, la région continentale où les pluies sont les mieux corrélées aux températures de l'océan semble bien être le Nordeste brésilien, qui réagit à la fois, aux oscillations El Niño-La Niña à l'ouest, et aux oscillations nord-sud des températures de l'Atlantique tropical, à l'est. Les modèles de circulation générale de l'atmosphère simulent très bien ce genre de relations.
Mais pour en revenir au Sahel, le comportement des hommes semble aussi avoir joué son rôle. La destruction de la végétation par le surpâturage conduit à une augmentation de la réflectivité de la surface, et donc à une moindre absorption de l'énergie solaire. De là, comme nous l'avons déjà expliqué, un affaiblissement de la saison des pluies, qui renforce la tendance à la désertification : on retrouve ici encore, une de ces rétroactions qui rendent le système climatique si sensible aux perturbations externes. D'une façon beaucoup plus générale, il est clair que le développement de nos civilisations s'est toujours accompagné de déforestation intensive liée aux pratiques agricoles, à la navigation ou à la construction : dans l'antiquité, tout le pourtour de la Méditerranée ; au Moyen Âge, l'Europe ; au siècle dernier, l'Amérique du Nord ; l'Inde aussi au cours des siècles passés ; et aujourd'hui, l'ensemble des forêts équatoriales, de l'Indonésie à l'Amazonie en passant par l'Afrique. L'évolution des climats n'a certes pas été insensible à toutes ces perturbations.

 

 VIDEO       CANAL  U         LIEN

 

( si la vidéo n'est pas visible,inscrivez le titre dans le moteur de recherche de CANAL U )

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 ] Précédente - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales /confidentialité

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon