|
|
|
|
|
|
LE CLIMAT - MÉCANISME ET VARIABILITÉ |
|
|
|
|
|
Texte de la 207ème conférence de l'Université de tous les savoirs donnée le 25 juillet 2000.
Le climat
par Robert Sadourny
Qu'est-ce que le climat ?
Comme la météorologie est la science des météores, en particulier du temps qu'il fait ou qu'il va faire, la climatologie est la science du climat, c'est à dire la science des probabilités ou des statistiques sur le temps. On entend trop souvent dire qu'une fête a été gâchée (par exemple) « en raison des mauvaises conditions climatiques », alors qu'il s'agit là, bien sûr, de mauvaises conditions météorologiques : le climat ne change pas quand en quelques jours, on passe du beau temps au mauvais temps !
Quand nous parlons de climat, de quel système physique parlons-nous ? Le système climatique inclut naturellement les basses couches de l'atmosphère où nous vivons, et les couches plus élevées dont le comportement est étroitement lié à celles-ci : principalement la troposphère et dans une moindre mesure, la stratosphère. Ce système inclut aussi les océans et les couches superficielles des terres émergées, qui échangent de l'eau et de la chaleur avec l'atmosphère, et bien sûr, les glaces de terre et de mer. Mais l'étude du climat ne se réduit pas à celle d'un système physique. Le climat interagit très fortement avec la chimie de l'atmosphère et de l'océan, et aussi avec la biosphère, c'est à dire l'ensemble des êtres vivants.
Étudier le climat, c'est non seulement observer continûment, sur l'ensemble du globe et durant de longues périodes, le comportement de l'atmosphère, de l'océan, des glaces et des terres émergées, mais aussi modéliser l'ensemble des mécanismes du système pour simuler son évolution. C'est en comparant le climat simulé au climat observé que nous mesurons notre niveau de compréhension des mécanismes, et donc nos capacités à prédire les évolutions futures. La climatologie s'est développée très rapidement à l'ère des satellites et des calculateurs. Les sondeurs spatiaux placés à bord de satellites à défilement, à orbite quasi-polaire, comme la série météorologique opérationnelle américaine Nimbus, permettent de suivre l'évolution des profils verticaux de la température et de l'humidité sur l'ensemble du globe. Les radiomètres à bande large, comme ERBI, ScaRaB ou CERES nous permettent de suivre les variations spatio-temporelles du bilan d'énergie de la planète. Les satellites géostationnaires comme Météosat observent en permanence les tropiques et les latitudes moyennes de leur position équatoriale à 36 000 km d'altitude. L'altimètre de TOPEX-Poséidon mesure, avec une précision de quelques centimètres, l'altitude du niveau de la mer, qui nous renseigne sur la dynamique des courants.
Quant aux modèles de climat, ce sont bien sûr des modèles pronostiques, qui décrivent une évolution dans le temps à partir d'une situation initiale donnée, comme les modèles de prévision météorologique. Mais ils doivent inclure, en plus de l'atmosphère, des océans et des glaces de mer interactifs, ainsi que les couverts végétaux et l'hydrologie des terres émergées. Ces modèles simulent en particulier le cycle de l'eau dans son ensemble, la formation des divers types de nuages, la formation de glaces de mer ; ils commencent aujourd'hui à inclure une végétation interactive et certains cycles chimiques comme le cycle du carbone et celui de l'ozone stratosphérique. Le coût de calcul est tel que, dans la pratique, la durée d'une simulation dépasse rarement le siècle ; pour des simulations plus longues, il faut user de modèles simplifiés. Le résultat d'une simulation est une évolution, c'est à dire une succession d'états instantanés du système ; l'interprétation climatologique de cette simulation repose ensuite sur l'analyse statistique de cet succession d'états. C'est d'ailleurs bien parce que le climat est un problème statistique que nous pouvons prolonger nos simulations bien au delà de la limite de prévisibilité de l'atmosphère (une douzaine de jours au plus) : on ne s'intéresse plus, comme dans la prévision du temps, aux perturbations individuelles, mais à leurs probabilités d'occurrence. Ces statistiques sont basées, soit sur des moyennes temporelles, soit sur des ensembles de simulations indépendantes. Ces dernières sont relativement faciles à construire. Il suffit par exemple de perturber très légèrement les états initiaux : à cause des instabilités du système, deux solutions initialement très proches deviennent totalement décorrélées dès qu'on atteint la limite de prévisibilité.
Énergie et climat
Le climat est d'abord une affaire d'énergie. L'apport d'énergie vient presque exclusivement du soleil ; il se répartit dans l'espace et dans le temps en fonction du mouvement orbital de la Terre, de la rotation de celle-ci sur elle-même, et des variations dans le temps de la puissance solaire. La façon dont cette énergie solaire incidente traverse l'atmosphère, pénètre à la surface, se transforme en d'autres types d'énergie comme l'énergie latente ou l'énergie potentielle, puis est réémise vers l'espace à travers l'atmosphère sous forme d'énergie infrarouge, dépend de la composition physico-chimique de l'atmosphère, du cycle de l'eau, des propriétés optiques de l'océan, de l'état des surfaces émergées et de leur couvert végétal, et enfin du transport d'énergie d'un endroit à l'autre de la planète par les mouvements de l'atmosphère et de l'océan. L'ensemble du système peut s'interpréter comme une sorte d'énorme machine thermique.
Intéressons-nous d'abord aux valeurs moyennes qui déterminent le climat terrestre. La luminosité solaire actuelle correspond à un flux incident d'énergie solaire d'environ 1368 Wm-2 ; si nous répartissons ce flux sur l'ensemble de la surface terrestre (soit quatre fois la section du cylindre intercepté par la Terre), nous obtenons une valeur moyenne de 342 Wm-2. De ce flux incident, environ 30 %, soit 102 Wm-2, est réfléchi ou rétrodiffusé vers l'espace par les nuages, les aérosols, la neige et les parties les plus réfléchissantes de la surface, notamment les déserts. Restent donc 240 Wm-2 qui sont réellement absorbés par le système : environ 65 par l'atmosphère, le reste, environ 175, servant à chauffer la surface. Le fait que presque les trois quarts de l'énergie solaire absorbée le soit au niveau de la surface entraîne naturellement que la température de l'air décroît quand on s'élève ; mais l'effet de serre accentue très fortement cette décroissance. En effet, la surface chauffée par le rayonnement solaire restitue son énergie à l'espace principalement sous forme de rayonnement infrarouge, dont une partie est absorbée et réémise vers le bas par l'écran des gaz à effet de serre (vapeur d'eau, CO2, méthane, N2O, ozone, halocarbures) ainsi que par les nuages. Cet effet de serre piège ainsi une grande quantité de chaleur dans les basses couches, dont il contribue à élever encore la température. Le rayonnement intercepté par l'effet de serre est de l'ordre de 155 Wm-2 ; cette valeur est une mesure de l'effet de serre total. Une autre mesure possible de l'effet de serre est le réchauffement qu'il entraîne pour la surface : 33°C, calculé comme la différence entre la température moyenne de la surface (288 K), et la température de la Terre vue de l'espace à travers l'atmosphère (255 K).
Les radiomètres à bandes larges comme ScaRaB (CNRS-CNES), qui mesurent le bilan radiatif depuis l'espace, nous renseignent sur les flux nets de rayonnement solaire et infrarouge irradiés par la Terre vers l'espace. Combinées avec les mesures de surface, les données de ces instruments permettent par exemple d'étudier la modulation de l'effet de serre par la température de surface, par la vapeur d'eau (le plus abondant des gaz à effet de serre) et par les nuages. D'après ScaRaB, la contribution des nuages à l'effet de serre global est d'environ 30 Wm-2, alors qu'ils augmentent la réflectivité de la planète de 48 Wm-2 : l'effet radiatif net des nuages va donc dans le sens d'un refroidissement du climat par 18 Wm-2. Bien sûr, il s'agit là d'une valeur moyenne : l'effet radiatif varie selon les types de nuages, et se répartit diversement en fonction des lieux et des saisons.
En moyenne sur le globe et dans le temps, le bilan d'énergie de la planète Terre est à peu près équilibré : la Terre irradie vers l'espace dans l'infrarouge une énergie sensiblement égale à celle qu'elle reçoit du soleil. Mais il est bien évident que cet équilibre ne peut être qu'approché, à cause des oscillations permanentes - diurnes, saisonnière et autres - du système climatique, et aussi, aujourd'hui, de la perturbation faible mais significative due à l'activité planétaire des hommes.
Le rôle de l'atmosphère et de l'océan
Par contre, en un point donné de la Terre, le bilan des échanges d'énergie avec l'espace est loin d'être équilibré. Dans les tropiques, la Terre reçoit plus d'énergie solaire qu'elle n'émet de rayonnement infrarouge ; dans les régions polaires, c'est l'inverse. Les régions d'excédent ou de déficit énergétique sont modulées par les saisons : l'hémisphère d'hiver est partout déficitaire, c'est à dire qu'en tout point, il perd de l'énergie vers l'espace. Certaines régions du globe sont même déficitaires durant toute l'année. C'est le cas des déserts subtropicaux comme le Sahara : l'air au dessus du Sahara étant particulièrement sec et sans nuage, l'effet de serre est minimal, ce qui entraîne une forte perte d'énergie infrarouge (d'où des températures nocturnes très basses) ; en outre, l'absence de végétation se traduit par une forte réflectivité de la surface, qui renvoie vers l'espace 30 à 40 % de l'énergie solaire incidente. La conjugaison de ces deux mécanismes fait de la région saharienne un puits d'énergie qui persiste tout au long de l'année.
La distribution du bilan net, ou flux net d'énergie entre la Terre et l'espace, nous renseigne sur les mouvements de l'atmosphère et de l'océan. En effet, ce sera le rôle de ces deux fluides de transporter l'excès d'énergie reçue ici ou là, vers les régions où le déficit domine. En particulier, l'océan et l'atmosphère vont transporter l'énergie de la bande tropicale vers les moyennes et les hautes latitudes, plus particulièrement du côté de l'hémisphère d'hiver. Intégrés sur un parallèle et sur l'épaisseur de l'atmosphère et de l'océan, ces flux méridiens sont de l'ordre de 5x1015 Watts. L'océan et l'atmosphère prennent une part sensiblement égale à ces transferts.
Comment l'atmosphère et l'océan peuvent-ils transporter l'énergie d'un endroit à l'autre de la planète ?
Un premier mécanisme est le mélange horizontal des masses d'air. Il est surtout efficace dans l'atmosphère, aux latitudes moyennes et pendant l'hiver, là où la température varie très rapidement avec la latitude. L'instabilité de l'écoulement atmosphérique crée des perturbations (basses pressions autour desquelles l'air tourne à peu près horizontalement dans le sens inverse des aiguilles d'une montre) qui brassent l'air chaud et souvent humide venant des subtropiques, avec l'air froid et plutôt sec venant des hautes latitudes. Cet échange se traduit par un flux de chaleur et d'énergie latente (ou vapeur d'eau) allant des subtropiques vers les hautes latitudes. Le brassage par les perturbations n'est efficace pour transporter l'énergie que parce qu'il mélange des masses d'air subtropical très énergétique, avec des masses d'air subpolaire qui le sont beaucoup moins.
Dans la bande tropicale, ce type de transport devient totalement inefficace, car les températures sont horizontalement très uniformes, et il en est de même des niveaux d'énergie. L'énergie sera transportée par des mouvements tridimensionnels, organisés en rouleaux, avec des régions d'ascendance et des régions de subsidence, le fluide allant dans les hautes couches, des régions d'ascendance vers les régions de subsidence, et dans les basses couches, des régions de subsidence vers les régions d'ascendance. Pour comprendre comment des rouleaux verticaux peuvent transporter de l'énergie suivant l'horizontale, il nous faut dire quelques mots de deux propriétés très importantes de l'atmosphère et de l'océan : il s'agit de la stratification et de la stabilité.
L'atmosphère et l'océan sont des fluides presque partout stratifiés en densité, en pression et en température : la densité, la pression et la température varient beaucoup plus vite (par plusieurs ordres de grandeur) suivant la verticale que suivant l'horizontale. L'origine de la stratification en température de l'atmosphère est, on l'a vu, le chauffage par la surface et l'effet de serre ; quant à l'océan, il est aussi chauffé par la surface et la température décroît naturellement quand on s'enfonce. Il va de soi que, partout où ces stratifications sont établies, elle sont stables, c'est-à-dire que le fluide léger est situé au dessus du fluide plus lourd ; les mouvements sont quasi-hydrostatiques. On démontre qu'une stratification est stable si l'énergie croît quand on s'élève.
Puisqu'il en est ainsi, il est clair que dans une circulation en rouleaux, la branche supérieure transporte plus d'énergie des ascendances vers les subsidences, que la branche inférieure n'en transporte des subsidences vers les ascendances. Le bilan net sera donc un transport d'énergie des ascendances vers les subsidences : les régions excédentaires en énergie seront des régions d'ascendance, et les régions déficitaires, des régions de subsidence.
Dans l'atmosphère, les régions excédentaires se trouvent principalement dans les tropiques, là où l'atmosphère reçoit un fort apport d'énergie à la surface : sur les continents, là où le soleil est au zénith, et sur l'océan, là où la surface de l'eau est particulièrement chaude. Cet apport d'énergie à la base a un effet déstabilisateur : les ascendances s'accompagnent de puissants mouvements convectifs (cumulonimbus pouvant atteindre jusqu'à 20 km de hauteur) qui transportent l'énergie vers le haut et restabilisent la stratification. Les masses d'air léger, chaud et humide qui montent dans ces tours convectives se refroidissent, leur humidité se condense et retombe en pluie : le passage du soleil au zénith sur les continents tropicaux correspond ainsi à la saison des pluies ou mousson. C'est donc un air froid et sec qui atteint les hautes couches et se dirige vers les régions déficitaires en énergie comme les déserts, où il redescend vers la surface. Ainsi, la désertification favorise le développement d'une subsidence d'air sec, qui en retour, favorise la désertification. Le contraste entre les régions convectives et humides, et les régions de subsidence où l'air est sec sont particulièrement visibles sur les images du canal vapeur d'eau de Météosat.
Dans l'océan, c'est la déperdition d'énergie à la surface, aux hautes latitudes, qui tend à violer la condition de stabilité et déclenche la convection. Celle-ci se produit surtout dans les mers de Norvège et du Labrador, et, près de l'Antarctique, dans la mer de Weddell, où l'eau lourde, froide et salée plonge et alimente la circulation abyssale.
La vapeur d'eau dans l'atmosphère, le sel dans l'océan sont tous deux des facteurs déstabilisants pour la stratification. Les seules sources de la vapeur d'eau atmosphérique (ou énergie latente) se trouvent à la surface : c'est l'évaporation sur l'océan, les surfaces d'eau ou les sols humides, ou l'évapotranspiration des couverts végétaux. De plus, la pression de vapeur saturante décroît exponentiellement quand la température s'abaisse : un air très froid ne peut absorber que très peu de vapeur d'eau. L'énergie latente est donc confinée dans les tropiques et surtout dans les basses couches de l'atmosphère, ce qui va à l'encontre de la loi de stabilité. C'est la raison pour laquelle la convection tropicale est dominée par la convection humide. Dans l'océan, l'évaporation à la surface alourdit l'eau superficielle en la chargeant en sel. Aux hautes latitudes, la formation de glace de mer est une source additionnelle de sel : le sel expulsé par la glace vient alourdir l'eau de surface, favorisant l'apparition de cheminées convectives, où se forme l'eau profonde.
Dans l'atmosphère tropicale, la circulation en rouleaux peut se schématiser en moyenne zonale sous le nom de cellule de Hadley, qui transporte l'énergie de ce que l'on appelle l'équateur météorologique, vers les subtropiques de l'hémisphère d'hiver. Au delà des subtropiques, c'est le mélange horizontal qui prend le relais pour transporter l'énergie vers les pôles. Il est intéressant de noter que lorsqu'on s'élève, si l'énergie totale et bien sûr l'énergie potentielle croissent, la chaleur sensible et l'énergie latente décroissent. Si donc les rouleaux exportent de l'énergie totale des régions d'ascendance, ils y importent en même temps de l'énergie sensible et latente, favorisant ainsi la convection et le maintien des rouleaux.
L'analogue dans l'océan des circulations en rouleaux dans l'atmosphère est la circulation tridimensionnelle dite thermohaline, parce qu'elle est gouvernée par les variations de flottaison due à la dilatation thermique et à la salinité. L'eau froide et salée qui plonge dans les mers de Norvège et du Labrador s'écoule lentement vers le sud au fond de l'Atlantique, franchit l'équateur et contourne le cap de Bonne Espérance pour rejoindre l'Océan Indien où une partie remonte à la surface ; le reste poursuit sa route vers l'est et remonte à la surface à son tour dans le Pacifique équatorial. Sous l'effet des alizés, ces eaux de surface reprennent ensuite le chemin inverse, et remontent vers le nord de l'Atlantique où elles se refroidissent, se chargent en sel, et ainsi alourdies, plongent à nouveau. Cette circulation de « tapis roulant océanique » est extrêmement lente, puisque la durée du cycle est de l'ordre de 500 ans à 1 000 ans. C'est elle qui réchauffe aujourd'hui le climat européen et en fait, à latitude égale, le plus tempéré du globe.
L'atmosphère et l'océan nous apparaissent ainsi comme les deux acteurs principaux du grand jeu climatique. Le dialogue entre ces deux acteurs joue un rôle central : les vents entraînent les eaux superficielles de l'océan ; en retour le mouvement des masses d'eau transporte de grandes quantités de chaleur qui réchauffent à leur tour l'atmosphère, modifiant ainsi le régime des vents qui vont à leur tour entraîner l'océan. Les interactions de ce type, ou rétroactions, sont monnaie courante dans le système climatique ; elles engendrent les instabilités et les oscillations naturelles qui dominent le comportement du système.
Oscillations internes
Parmi les oscillations liées aux interactions océan-atmosphère, la plus connue est le phénomène portant les noms d'El Niño (pour sa partie océanique) et d'Oscillation Australe (pour sa partie atmosphérique). Pour aborder les mécanismes d'El Niño, il faut indiquer tout d'abord que la rotation terrestre impose une domination des vents alizés (c'est-à-dire des vents d'est) dans les tropiques : c'est l'existence des alizés qui assure que la Terre solide transmet par friction sa rotation à l'atmosphère. L'entraînement des eaux superficielles du Pacifique tropical vers l'ouest par les alizés conduit à une accumulation d'eaux chaudes (plus de 30°C) dans toute la partie ouest, et à des remontées d'eaux froides au voisinage des côtes du Pérou. L'énorme quantité d'énergie ainsi emmagasinée à l'ouest se transmet à l'atmosphère, et entretient au voisinage de l'Indonésie une activité convective intense. Il en résulte, comme nous l'avons vu plus haut, une circulation en rouleau dite circulation de Walker, avec des ascendances sur les eaux chaudes de l'ouest du Pacifique et des subsidences sur les eaux froides de l'est. L'établissement de cette circulation se traduit, dans sa branche basse, par un renforcement des alizés. Nous avons là un exemple de ces rétroactions qui conduisent à des oscillations propres du système. Dans les périodes d'intensification des alizés, le Pacifique oriental est très froid, la convection sur l'Indonésie très intense. Dans les périodes d'affaiblissement des alizés, la masse d'eau chaude superficielle reflue vers l'est, la convection quitte l'Indonésie pour le centre et l'est du Pacifique. Toute la circulation en rouleaux de la bande tropicale s'en trouve modifiée : on observe des sécheresses dramatiques dans certaines régions comme l'Indonésie ou l'Australie, et des pluies diluviennes sur d'autres comme le Pérou. Le schéma le plus simple de cette oscillation est un schéma unidimensionnel, dans lequel les constantes de temps de l'oscillation sont déterminées par la propagation longitudinale d'ondes équatoriales. La réalité est naturellement plus complexe, et met en jeu l'ensemble des interactions entre les circulations tridimensionnelles de l'atmosphère et de l'océan au voisinage du Pacifique équatorial. Ces phénomènes commencent d'ailleurs à être assez bien modélisés pour que l'on aborde le stade des prévisions expérimentales.
El Niño est une oscillation interannuelle, avec une pseudo-période de l'ordre de deux à quatre ans. Il existe aussi dans les tropiques des oscillations intrasaisonnières, dont les périodes sont de l'ordre de quelques décades ; elles sont caractérisées par la propagation d'amas convectifs vers l'est, de l'ouest de l'Océan Indien vers le Pacifique équatorial. Ces oscillations sont elles aussi liées aux interactions océan-atmosphère ; elles interagissent avec la mousson asiatique et avec El Niño, ce qui leur confère une importance particulière pour l'économie et pour la société, dans des régions où la population dépasse aujourd'hui les deux milliards d'individus.
Plus proches de nous, il faut citer l'Oscillation Nord-atlantique, qui se traduit par des modulations d'intensité du contraste entre les basses pressions d'Islande et les hautes pressions des Açores. Elle concerne plus particulièrement les conditions hivernales sur l'Europe, quand ces systèmes de hautes et basses pressions sont particulièrement actifs. Un anticyclone des Açores plus intense que la normale correspond à une ligne des tempêtes atteignant l'Europe du nord : le temps y est alors plus doux et humide, tandis qu'il fait anormalement sec et froid sur l'Europe du sud. C'est l'inverse quand l'anticyclone s'affaiblit : la ligne des tempêtes atteint plutôt l'Europe du sud, y apportant davantage de précipitations.
Une autre oscillation interne, à des échelles de temps beaucoup plus longues, est la possibilité de modulation de la circulation thermohaline, donc du flux de chaleur océanique et de la formation d'eau profonde dans l'Atlantique nord. La densification des eaux du surface dans la mer de Norvège et la mer du Labrador est sensible, par exemple, à l'apport d'eau douce par les précipitations et par les fleuves, ou encore, par la fonte partielle des glaciers ou des calottes glaciaires. Un réchauffement temporaire des moyennes et hautes latitudes boréales, en activant les précipitations et la fonte des glaces, tend normalement à faire baisser la salinité de l'Atlantique nord, donc à affaiblir la circulation thermohaline, ce qui entraîne un refroidissement de l'Atlantique nord et des régions continentales qui le bordent, plus particulièrement l'Europe. Nous avons encore ici la source d'oscillations possibles, qui pourraient intervenir dans un certains nombres de changements climatiques rapides du passé, comme le début de l'épisode du Dryas Récent, brusque récession vers le froid intervenue en quelques décennies au cours de la dernière déglaciation, il y a environ 13 000 ans, ou d'autres épisodes de la dernière glaciation connues sous le nom d'oscillations de Dansgaard-Oeschger. De tels épisodes pourraient se produire de la même manière lors d'un réchauffement climatique dû aux perturbations anthropiques actuelles. La vitesse de ces variations climatiques rapides semble avoir pu atteindre dans le passé des valeurs de l'ordre de 10°C en 50 ans ; c'est là un changement climatique intense à l'échelle d'une vie d'homme.
Oscillations forcées naturelles
Le système climatique nous apparaît donc comme un oscillateur assez complexe. Cet oscillateur a ses modes d'oscillation propres, dont nous venons de donner des exemples ; mais, bien sûr, il réagit aussi aux sollicitations externes.
Nous ne citerons que pour mémoire la dérive des continents qui, à l'échelle de quelques dizaines de millions d'années, change du tout au tout les climats régionaux et modifie même le climat global, par exemple en érigeant des montagnes, ou en limitant, voire en supprimant, la possibilités de formation de calottes glaciaires. Une Terre, par exemple, où les calottes arctiques et antarctiques seraient entièrement occupées par des océans ouverts ne connaîtrait sans doute pas de glaciations, les courants océaniques apportant suffisamment d'énergie jusqu'aux pôles.
À des échelles de temps moins longues, quelques dizaines de milliers d'années, la variabilité climatique a pour source principale les variations lentes de la distribution de l'insolation, due aux irrégularités du mouvement orbital de la Terre. Le mouvement de la Terre autour du soleil est en effet perturbé par l'attraction des autres planètes du système solaire. Il est possible, par des développements en série, de reconstituer ce mouvement de façon très précise sur des périodes de temps de quelques millions d'années. Les variations correspondantes de l'insolation sont entièrement définies par les variations dans le temps de trois paramètres : l' excentricité de l'ellipse, qui module le contraste entre une saison chaude globale où la Terre est proche du soleil, et une saison froide globale où elle est éloignée du soleil ; l' obliquité de l'équateur terrestre sur l'écliptique, qui module le contraste entre l'hémisphère d'été et l'hémisphère d'hiver ; et enfin, la précession, qui définit le déphasage entre la saison chaude globale et l'hiver ou l'été de l'un ou l'autre des deux hémisphères. L'excentricité varie entre 0 (cercle parfait) et 0,07, avec une période d'environ 100 000 ans. L'obliquité varie entre 22° et 25°, avec une période de 41 000 ans. La précession est un phénomène un peu plus compliqué : la précession astronomique est le mouvement de rotation de l'axe des pôles sur le cône de précession dont la période est 26 000 ans, auquel s'ajoute le mouvement de nutation ; mais pour arriver à ce que l'on appelle la précession climatique, c'est à dire à la phase des saisons le long de l'orbite, il faut aussi tenir compte de la rotation de l'orbite elle-même : d'où deux périodes principales de 19 000 ans et 23 000 ans.
Il est aujourd'hui universellement admis que les grandes variations du climat qui ont dominé les deux derniers millions d'années sont dues à ces variations orbitales et aux variations d'insolation qui en découlent. Les phénomènes les plus marquants sont les alternances d'époques glaciaires et interglaciaires, rythmés par la lente accumulation, puis la disparition relativement rapide d'énormes calottes de glace sur l'Amérique du Nord et le nord de l'Europe. Le dernier cycle glaciaire-interglaciaire a duré environ 120 000 ans. L'accumulation de glace sur les pôles est toujours lente, car il faut beaucoup de temps à l'atmosphère pour transporter de la vapeur d'eau en quantité suffisante aux hautes latitudes où l'air est froid et peu porteur d'humidité. Le retour à l'interglaciaire par fonte ou déstabilisation des calottes est beaucoup plus rapide. Nous nous situons aujourd'hui à la fin d'une période interglaciaire qui a débuté il y a environ 10 000 ans. Le dernier maximum glaciaire, c'est à dire l'époque où le climat a été le plus froid et où les calottes glaciaires ont atteint leur extension maximale, s'est produit il y a environ 20 000 ans. À cette époque, le Canada et le nord des États-Unis étaient recouverts par plus de trois kilomètres et demi de glace, et le nord de l'Europe et de la Russie, par plus de deux kilomètres de glace ! La température moyenne du globe était de cinq à six degrés plus basse qu'aujourd'hui, et les pôles étaient plus froids d'environ dix degrés. Juste après le retour à l'interglaciaire, il y a six à dix mille ans, le climat était légèrement plus chaud qu'aujourd'hui : la précession était telle que la Terre était proche du soleil durant l'été boréal (c'est le contraire actuellement) : les étés de l'hémisphère nord étaient donc plus chauds, les moussons africaines et asiatiques étaient plus intenses et pénétraient plus au nord dans les deux continents : le sud de ce qui est aujourd'hui le désert saharien était relativement verdoyant et peuplé d'animaux et de pasteurs, comme le rappellent les fresques du Tassili.
Nous disposons sur les quatre derniers cycles glaciaires-interglaciaires, c'est à dire sur les quatre cent ou cinq cent mille dernières années, de ces véritables archives de l'évolution du climat que sont les calottes glaciaires et les sédiments marins ou lacustres, que l'on explore par carottage, stratigraphie, analyse isotopique et analyse chimique. La teneur des glaces, par exemple, en isotopes lourds de l'oxygène et de l'hydrogène nous renseigne sur l'histoire du cycle de l'eau (marquée lors de l'évaporation par des fractionnements isotopiques), donc sur les températures, les précipitations et le niveau des mers, qui, il y a 20 000 ans, à l'époque des grandes calottes glaciaires, était 120 mètres en dessous du niveau actuel (on allait à pied sec de France en Angleterre, et de l'Asie continentale jusqu'à Java et Bornéo). Les fines bulles d'air prisonnières de la glace nous permettent de retrouver la composition chimique de l'air (en particulier sa teneur en gaz à effet de serre : dioxyde de carbone et méthane) au moment où la glace s'est formée, jusqu'à il y a plusieurs centaines de milliers d'années.
Ce que nous disent ces archives et les modélisations que l'on peut faire de l'évolution du climat sur ces périodes de temps, c'est que le système climatique se comporte comme un amplificateur des impulsions orbitales, grâce aux multiples rétroactions dues par exemple au cycle de l'eau : la formation de calottes glaciaires et l'accroissement du manteau neigeux, en renvoyant davantage d'énergie solaire vers l'espace, intensifient le refroidissement ; ou encore, dues au dioxyde de carbone et au méthane : la teneur de ces gaz dépend de l'activité biologique et diminue lors des baisses d'insolation, avec pour conséquence un affaiblissement de l'effet de serre et donc un refroidissement supplémentaire.
Une autre cause naturelle, externe, de variations climatiques, est l'activité même du soleil. La « dynamo » solaire est modulée par des cycles de 22 ans ; la luminosité varie, elle, suivant des cycles de 11 ans, car elle ne dépend pas du signe du champ magnétique. Les périodes d'activité maximale du soleil se manifestent par la multiplication de taches solaires (surcompensées par des facules ou plages extrêmement brillantes). Nous disposons d'observations quantitatives de l'évolution de l'activité solaire depuis la fondation de l'Observatoire de Paris dans la deuxième moitié du XVIIe siècle (apparition, disparition, nombre de taches, variations du diamètre du soleil qui varie en raison inverse de son activité). Nous savons ainsi que la deuxième moitié du XVIIe siècle a été une période d'activité solaire particulièrement faible, allant jusqu'à une disparition totale des taches durant des périodes de plusieurs années. Aujourd'hui, des radiomètres à cavité, embarqués sur des plate-formes spatiales, mesurent ces variations avec une grande précision en s'affranchissant des perturbations dues à l'absorption par l'atmosphère. Dans un cycle de 11 ans actuel, la luminosité solaire varie d'environ un Watt m-2 (sur une valeur moyenne d'environ 1368 Watts m-2) : ces modulations sont donc très faibles et ne peuvent donner lieu à des effets climatiques importants, d'autant plus que 11 ans est une durée trop brève pour perturber l'inertie thermique de l'océan.
On sait toutefois que l'activité solaire est modulée par des cycles plus longs que le cycle de 11 ans ; le plus court est le cycle de Gleisberg (environ 80 ans). Ces cycles peuvent avoir des influences climatiques plus fortes. Néanmoins, nous ne disposons pas encore de véritables modèles tridimensionnels de la dynamo solaire et nous ne savons pas reconstruire très précisément les variations de la luminosité au cours des derniers siècles. Des modèles simplifiés ont permis d'estimer la baisse de puissance du soleil au XVIIesiècle, époque dite du minimum de Maunder, à environ 0,4 %, ce qui donne une diminution du flux solaire absorbé d'environ un Watt par mètre carré pendant au moins un demi-siècle. Cette époque semble avoir été particulièrement froide, comme en témoignent les canaux gelés des peintures hollandaises, et diverses archives climatiques (notamment la dendroclimatologie qui étudie les variations de la croissance passée des arbres et les relie aux variations de température et de pluviosité). Néanmoins, nous ne sommes pas sûrs que le refroidissement observé, qu'on a appelé assez suggestivement « petit âge glaciaire », ait été un phénomène réellement global ; il pourrait bien s'être en fait limité à l'Europe.
Perturbations anthropiques
Nous nous étendrons peu ici sur les conséquences climatiques de l'effet de serre anthropique, dû à l'injection dans l'atmosphère de produits de la combustion et d'autres activités humaines : celles-ci font l'objet d'un autre exposé dans cette même série. On notera seulement qu'il faut toujours replacer ces effets, avec leurs propres constantes de temps (de quelques décennies à plusieurs siècles) dans le cadre des variations naturelles du climat, auxquelles elles se superposent et avec lesquelles elles peuvent interagir. Par exemple, nous nous dirigeons aujourd'hui naturellement vers une nouvelle glaciation qui devrait se développer progressivement dans les 100 000 ans qui viennent. Certaines études montrent que la modification de cette évolution naturelle par le réchauffement climatique dû aux hommes pourrait perdurer sur plusieurs milliers d'années.
Revenons au présent ou à un avenir plus proche. L'effet de serre n'est pas, et de loin, la seule perturbation d'origine anthropique. Les divers types de combustion, dont les sociétés modernes font un si grand usage, injectent aussi dans l'atmosphère, à doses plus ou moins grandes, des pollutions visibles sous forme d'aérosols, petites particules en suspension dans l'air, à base de carbone suie, de carbone organique, de dioxyde de soufre, etc. Beaucoup de ces particules ont des tailles de l'ordre des longueurs d'onde du rayonnement solaire : elles interceptent une partie de ce rayonnement et l'empêchent d'atteindre la surface, soit en le renvoyant vers l'espace, soit en l'absorbant : dans une atmosphère très polluée, la couche d'aérosols peut être assez dense pour masquer complètement le soleil un jour de beau temps. À l'opposite de l'effet de serre, les aérosols tendent ainsi à refroidir la surface, et donc le climat. Le fait que certains aérosols, les aérosols soufrés, sont hygroscopiques les rend aptes à jouer en plus le rôle de noyaux de condensation : à quantité donnée de vapeur d'eau, la présence d'une grande quantité d'aérosols soufrés multiplie donc le nombre de gouttelettes ; les gouttelettes qui se forment sont plus petites, elles se forment donc en plus grandes quantités et restent en suspension plus longtemps : un même volume de gouttes d'eau offre ainsi une surface réfléchissante plus grande et plus persistante. Cet effet refroidisseur supplémentaire est ce que l'on appelle l'effet indirect des aérosols soufrés.
Contrairement aux gaz à effet de serre, les aérosols ont une durée de vie courte. Ceux dont la durée de vie est la plus longue sont les aérosols stratosphériques naturels, injectés dans la stratosphère par les grandes éruptions volcaniques tropicales comme récemment, El Chichon ou le Pinatubo : ils sédimentent lentement et leur rôle de refroidisseur n'excède pas deux ou trois ans. Les aérosols soulevés par le vent dans les déserts, et les aérosols anthropiques restent pour l'essentiel dans les basses couches et la plus grande partie (notamment les aérosols soufrés) sont lessivés rapidement par les pluies. Leur durée de vie est de l'ordre d'une semaine, leurs panaches ont une extension limitée, contrairement au CO2, par exemple, qui est très bien mélangé dans l'ensemble de l'atmosphère. Néanmoins, ces panaches peuvent affecter notablement les climats régionaux. Pendant l'hiver 1999, la campagne INDOEX a étudié le panache issu de l'Inde et de l'Asie du Sud, qui, poussé par les vents de nord-est, s'étale de décembre à mars sur tout le nord de l'Océan Indien, jusqu'à la ligne des grands systèmes convectifs située vers 5 à 10°S, où la plupart sont lessivés. Le contraste est impressionnant, entre l'atmosphère lourdement polluée au nord de cette ligne convective, et l'atmosphère très pure située au sud. INDOEX a montré que ces pollutions régionales modifiaient fortement le bilan radiatif à la surface, créant des déficits d'énergie à la surface de la mer de l'ordre d'une vingtaine de Watts par mètre carré ; ceci doit entraîner des perturbations notables de l'interaction océan-atmosphère, en particulier des déficits d'évaporation pouvant influencer les précipitations dans des endroits très éloignés. Certaines études ont montré que de même, pendant l'été, la pollution émise sur le sous-continent indien influençait négativement les précipitations de mousson, parce qu'elle limite l'excédent énergétique à la surface qui est le véritable moteur de la saison des pluies. Le problème est évidemment que la pollution, comme l'effet de serre, est directement liée au développement et à l'explosion démographique. Les effets climatiques étudiés par INDOEX ne pourront que croître très fortement dans les décennies à venir, même si des mesures anti-pollution commencent à être mises en Suvre.
Enfin, on ne peut pas parler des perturbations climatiques liées à l'activité humaine sans évoquer, au moins brièvement, l'évolution du climat du Sahel. Les années soixante-dix ont été marquées par une baisse catastrophique des précipitations dans la bande sahélienne. Cette évolution fut vraisemblablement due, en partie à des causes naturelles, en partie à des causes anthropiques.
Les causes naturelles peuvent être rapportées aux interactions océan-atmosphère. On a vu que les précipitations tropicales (la saison des pluies) étaient liées aux branches ascendantes des circulations en rouleaux. Celles-ci se développent au dessus des continents, là où l'énergie solaire reçue est maximale, et, au dessus des océans, là où la température de la mer est particulièrement élevée. On conçoit que ces deux mécanismes puissent interférer, et qu'une anomalie d'eau chaude sur l'océan, en créant de nouvelles ascendances et de nouvelles subsidences, puisse accentuer ou limiter les ascendances continentales. C'est ce qui se produit avec El Niño, qui entraîne des sécheresses sur l'Indonésie, l'Australie, le Mozambique et le Nordeste brésilien, ainsi que des moussons généralement médiocres sur l'Inde. De même, il existe de fortes corrélations entre certaines anomalies de température océanique, et les sécheresses sahéliennes. Ceci dit, la région continentale où les pluies sont les mieux corrélées aux températures de l'océan semble bien être le Nordeste brésilien, qui réagit à la fois, aux oscillations El Niño-La Niña à l'ouest, et aux oscillations nord-sud des températures de l'Atlantique tropical, à l'est. Les modèles de circulation générale de l'atmosphère simulent très bien ce genre de relations.
Mais pour en revenir au Sahel, le comportement des hommes semble aussi avoir joué son rôle. La destruction de la végétation par le surpâturage conduit à une augmentation de la réflectivité de la surface, et donc à une moindre absorption de l'énergie solaire. De là, comme nous l'avons déjà expliqué, un affaiblissement de la saison des pluies, qui renforce la tendance à la désertification : on retrouve ici encore, une de ces rétroactions qui rendent le système climatique si sensible aux perturbations externes. D'une façon beaucoup plus générale, il est clair que le développement de nos civilisations s'est toujours accompagné de déforestation intensive liée aux pratiques agricoles, à la navigation ou à la construction : dans l'antiquité, tout le pourtour de la Méditerranée ; au Moyen Âge, l'Europe ; au siècle dernier, l'Amérique du Nord ; l'Inde aussi au cours des siècles passés ; et aujourd'hui, l'ensemble des forêts équatoriales, de l'Indonésie à l'Amazonie en passant par l'Afrique. L'évolution des climats n'a certes pas été insensible à toutes ces perturbations.
VIDEO CANAL U LIEN
(si la video n'est pas accéssible,tapez le titre dans le moteur de recherche de CANAL U.) |
|
|
|
|
|
|
VOYAGE DANS LE NANOMONDE DES AIMANTS ... |
|
|
|
|
|
VOYAGE DANS LE NANOMONDE DES AIMANTS VERS UNE
SPINTRONIQUE MOLÉCULAIRE - WOLFGANG WERNSDORFER
Une conférence du cycle "le magnétisme aujourd’hui : du pigeon voyageur à la spintronique"
Voyage dans le nanomonde des aimants vers une spintronique moléculaire
Wolfgang Wernsdorfer
Directeur de recherche CNRS, Institut Néel,CNRS Grenoble
L’électronique moléculaire et l’électronique de spin (ou spintronique) sont deux domaines majeurs des nanosciences. Le premier domaine utilise depuis plusieurs années des molécules afin de réaliser des dispositifs à molécule unique pour des applications potentielles en électronique. Le second, en introduisant les effets liés au spin dans les propriétés de transport électronique, a généré les effets géants de magnéto-résistance qui sont à l’origine d’une révolution en électronique.
La conférence montre comment le rapprochement des deux domaines peut émerger une "Spintronique Moléculaire" développant de nouveaux dispositifs qui manipuleront le spin et la charge d’une molécule-aimant unique [1] (Fig.1). L’expertise acquise par les chimistes pour moduler et contrôler les propriétés de ces molécules (spin, anisotropie, potentiel rédox, transitions induites par la lumière ou par le champ électrique…) permet de concevoir des dispositifs à propriétés modulables et à fonctionnalités nouvelles. On montrera les avantages de l’utilisation des systèmes moléculaires dans ce domaine
La conférence présente un domaine émergent, peu exploré à ce jour. Les objectifs principaux relèvent essentiellement de la recherche fondamentale, mais des applications en électronique et information quantique sont envisageables à moyen terme, comme le démontrent les premiers résultats du nouveau groupe créé au sein de l’Institut Néel dans ce nouveau domaine [2,3].
Fig. 1 : Schéma d'un dispositif de spintronique moléculaire. Une molécule magnétique est attachée au "canal" formé d'un nanotube de carbone suspendu et connecté aux électrodes de Pd. Le substrat de silicium dopé constitue une "grille" à potentiel ajustable.
[1] L. Bogani & W. Wernsdorfer. Molecular spintronics using single-molecule magnets. Nature Mat. 7, 179 (2008).
[2] Cleuziou, J.-P., Wernsdorfer, W., Bouchiat, V., Ondarçuhu, T. & Monthioux, M.
Carbon nanotube superconducting quantum interference device. Nature Nanotech. 1, 53-59 (2006).
[3] N. Roch, S. Florens, V. Bouchiat, W. Wernsdorfer & F. Balestro,
Quantum phase transition in a single-molecule quantum dot. Nature 453, 633 (2008).
VIDEO CANAL U LIEN
(si la video n'est pas accéssible,tapez le titre dans le moteur de recherche de CANAL U.) |
|
|
|
|
|
|
REGARD VERS LE FUTUR |
|
|
|
|
|
Un regard vers le futur
Luciano Maiani
Le sujet de cet exposé concerne la relation profonde liant la structure de la matière (les particules élémentaires) et les phénomènes à grande échelle se déroulant dans lunivers. Lidée même de ce lien a été lune des idées les plus fructueuses de notre passé moderne et il est surprenant de la retrouver clairement exprimée par les philosophes anciens et les artistes. Nous, humains, denviron 200cm, nous plaçons entre la terre (un million de fois plus grande), le soleil, la galaxie, les amas de galaxies, le fond cosmique. Ce dernier est lhorizon le plus lointain que nous puissions voir : il se trouve à 10 milliards dannées lumière, cest à dire 1028cm. Dautres choses se trouvent derrière ce ciel, mais ne sont détectables quavec des télescopes sensibles à dautres particules que les photons. De lautre coté de léchelle se trouvent latome -10-8cm, soit environ un Angstrom- le noyau -100 000 fois plus petit- et enfin les particules élémentaires, qui sont produites par des accélérateurs de particules puissants, comme le LHC en construction au CERN (Centre Européen de la Recherche Nucléaire), où ont été découverts les bosons W et Z0 qui sont les particules médiatrices des interactions faibles. Après les particules élémentaires se trouve le domaine des frontières, 10-17cm. Cependant, les phénomènes qui ont accompagné les fluctuations primordiales des premiers instants de lunivers se trouvent encore au delà de ce domaine.
Un premier exemple : lénergie du soleil
La question très simple de lorigine de lénergie du soleil permet immédiatement dappréhender les relations entre phénomènes à très petite et très grande échelle. La question sest posée à la fin du XIXème siècle. A cette époque la seule solution envisageable est la contraction gravitationnelle, au cours de laquelle lénergie potentielle est convertie en agitation thermique, c'est-à-dire en chaleur. Lord Kelvin a fait des calculs mathématiques et conclu à une durée de vie très courte du soleil de lordre de 10 ou 100 millions dannées. Au même moment, Darwin pouvait déjà conclure, sur la base de lobservation des structures biologiques et géologiques, que la Terre avait plus dun milliard dannées. Nous savons maintenant que la résolution de ce paradoxe se trouve dans le domaine de linfiniment petit : ce sont les réactions nucléaires avec la fusion des protons en hélium avec production de particules (2 positrons, 2 neutrinos et de lénergie) qui ont beaucoup plus dénergie. Ce processus permet au soleil davoir une vie qui se mesure en milliards dannées, et donc la vie sur terre. La chaleur de la Terre provient, quant à elle aussi, en partie de la radioactivité de la croûte terrestre. Cest donc la connaissance de phénomènes physiques microscopiques qui a apporté la solution à un problème macroscopique. Dès les années 1930, un modèle complet du fonctionnement des planètes et des étoiles élaboré par Hans Bethe est disponible. Elle établit un lien solide entre les données expérimentales obtenues précédemment (la mise en évidence des neutrinos) et le fonctionnement des étoiles. Contrairement à lexemple du siècle précédent, cest la connaissance de la chaleur produite par le soleil, et la découverte quil y avait moins de neutrinos quattendus qui a permis de réaliser que les neutrinos changent de nature pendant le voyage et a permis détablir le phénomène doscillations des neutrinos. Aujourdhui la nouvelle frontière de ce domaine de la physique est représentée par les faisceaux de neutrinos à longue portée. Un de ces appareils a été construit au CERN, en Suisse et Gran Sasso près de Rome. Il sagit dun très long tunnel, à lentrée duquel un faisceau produit des protons, qui passent par un tuyau de désintégration. Les particules produites voyagent ensuite dans le vide, avant dêtre toutes filtrées, à part les neutrinos. Ces particules sont ensuite détectées à larrivée, ce qui permet de mesurer les changements quelles ont subis au cours de leur voyage.
La connexion cosmique
Les relations entre les particules élémentaires et la structure de lunivers ont commencé à être élucidées à partir de la deuxième moitié du XXème siècle. A cette époque on sest aperçu que les collisions produites par les rayons cosmiques produisaient des molécules qui nétaient pas dans la chaîne de division de la matière, en unités toujours plus petites. Cétaient des muons. Pour comprendre leur rôle dans la nature, des accélérateurs ont été construits pour les recréer en laboratoire. Cest à cette occasion que lEurope a fondé un laboratoire international : le CERN, qui se trouve aujourdhui à lavant-garde de la recherche en physique des particules. Cela a permis une découverte extraordinaire : les particules que lon considérait comme élémentaires il y a cinquante ans se sont révélés être composés de quarks, particules élémentaires dont il existe six types différents. Le proton et le neutron sont chacun composés de trois quarks, le premier de deux quarks appelés up et dun appelé down, et le second composé inversement de deux quarks down et dun up. Toutes les autres particules sensibles aux forces nucléaires sont constituées par ce type de particules. Par exemple la particule responsable des interactions fortes entre protons et neutrons, le pion, est composée dun quark et dun antiquark. En vingt ans, on a compris quil existait très peu de forces :
- La force de gravité, transmise par une particule non encore observée, le graviton
- La force électromagnétique, transmise par le photon
- La force nucléaire (ou interactions fortes) transmise par les gluons, que lon ne peut pas observer à létat libre
- Les interactions faibles, transmises par les bosons W et Z0
- Une autre force mystérieuse, mal connue, dont on pense quelle est responsable des masses des particules, transmise par le boson de Higgs.
Cette théorie, appelée le modèle standard, développée dans les années 1970, permet de décrire des phénomènes physiques jusquà léchelle de masse du boson W, c'est-à-dire 10-17cm.
Au même moment de la découverte du muon se produisait un développement dramatique de la cosmologie. Hubble avait découvert que les galaxies séloignent de nous avec une vitesse proportionnelle à leur distance par une constante, dénommée H, constante de Hubble. En 1948 Gamow et Herman proposent la théorie du Big Bang, c'est-à-dire une origine de lunivers commençant il y a environ 10 milliards dannées par une grande explosion. Cette théorie a été confirmée en 1964 par Wilson qui a pu observer ce qui restait de cette boule de feu primordiale : la radiation du fond cosmique. Cette origine de lunivers lie naturellement les événements micro et macroscopiques. Les accélérateurs de particules sont donc pour nous des machines à remonter le temps qui reproduisent les conditions des premiers instants de lunivers. 300 000 ans après cette naissance se sont formés les atomes. Trois minutes après le big bang se forment les noyaux légers, 1/100 000ème de seconde après lorigine, les quarks et les gluons se condensent en hadrons. Le modèle standard nous permet de remonter jusquà un dix milliardième de seconde après le Big Bang. Cela fait partie des conquêtes extraordinaires de la physique moderne.
La forme de lespace
La courbure de lespace est liée à la matière. Lidée dEinstein, de la relativité générale, est que la géométrie de lespace nest pas donnée à priori mais dépend de la quantité dénergie quil y a dedans. La gravité nest rien dautre que la courbure de lespace-temps. Si on relie cela à lexpansion de lunivers, cela amène à lunivers de Friedman et Lemaitre, qui prédit que lévolution et la géométrie de lunivers sont déterminées par la densité de lénergie par rapport à la constante de la gravitation et à la constante de Hubble, constante nommée W. Celle-ci détermine le futur de lunivers, va-t-il sétendre pour toujours, ou, si la gravité gagne, va-t-il se rétracter. Depuis trente ans, on a des raisons de penser que W=1. Des collaborations (COBE, Boomerang, WMAP) ont permis détablir la « carte thermique » de la surface doù proviennent les photons du fond cosmique. Cette carte permet de regarder sil y a des fluctuations dans une direction particulière, qui seraient les germes de ce quest aujourdhui la structure de lunivers. Les premiers résultats ont été donnés en 1992 par Hubble, puis dernièrement en 2003 par WMAP, ce qui a finalement permis dobtenir une carte assez précise. Deux résultats importants sont à noter :
- ces fluctuations sont minimes : pour développer les structures daujourdhui, elles doivent être la trace des fluctuations beaucoup plus étendues dun type de matière que lon abordera plus loin : la matière sombre
- les fluctuations ont une ampleur angulaire denviron 1°, soit le diamètre angulaire de la Lune. Cela permet, puisque nous connaissons la longueur absolue de la fluctuation et la distance à laquelle elle se trouve, de calculer langle en degré dans lespace euclidien. Le résultat obtenu démontre que lunivers est plat et quil ne sétend ni ne se rétracte.
Les particules qui nous manquent
Ces résultats sont aussi un indicateur des particules dont nous navons pas encore démontré expérimentalement lexistence. La première dentre elles est le boson de Higgs, dont lexistence a été postulée pour justifier que les particules ont une masse. La masse est linteraction des particules avec un champ qui est partout dans lespace, et qui distingue les particules (les bosons W et Z acquièrent des masses alors que le photon nen acquiert pas). Lorsque des collisions se produisent, des fluctuations de masse se produisent, et cest cette oscillation qui correspond à une nouvelle particule, le boson de Higgs. Le monde scientifique est à sa recherche car il est nécessaire pour accorder la théorie avec ce qui est observé. Il donne une autre vision du vide qui peut expliquer de nouveaux phénomènes dans la Cosmologie. En 2002, on a cru avoir vu le boson de Higgs, mais lexpérience na pas été reproductible. Il faut donc attendre larrivée du LHC pour éclaircir la question. Le fait quil nait pas encore été découvert jusquà maintenant ne signifie pas quil nexiste pas, mais peut être simplement que nous navons pas les moyens physiques de le produire.
La deuxième particule manquante est liée au concept de supersymétrie liant les particules de spin différent, nécessaire à lunification des différentes forces. Cependant, la supersymétrie ne lie pas des particules que nous connaissons déjà, mais les particules déjà connues à de nouvelles particules de masse très élevée que nous ne voyons pas encore dans nos accélérateurs, qui ont reçu des noms très poétiques (photinos, Higgsinos, zinos,&). La plus légère de ces particules est un excellent candidat pour constituer la matière obscure.
La matière obscure
Lobservation de lunivers révèle que la matière que lon ne voit pas a une place beaucoup plus importante que la matière que lon voit. W est divisible en unités, ce qui nous donne la composition de la matière de lunivers. Le plus surprenant est que la matière ordinaire que nous connaissons ne représente que 5% du total de lénergie de lunivers ! Le reste se partage entre 25% de matière et 70% dénergie du vide. Nous ne sommes donc non seulement pas au centre de lunivers, mais en plus, nous ne sommes pas fait de la matière la plus courante. La question se pose de savoir quelle est la nature de cette matière, et de cette énergie. Les observations astronomiques, si elles nous renseignent sur la distribution de la Matière Obscure dans lunivers, ne nous donnent pas lidentité physique de ses composants.
Le grand collisionneur du CERN (LHC)
Les particules de la supersymétrie sont des candidats idéaux pour être les constituants de la matière obscure froide. La seule manière de lidentifier est de la reproduire en laboratoire. Nous allons donc chercher dans le monde microscopique lexplication de phénomènes à léchelle de lunivers. Pour produire ces particules supersymétriques, si elles existent, le Large Hadron Collider est en construction au CERN. Il entrera en fonction en 2007, et sera constitué par un tunnel de 27 kilomètres, qui comprendra dénormes aimants capables daccélérer les protons et de les garder en orbite. Dans les collisions du LHC seront produites des quantités de particules extraordinaires, et il faudra chercher dans cette soupe la signature du boson de Higgs, ce qui devrait être possible avec la puissance de calcul adéquate ; Il se produira en effet 40 millions de collisions par seconde au centre de chacun des quatre détecteurs, ce qui représentera cent à mille méga octets par seconde à stocker sur un disque magnétique. Si ces données étaient stockées sur des DVD, le total produit en une année serait de 15 millions de disques, soit une pile de 20km de hauteur ! Cette technologie est en train dêtre mise en place.
La gravité quantique
Comment accorder la théorie de la gravité avec la mécanique quantique ? Cette harmonisation demande un changement conceptuel très important dans la façon de voir les particules élémentaires : cest la théorie des cordes. On imagine que les particules sont chacune des vibrations différentes sur une sorte de corde microscopique, la supercorde. Cette théorie a été développée par un certain nombre de personnes (Veneziano, Schwartz, Ramond, et beaucoup dautres). Cette théorie nest pas cohérente dans un espace à quatre dimensions ! La cohérence mathématique du modèle entraîne lexistence dune dizaine de dimensions supplémentaires recourbées sur elles-mêmes. Comment est-il possible que nous vivions dans un espace dont nous nappréhendons pas toutes les dimensions ? Cette question a été abordée depuis longtemps : nous savons depuis Einstein (1905) que nous vivons dans un espace à quatre dimensions (la quatrième dimension étant le temps). Théodore Kaluza en 1919 avait aussi montré quune théorie unifiée de la gravité et de lélectromagnétisme pouvait être réalisée si lespace admettait une cinquième dimension. Klein (1925) a aussi considéré les particules pouvant habiter dans la cinquième dimension. Cette cinquième dimension a donc pris le nom de Kaluza-Klein. Lidée est quune dimension supplémentaire recourbée sur elle-même ne laisse pas rentrer les ondes et les particules présentant respectivement des longueurs donde et des faibles énergies. Une onde peut en effet saccorder avec une dimension seulement si cette dernière est un multiple de la première. Une onde présentant une longueur donde plus grande que le rayon de la dimension ne pourra pas y entrer. Selon la mécanique quantique, qui associe une onde à chaque particule, la longueur de nos atomes est beaucoup trop importante pour que lon puisse pénétrer dans ces dimensions supplémentaires si elles existent.
Les phénomènes se déroulent à un niveau beaucoup plus microscopique, ce quillustre la phrase de Richard Feynman « Un chat ne peut pas disparaître à Pasadena et réapparaître en Sicile, ce serait un exemple de conservation globale du nombre de chats, ce nest pas la façon dont les chats sont conservés ». Cest effectivement impossible à un objet macroscopique comme un chat, mais ce serait possible pour une particule. Le démontrer expérimentalement
reviendrait à démontrer lexistence de dimensions supplémentaires. Nous savons maintenant quil doit y avoir dautres dimensions dans lespace, mais quelle est leur dimension ? Existe-t-il des particules ayant une longueur donde leur permettant de rentrer dans ces dimensions supplémentaires, et donc de disparaître et de réapparaître ? Ce sujet a connu un développement fulgurant ces dernières années. Les théories des supercordes développées montrent en effet que les particules que nous connaissons (quarks, leptons et bosons de jauge) sont confinées sur une membrane localisée à la surface de la dimension supplémentaire. Nous nentrons ainsi pas dans la cinquième dimension, non pas à cause de nos longueurs donde, mais parce que nous sommes liés à une surface à quatre dimensions. Dans cette théorie, les gravitons ne sont pas soumis au même phénomène et peuvent se propager partout, ce qui leur donne des propriétés extraordinaires. Ainsi, lorsquil se produit une collision positron/graviton, sept gravitons peuvent être produits et entrer dans la cinquième dimension. La probabilité dobtenir ce phénomène si la dimension saccorde à lénergie de cette particule est assez grande. On a cherché dans les données expérimentales si lon pouvait voir la signature dune disparition dénergie, qui résulterait dune interaction positron/graviton produisant des photons, et des gravitons disparaissant. Une déviation est alors attendue, qui nest pas observée expérimentalement. On peut objecter que lénergie est trop petite, et le LHC devrait permettre de résoudre ce problème.
Un regard vers le futur
Dans le domaine de la physique des particules, le LHC est naturellement attendu avec impatience. Quels sont les projets suivants ? Beaucoup de discussions ont été engagées sur la construction dun collisionneur linéaire électron/positron, qui permettrait de voir le boson de Higgs. Dans le futur proche, deux devraient être construits (projet DESY en Allemagne et le Next Linear Collider aux USA). Dans un avenir plus lointain, la formation dun collisionneur possédant plusieurs fois lénergie du LHC, soit linéaire électron/positron, ou le Very Large Hadron Collider de Fermilab qui devrait avoir une circonférence de plus de deux cents kilomètres. Mais la physique des particules ne se fait pas seulement autour des accélérateurs et des collisionneurs, mais aussi dans les laboratoires sous marins et souterrains. Les théories prévoyant lunification des forces entre elles et de la matière prédisent une instabilité du proton que lon na pas encore observé expérimentalement.
Dans le domaine de la cosmologie, le défi est maintenant de voir au delà du fond cosmique : c'est-à-dire de voir ce qui sest passé entre le Big Bang et la formation des atomes, 300 000 ans après. Les photons ne peuvent nous donner aucune information. Des télescopes à neutrinos sont donc en construction ou déjà construits (Amanda au Pole Sud pour étudier si des neutrinos traversent la Terre, Antarès Nemo dans la Méditerranée qui est en projet). Ces laboratoires vont remplacer les laboratoires souterrains, et il est imaginable davoir ainsi des laboratoires qui vont surveiller 1km3 de matière pour voir si quelques protons se désintègrent, ou si des neutrinos traversent cette matière. Il existe aussi des détecteurs dondes gravitationnelles (LIGO aux USA, avec des bras de cinq millions de kilomètres de long ou VIRGO, collaboration franco-italienne à Pise, qui permettent détudier sil y a une déformation de la figure de diffraction). Le projet du futur est de placer un tel détecteur en orbite autour du soleil. Il existe déjà un laboratoire souterrain, le Superkamiokande, contenant un énorme bassin équipé de photo-multiplicateurs.
La réconciliation de la théorie de la gravitation avec la théorie de la mécanique quantique nous a déjà réservé de grandes surprises (les théories des cordes) et pose encore des problèmes. Le premier défi est de démontrer lexistence des supersymétries et des dimensions supplémentaires. Le phénomène de Higgs nous donne une vision du vide totalement différente de celle observée dans la mécanique quantique. Si lon compare lénergie du vide mesurée à celle prédite par ces théories, en supposant que la matière obscure est bien composée des particules de supersymétrie, on obtient un résultat soixante fois plus petit ! Il y a donc certainement beaucoup de choses que nous ne comprenons pas encore, et beaucoup de choses à découvrir. Les phénomènes que je viens dévoquer, les interactions entre physique des particules et cosmologie, proviennent de modèles assez récents mais qui ont déjà donné beaucoup de résultats. Ce domaine particulier a reçu un nom : il sagit de la physique des astro-particules. Loutil essentiel à venir est le LHC pour éclaircir le Higgs et la matière obscure. Nous attendons encore beaucoup de surprises de la réconciliation de la mécanique quantique avec la théorie de la relativité générale, dont le test crucial sera la compréhension de lénergie obscure.
VIDEO CANAL U LIEN
(si la video n'est pas accéssible,tapez le titre dans le moteur de recherche de CANAL U.) |
|
|
|
|
|
|
CÉRAMIQUE |
|
|
|
|
|
Paris, 23 mars 2014
Un matériau innovant inspiré de la nacre dix fois plus tenace qu'une céramique classique
Les céramiques, qu'elles soient traditionnelles ou de haute technologie, présentent toutes un défaut : leur fragilité. Ce côté cassant pourrait bientôt disparaître : une équipe de chercheurs, menée par le Laboratoire de synthèse et fonctionnalisation des céramiques (CNRS/Saint-Gobain), en collaboration avec le Laboratoire de géologie de Lyon : Terre, planètes et environnement (CNRS/ENS de Lyon/Université Claude Bernard Lyon 1) et le laboratoire Matériaux : ingénierie et science (CNRS/INSA Lyon/Université Claude Bernard Lyon 1) vient de présenter un nouveau matériau céramique inspiré de la nacre des ormeaux, petits mollusques marins à coquille unique. Ce matériau, près de dix fois plus tenace qu'une céramique classique, est issu d'un procédé de fabrication innovant qui passe par une étape de congélation. Cette méthode semble compatible avec une industrialisation à échelle plus importante, à priori sans surcoût notable par rapport à celles déjà employées. Conservant ses propriétés à des températures d'au moins 600°C, cette nacre artificielle pourrait trouver une foule d'applications dans l'industrie et permettre d'alléger ou de réduire en taille des éléments céramiques des moteurs ou des dispositifs de génération d'énergie. Ces travaux sont publiés le 23 mars 2014 sur le site internet de la revue Nature Materials.
La ténacité, capacité d'un matériau à résister à la rupture en présence d'une fissure, est considérée comme le talon d'Achille des céramiques. Pour pallier leur fragilité intrinsèque, celles-ci sont parfois combinées à d'autres matériaux plus tenaces, métalliques ou polymères. L'adjonction de tels matériaux s'accompagne généralement de limitations plus ou moins sévères. Par exemple, les polymères ne résistent pas à des températures supérieures à 300°C, ce qui limite leur utilisation dans les moteurs ou les fours.
Dans la nature, il existe un matériau proche de la céramique qui est extrêmement tenace : la nacre qui recouvre la coquille des ormeaux et autres bivalves. La nacre est composée à 95 % d'un matériau intrinsèquement fragile, le carbonate de calcium (l'aragonite). Pourtant, sa ténacité est forte. La nacre peut être vue comme un empilement de briques de petite taille, soudées entre elles par un mortier composé de protéines. Sa ténacité tient à sa structure complexe et hiérarchique. La propagation de fissures dans ce type d'architecture est rendue difficile par le chemin tortueux que celles-ci doivent parcourir pour se propager. C'est cette structure qui a inspiré les chercheurs.
Comme ingrédient de base, l'équipe du Laboratoire de synthèse et fonctionnalisation des céramiques (CNRS/Saint-Gobain) a pris une poudre céramique courante, l'alumine, qui se présente sous la forme de plaquettes microscopiques. Pour obtenir la structure lamellée de la nacre, ils ont mis cette poudre en suspension dans de l'eau. Cette suspension colloïdale (1) a été refroidie de manière à obtenir une croissance contrôlée de cristaux de glace. Ceci conduit à un auto-assemblage de l'alumine sous forme d'un empilement de plaquettes. Finalement, le matériau final a été obtenu grâce à une étape de densification à haute température.
Cette nacre artificielle est dix fois plus tenace qu'une céramique classique composée d'alumine. Ceci est dû au fait qu'une fissure, pour se propager, doit contourner une à une les « briques » d'alumine. Ce chemin en zigzag l'empêche de traverser facilement le volume du matériau.
L'un des avantages du procédé est qu'il n'est pas exclusif à l'alumine. N'importe quelle poudre céramique, pour peu qu'elle se présente sous la forme de plaquettes, peut subir le même processus d'auto-assemblage. De plus, l'industrialisation de ce procédé ne devrait pas présenter de difficultés. L'obtention de pièces composées avec ce matériau bio-inspiré ne devrait pas entraîner de grands surcoûts. Sa forte ténacité pour une densité équivalente pourrait permettre de fabriquer des pièces plus petites et légères. Il pourrait devenir un matériau de choix pour les applications soumises à des contraintes sévères dans des domaines allant de l'énergie au blindage.
DOCUMENT CNRS LIEN |
|
|
|
|
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 ] Précédente - Suivante |
|
|
|
|
|
|