|
|
|
|
 |
|
LA LUNE |
|
|
|
|
|
LA LUNE
CARACTÉRISTIQUES PHYSIQUES DE LA LUNE
diamètre moyen
3 476 km
Masse
73,4 · 1021 kg
Volume
22 · 199 km3
densité moyenne
3,34 (eau = 1)
albédo moyen
0,073
CARACTÉRISTIQUES ORBITALES DE LA LUNE
demi-grand axe de l'orbite
384 400 km
excentricité moyenne de l'orbite
0,0549
distance minimale au périgée
356 375 km
distance maximale à l'apogée
406 720 km
inclinaison moyenne de l'orbite sur l'écliptique
5,145 3°
inclinaison de l'équateur lunaire sur l'orbite
6°41’
période de révolution :
- sidérale (retour à la même position dans le ciel par rapport aux étoiles)
- synodique (retour à la même position par rapport au Soleil = lunaison)
27,321 660 9 j, soit 27 j 7 h 43 min 11,5 s
29,530 588 1 j, soit 29 j 12 h 44 min 2,8 s
période de rotation sidérale
identique à la période de révolution sidérale
Presque toutes les planètes du Système solaire possèdent des lunes, notamment les planètes géantes Jupiter et Saturne qui comptent plusieurs dizaines de satellites naturels, de formes et de tailles très variées.
Introduction
Face cachée de la LuneFace cachée de la Lune
La Lune, seul satellite naturel de la Terre, est, après le Soleil, l'objet le plus lumineux de notre ciel. Cette qualité, jointe à ses éclipses, à son influence sur les marées et aux changements de forme de sa partie brillante (croissant, quartier, etc.), qui ponctuent le temps et servirent dans de nombreuses civilisations comme calendrier, explique l'intérêt précoce des hommes pour cet astre. Sa relative proximité en a fait le seul corps céleste dont la surface a pu être étudiée en détail depuis la Terre, puis le premier à avoir été exploré, récemment, par les hommes, qui ont pu y prélever des échantillons de roches.
Les caractéristiques physiques et astronomiques
La Terre et la Lune depuis MarsLa Terre et la Lune depuis Mars
Seul satellite naturel de la Terre, la Lune est, à plusieurs égards, un objet unique dans le Système solaire. D'un rayon de 1 738 km, elle est quatre fois plus petite et 81,3 fois moins massive que la Terre. Bien qu'il existe dans le Système solaire des satellites à la fois plus gros et plus massifs que la Lune, aucun, excepté Charon, le satellite de Pluton, n'a les mêmes proportions par rapport à sa planète. On peut considérer que le système Terre Lune constitue une véritable planète double.
La Lune décrit autour de la Terre une orbite elliptique. La distance moyenne séparant le centre de la Terre de celui de la Lune est de 384 400 km, soit à peu près 60 rayons terrestres (moins de 1 % de la distance de la Terre à Vénus ou à Mars, même au moment de leur plus grande proximité). La première évaluation correcte de cette distance remonte à l'Antiquité (période alexandrine), mais il fallut attendre le xviiie s. (La Caille et Lalande) pour obtenir une valeur réellement précise par la méthode trigonométrique, ou triangulation. La méthode des échos radar, depuis 1947, puis celle des échos laser réfléchis sur la Lune ont supplanté aujourd'hui la méthode trigonométrique du fait de leur précision largement supérieure. L'orbite de la Lune autour de la Terre est assez fortement elliptique (excentricité 1/18), aussi la distance de la Lune à la Terre varie-t-elle dans des limites notables : au cours de chaque mois, de 356 375 km au périgée à 406 711 km à l'apogée. Le globe lunaire apparaît dans le ciel comme un disque d'un peu plus de 0,5° de diamètre apparent.
Éclipse totale de Lune, décembre 2010Éclipse totale de Lune, décembre 2010
Le plan de l'orbite lunaire est incliné d'un angle variant de 18,2° à 28,6° sur le plan de l'équateur terrestre, et d'un angle de 5° 8' sur le plan de l'écliptique (plan orbital de la Terre) ; la droite d'intersection du plan de l'orbite lunaire avec le plan de l'écliptique est appelée ligne des nœuds du fait qu'elle coupe la sphère céleste en deux points appelés nœud ascendant et nœud descendant. Les nœuds ont un mouvement rétrograde dont la période est 18,6 ans environ.
La durée de la révolution sidérale de la Lune, c'est-à-dire le temps qu'il faut à la Lune pour accomplir une révolution complète autour de la Terre et se retrouver ainsi, vue de la Terre, dans la même position par rapport aux étoiles, est de 27 jours 7 heures 43 minutes 11,5 s (= un mois sidéral). Mais, durant ce laps de temps, la Terre s'est elle-même déplacée sur son orbite autour du Soleil, la Lune ne se retrouve, pour l'observateur terrestre, dans la même direction par rapport au Soleil qu'après un peu plus de deux jours supplémentaires : la durée de la révolution synodique, ou lunaison, au cours de laquelle s'effectue un cycle complet des phases de notre satellite (c'est-à-dire la durée qui sépare deux pleines lunes successives est ainsi de 29 j 12 h 44 min 2,8 s en moyenne, (= un mois synodique).
Cette observation astronomique est très ancienne : ainsi, l'« observatoire préhistorique » de Stonehenge, en Angleterre, comporte deux cercles concentriques, l'un de trente trous et l'autre de vingt-neuf ; en transportant chaque jour une pierre d'un trou au suivant, on se retrouve au point de départ en 59 jours, soit deux mois synodiques à très peu de chose près !
Le déplacement de la Lune dans le ciel est moins facile à repérer que ses changements de forme à cause du mouvement apparent des étoiles, dû à la rotation de la Terre. En une nuit, la Lune semble se diriger vers l'ouest, à peu près comme les étoiles. Mais en l'observant à 24 heures d'intervalle, on constate que, par rapport aux étoiles voisines, elle s'est déplacée (de 26 diamètres environ) vers l'est, et non vers l'ouest. Sa vitesse moyenne sur son orbite est en effet de 1,023 km/s, ce qui correspond à une vitesse moyenne angulaire dans le ciel d'environ 33 minutes d'arc par heure, soit un peu plus que son diamètre apparent.
Ajoutons que des mesures effectuées par réflexion d'un rayon laser ont permis de déterminer que la Lune s'éloigne progressivement de la Terre d'environ 4 cm par an. D'après les lois de Kepler, cet éloignement induit une perte d'énergie du système Terre-Lune d'environ 3 . 1012 watts par an, essentiellement dans l'océan.
Les phases de la Lune
Phases de la LunePhases de la Lune
La Lune est un astre qui n'émet aucune lumière. Elle n'est visible pour nous que parce qu'elle est éclairée par le Soleil. Comme toute sphère éclairée par une source lumineuse lointaine, la Lune présente toujours une moitié brillante – celle tournée vers le Soleil – et une moitié sombre. C'est la partie éclairée de la Lune, visible pour nous à un moment donné, que nous voyons briller dans le ciel. La Lune suit ainsi quatre phases principales, appelées phases lunaires, en environ 4 semaines.
La nouvelle lune
Quand la Lune se trouve entre la Terre et le Soleil (c'est-à-dire à peu près dans la direction du Soleil pour un observateur terrestre : on dit que la Lune se trouve alors en conjonction avec le Soleil), elle tourne vers la Terre sa moitié sombre (non éclairée), et elle est alors invisible pour l'observateur terrestre : on appelle cette phase la nouvelle lune.
Le premier quartier de Lune
Au cours des jours suivants, la forme de la partie éclairée se rapproche progressivement d'un cercle complet et la Lune se lève et se couche avec un retard progressif. Suivant les mois, 6,5 jours ou 7,5 jours après la conjonction, le disque de la Lune se montre sous la forme d'un demi cercle, en partie visible pendant le jour ; c'est le premier quartier.
La pleine lune
Quinze jours environ après la nouvelle lune, la Terre se trouve à peu près entre le Soleil et la Lune ; c'est à minuit qu'elle passe au méridien, c'est-à-dire qu'elle atteint le point le plus élevé de sa course sur la sphère céleste, et elle présente alors entièrement sa moitié éclairée à l'observateur terrestre : c’est la pleine lune.
Le dernier quartier de Lune
Puis la forme circulaire de la partie éclairée du disque décroît progressivement pour se présenter, comme au début de son cycle, sous la forme d'un croissant de même dimension que le premier, mais orienté, pour l'observateur terrestre, en sens inverse. C'est le dernier quartier ; après quoi la Lune, continuant de progresser sur son orbite, entre de nouveau en conjonction avec le Soleil. La lunaison est terminée, et un nouveau cycle commence.
Le bord éclairé de la Lune est toujours situé vers le Soleil, c'est-à-dire vers l'ouest, tant que la Lune grossit, et vers l'est quand elle diminue (ainsi, vue de l'hémisphère Nord, lorsqu'elle « croît » elle affecte la forme d'un D, et celle d'un C lorsqu'elle « décroît », d'où le surnom de « menteuse » qu'on lui donne parfois). Lorsque le croissant de Lune est très fin (avant le premier quartier et après le dernier quartier), la partie obscure de la planète nous apparaît faiblement visible, la nuit. Cette faible lumière d'appoint, ou lumière cendrée, provient de la Terre : c'est de la lumière solaire réfléchie vers la Lune par notre atmosphère et ses nuages. La lumière cendrée est donc le « clair de Terre » sur la Lune.
Le relief lunaire
la face visible de la Lunela face visible de la Lune
Les formations les plus caractéristiques du relief lunaire sont des dépressions circulaires ou polygonales, de dimensions variables : les cratères (ou cirques pour les plus vastes, bordés de remparts montagneux). Les plus grands dépassent 200 km de diamètre, mais les plus petits discernables de la Terre n'excèdent pas 1 km, et l'exploration spatiale en a révélé une multitude d'autres de dimensions moindres. Outre des cratères, on observe à la surface des « mers » lunaires (ou bassins) – dont certains comme Mare Imbrium (mer des Pluies) ou Mare Orientale (mer Orientale), ont plus de 1 000 km de diamètre –, des crevasses (ou rainures), des vallées, des falaises et des pitons rocheux isolés.
L'origine de ces structures résulte directement ou indirectement d'impacts de météorites. En effet, la surface de la Lune n'est pas protégée par une atmosphère, et les objets célestes, qui possèdent une énergie cinétique très importante, la percutent à une vitesse d'environ 2,4 km/s. Lors de l'impact, cette énergie est libérée sous forme d'énergie mécanique et thermique. Les petits et moyens cratères se sont ainsi formés, les roches sous-jacentes étant rejetées vers la périphérie ; dans le cas des plus grands, comme les bassins (dont 29, de plus de 300 km de diamètre, ont été dénombrés), la quantité de chaleur libérée par l'impact fut si importante que les roches constituant le fond du cratère ont fondu et se sont répandues comme des laves avant de recristalliser. Les mers circulaires sont les plus grandes structures morphologiques d'impact rencontrées sur la Lune ; le bassin creusé primitivement a été envahi des centaines de millions d'années plus tard par de la lave venue de l'intérieur du globe lunaire. Des cratères d'origine volcanique ont également été reconnus, mais ils sont peu nombreux.
Le sol lunaire
Le sol de la Lune apparaît jonché de pierres plus ou moins enfoncées dans une couche de poussière, constituée de fins débris rocheux réduits en poudre et épaisse, selon les endroits, de quelques millimètres à une quinzaine de centimètres. Sous le tapis de poussière s'étend une couche de roches brisées, le régolithe (ou régolite), dont l'épaisseur varie entre 2 et 20 m suivant les régions.
Les six missions Apollo qui comportèrent un atterrissage sur la Lune ont permis de récolter quelque 2 200 échantillons de roches lunaires, représentant une masse totale voisine de 400 kg. Il faut y ajouter quelques échantillons prélevés par carottage et rapportés sur la Terre par des engins automatiques soviétiques Luna.
Comme sur la Terre, l'oxygène est l'élément le plus abondant à la surface de la Lune. L'étude des roches lunaires a permis d'y découvrir 75 variétés de minéraux (silicates principalement), représentant seulement 33 espèces distinctes, contre environ 80 dans les météorites et plus de 2 000 sur la Terre.
La structure interne de la Lune
Structure interne de la Lune
Les indications fournies par les sismomètres des vaisseaux Apollo ont permis d'établir le modèle suivant :
– une écorce multicouche épaisse de 60 km environ, pour l'hémisphère visible de la Terre, à 100 km pour l'hémisphère caché ;
– un manteau, épais d'environ 1 000 km ;
– un noyau, de quelque 700 km de rayon, contenant une assez grande quantité de fer. Ce noyau serait plus ou moins pâteux, la température au centre étant estimée voisine de 1 500 °C.
La température à la surface de la Lune
La quasi-absence d'atmosphère entraîne une amplitude thermique pouvant atteindre 100 °C en un point donné de la surface entre le jour et la nuit. Les températures extrêmes relevées atteignent + 117 °C au maximum le jour et − 171 °C au minimum la nuit.
L'origine et l'évolution de la Lune
La Lune s'est formée il y a 4,55 milliards d'années. Peu après, elle se liquéfia sur au moins 200 km de profondeur, et ses divers matériaux constitutifs se répartirent du centre vers la surface par ordre de densité croissante. À peine solidifiée, sa croûte superficielle se trouva bombardée par d'énormes météorites, abondantes à l'époque dans l'espace interplanétaire, qui y creusèrent de grands bassins et provoquèrent une fusion des roches. Cette ère cataclysmique s'acheva il y a 3,9 milliards d'années. La Lune connut ensuite, pendant 800 millions d'années, une grande activité interne. Celle-ci provoqua une seconde fusion en profondeur et la formation de laves basaltiques, qui remontèrent et s'épanchèrent à la surface, remplissant les bassins pour constituer le fond des mers tel qu'on l'observe aujourd'hui.
Depuis quelque 3 milliards d'années, l'activité interne s'est assoupie, les impacts de météorites à la surface sont devenus plus rares, et la Lune s'est lentement refroidie, devenant rigide jusqu'à une profondeur d'au moins 1 000 km.
Collision de corps célestesCollision de corps célestes
La Lune est-elle un morceau de la Terre qui s'est détaché de notre planète, alors que celle-ci était encore fluide ? Constituait-elle initialement une planète indépendante qui fut capturée par la Terre, près de laquelle l'amenait son orbite ? Ou bien s'est-elle formée, par accrétion, à proximité de la Terre, les deux astres ayant, dès l'origine, constitué une planète double. Les résultats de l'analyse des roches lunaires rapportées lors des missions Apollo ont montré qu'aucune de ces trois hypothèses traditionnelles n'était satisfaisante. On admet à présent que la Lune s'est formée à la suite d'une collision tangentielle survenue entre la Terre et un autre corps du Système solaire, d'une masse au moins égale à celle de Mars, à la fin de l'époque de la formation des planètes, alors que la Terre présentait déjà une structure différenciée, avec un noyau ferreux entouré d'un manteau rocheux. Sous l'effet de la collision, des lambeaux du manteau terrestre auraient été projetés dans l'espace ; mais ils auraient perdu la plupart de leurs éléments volatils en raison du dégagement de chaleur. Ces fragments de matière se seraient ensuite dispersés en anneau autour de la Terre avant de se réagglomérer très rapidement pour donner naissance à la Lune.
L’exploration de la Lune
Les Soviétiques ont inauguré l'exploration de la Lune avec, entre autres, la série des sondes Luna. Ainsi, Luna 2, lancée le 12 septembre 1959, fut le premier engin à atteindre la Lune ; Luna 3 transmit les premières photos de la face cachée, également en 1959. En 1970, Luna 16 préleva et achemina vers la Terre des échantillons du sol lunaire.
Mais les premiers à marcher sur la Lune furent les Américains. Six missions Apollo, d'Apollo 11 à Apollo 17, s'y succédèrent, sur les sept initialement prévues. La plus célèbre de ces missions reste la première, qui vit le débarquement sur le sol lunaire de Neil Armstrong, le 21 juillet 1969 suivi par son compagnon Edwin Aldrin.
Au cours des six missions effectuées, les astronautes se livrèrent à un certain nombre d'expériences scientifiques dites ALSEP (Apollo lunar surface experiments [« expériences Apollo sur le sol lunaire »]).
Les missions Apollo ont permis de ramener 388 kg de roches lunaires et d'installer des capteurs sismiques analysant les ondes produites par les impacts météoritiques, des capteurs mesurant les fluctuations des champs magnétiques, des détecteurs de particules alpha et de rayonnement gamma et ont élaboré une cartographie à haute résolution de la Lune.
Trois sondes Ranger ont transmis 17 267 images du sol lunaire ; les sondes Surveyor en ont fourni plus de 86 000, et des milliers de données radar et de mesures de température.
La sonde Lunar Prospector
Lancée depuis la fusée Athena II, le 11 janvier 1998, la sonde américaine Lunar Prospector, après avoir été mise en orbite autour de la Lune, a détecté, en mars 1998, la présence d'eau sous forme de glace aux deux pôles de la Lune. Cette sonde avait également pour mission de dresser le premier atlas géochimique de notre satellite. Grâce à un spectromètre gamma, elle a pu ainsi localiser les gisements de métaux et minerais enfouis à plusieurs mètres de profondeur, tandis qu'un spectromètre alpha lui permettait de détecter les différents gaz présents. L'analyse de ces relevés devrait ainsi permettre de confirmer une éventuelle activité tectonique de la Lune. Dans une deuxième phase de sa mission, entamée en février 1999, Lunar Prospector, dont l'orbite avait été abaissée à une dizaine de kilomètres du sol lunaire, après avoir scruté le cratère Aitken, à l'intérieur duquel la présence d'eau sous forme de plaques de glace avait été précédemment détectée, a été chargée d'établir une cartographie des astéroïdes enfoncés dans le sol lunaire. L'étude de ces « mascons » (concentrations de masse se traduisant localement par une augmentation du champ gravitationnel de la Lune) devrait permettre d'affiner la modélisation de l'intérieur de notre satellite.
De nouvelles données concernant la surface lunaire (minéralogie, composition chimique, etc.) ont été fournies par la sonde européenne Smart 1, après sa mise en orbite autour de la Lune en 2005, ainsi que par la sonde japonaise Selene (Kaguya), qui décrit depuis octobre 2007 une orbite survolant les pôles lunaires, et la sonde chinoise Chang'e, placée en orbite autour de la Lune en novembre 2007. On attend beaucoup aussi de la sonde indienne Chandrayaan 1, lancée le 22 octobre 2008, qui doit étudier la Lune en orbite pendant deux ans, à 100 km d'altitude seulement, et larguer un impacteur sur le sol lunaire. Par ailleurs, en janvier 2004, le président des États-Unis George W. Bush a annoncé la reprise des missions humaines américaines sur la Lune à partir de 2015.
Fin 2013, le module contenant le premier véhicule d'exploration lunaire téléguidé chinois, baptisé « Lapin de jade », s'est posé sur la Lune. C'est la troisième nation à réussir un alunissage en douceur après les États-Unis et l'URSS. Cette mission, qui fait partie d'un ambitieux programme spatial, est chargée d'effectuer des analyses scientifiques, notamment géologiques.
DOCUMENT larousse.fr LIEN |
|
|
|
|
 |
|
Quand tous les océans étaient gelés |
|
|
|
|
|
Quand tous les océans étaient gelés
Joseph L. Kirschvink dans mensuel 355
daté juillet-août 2002 -
A la veille de l'ère Primaire, Il y a quelque 600 millions d'années, la Terre aurait été entièrement gelée au moins à cinq reprises. Chaque fois, les glaces auraient fondu à la faveur d'un réchauffement par effet de serre. Emise voici dix ans, l'hypothèse reste controversée. Mais les indices se multiplient...
La science devient amusante lorsqu'elle permet de simplifier les choses. Le summum étant d'imaginer une théorie qui rende compte d'une multitude d'observations sans dépendance mutuelle apparente. Ce fut le cas de la théorie de la tectonique des plaques qui, dans les années 1960, permit de réunir des observations paléontologiques, pétrographiques, géophysiques, etc., en un seul et même concept unificateur. De telles avancées conceptuelles sont rares. Mais de nombreux aspects obscurs de l'histoire de la Terre laissent encore le champ libre à de nouvelles hypothèses. Ainsi, en 1992, j'ai émis l'idée d'une « Terre boule de neige », c'est-à-dire d'une Terre entièrement gelée, pour résoudre l'énigme des dépôts glaciaires de la fin du Précambrien*, la période qui précède la fameuse « explosion cambrienne » pendant laquelle la plupart des lignées animales sont apparues1. Dix ans après, cette idée provocatrice est toujours l'objet de violents débats.
L'existence de glaciations précambriennes est restée longtemps ignorée. L'Australien Sir Douglas Mawson, de l'université d'Adélaïde, et le Britannique Brian Harland, de l'université de Cambridge, furent les premiers, au milieu du XXe siècle, à reconnaître leur ampleur exceptionnelle. Indépendamment l'un de l'autre, ces deux éminents géologues avaient repéré dans de nombreux ensembles sédimentaires de l'époque les traces d'anciens glaciers : stries parallèles gravées sur les roches par l'écoulement des glaces, cailloux abandonnés par des icebergs, etc. Plus étrange, D. Mawson et B. Harland avaient trouvé, mélangés aux débris glaciaires, des fragments de roches composées de carbonates de calcium calcaires ou de magnésium dolomites, lesquelles se forment dans les eaux chaudes tropicales. Les glaciers précambriens s'étaient apparemment écoulés sur des plateaux carbonatés comme ceux qui entourent les Bahamas aujourd'hui. Le refroidissement était donc survenu immédiatement après un épisode chaud. Autre observation déroutante : ces dépôts glaciaires se retrouvaient en de nombreux points de la planète, y compris sous les tropiques2 ! Les deux hommes en déduisirent que la glaciation qui les avait engendrés, si elle était unique, avait sans doute été d'une ampleur exceptionnelle, jamais égalée dans l'histoire de la Terre3.
Les américians Cornelis Klein et Nic Beukes s'aperçurent quelques années plus tard que les glaciations précambriennes coïncidaient aussi avec la réapparition de dépôts d'argiles très riches en fer les BIF, pour Banded Iron Formations qui avaient disparu depuis plus d'un milliard d'années fig. 1. Or, leur formation suppose un océan privé d'oxygène. Depuis lors, les observations se sont affinées, et nous pensons aujourd'hui que trois ou quatre événements « Boule de neige » se sont succédé au Néo-protérozoïque*, entre 730 et 590 millions d'années2 et qu'un autre au moins a sévi au Paléoprotérozoïque*, il y a 2,2 ou 2,3 milliards d'années4,5.
Valse des continents. Si l'idée de glaciations précambriennes est généralement acceptée par les géologues, l'hypothèse d'événements synchrones, discrets, au cours desquels les glaces seraient descendues jusque sous les Tropiques, est toujours âprement discutée. Les datations restent peu nombreuses. Il est donc difficile d'être certain que les dépôts glaciaires témoignent bien des mêmes événements géologiques. En outre, au Quaternaire, les calottes glaciaires ne sont jamais allées en deçà de 40° de latitude à peu près au niveau de Chicago et de New York. Au nom du précepte géologique qui veut que « le présent est la clé du passé », les scientifiques ont cherché des solutions moins radicales à ce paradoxe climatique.
Dans les années 1960, la nouvelle théorie de la tectonique des plaques leur offrit une explication évidente : carbonates et dépôts glaciaires résultaient tout simplement du mouvement passé des continents. Les premiers s'étaient formés alors que les masses continentales étaient à l'équateur, et les seconds lorsqu'elles s'étaient rapprochées des pôles. Faute de datations, le scénario ne semblait pas impossible. Il permettait en tout cas d'éviter les glaciers tropicaux. Encore fallait-il trouver les preuves de ces déplacements anciens. L'étude du champ magnétique passé ou « paléomagnétisme », bien que balbutiante, était à ce titre riche de promesses. Les géophysiciens s'étaient aperçus que certains minéraux comme la magnétite ou l'hématite acquièrent, au moment de leur formation, une aimantation dont la direction et le sens sont ceux du champ magnétique ambiant. Or, celui-ci varie avec la latitude : il est pratiquement horizontal à l'équateur et vertical aux pôles. En mesurant le champ magnétique des roches anciennes, il était possible de retrouver la latitude à laquelle elles s'étaient formées. Et donc de reconstituer le cheminement des continents.
Les premiers résultats que Brian Harland obtint en 1961 étaient en faveur d'une glaciation tropicale : les échantillons prélevés au Groenland et au Spitzberg exhibaient en effet un champ magnétique presque horizontal, typique des basses latitudes. Le Belge Lucien Cahen obtint des résultats similaires peu de temps après. Mais cette conclusion déclencha une vive polémique. Pouvait-on se fier à une technique qui, à plusieurs reprises, avait été mise en défaut ? Maintes fois, il était apparu que le magnétisme mesuré n'était pas d'origine et qu'il avait été acquis postérieurement alors que la roche avait été chauffée. Et sans mesures paléomagnétiques sur les dépôts glaciaires eux-mêmes, impossible d'exclure l'existence de dérives continentales rapides entre l'équateur et les pôles.
Moins de soleil. D'autres scénarios furent proposés dans lesquels les glaciers pouvaient atteindre l'équateur sans pour autant que la Terre soit complètement gelée. Par exemple, George Williams, de l'université d'Adélaïde, défendit l'idée selon laquelle l'obliquité* de la Terre était plus forte au Précambrien qu'elle ne l'est aujourd'hui. En conséquence, les régions équatoriales recevaient moins d'ensoleillement que les pôles. Que cela ait pu engendrer des glaciers aux basses latitudes fut très chaudement discuté2.
L'hypothèse d'une glaciation tropicale n'était pas non plus admise par les modélisateurs du climat. A la fin des années 1960, en pleine guerre froide, planait la menace d'un holocauste nucléaire et, avec elle, celle d'un bouleversement du climat planétaire. Des modèles numériques furent donc développés aux Etats-Unis et en Union soviétique afin d'en prévoir les effets. C'est dans ce contexte que le Russe Mikhaïl Budyko développa un modèle de bilan radiatif*. Ses résultats étaient surprenants : la Terre gelait entièrement dès que les calottes glaciaires atteignaient 30° de latitude6. La raison en est purement physique. La glace, blanche et brillante, réfléchit fortement le rayonnement solaire. De ce fait, la quantité d'énergie solaire absorbée par la surface terrestre diminue, le refroidissement initial s'intensifie et la couverture de glace s'épaissit. Avec ce mécanisme, appelé « rétroaction de l'albédo des glaces », la Terre ne cesse de se refroidir et la glace d'avancer dans un cycle sans fin. D'après les calculs de Budyko, les températures pouvaient ainsi descendre jusqu'à environ - 50 °C et la glace s'accumuler sur 1,5 km d'épaisseur à l'équateur et sur 3 km aux pôles ! Cependant, le Globe gelé de Budyco ne revenait jamais à la normale. Comme aucun mécanisme connu ne pouvait le sortir de cette catastrophe glaciaire et que la Terre n'est plus gelée, les paléoclimatologues en déduisirent qu'un tel scénario ne s'était jamais déroulé : il fut considéré comme une solution imaginaire pour les modèles climatiques...
Magnétisme originel. Il fallut attendre près de vingt ans pour que l'hypothèse de glaciations tropicales revienne sur le devant de la scène. En 1986, les Australiens George Williams et Brian Embleton publièrent la première étude paléomagnétique vraiment convaincante : ils montrèrent que l'aimantation des fines couches glaciaires d'Elatina, au sud de l'Australie, était fossilisée dans des grains d'origine sédimentaire et qu'elle n'avait jamais été perturbée par des processus thermiques7. Or, cette aimantation était... « équatoriale ». Ils étaient à deux doigts de prouver définitivement la présence de glaciers aux basses latitudes. Mais il manquait encore un élément essentiel : le moment exact où ce magnétisme avait été acquis.
Regroupement équatorial. C'est à cette époque que je suis entré en scène. En 1987, Bruce Runnegar, de l'université de Californie, à Los Angeles, était allé en Australie, sur le site d'Elatina, et avait collecté pour mon étudiant et moi-même un bel échantillon. Les lits de sédiments y étaient bien visibles, de même que les plissements qui les affectaient fig. 2. Nous avons montré que le magnétisme avait été acquis avant que les sédiments ne soient plissés, lorsqu'ils étaient encore mous, vraisemblablement au moment de leur dépôt. La preuve tant recherchée était là, sous nos yeux. Cette petite étude, qui fit l'objet d'un résumé dans les actes d'un colloque8, stimula les Australiens qui se lancèrent dans l'analyse complète du paléomagnétisme d'Elatina9. Nos premiers résultats furent confirmés. Mais la polémique se poursuivit. De nombreux géologues refusaient toujours l'idée de glaciers tropicaux. Cependant, Elatina n'était pas unique en son genre, et d'autres enregistrements allaient bientôt révéler des faits semblables10.
Mais revenons en 1987. Je faisais alors partie du groupe de recherche sur la paléobiologie du Précambrien PPRG que J.William Schopf et Bruce Runnegar venaient de créer à l'université de Californie, à Los Angeles. J'étais chargé de rassembler les données disponibles en paléontologie, géologie et géomagnétisme, afin de reconstituer le déplacement des continents à la fin du Précambrien. Ce faisant, je m'aperçus que de larges zones continentales se trouvaient à l'équateur lors des glaciations11 fig. 3. Finalement, le scénario prédit et rejeté par Mikhaïl Budyco était-il possible ? J'imaginais alors la Terre, complètement gelée, ressemblant à une énorme boule de neige. N'y avait-il vraiment aucun moyen de sortir d'une telle catastrophe glaciaire ? Les modèles sont censés expliquer les observations, pas les exclure ! Il me vint à l'esprit qu'une glaciation, même globale, n'avait pu empêcher les volcans de fonctionner et de rejeter du gaz carbonique. En temps normal, ces émissions sont compensées à la fois par la photosynthèse* et par l'érosion des roches silicatées* qui jouent le rôle de pompe à carbone. Mais dans le cas d'une Terre entièrement gelée, le cycle hydrologique aurait été interrompu, et le gaz carbonique se serait accumulé dans l'atmosphère. Résultat, la surface de la Terre se serait réchauffée par effet de serre, la glace aurait fondu, mettant fin à la glaciation.
L'hypothèse était séduisante. En outre, elle expliquait les dépôts riches en fer, les fameux BIF dont nous avons déjà parlé. Le carcan de glace bloquait les échanges entre l'océan et l'atmosphère. Mais en profondeur les cheminées hydrothermales continuaient à fonctionner : l'eau de mer circulait à l'intérieur de la croûte océanique, se réchauffant au contact du magma avant de remonter sous forme d'eau chaude chargée d'éléments métalliques dont le fer lessivés des roches traversées. Lorsque la glace a fondu, les échanges avec l'atmosphère ont repris et l'eau s'est réoxygénée. Le fer a réagi avec l'oxygène il est insoluble en présence d'oxygène et a précipité massivement sur le fond de l'océan fig. 1. Les dépôts riches en fer plus anciens ont dû se former lorsque les océans et l'atmosphère renfermaient peu d'oxygène.
Mon émotion était à son comble. Petit à petit, les pièces du puzzle s'agençaient : le magnétisme fossile, l'étrange composition des blocs de roches détritiques retrouvés dans les dépôts glaciaires et les BIF pouvaient s'expliquer par un seul et même concept que je baptisais « Snowball Earth » ou « Terre boule de neige1 », pour le distinguer de celui de « Terre blanche » des modélisateurs et pour souligner qu'il s'agissait d'une hypothèse testable.
Mais, en cette fin des années 1980, le scénario était encore incomplet. En particulier, j'ignorais quelles teneurs en gaz carbonique permettaient de sortir de l'événement boule de neige. En 1992, Jim Kasting, de l'université de Pennsylvanie, qui faisait également partie du PPRG, calcula qu'il fallait une pression partielle en CO2 de 0,12 bar soit environ 400 fois plus qu'actuellement. Cette valeur était compatible avec une accumulation du gaz dans l'atmosphère pendant plusieurs millions d'années par dégazage volcanique. A l'époque, nous ne nous étions pas vraiment inquiétés des conséquences possibles de telles concentrations. On sait aujourd'hui que cet excès de gaz carbonique fut immédiatement éliminé et précipité sous forme de carbonates. Dès la fin des années 1980, les géologues avaient constaté que d'épaisses séquences de carbonates coiffaient les dépôts glaciaires néoprotérozoïques. En 1998, Paul Hoffman et Daniel Schrag, de Harvard, montrèrent que les carbonates de Namibie s'étaient probablement déposés, alors que la température globale était de 50 °C. Et qu'ils avaient les mêmes rapports isotopiques que le carbone émis par les volcans12.
Le manganèse issu du dégel. Quoi qu'il en soit, les travaux de Hoffman et de ses collègues suscitèrent encore plus notre intérêt. Il fallait regarder de plus près le premier événement Boule de neige, celui du Paléoprotérozoïque. Des calculs similaires démontrèrent qu'il avait fallu une pression de CO2 d'environ 0,6 bar près de 2 000 fois le niveau actuel pour sortir de cet événement qui avait duré environ 70 millions d'années ! Nous nous sommes donc rendus en Afrique du Sud pour y chercher d'éventuels indices d'un dégel rapide4,5. Là, juste au-dessus des dépôts glaciaires et des BIF, nous avons découvert une couche d'oxydes de manganèse épais d'une cinquantaine de mètres. Connue sous le nom de « Kalahari Manganese Field », elle représente 80 % des réserves mondiales de ce métal ! Nous avons réalisé à ce moment-là que tous les autres dépôts de manganèse d'origine sédimentaire connus étaient également associés aux BIF néoprotérozoïques et donc à la présence de glace sous les Tropiques. Le cation métallique Mn2+ est commun dans les fluides hydrothermaux mais son dépôt requiert quantité d'oxygène moléculaire. Or, celui-ci est essentiellement produit par la photosynthèse.
Les dépôts de Kalahari attestent donc son existence dès cette époque. Ils sont même la plus ancienne preuve directe de l'existence d'oxygène moléculaire de l'histoire de la Terre. Avant l'apparition de la photosynthèse, l'atmosphère était fortement réductrice. Gaz sulfurés comme H2S et SO2 et méthane dont l'effet de serre est l'un des plus forts y flottaient librement.
Zones refuges. On ne sait toujours pas très bien ce qui a déclenché les glaciations du Néoprotérozoïque. En revanche, c'est probablement l'augmentation de la concentration de l'oxygène dans l'air qui a été à l'origine de la première glaciation globale. L'évolution progressive de la composition de l'atmosphère aurait en effet détruit l'effet de serre lié au méthane.
Stimulés par cette masse d'observations, les modélisateurs ont cherché à simuler les événements Boule de neige de façon plus réaliste. Voici deux ans, William Hyde, du département d'océanographie de l'université A&M du Texas, a couplé un bilan radiatif à un modèle d'évolution des calottes de glaceI. De façon surprenante, il a obtenu une solution quasi stable dans laquelle les glaces atteignent l'équateur tout en épargnant de larges zones équatoriales on parle de « boule de neige fondue »13. Une solution qui plaît beaucoup aux géobiologistes car ces zones auraient pu servir de refuge aux premières lignées animales. N'oublions pas que celles-ci seraient apparues, d'après les biologistes moléculaires, plusieurs centaines de millions d'années avant les glaciations quelques dizaines de millions d'années seulement pour les paléontologues14. Reste que les fortes concentrations en CO2 nécessaires pour sortir d'un épisode Boule de neige auraient sans nul doute été fatales aux animaux utilisant les protéines de la famille des globines l'hémoglobine, la myoglobine, etc. pour le transport de l'oxygène. En outre, le modèle de Hyde ne rend pas compte de la plupart des observations voir tableau.
Je soupçonne pour ma part un scénario plus complexe dans lequel une glaciation initiale du genre de celles qui se sont déroulées plus tard, au Phanérozoïque*, aurait progressivement basculé vers un événement de type Boule de neige assez long. Celui-ci se serait terminé par un épisode glaciaire particulièrement intense. Cela suppose bien sûr que certains organismes aient pu survivre à ces conditions extrêmes. Mais il semble tout à fait possible que des protozoaires aient pu se réfugier dans les profondeurs océaniques, à proximité des sources hydrothermales. Et c'est l'amélioration du climat après la dernière glaciation, vers 590 millions d'années, qui aurait favorisé l'émergence des premières lignées animales. La balle est désormais dans le camp des biologistes et des paléontologues.
1 J.L.Kirschvink, Late Proterozoic Low-Latitude Global Glaciation : the Snowball Earth ; in the Proterozoic Biosphere : a Multidisciplinary Study. Schopf J.W. et al. eds, Cambridge University Press, 1992, p. 51-52.
2 P.F. Hoffman et D.P. Schrag, Terra Nova 2002, sous presse.
3 M.J. Hambrey et W.B. Harland,
Earth's Pre-Pleistocene Glacial Record, Cambridge, United Kingdom GBR, Cambridge Univ. Press, 1981.
4 D.A. Evans et al., Nature, 386, 262, 1997.
5 J.L. Kirschvink et al., P.N.A.S., 97, 1400, 2000.
6 M.I. Budyko, Tellus, 21, 611, 1969.
7 B.J.J. Embleton et G.E. Williams, Earth and Planetary Science Letters, 79, 419, 1986.
8 D.Y. Sumner et al., EOS, Trans. American Geophysical Union, 68, 1251, 1987.
9 P.W. Schmidt et al., Earth and Planetary Science Letters, 105, 355, 1991.
10 D.A.D. Evans, American Journal of Science, 300, 347, 2000.
11 J.L. Kirschvink, A Paleogeographic Model for Vendian and Cambrian Time ; in the Proterozoic Biosphere : a Multidisciplinary Study. Schopf J.W. et al. eds, Cambridge University Press, p. 567-581, 1992.
12 P.F. Hoffman et al., Science, 281, 1342, 1998.
13 W.T. Hyde et al., Nature, 405, 425, 2000.
14 B. Runnegar, Nature, 405, 403, 2000.
NOTES
* Le Précambrien s'étend de la formation de la Terre, il y a 4,55 milliards d'années à environ 543 millions d'années.
*Le Protérozoïque est le dernier étage du Précambrien. Il couvre la période de l'histoire de la Terre qui va de 2,5 milliards d'années à environ 543 millions d'années. Il se subdivise à son tour en Paléo-protérozoïque 2,5 à 1,6 milliard d'années, Mésoprotérozoïque 1,6 milliard à 900 millions d'années et Néo-protérozoïque 900 à 543 millions d'années.
* L'obliquité est l'angle que fait l'axe de la Terre avec l'écliptique. C'est elle qui module la quantité d'ensoleillement reçue aux différentes latitudes suivant les saisons.
* Le bilan radiatif est la différence entre le rayonnement reçu et celui réémis par la Terre.
*La photosynthèse est l'ensemble des réactions par lesquelles les plantes fabriquent les sucres nécessaires à leur croissance à partir du gaz carbonique et
de l'eau grâce à l'énergie lumineuse absorbée par la chlorophylle.
*Lorsque les roches silicatées se dégradent, le CO2 est converti en ions carbonates qui, entraînés vers les océans, vont se combiner à des ions calcium et magnésium pour former des sédiments carbonatés. Le carbone est alors stocké dans les carbonates.
*Le Phanérozoïque s'étend de 543 millions d'années à nos jours.
LA BALEINE, COUSINE DU MOUTON
Epilogue de cinquante ans de controverses sur la famille originelle des ancêtres terrestres de nos cétacés aquatiques. Deux squelettes datant du début du tertiaire, découverts au cours de l'été 2001 au Pakistan, ont permis de trancher : nos cétacés, tels que la baleine, le dauphin ou le marsouin, descendent bien des artiodactyles, groupe constitué d'ongulés herbivores au nombre impair d'orteils, qui comptent parmi leurs descendants les hippopotames, les vaches et les moutons.
Cette filiation avait la faveur des biologistes moléculaires, mais elle était dénoncée par les paléontologues qui, à partir de correspondances morphologiques sur les dents et les oreilles, postulaient que nos cétacés étaient apparentés au groupe des mésochyniens, ongulés carnivores du début de l'époque tertiaire dont il n'existe plus de descendant.
Les squelettes d'Ichtyolestes et Pakicetus découverts au Pakistan par l'équipe de Johannes Thewinssen, de l'université Northeastern dans l'Ohio, présentent le mérite d'être, pour la première fois, quasiment complets, et d'être pourvus d'un petit os des chevilles, l'astragale. A l'origine d'une grande mobilité du pied, celui-ci apporte la preuve que les ancêtres de nos cétacés étaient d'intrépides coureurs terrestres.
« C'est l'une des découvertes les plus importantes du XXe siècle en paléontologie des vertébrés, estime Christian de Muizon, du Muséum national d'histoire naturelle de Paris. Comme l'Archéoptéryx pour les oiseaux ou l'Australopithèque pour l'homme, Pakicetus constitue un élément clé dans l'évolution des espèces. »
Quant au plus proche parent actuel des cétacés, la question reste posée. Est-ce l'hippopotame, comme le pensent les biologistes moléculaires ? L'étude morphologique faite par l'équipe de J. Thewissen ne permet pas de trancher. E. B.
J.G.M. Thewissen et al., Nature, 413, 277, 2002 / F. Spoor et al., Nature, 417, 163, 2002.
UN BILAN EN FAVEUR D'UNE TERRE GELÉE
J'ai résumé dans ce tableau les observations géologiques mentionnées dans le texte et donné mon avis subjectif ! sur le fait qu'elles sont ou non expliquées par les différentes hypothèses. L'hypothèse d'une modification de l'obliquité de la Terre ne rend compte que des dépôts glaciaires des basses latitudes. La Terre boule de neige fondue n'offre pas d'explication valable pour les BIF Banded Iron Formations, les niveaux de manganèse ou des calottes de carbonates, qui tous supposent un océan privé d'oxygène. En outre ce scénario n'explique pas comment sortir d'une glaciation.
SAVOIR
-La page de Paul Hoffman sur la Terre en boule de neige : www-eps.harvard.edu
-BBC Horizon : www.bbc.co.uk arth.shtml
DOCUMENT la recherche.fr |
|
|
|
|
 |
|
LE SAHARA |
|
|
|
|
|
le Sahara
Le plus grand désert du monde, en Afrique, couvrant plus de 8 millions de km2 (recevant moins de 100 mm d'eau par an), entre l'Afrique du Nord méditerranéenne et l'Afrique subsaharienne, l'océan Atlantique et la mer Rouge.
Le Sahara est un ensemble politiquement fractionné. De part et d'autre du tropique du Cancer, il s'étend sur une dizaine d'États : le Maroc, l'Algérie, la Tunisie, la Libye, l'Égypte, le Soudan, le Tchad, le Niger, le Mali et la Mauritanie. Ce découpage frontalier, aujourd'hui assumé par les États africains, est toutefois source de contestations par les populations locales (fédération touareg), de revendications territoriales (Sahara occidental), de conflits et de mouvements de populations réfugiées. Pour les États du Maghreb ou du Makrech tournés vers la Méditerranée, les territoires sahariens constituent des arrières pays en voie d'intégration. Pour plusieurs États saharo-sahéliens (Mali, Niger, Tchad, Soudan), l'enclavement s'ajoute à l'aridité.
Le Sahara représente le modèle des déserts chauds, caractérisé par des étés longs et torrides, des contrastes thermiques (annuels et journaliers) accentués, une sécheresse extrême de l'air, la grande irrégularité et la rareté des pluies. Pourtant, se frontières connaissent la pluie : en automne, au nord, en été, au sud.
Le Sahara, peu peuplé hormis le couloir du Nil, dispose de ressources, principalement souterraines (phosphates, hydrocarbures, nappes aquifères fossiles). Il est aussi propice à un tourisme d'aventure, contrarié par une insécurité endémique.
Le Sahara est un espace convoité. Les enjeux géopolitiques et économiques des espaces sahariens suscitent de nombreuses convoitises entre de multiples acteurs internes à l'Afrique ou extérieurs : zones d'influence, contrôle de territoires, exploitation de ressources (pétrole, uranium, par exemple). Ces convoitises se manifestent dans les investissements en provenance, le plus souvent, d'autres parties du monde, et s'expriment, entre autres, dans les conflits intra et interétatiques dont les populations subissent les effets, conjugués à ceux de la mal gouvernance.
GÉOGRAPHIE
1. Le milieu naturel
1.1. Le climat
Le Sahara est l'exemple le plus caractéristique du désert zonal, lié à la présence à cette latitude des hautes pressions subtropicales, séparées des basses pressions équatoriales par le F.I.T. (front intertropical). C’est le balancement saisonnier de cette ceinture anticyclonale qui engendre les divers types de temps rencontrés. Les hautes pressions centrées sur le Sahara sont responsables de la sécheresse, qui peut être très intense (l’humidité relative est descendue à 2,3 % à Tamanrasset).
Des pluies très faibles
Cette sécheresse explique l'indigence des précipitations annuelles. Les pluies sont particulièrement irrégulières au centre, et les plus faibles pluviosités sont enregistrées dans les plaines centrales de l'erg Chech et du Tanezrouft, ou dans les plaines orientales, au Fezzan (moins de 5 mm). Les moyennes n’ont d’ailleurs aucune signification, car la variabilité interannuelle des précipitations est très grande (159 mm à Tamenghest [Tamanrasset] une année, 6,4 mm une autre). Dans le Sahara septentrional, les pluies sont le plus souvent fines ; les pluies diluviennes y sont exceptionnelles, alors qu’elles sont plus fréquentes dans le Sahara central, où elles peuvent éventrer les maisons et transformer la palmeraie en bourbier. Au Nord, les pluies tombent à l'automne à l'Ouest, pendant l'hiver ou au printemps vers l'Est. Au Sud, les pluies de la mousson d'été s'avancent jusqu'au Zemmour à l'Ouest.
Dans les hauts massifs (Hoggar, Tibesti), des nuances climatiques apparaissent cependant avec l'altitude ; les précipitations sont plus fréquentes et les températures absolues moins fortes.
Des vents redoutables
Plus redoutées que les pluies, les tempêtes de sable peuvent provoquer des catastrophes. Elles se produisent généralement lorsqu’une dépression atlantique se rapproche de l’Afrique du Nord. L’alizé sec qui souffle du nord-est se transforme alors en vent venant du sud qui provoque une élévation de température (c’est la cheheli du Sahara du Nord, l’irifi du Sahara atlantique, le khamsin d’Égypte, le sirocco des Européens). La force de ce vent s’accroît, et un mur de sable qui peut cacher le soleil se forme à l’horizon.
De très fortes chaleurs
L'absence de nuages a pour conséquence une très forte insolation, le maximum d'ensoleillement étant enregistré à Adrar avec près de 4 000 heures par an. L’apport de chaleur solaire est maximal, et les 58 °C enregistrés à Aziziyya (Libye) le 3 septembre 1922 constituent un record mondial. En Algérie, à In-Salah, en 1941, le thermomètre n’est jamais descendu au-dessous de 48 °C pendant 45 jours de suite ; la moyenne du mois le plus chaud s’y établit à 36,8 °C. Les amplitudes des températures entre le jour et la nuit sont importantes (de 15 à 30 °C), mais, les maisons conservant la chaleur du jour, beaucoup d’oasiens dorment sur les terrasses ou sur le sable des dunes. En hiver, les moyennes de janvier s’établissent généralement entre 10 et 20 °C (12,1 °C à Timimoun, 20,9 °C à Faya, au Borkou), mais les minimums absolus inférieurs à 0 °C ne sont pas rares (2 ou 3 jours de gelée par an en moyenne à Timimoun), surtout dans les régions d’altitude élevée, où le thermomètre peut descendre à − 10 °C. D’une façon générale, l’amplitude annuelle est bien plus forte dans le Sahara du Nord (où elle peut même l’emporter sur l’amplitude diurne) que sur les marges du Sahara, où le gel est souvent inconnu. Sur la façade atlantique du Sahara, la proximité de l’océan entraîne un accroissement de l’humidité relative, une forte nébulosité, des précipitations occultes, mais les pluies ne se déclenchent pas par suite de l’existence du courant froid longeant la côte de l’Afrique (les vents humides de l’océan s’assèchent en pénétrant en été sur le continent surchauffé).
1.2. Le relief
Le Sahara est caractérisé par des horizons plats : plus de la moitié de la surface du désert est un reg, plaine semée ou non de cailloux laissés sur place par le vannage éolien. Les paysages sont immenses et monotones. Le Ténéré et le Tanezrouft ont une topographie quasi-plane. Le socle affleure à l’ouest, mais est couvert de sédiments principalement continentaux ailleurs.
Les montagnes, rares, correspondent à des bombements à grand rayon de courbure du socle qui réapparaît alors au milieu de sa couverture sédimentaire et est souvent surmonté de reliefs d’origine volcanique qui déterminent les points culminants (cas des aiguilles et des dykes de trachytes et de phonolites au Hoggar : Tahat, 2 818 m). Cette dorsale de terrains cristallins antécambriens se suit, d'Ouest en Est, par le Tiris, les Eglab, le Hoggar et le Tibesti. Le plus élevé de ces massifs est le Tibesti, dans le nord du Tchad, qui culmine à 3 415 m (Emi Koussi). D'immenses coulées volcaniques se sont étalées aussi en Libye et des manifestations éruptives d'importance plus réduite se sont produites jusqu'en Mauritanie. Dans les régions déprimées sont conservées des formations sédimentaires de couverture : grès primaires des plateaux de Mauritanie (Zemmour, Adrar et Tagant, djebel Hank), plateaux gréseux du pourtour du Hoggar (les tassilis, comme le tassili des Ajjer). grès du continental intercalaire (crétacé inférieur), marnes et calcaires du crétacé, dépôts éocènes de la cuvette du Tindouf, des plateaux du Tademaït algérien, de Tinghert, de la Hamada el-Homra, du Mezak, enfin formations tertiaires, généralement continentales.
Les plaines des régions cristallines sont dominées par des reliefs résiduels. Les plateaux sédimentaires sont limités par de longues falaises et leurs surfaces rocheuses et nues forment les hamadas tabulaires. Les hamadas sont une surface constituée par l’affleurement d’une couche résistante et correspondant souvent à un plateau en roche dure (calcaire pour la hamada el-Homra, en Libye, le Tademaït algérien).
Les dunes ne couvrent qu’une partie relativement modeste du Sahara (moins du cinquième). Elles sont rarement isolées (barkhanes) sauf dans le désert égyptien, mais se groupent fréquemment en massifs (ergs), formés par la réunion de cordons alignés parallèlement à la direction des vents dominants (nord-est) et séparés par des couloirs (feidj, lorsqu’ils sont creusés dans le sable ; gassi, si le plancher est un reg) qui servent de voies de passage pour les caravanes. Sur ces cordons, les dunes se rassemblent parfois en pyramides appelées ghroud (ghourd au singulier). Les ergs les plus importants sont situés dans le Sahara algérien (Grand Erg occidental et Grand Erg oriental), dans le Sahara central (erg Chech et ergs de Libye) ou dans le Sahara méridional (Ouaran).
Certaines régions sont situées au-dessous du niveau de la mer : les dépressions fermées à fond salé du sud de l’Aurès descendent jusqu’à − 31 m au chott Melrhir (le terme de chott désigne le pâturage situé au bord de ces dépressions, appelées sebkhas ; par extension, il désigne la sebkha elle-même). La dépression de Qattara, dans le nord-ouest de l’Égypte, est à − 133 m.
1.3. L'écoulement des eaux
Le Sahara est un désert sans écoulement extérieur : c'est le domaine de l’aréisme et de l’endoréisme. Pourtant, les marques de l’érosion fluviale sont nombreuses, et les réseaux de vallées témoignent de l’existence de climats plus humides dans le passé. Le Nil, né hors du Sahara, est le seul fleuve qui réussit à le traverser. Ailleurs, l'écoulement des oueds, encaissés dans des massifs montagneux, n'est que temporaire et se perd dans des dépressions fermées (endoréisme) où se trouvent des cuvettes salines (sebkha). Lorsque ces vallées n'ont pas d'écoulement superficiel, elles ont souvent un écoulement souterrain (inféroflux) et constituent une zone de prédilection pour la végétation à la recherche d’humidité.
1.4. La végétation et la faune
La rareté de la végétation
Puits dans le Sahara algérienPuits dans le Sahara algérien
La sécheresse explique la rareté de la végétation, souvent limitée dans les lits d'oueds, aux ergs ou diffuse en touffes espacées de graminées, de légumineuses ou de composées. La végétation est représentée par un petit nombre d’espèces. Les mêmes paysages végétaux, les mêmes associations sont rencontrés sur de vastes espaces. On y observe peu d'arbres (acacias, tamaris). L’adaptation à la sécheresse se traduit par la taille réduite des arbres et des arbustes, qui ne possèdent que de petites feuilles ou des épines (ce qui limite l’évaporation), alors que les racines sont très développées. Des arbustes isolés, comme les cyprès du Tassili ou les oliviers du Hoggar, subsistent dans des refuges particuliers. La strate basse est dispersée, plus variée, formée de graminées, de composées, de crucifères et d'ombellifères. Les épisodes pluviaux du Quaternaire ont entraîné une invasion de la flore méditerranéenne ou de la flore tropicale suivant les cas, et une grande partie de la flore est résiduelle. Celle-ci est ailleurs très rare et adaptée à la sécheresse (taille réduite, épines, racines très développées).
Au Nord, l'Atlas saharien marque la limite septentrionale du désert, qui atteint la mer en Libye et en Égypte. Au Sud, aucun accident de relief ne permet de fixer une limite bien tranchée : celle-ci est constituée par la bordure sahélienne, où apparaît le cram-cram (Cenchrus biflorus), graminée à graines piquantes typique du Sahel, qui nécessite des pluies d'été relativement régulières et forme alors un tapis continu, tandis que les touffes vertes du had (Cornulaca monacantha), qui caractérisent le désert, ont disparu. Mais la transition entre désert et steppe sahélienne est loin d’être brutale.
Une vie animale adaptée au milieu aride
Les animaux sont économes en eau, comme le dromadaire, rapides, comme le fennec; la gerboise, l'antilope addax, ou encore enterrés dans le sol durant le jour, comme la vipère à cornes. La vie animale est présente jusque dans les zones les plus arides, où peuvent vivre insectes, petits rongeurs (gerbille), hyènes, parfois gazelles et antilopes. Oryx, chacal, guépard, varan, scorpion, vipère des sables, daman des rochers complètent la liste des hôtes du désert. L'adax, grande antilope présente dans le Ténéré, peut rester plusieurs jours, voire une année entière, sans boire. Parmi les espèces adaptées au milieu aride se trouve aussi la grande gerboise, rongeur passant ses journées à l'abri dans un terrier.
Le fennec, petit renard aux grandes oreilles, est bien implanté. Le chameau, appelé ainsi bien qu'il s'agisse en fait d'un dromadaire (il n'a qu'une bosse), est le maître incontestable de l'endurance en milieu aride : il est, depuis qu'il a été importé d'Arabie pour remplacer le cheval, le « moteur » des routes caravanières.
1.5. Le Sahara au quaternaire
Le Sahara n'est pas un désert immuable. Divers indices témoignent de périodes plus humides durant lesquelles la zone aride a changé d'emplacement, se rétractant ou se déplaçant vers le sud ou vers le nord.
Ce grand désert a probablement connu plusieurs périodes humides pendant le quaternaire, comme en témoigne l'organisation en réseau hydrographique d'innombrables vallées sèches et d'îlots de végétation.
2. Population et économie
2.1. La population
On estime à environ 1,5 à 2 millions le nombre d'habitants au Sahara (vallée du Nil exclue), dont la moitié environ de nomades. Mais le nombre de ces derniers diminue sans cesse, au fur et à mesure que l'économie moderne pénètre le désert et que l'administration des États sahariens accroît son emprise, amenant les nomades à abandonner leur genre de vie traditionnel pour se fixer près des localités déjà occupées par les sédentaires. Cet abandon des activités pastorales peut passer par un stade intermédiaire de semi-nomadisme, mais il correspond souvent à un processus de prolétarisation, car les nomades sont mal adaptés à leur nouvelle vie : aristocrates du désert, souvent réfractaires à tout travail manuel, ils vivent aujourd'hui misérablement.
Les zones de peuplement anciennes et actuelles des TouaregLes zones de peuplement anciennes et actuelles des Touareg
Trois groupes humains vivent au Sahara : Tedas, Touareg, Maures.
2.2. L'agriculture
L’agriculture n’est possible que s’il y a irrigation ou au moins présence d’une nappe phréatique. Aussi les zones cultivées sont-elles ponctuelles et restreintes aux oasis. C’est là que vivent les sédentaires, dans des villages (ksur, singulier ksar) aux maisons construites en briques d’argile pure (tin) ou d’un mélange d’argile et de paille (toub). Le toit est constitué par une terrasse.
Une typologie des oasis peut reposer sur les procédés d’irrigation. Certaines oasis cultivent en bour (sans irrigation), car la nappe phréatique est proche de la surface (c’est le cas des palmeraies du Fezzan, en Libye). Dans le Souf, en Algérie, on creuse des dans le sable des entonnoirs d’une quinzaine de mètres de profondeur, ce qui permet aux palmiers qu’on y place d’avoir leurs racines à l’humidité. Sur le rebord de l’Atlas, les oasis du Draa, au Maroc, s’étirent le long des rivières descendues de la montagne et sont ainsi toujours alimentées en eau par simple dérivation (seguia). Les sources sont plus rares, mais Rhadamès, Djanet sont arrosées de cette manière.
Palmeraie et puits à poulie à GuerraraPalmeraie et puits à poulie à Guerrara
Les puits à traction animale sont très répandus dans le Mzab, et les puits à balancier se rencontrent dans tout le Sahara (Saoura, Touat…). Les oasis situées sur le pourtour du plateau de Tademaït utilisent largement les galeries souterraines (foggaras). Le palmier-dattier (Phoenix dactylifera) constitue la ressource essentielle (les oasis de l'oued Rhir, en Algérie, constituent l'une des premières zones productrices de dattes du monde), mais il est complété par la culture de céréales : blé et orge au nord, sorgho et petit mil au sud, encore que le blé soit cultivé en pleine zone sahélienne. S’ajoutent divers légumes (fèves, pois, lentilles dans le Sahara du Nord, haricots au Fezzan, pour ce qui concerne les légumes d’hiver ; courge, melon, pastèque, tomate, piment en été). On trouve aussi des plantes non alimentaires : tabac en particulier dans le Souf et le Touat. Toutes les pratiques culturales se font à la main sur des exploitations minuscules, qui sont généralement insuffisantes pour assurer la subsistance des exploitants, surtout que ceux-ci, généralement, ne sont pas propriétaires, mais métayers (khanmès) ou journaliers et doivent payer une redevance pour l’utilisation de l’eau.
2.3. Les ressources minières
C'est l'exploitation des ressources minières qui a permis une intégration véritable du Sahara dans l'économie moderne. Grâce à l'Algérie et à la Libye, le Sahara fournit du pétrole et du gaz naturel. Grâce au Sahara occidental, il produit du phosphate et grâce à l'Aïr (Niger), il fournit de l'uranium. Le Sahara recèle du minerai de fer ; seule la Mauritanie en exploite.
DOCUMENT larousse.fr LIEN
|
|
|
|
|
 |
|
INTELLIGENCE ARTIFICIELLE |
|
|
|
|
|
intelligence artificielle
Ensemble de théories et de techniques mises en œuvre en vue de réaliser des machines capables de simuler l'intelligence humaine.
Avec l'intelligence artificielle, l'homme côtoie un de ses rêves prométhéens les plus ambitieux : fabriquer des machines dotées d'un « esprit » semblable au sien. Pour John MacCarthy, l'un des créateurs de ce concept, « toute activité intellectuelle peut être décrite avec suffisamment de précision pour être simulée par une machine ». Tel est le pari – au demeurant très controversé au sein même de la discipline – de ces chercheurs à la croisée de l'informatique, de l'électronique et des sciences cognitives.
Malgré les débats fondamentaux qu'elle suscite, l'intelligence artificielle a produit nombre de réalisations spectaculaires, par exemple dans les domaines de la reconnaissance des formes ou de la voix, de l'aide à la décision ou de la robotique.
Intelligence artificielle et sciences cognitives
Au milieu des années 1950, avec le développement de l'informatique naquit l'ambition de créer des « machines à penser », semblables dans leur fonctionnement à l'esprit humain. L'intelligence artificielle (IA) vise donc à reproduire au mieux, à l'aide de machines, des activités mentales, qu'elles soient de l'ordre de la compréhension, de la perception, ou de la décision. Par là même, l'IA est distincte de l'informatique, qui traite, trie et stocke les données et leurs algorithmes. Le terme « intelligence » recouvre ici une signification adaptative, comme en psychologie animale. Il s'agira souvent de modéliser la résolution d'un problème, qui peut être inédit, par un organisme. Si les concepteurs de systèmes experts veulent identifier les savoirs nécessaires à la résolution de problèmes complexes par des professionnels, les chercheurs, travaillant sur les réseaux neuronaux et les robots, essaieront de s'inspirer du système nerveux et du psychisme animal.
Les sciences cognitives
Dans une optique restrictive, on peut compter parmi elles :
– l'épistémologie moderne, qui s'attache à l'étude critique des fondements et méthodes de la connaissance scientifique, et ce dans une perspective philosophique et historique ;
– la psychologie cognitive, dont l'objet est le traitement et la production de connaissances par le cerveau, ainsi que la psychologie du développement, quand elle étudie la genèse des structures logiques chez l'enfant ;
– la logique, qui traite de la formalisation des raisonnements ;
– diverses branches de la biologie (la biologie théorique, la neurobiologie, l'éthologie, entre autres) ;
– les sciences de la communication, qui englobent l'étude du langage, la théorie mathématique de la communication, qui permet de quantifier les échanges d'informations, et la sociologie des organisations, qui étudie la diffusion sociale des informations.
Le projet et son développement
L'IA trouve ses racines historiques lointaines dans la construction d'automates, la réflexion sur la logique et sa conséquence, l'élaboration de machines à calculer.
Les précurseurs
Dès l'Antiquité, certains automates atteignirent un haut niveau de raffinement. Ainsi, au ier s. après J.-C., Héron d'Alexandrie inventa un distributeur de vin, au fonctionnement cybernétique avant la lettre, c'est-à-dire doté de capacités de régulation, et fondé sur le principe des vases communicants. Rapidement, les savants semblèrent obsédés par la conception de mécanismes à apparence animale ou humaine. Après les essais souvent fructueux d'Albert le Grand et de Léonard de Vinci, ce fut surtout Vaucanson qui frappa les esprits, en 1738, avec son Canard mécanique, dont les fonctions motrices et d'excrétion étaient simulées au moyen de fins engrenages. Quant à la calculatrice, elle fut imaginée puis réalisée par Wilhelm Schickard (Allemagne) et Blaise Pascal (France). Vers la même époque, l'Anglais Thomas Hobbes avançait dans son Léviathan l'idée que « toute ratiocination est calcul », idée qui appuyait le projet de langage logique universel cher à René Descartes et à Gottfried W. Leibniz. Cette idée fut concrétisée deux siècles plus tard par George Boole, lorsqu'il créa en 1853 une écriture algébrique de la logique. On pouvait alors espérer passer de la conception de l'animal-machine à la technologie de la machine-homme.
Naissance et essor de l'informatique
À partir de 1835, le mathématicien britannique Charles Babbage dressa avec l'aide de lady Ada Lovelace les plans de la « machine analytique », ancêtre de tous les ordinateurs, mais sans parvenir à la réaliser. Seul l'avènement de l'électronique, qui engendra d'abord les calculateurs électroniques du type ENIAC (electronic numerical integrator and computer) dans les années 1940, permit aux premières machines informatiques de voir enfin le jour, autour de 1950, avec les machines de Johann von Neumann, un mathématicien américain d'origine hongroise. Les techniques de l'informatique connurent des progrès foudroyants – ainsi, à partir de 1985, un chercheur américain conçut des connection machines, ensembles de micro-ordinateurs reliés entre eux qui effectuaient 1 000 milliards d'opérations par seconde –, et continuent aujourd'hui encore à enrichir l'IA.
La création, à partir des années 1990, des « réalités virtuelles », systèmes qui par l'intermédiaire d'un casque et de gants spéciaux donnent à l'utilisateur l'impression de toucher et de manipuler les formes dessinées sur l'écran, ainsi que les travaux sur les « hypertextes », logiciels imitant les procédés d'associations d'idées, vont également dans ce sens.
Le fondateur
Un des théoriciens précurseurs de l'informatique, le mathématicien britannique Alan M. Turing, lança le concept d'IA en 1950, lorsqu'il décrivit le « jeu de l'imitation » dans un article resté célèbre. La question qu'il posait est la suivante : un homme relié par téléimprimante à ce qu'il ignore être une machine disposée dans une pièce voisine peut-il être berné et manipulé par la machine avec une efficacité comparable à celle d'un être humain ? Pour Turing, l'IA consistait donc en un simulacre de psychologie humaine aussi abouti que possible.
Mise en forme de l'IA
La relève de Turing fut prise par Allen Newell, John C. Shaw et Herbert A. Simon, qui créèrent en 1955-1956 le premier programme d'IA, le Logic Theorist, qui reposait sur un paradigme de résolution de problèmes avec l'ambition – très prématurée – de démontrer des théorèmes de logique. En 1958, au MIT (Massachusetts Institute of Technology), John MacCarthy inventa le Lisp (pour list processing), un langage de programmation interactif : sa souplesse en fait le langage par excellence de l'IA (il fut complété en 1972 par Prolog, langage de programmation symbolique qui dispense de la programmation pas à pas de l'ordinateur).
L'élaboration du GPS (general problem solver) en 1959 marque la fin de la première période de l'IA. Le programme GPS est encore plus ambitieux que le Logic Theorist, dont il dérive. Il est fondé sur des stratégies logiques de type « analyse des fins et des moyens » : on y définit tout problème par un état initial et un ou plusieurs états finaux visés, avec des opérateurs assurant le passage de l'un à l'autre. Ce sera un échec, car, entre autres, le GPS n'envisage pas la question de la façon dont un être humain pose un problème donné. Dès lors, les détracteurs se feront plus virulents, obligeant les tenants de l'IA à une rigueur accrue.
Les critiques du projet
Entre une ligne « radicale », qui considère le système cognitif comme un ordinateur, et le point de vue qui exclut l'IA du champ de la psychologie, une position médiane est certainement possible. Elle est suggérée par trois grandes catégories de critiques.
Objection logique
Elle repose sur le célèbre théorème que Kurt Gödel a énoncé en 1931. Celui-ci fait ressortir le caractère d'incomplétude de tout système formel (tout système formel comporte des éléments dotés de sens et de définitions très précis, mais dont on ne peut démontrer la vérité ou la fausseté : ils sont incomplets). Il serait alors vain de décrire l'esprit en le ramenant à de tels systèmes. Cependant, pour certains, rien n'indique que le système cognitif ne soit pas à considérer comme formel, car si l'on considère à la suite du philosophe autrichien Ludwig Wittgenstein qu'un être vivant est un système logique au même titre qu'une machine, on peut concevoir que l'esprit est « formel », qu'il connaît des limites, comme toute machine.
Objection épistémologique
Un certain nombre de biologistes et d'informaticiens jugent l'IA classique prématurément ambitieuse. Pour eux, il faut d'abord parvenir à modéliser le fonctionnement de niveaux d'intégration du vivant plus simples (comportement d'animaux « simples », collecte d'informations par le système immunitaire ou encore communications intercellulaires) avant de s'attaquer à l'esprit humain.
Objection philosophique
Pour John R. Searle, le système cognitif de l'homme est fondamentalement donneur de sens. Or la machine ne possède pas d'intentionnalité ; elle n'a pas de conscience. Un ordinateur peut manipuler des symboles mais ne peut les comprendre. Ainsi, l'IA travaillerait sur la syntaxe des processus de raisonnement (les règles combinatoires), pas sur leur sémantique (l'interprétation et la signification).
Hilary Putnam juge fallacieuse la description de la pensée faite par l'IA en termes de symboles et de représentations. Pour lui, une telle approche suppose une signification préétablie, alors que tout serait dans l'interprétation que fait l'esprit de la « réalité » extérieure. L'histoire des idées montre ainsi que la notion de « matière » n'a pas le même sens pour les philosophes de l'Antiquité grecque et pour les physiciens modernes. De même, de nombreux biologistes considèrent que les systèmes nerveux des différentes espèces animales font émerger de leur environnement des univers distincts. L'IA ignorerait donc ce phénomène de « construction active » de réalités multiples par le système cognitif.
Enfin, dans Ce que les ordinateurs ne peuvent pas faire (1972), Hubert L. Dreyfus souligne que la compréhension stricto sensu implique tout un sens commun. Faute de cerner de façon adéquate cette question, les programmes d'IA relèveraient de la contrefaçon – en revanche, le même auteur est assez séduit par les recherches sur les réseaux neuronaux.
La résolution de problèmes
Pour l'épistémologue Karl Popper, tout animal, en tant qu'être adapté à son milieu, est un problem solver. Si la résolution de problèmes n'est sans doute pas la seule marque fonctionnelle saillante de l'esprit humain, elle reste incontournable pour le modélisateur. Deux approches sont possibles dans la résolution d'un problème : celle de l'algorithme et celle de l'heuristique.
Algorithmes et heuristique
Les algorithmes sont des procédures mathématiques de résolution. Il s'agit d'une méthode systématique, qui donne par conséquent des résultats fiables. Mais une lourdeur déterministe marque ses limites. En l'employant pour certains problèmes, on peut en effet se trouver confronté au phénomène d'« explosion combinatoire ». Ce dernier cas est illustré par la fable indienne du « Sage et de l'Échiquier ». À un Sage, qui l'avait conseillé de manière avisée, le Roi proposa de choisir une récompense. Le vieil homme demanda simplement que l'on apporte un échiquier et que l'on dépose sur la première case un grain de blé, sur la seconde deux grains, et ainsi de suite, en mettant sur chaque nouvelle case une quantité de blé double de celle déposée sur la case précédente. Avec un rapide calcul, on imagine que le Roi regretta bien vite d'avoir accordé un don qui se révélait très coûteux, si ce n'est impossible, à honorer.
À l'opposé, l'heuristique est une méthode stratégique indirecte, qu'on utilise dans la vie courante. Elle résulte du choix, parmi les approches de la résolution, de celles qui paraissent les plus efficaces. Si son résultat n'est pas garanti, car elle n'explore pas toutes les possibilités, mais seulement les plus favorables, elle n'en fait pas moins gagner un temps considérable : lors de la résolution de problèmes complexes, l'usage de l'algorithme est impossible.
Le cas exemplaire du jeu d'échecs
De tous les jeux, ce sont les échecs qui ont suscité les plus gros efforts de modélisation en IA. Dès 1957, l'informaticien Bernstein, sur la base des réflexions de Claude Shannon, l'un des pères de la Théorie de l'information, mit au point un programme pour jouer deux parties. Le programme GPS, en lequel Simon voyait la préfiguration d'un futur champion du monde électronique, annoncé à grand fracas pour l'année 1959, fut battu par un adolescent en 1960. À partir de cette époque fut développée toute la série des Chess Programs, jugés plus prometteurs. Pourtant ceux-ci reflètaient de manière plus que déficiente les heuristiques globalisantes des bons joueurs : en effet, dans ces jeux automatiques, les coups réguliers sont programmés sous forme d'algorithmes. Contrairement à la célèbre formule d'un champion des années 1930 : « Je n'étudie qu'un coup : le bon », l'ordinateur n'envisage pas son jeu à long terme ; il épuise successivement tous les états possibles d'un arbre mathématique. Son atout majeur est la « force brutale » que lui confèrent sa puissance et sa vitesse de calcul. Ainsi Belle, ordinateur admis en 1975 dans les rangs de la Fédération internationale d'échecs, pouvait déjà calculer 100 000 coups par seconde. Néanmoins, les programmes électroniques d'alors étaient encore systématiquement surpassés par les maîtres.
image: http://www.larousse.fr/encyclopedie/data/images/1004375-Gary_Kasparov.jpg
Gary KasparovGary Kasparov
Deep Thought, un supercalculateur d'IBM, fut encore battu à plate couture en octobre 1989 par le champion du monde Garri Kasparov (la machine n'avait encore à cette époque qu'une capacité de jeu de 2 millions de coups par seconde). Ce projet Deep Thought avait mis en œuvre un budget de plusieurs millions de dollars et des ordinateurs hyperperformants, et bénéficié des conseils du grand maître américano-soviétique Maxim Dlugy. Les machines employées étaient encore algorithmiques, mais faisaient moins d'erreurs et effectuaient des calculs plus fins. L'équipe de Deep Thought chercha à dépasser le seuil du milliard de coups par seconde, car leur ordinateur ne calculait qu'environ cinq coups à l'avance, bien moins que leur concurrent humain : les connaisseurs estimèrent qu'il fallait porter ce chiffre à plus de sept coups. En fait, il apparut qu'il fallait concevoir des machines stratèges capables, en outre, d'apprentissage. Feng Hsiung Hsu et Murray Campbell, des laboratoires de recherche d'IBM, associés, pour la réalisation de la partie logicielle, au Grand-maître d'échecs Joël Benjamin, reprirent le programme Deep Thought – rebaptisé Deep Blue, puis Deeper Blue – en concevant un système de 256 processeurs fonctionnant en parallèle ; chaque processeur pouvant calculer environ trois millions de coups par seconde, les ingénieurs de Deeper Blue estiment qu'il calculait environ 200 millions de coups par seconde. Finalement, le 11 mai 1997, Deeper Blue l'emporta sur Garri Kasparov par 3 points et demi contre 2 points et demi, dans un match en six parties. Même si beaucoup d'analystes sont d'avis que Kasparov (dont le classement ELO de 2820 est pourtant un record, et qui a prouvé que son titre de champion du monde est incontestable en le défendant victorieusement par six fois) avait particulièrement mal joué, la victoire de Deeper Blue a enthousiasmé les informaticiens. Un des coups les plus étonnants fut celui où, dans la sixième partie, la machine choisit, pour obtenir un avantage stratégique, de faire le sacrifice spéculatif d'un cavalier (une pièce importante), un coup jusque-là normalement « réservé aux humains ». En 2002, le champion du monde Vladimir Kramnik ne parvenait qu'à faire match nul contre le logiciel Deep Fritz, au terme de huit parties, deux victoires pour l'humain et la machine et quatre matchs nuls. Une nouvelle fois, la revanche des neurones sur les puces n'avait pas eu lieu.
En 2016, le programme Alphago de Google Deepmind bat l'un des meilleurs joueurs mondiaux du jeu de go, Lee Sedol (ce jeu d'origine chinoise comprend bien plus de combinaisons que les échecs).
Les réseaux neuronaux
Dans un article paru en 1943, Warren McCulloch, un biologiste, et Walter Pitts, un logicien, proposaient de simuler le fonctionnement du système nerveux avec un réseau de neurones formels. Ces « neurones logiciens » sont en fait des automates électroniques à seuil de fonctionnement 0/1, interconnectés entre eux. Ce projet, s'il n'eut pas d'aboutissement immédiat, devait inspirer plus tard Johann von Neumann lorsqu'il créa l'architecture classique d'ordinateur.
Une première tentative infructeuse
Il fallut attendre 1958 pour que les progrès de l'électronique permettent la construction du premier réseau neuronal, le Perceptron, de Frank Rosenblatt, machine dite connectionniste. Cette machine neuromimétique, dont le fonctionnement (de type analogique) cherche à approcher celui du cerveau humain, est fort simple. Ses « neurones », reliés en partie de manière aléatoire, sont répartis en trois couches : une couche « spécialisée » dans la réception du stimulus, ou couche périphérique, une couche intermédiaire transmettant l'excitation et une dernière couche formant la réponse. Dans l'esprit de son inventeur, le Perceptron devait être capable à brève échéance de prendre en note n'importe quelle conversation et de la restituer sur imprimante. Quantité d'équipes travailleront au début des années 1960 sur des machines similaires, cherchant à les employer à la reconnaissance des formes : ce sera un échec total, qui entraînera l'abandon des travaux sur les réseaux. Ceux-ci semblent alors dépourvus d'avenir, malgré la conviction contraire de chercheurs comme Shannon.
Les réseaux actuels
En fait, l'avènement des microprocesseurs, les puces électroniques, permettra la réapparition sous forme renouvelée des réseaux à la fin des années 1970, générant un nouveau champ de l'IA en pleine expansion, le néoconnectionnisme. Les nouveaux réseaux, faits de processeurs simples, ne possèdent plus de parties à fonctions spécialisées. On leur applique un outillage mathématique issu pour l'essentiel de la thermodynamique moderne et de la physique du chaos.
Le cerveau humain est caractérisé par un parallélisme massif, autrement dit la possibilité de traiter simultanément quantité de signaux. Dans les réseaux aussi, de nombreux composants électroniques, les neuromimes, travaillent de manière simultanée, et la liaison d'un neuromime avec d'autres est exprimée par un coefficient numérique, appelé poids synaptique. On est cependant bien loin du système nerveux central de l'homme, qui comprend environ 10 milliards de cellules nerveuses et 1 million de milliards de synapses (ou connexions). Contrairement à ce qui se passe dans le cerveau, lors de l'envoi d'un signal les neuromimes activent toujours leurs voisins et n'ont pas la possibilité d'inhiber le fonctionnement de ceux-ci. Néanmoins, ces machines sont dotées de la capacité d'auto-organisation, tout comme les êtres vivants : elles ne nécessitent pas de programmation a posteriori. La mémoire peut survivre à une destruction partielle du réseau ; leurs capacités d'apprentissage et de mémorisation sont donc importantes. Si un micro-ordinateur traite l'information 100 000 fois plus vite qu'un réseau, ce dernier peut en revanche effectuer simultanément plusieurs opérations.
Quelques applications
La reconnaissance des formes (pattern recognition) est, avec celle du langage naturel, l'un des domaines où les réseaux excellent. Pour reconnaître des formes, un robot classique les « calculera » à partir d'algorithmes. Tous les points de l'image seront numérisés, puis une mesure des écarts relatifs entre les points sera faite par analyse de réflectance (rapport entre lumière incidente et lumière reflétée). Mieux encore, on mesurera l'écart absolu de chaque point par rapport à la caméra qui a fixé l'image.
Ces méthodes, qui datent de la fin des années 1960, sont très lourdes et s'avèrent inopérantes lorsque l'objet capté par la caméra se déplace. Le réseau, s'il n'est guère efficace pour un calcul, reconnaîtra une forme en moyenne 10 000 fois plus vite que son concurrent conventionnel. En outre, grâce aux variations d'excitation de ses « neurones », il pourra toujours identifier un visage humain, quels que soient ses changements d'aspect. Cela rappelle les caractéristiques de la mémoire associative humaine, qui coordonne de façon complexe des caractéristiques ou informations élémentaires en une structure globale mémorisée. Une autre ressemblance avec le système cognitif de l'homme est à relever : sur cent formes apprises à la suite, l'ordinateur neuronal en retiendra sept. Or, c'est là approximativement la « taille » de la mémoire à court terme, qui est de six items.
Les rétines artificielles, apparues en 1990, rendront progressivement obsolète la caméra en tant que principal capteur employé en robotique. Tout comme les cônes et les bâtonnets de l'il, ces « rétines » à l'architecture analogique transforment les ondes lumineuses en autant de signaux électriques, mais elles ignorent encore la couleur. Certaines d'entre elles ont la capacité de détecter des objets en mouvement. De telles membranes bioélectroniques seront miniaturisables à assez brève échéance.
Enfin, les réseaux de neurones formels sont aussi de formidables détecteurs à distance d'ultrasons ou de variations thermiques.
À l'aide d'un ordinateur classique, il est possible de simuler une lecture de texte avec un logiciel de reconnaissance de caractères, un lecteur optique et un système de synthèse vocale qui dira le texte. Mais certains ordinateurs neuronaux sont aussi capables de dispenser un véritable enseignement de la lecture. De même, couplé à un logiciel possédant en mémoire une vingtaine de voix échantillonnées dans une langue, un réseau forme un système efficace d'enseignement assisté par ordinateur, qui est capable de corriger l'accent de ses élèves !
Intelligence artificielle et éducation
À travers le langage logo, conçu par Seymour Papert (Max Planck Institute), l'IA a doté la pédagogie des jeunes enfants d'un apport majeur. En permettant une programmation simple, logo incite l'enfant à mieux structurer ses rapports aux notions d'espace et de temps, à travers des jeux. L'idée clé de logo repose sur le constat fait par Jean Piaget : l'enfant assimile mieux les connaissances quand il doit les enseigner à autrui, en l'occurrence à l'ordinateur, en le programmant.
Bien que cet outil informatique contribue à combler les retards socioculturels de certains jeunes, il est douteux, contrairement au souhait de ses promoteurs, qu'il puisse aider des sujets à acquérir des concepts considérés comme l'apanage de leurs aînés de plusieurs années. Les travaux de Piaget montrent en effet que les structures mentales se constituent selon une chronologie et une séquence relativement définies. Quelle que soit l'excellence d'une méthode, on ne peut pas enseigner n'importe quoi à n'importe quel âge.
Perspectives
La prise en compte de la difficulté à modéliser parfaitement l'activité intellectuelle a conduit certains praticiens de l'IA à rechercher des solutions beaucoup plus modestes mais totalement abouties, en particulier dans certaines applications de la robotique.
L'IA sans représentation de connaissance
Vers 1970, les conceptions théoriques de Marvin Minsky et Seymour Papert sur la « Société de l'esprit », parmi d'autres, ont fondé une nouvelle IA, l'IA distribuée, dite encore IA multiagents. Les tenants de cette approche veulent parvenir à faire travailler ensemble, et surtout de manière coordonnée, un certain nombre d'agents autonomes, robots ou systèmes experts, à la résolution de problèmes complexes.
Après avoir conçu des ensembles de systèmes experts simples associés, l'IA distribuée a également remodelé le paysage de la robotique, générant une IA sans représentation de connaissance.
Les robots dits de la troisième génération sont capables, une fois mis en route, de mener à bien une tâche tout en évitant les obstacles rencontrés sur leur chemin, sans aucune interaction avec l'utilisateur humain. Ils doivent cette autonomie à des capteurs ainsi qu'à un générateur de plans, au fonctionnement fondé sur le principe du GPS. Mais, à ce jour, les robots autonomes classiques restent insuffisamment aboutis dans leur conception.
Ce type de robotique semble à vrai dire à l'heure actuelle engagé dans une impasse : depuis le début des années 1980, aucun progrès notable ne s'est fait jour.
L'« artificial life »
Le philosophe Daniel C. Dennett a proposé, à la fin des années 1980, une nouvelle direction possible pour la robotique. Plutôt que de s'inspirer de l'homme et des mammifères, il conseille d'imiter des êtres moins évolués, mais de les imiter parfaitement. Valentino Braitenberg s'était déjà engagé dans une voie similaire au Max Planck Institute, une dizaine d'années auparavant, mais ses machines relevaient d'une zoologie imaginaire. En revanche, depuis 1985, Rodney Brooks, du MIT, fabrique des robots à forme d'insecte ; ce sont les débuts de ce qu'on appelle artificial life.
Cette idée a été réalisable grâce à la réduction progressive de la taille des composants électroniques. Une puce de silicium sert donc de système nerveux central aux insectes artificiels de Brooks : pour l'instant, le plus petit d'entre eux occupe un volume de 20 cm3. Le chercheur est parti d'un constat simple : si les invertébrés ne sont guère intelligents, ils savent faire quantité de choses, et sont en outre extrêmement résistants. Travaillant sur la modélisation de réflexes simples de type stimulus-réponse, Brooks élude ainsi élégamment le problème, classique en IA, de la représentation des connaissances. Dans l'avenir, il voudrait faire travailler ses robots en colonies, comme des fourmis ou des abeilles ; ses espoirs aboutiront seulement si la miniaturisation des moteurs progresse. L'éthologie, ou science des comportements animaux, fait ainsi une entrée remarquée dans le monde de l'IA.
DOCUMENT larousse.fr LIEN
|
|
|
|
|
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 ] Précédente - Suivante |
|
|
|
|
|
|