|
|
|
|
|
|
PHYSIQUE ET SCIENCES DU GLOBE |
|
|
|
|
|
PHYSIQUE ET SCIENCES DU GLOBE
La Terre est une planète vivante dont l'intérieur garde de nombreux secrets. Comment voir sous la surface ? Les ondes sismiques sont les seules ondes qui se propagent jusqu'au centre de la Terre. Elles permettent de réaliser des images des structures profondes. En utilisant des méthodes qui se rapprochent de celles de l'imagerie médicale, ces images permettent d'explorer des problèmes fondamentaux de la physique de la Terre comme la convection dans le manteau, qui conditionne les grands traits de la géologie de la surface, ou l'existence du champ magnétique. Dans la plupart des cas les analyses des sismologues s'appuient sur des ondes dont ils peuvent décrire précisément le trajet et dont ils connaissent bien la source. Ces ondes ne sont qu'une faible partie du signal enregistré en continu par les stations sismologiques modernes. La physique de la diffusion multiple offre des possibilités nouvelles pour exploiter ces masses importantes de données. En particulier, le bruit, cette agitation permanente de la surface du sol qui trouve principalement son origine dans les couplages avec les océans, peut être utilisé en l'absence de séisme pour déduire les sismogrammes qui seraient observés si un séisme se produisait exactement à une des stations d'enregistrement. Une nouvelle imagerie passive émerge qui permettra d'affiner nos images de l'intérieur de la Terre et donc d'y mieux cerner les processus physiques à l'origine du monde qui nous entoure.
Transcription[1]revue et corrigée par l'auteurde la 591ème conférencede l'Universitéde tous les savoirs prononcée le 13 juillet 2005
La physique des ondes sismiques.
ParMichel Campillo
Le but de cet exposé est de mettre en évidence un certain nombre de problèmes physiques qui se posent pour la compréhension de la Terre solide. La sismologie y joue un rôle important, car les ondes sismiques, qui sont des ondes élastiques, sont les seules capables de pénétrer profondément à l'intérieur de notre planète, nous permettant de réaliser des images de couches internes, à la manière de l'imagerie médicale bien connue de tous.
Cette présentation va se faire en deux parties ; un premier temps sera consacré à la présentation de la sismologie moderne et des problèmes que rencontrent les géophysiciens, physiciens et géologues qui travaillent sur la structure interne de la Terre. Puis nous verrons des notions de physique mésoscopique et leurs utilisations en sismologie pour obtenir des nouvelles images de l'intérieur de la Terre.
Le sismogramme
Le sismogramme est à la base de tout le travail du sismologue. Depuis quelques années nous pouvons enregistrer le mouvement du sol de manière continue. On mesure le déplacement du sol en fonction du temps, qui consiste en général en une agitation permanente que l'on nomme le bruit sismique ou microsismique' jusqu'à ce qu'un séisme se produise et engendre les ondes élastiques qui nous permettront d'étudier la Terre. Ces ondes sont celles qui sont ressenties par l'homme lors des grands séismes mais que les appareils de mesure peuvent détecter avec des amplitudes qui sont bien inférieures à ce que nous sommes capables de percevoir. Les instruments modernes sont suffisamment sensibles pour que nous puissions mesurer très précisément les temps d'arrivées des ondes aux stations. C'est essentiellement cette information qui est utilisée pour faire des images de la structure interne de la Terre car, comme nous le verrons, nous connaissons aujourd'hui les trajets parcourus en profondeur par les différentes ondes qui sont observées. La première partie de l'exposé va leur être consacrée. Mais nous pouvons aussi étudier le bruit sismique, c'est-à-dire le signal qui ne peut être associé à un trajet particulier que ce soit celui qui suit un tremblement de terre (la coda) ou celui qui est du à l'agitation permanente de la surface de la Terre sous l'effet de l'atmosphère et des océans.
Mais avant de se lancer dans l'interprétation des sismogrammes, il faut rappeler ce qu'est un sismomètre. Il s'agit d'un pendule, c'est à dire une masse qui est maintenue en équilibre par un système de ressort, et lorsque le sol bouge, par le principe d'inertie on mesure le mouvement relatif de la masse et du sol. Cette idée a été mise en Suvre dès le 19ème siècle. Les capteurs actuels nous permettent de faire des mesures très précises du champ de déplacement, ceci grâce à leur petite taille en comparaison de la longueur d'onde des ondes sismiques.
Malgré leurs efforts, les sismologues ne connaissent peut-être pas très bien la Terre, ils ne connaissent pas bien non plus les tremblements de Terre d'ailleurs, mais armés de ces instruments, ils connaissent très bien les mouvements du sol et font des mesures quasi exactes du champ de déplacement. Ceci concerne des ondes avec des périodes allant de plusieurs centaines de secondes jusqu'à un centième de seconde, c'est-à-dire 100 Hz. On enregistre donc des ondes dans une gamme de fréquence très variable, mais aussi avec des amplitudes variables. En effet on mesure avec la même exactitude le bruit sismique, bien au dessous de notre seuil de perception et les mouvements du sol lors de grands tremblements de Terre destructeurs. Sur un exemple de sismogramme suivant un séisme on peut noter des arrivées individualisées d'énergie. Parlons maintenant de l'interprétation de ces sismogrammes en commençant par présenter les différents types d'ondes.
Les ondes sismiques
La première onde que l'on observe est l'onde P, c'est l'onde qui se propage le plus vite dans la Terre, à des vitesses de l'ordre de 5 ou 6 km/sec à quelques kilomètres sous nos pieds. C'est une onde de compression comparable aux ondes acoustiques que l'on produit dans l'air.
Puis arrivent les ondes S, elles sont un peu plus lentes que les ondes P, de l'ordre de 3,5 km/s à quelques kilomètres de profondeur, et ne provoquent pas une compression de la roche mais un cisaillement. Il n'existe pas d'équivalent à ces ondes dans les fluides.
Tous les séismes génèrent ces deux grands types d'onde, qui vont se propager dans la Terre profonde et qu'on appelle donc « ondes de volume ». Pour les décrire facilement, on peut les associer à des rayons lumineux se propageant à l'intérieur de la Terre. On peut alors leur appliquer la loi de Descartes et les principes de la réflexion et la réfraction de la lumière.
Mais toutes nos observations sont réalisées à la surface de la Terre ; et à la surface d'un corps élastique il existe un troisième type d'ondes. C'est l'onde de Rayleigh, qui est spécifique des corps élastiques et dont l'existence est confinée près de la surface. Ces ondes dites de surface, produisent des mouvements qui ressemblent à ceux engendrés par la houle sur la mer, c'est-à-dire qu'un point de la surface de Terre décrit une ellipse lors du passage de l'onde. Ces ondes de surface se propagent à des vitesses plus faibles et forment l'arrivée tardive de grande amplitude sur notre exemple de sismogramme. Les sismogrammes nous permettent donc d'observer des ondes de volume qui pénètrent l'intérieur de la Terre et dont on peut suivre les trajets comme des rayons lumineux et des ondes de surface qui elles, sont confinées près de la surface. Mais il faut être prudent lorsque l'on parle d'ondes superficielles car avec des périodes de 300 secondes, elles pénètrent quand même jusqu'à plusieurs centaines de km de profondeur. Cependant elles se propagent toujours parallèlement à la surface de la Terre et on les différencie bien de la catégorie des ondes de volume. Les ondes de surface jouent un rôle très important en sismologie car une part importante de l'énergie produite par les séismes superficiels est transmise sous cette forme.
Modèle global
Le fait que l'on dispose aujourd'hui d'une très grande collection de sismogrammes fait suite à un effort international considérable sur un réseau de stations sismiques qui couvre la quasi-totalité de la planète. Ce qui est le plus important, c'est que depuis à peu près un siècle, l'échange de données est organisé au niveau international. Les chercheurs de différents pays se sont transmis leurs informations, et à partir de ces données cumulées globales on a pu dévoiler la structure interne de la Terre. Par exemple la France y contribue par ses stations locales et par le réseau Geoscope qui s'étend à l'échelle globale.
Dès la mise en place des premiers réseaux à la fin du 19ème siècle, les chercheurs ont commencé à accumuler des observations de temps d'arrivées qu'ils ont reportés sur des diagrammes en fonction de la distance épicentrale. L'accumulation de ces observations individuelles a permis de décrire des courbes continues qui seront associées à des trajets spécifiques. La première grande découverte a été faite dès 1906 par un sismologue britannique, Oldham, qui à partir de ces observations a découvert l'existence d'une zone d'ombre dont il a déduit la présence d'un corps interne dont les propriétés provoquent une forte réfraction des ondes sismiques. Oldham a ainsi démontré l'existence d'un noyau plus lent, et il a pu calculer son rayon. C'était le premier élément qui allait permettre de construire progressivement un modèle complet de Terre. Aujourd'hui bien sûr le modèle s'est raffiné et de nombreux trajets ont été identifiés et nommés suivant une codification rationnelle. On dispose d'un modèle global moyen pour lequel on peut évaluer les temps de parcours de nombreuses arrivées correspondant à des trajets bien identifiés. Les différentes couches constituant la Terre sont reconnues et leurs propriétés moyennes précisément évaluées. En termes de temps de parcours des ondes, les différences entre ce modèle et la structure réelle sont très faibles. Ce modèle moyen est très important car il fait le lien entre les sismogrammes et les structures internes de la Terre.
Ce diagramme a été construit à partir des ondes que l'on peut identifier directement, mais quand se produit un séisme extrêmement fort, comme le séisme de Sumatra récemment, la Terre vibre globalement. Bien sur, les ondes de volume vont se propager dans la Terre, les ondes P par exemple mettent 20 minutes pour aller d'un point à son antipode. Toutes les ondes dont nous avons parlé vont interférer entre elles et donner lieu à une résonance globale. La Terre se met à vibrer comme une cloche. On appelle ces vibrations les modes propres de la Terre. Dans les signaux produits, on peut identifier tout un ensemble de fréquences discrètes, chacune correspondant à un mode propre de vibrations qui a pu être identifié. D'une manière similaire à ce que nous avons vu pour les ondes de volume, ces collections d'observations contribuent à construire un modèle global. Par exemple, il existe des modes que l'on appelle toroïdaux; ce sont des modes de torsion. En effet, si on imagine que l'on fait tourner l'hémisphère sud dans un sens et l'hémisphère nord dans l'autre sens, puis on lâche, la Terre va se mettre à osciller de part et d'autre de l'équateur. Ce mode possède une fréquence particulière, et donc lorsque l'on voit un pic d'amplitude à cette fréquence on identifie aussitôt le mode de torsion.
Cependant, on sait depuis longtemps que les pics de fréquences de résonance sont constitués d'une série de contributions de fréquences très proches. Mais ces multiplets sont très difficiles à analyser avec des données sismologiques classiques. Cependant, les sismologues ont de nouveaux appareils de mesure à leur disposition, et notamment les gravimètres absolus. C'est un appareil complexe qui permet de faire des mesures d'accélération du sol d'une précision de 10-12 fois l'accélération de pesanteur. Après le séisme de Sumatra, le premier séisme géant' depuis la mise en place de ses appareils, on dispose de données d'une précision nouvelle pour étudier la structure de la Terre, mais aussi sur la source du séisme.
Donc lorsque l'on regroupe toutes ces données, que ce soit les courbes distance épicentrale/temps de trajet, les diagrammes amplitude/fréquence (résonance simple et multiplets), on obtient un modèle de Terre globale sur les grandes lignes duquel tous les chercheurs sont d'accord, bien sûr dans le détail il y a des différences d'appréciation.
A la surface de la Terre, on a une croûte soit océanique, quelques km d'épaisseur, soit continentale, d'une quarantaine de km d'épaisseur en moyenne. Puis en dessous on a une grande zone que l'on appelle le manteau, cette zone se divise en deux : le manteau supérieur et le manteau inférieur. Le manteau est globalement composé d'un matériau solide possédant à peu près la même composition partout, la subdivision du manteau est liée à un changement de phase des cristaux et notamment de l'olivine. Près de la surface les pressions ne sont pas très fortes puis lorsque l'on va en profondeur la pression augmente, les réseaux cristallins se réorganisent, provoquant un changement de vitesse de propagation des ondes. C'est l'étude de la réfraction/réflexion des ondes qui nous a permis d'identifier cette transition entre manteau inférieur et manteau supérieur. En allant en profondeur on traverse donc une couche solide, (croûte + manteau), puis on va rencontrer l'interface manteau/noyau (imagée par Oldham en 1906). L'étude des ondes sismiques, une fois de plus, nous a permis de déterminer l'état du noyau externe. Les ondes S ne se propageant pas dans le noyau externe, on en a déduit que ce dernier était composé de métal liquide. Puis vers la fin des années 1930, une sismologue danoise Mme Lehman, a découvert le noyau interne, que l'on nomme aussi la « graine ». La graine est la partie solide du noyau, qui s'est formée par cristallisation du noyau externe lors du refroidissement de la Terre.
Ce modèle simple de Terre pose de nombreux problèmes physiques :
- Une des données observables sur Terre est le champ magnétique, et ce champ magnétique est un des mystères de la géophysique. On sait aujourd'hui qu'il trouve sa source dans le noyau liquide, mais on ne sait pas le reproduire dans un laboratoire, que ce soit par des méthodes analogiques (crée un champ magnétique dans une sphère et qui reste stable) ou par des méthodes numériques. Ce champ magnétique possède un certain nombre de particularités, par exemple, il confirme la présence d'un noyau liquide en mouvement puis on sait qu'au cours des temps géologiques le champ magnétique a déjà changé de sens plusieurs fois. D'ailleurs ce sont ces changements de polarité du champ magnétique qui ont été les premiers arguments de la tectonique des plaques, en effet au niveau des rides océaniques lorsque les roches se cristallisent elles enregistrent le champ magnétique. Or les paléomagnéticiens ont vu une alternance de polarités, ce qui confirmait l'idée de la création progressive des plaques sur les rides, enregistrant les alternances de polarité, puis l'expansion des fonds océaniques.
- Une autre découverte faite sur le noyau est qu'il change aussi très vite. En effet on possède des séries de données depuis le 17ème siècle, et on a remarqué qu'en l'espace de quelques siècles la structure du champ magnétique terrestre a beaucoup changé. Pour la géophysique interne c'est une découverte assez exceptionnelle, en effet les échelles de temps en géologie sont souvent très grandes, bien au-delà de la durée de nos vies ; alors qu'à l'intérieur du noyau il y a des mouvements de fluide avec une vitesse de l'ordre du km/an.
Le but de la sismologie est d'arriver un jour à mesurer ces mouvements en cours dans le noyau, ce n'est pas encore le cas pour l'instant. Mais des résultats ont été obtenus, en effet on a remarqué que les ondes qui se sont propagées dans la graine en passant par l'axe de rotation, qui est proche de l'axe du champ magnétique, n'ont pas la même vitesse que les ondes qui ont traversées la graine par le plan équatorial, il semble qu'il y ait là une signature sismologique du champ magnétique.
- Les mystères ne concernent pas uniquement le noyau. Le manteau est un solide, mais un solide qui convecte, c'est-à-dire que sur des temps très longs, le million d'années, le manteau se comporte comme un fluide très visqueux avec des vitesses qui cette fois sont de l'ordre du cm/an. L'évidence de cette convection en surface est la tectonique des plaques, en effet les matériaux froids (les plaques océaniques anciennes) ont tendance à plonger dans le manteau, tirant sur le reste de la plaque, il se forme alors des rides océaniques où le matériau chaud remonte des profondeurs et vient cristalliser en surface.
L'apport de la sismologie provient cette fois de l'image tomographique que l'on peut obtenir du manteau, en effet les ondes ne se propagent pas de la même façon dans un matériau froid que dans un matériel chaud. Lorsque les ondes traversent un matériel chaud leur vitesse diminue, et inversement. En surface on s'aperçoit que les océans jeunes sont plutôt chauds, alors que les plaques continentales anciennes sont plus froides. Mais le plus intéressant vient lorsque l'on regarde plus en profondeur, le manteau devient homogène : le contraste de vitesse diminue. Les images obtenues ne correspondent pas aux modèles anciens de la tectonique des plaques dans lesquels on avait de grandes cellules de convection qui prenaient tout le manteau, qui étaient régulièrement espacées. On a donc du développer de nouveaux modèles numériques pour prendre en compte ces nouvelles observations, ces modèles sont beaucoup plus compliqués avec des plaques qui plongent et des panaches de manteau chaud qui remontent dans une répartition complexe. Les géologues ont découvert des traces en surface de ces panaches, ils seraient associés aux zones dites de point chaud. Un exemple est le panache qui a créé la région volcanique du Décan en Inde. Les plaques se sont déplacées et le panache toujours actif a créé les volcans des Maldives, et aujourd'hui ce même panache se situerait sous l'île de la réunion.
La sismologie peut nous aider à comprendre comment se font les échanges thermiques à l'intérieur de la Terre, pour cela il nous faudrait arriver à imager ces panaches. On commence à le faire, par exemple sous l'Islande. L'origine du point chaud se trouve à plusieurs centaines de km de profondeur, ce qui est cohérent avec l'existence d'un panache mantellique. Un autre exemple est la zone des Afars où une anomalie thermique profonde a pu être décelée.
Alors pourquoi a-t-on du mal à imager l'intérieur de la Terre ?
Cela vient du fait que pour faire cette imagerie on utilise les ondes produites lors des grands tremblements de Terre et, heureusement pour l'homme, ces phénomènes sont rares, et on dispose donc d'assez peu de données pour imager les couches profondes.
De plus, l'utilisation des tremblements de Terre pose un autre problème, si on étudie les séismes de magnitude supérieure à 5 de ces vingt dernières années, on s'aperçoit qu'ils se situent tous aux mêmes endroits : au niveau des grandes frontières de plaques. La couverture spatiale de la planète est imparfaite, il y a des endroits sur Terre où malgré les efforts d'instrumentalisation, on n'enregistra jamais de gros séismes.
Ensuite, on est aussi limité par des soucis techniques, en effet il est facile d'installer des stations sur terre mais installer des stations dans les grands fonds océaniques est extrêmement difficile et coûteux. Donc pour le moment, hormis sur les îles il y a très peu de sites de mesures, donc c'est un des enjeux de la sismologie instrumentale dans le futur.
Les grands séismes nous ont permis, grâce à l'étude des ondes de volume et de surface, d'obtenir un modèle global de la Terre ; mais on enregistre d'autres ondes et notamment du bruit sismique. Après un grand séisme, on enregistre un long signal tardif dans lequel on ne peut identifier d'arrivées correspondant à des trajets individuels. C'est ce que l'on appelle la « coda ». On enregistre aussi une agitation permanente de la surface, dont l'origine n'est pas totalement connue et que l'on nomme le bruit sismique. Quel est l'intérêt d'étudier ces ondes ? Tout simplement, pour l'instant on a représenté la Terre de manière globale comme un milieu simple fait de couches homogènes sur lequel les chercheurs pouvaient se mettre d'accord ; mais en réalité la Terre est bien plus complexe que cela.
En effet, il suffit de regarder le paysage, les cartes de géologie pour s'apercevoir que la Terre est un objet complexe à différentes échelles avec des failles, des blocs de matière différenciés, etc. Il nous faut donc trouver une autre approche que la théorie des rais utilisée précédemment. On va donc se tourner vers la physique. Au cours de ces dix dernières années les physiciens ont beaucoup étudié les milieux complexes, et va appliquer les mêmes approches.
Je vais illustrer mes propos par un exemple simple : un milieu contenant des impuretés, des petites zones avec des vitesses différentes. Si on place une source dans ce milieu, au début on va voir notre front d'onde qui se propage simplement, puis cette onde va se diffracter dans toutes les directions, le champ d'onde va devenir de plus en plus complexe, jusqu'à être un champ diffus. Ce phénomène de champ diffus se rencontre aussi en optique ; les jours de grand beau temps, on voit les rayons du soleil et les ombres que projettent les objets sur le sol. Les jours de brouillard, les gouttelettes d'eau vont jouer le rôle de diffracteurs, la vision devient diffuse, on ne voit plus d'où viennent les ondes lumineuses avec précision et par exemple on ne voit plus d'ombre.
Sur nos sismogrammes, on voit au début les ondes directes, puis des ondes qui se sont réfléchies sur des interfaces dont on peut encore identifier le parcours, c'est ce que l'on nomme la diffraction simple. Puis les ondes suivent des chemins de plus en plus complexes. Par exemple si un tremblement de Terre se produit à 30 km d'un récepteur, ce récepteur enregistrera des ondes qui ont parcouru 1000 km et suivant des trajets très complexes après avoir subi des diffractions multiples.
Les outils de la physique
Pour étudier ce champ diffus, on utilise des outils de la physique, qui ont été développés pour l'étude des ondes électromagnétiques, notamment le principe d'équipartition. Pour l'illustrer, considérons une onde plane qui va se propager dans une direction définie, puis lorsqu'elle va rencontrer un diffracteur, elle va engendrer des ondes planes dans plusieurs directions qui vont à leur tour se diffracter. Si on attend assez longtemps, on rentre dans un état d'équilibre où toutes les ondes planes, dans toutes les directions, vont être présentes de la même façon. Toutes les directions sont statistiquement représentées de la même façon : c'est l'équipartition. Comment peut-on être sûr que cet équilibre existe dans la Terre ? En théorie il existe un coefficient universel de proportionnalité entre l'énergie des ondes P et celles des ondes S quand l'équipartition dans un corps élastique est atteinte. En pratique, on a pu vérifier que, quelque soit le tremblement de Terre que l'on considère, quelque soit la distance épicentrale, si l'on attend assez longtemps, le rapport d'énergie se stabilise pour une valeur prédite théoriquement pour les ondes diffuses.
Je ne vais pas vous présenter les autres outils de la physique que l'on peut utiliser pour étudier ce champ diffus, mais juste vous montrer que les ondes en régime diffus gardent leurs propriétés ondulatoires, en particulier leurs phases. On rentre dans un régime dit mésoscopique, c'est-à-dire pour nous que l'on peut décrire l'évolution de l'énergie par un processus de diffusion macroscopique alors que simultanément des propriétés microscopiques des ondes élémentaires sont observables. Un exemple de propriété microscopique est la propriété de réciprocité que vérifient les équations d'onde, c'est-à-dire que si on intervertit la position du récepteur et de la source, on obtient le même signal, en faisant attention à la polarisation. Quel est l'intérêt de cette propriété pour l'étude du champ diffus ? Un signal diffus est composé dun grand nombre d'ondes avec des trajets compliqués. Si on considère une de ces ondes en particulier, le principe de réciprocité doit s'appliquer et indique que le trajet entre le premier et dernier diffracteur parcouru en sens inverse doit exister. Cependant quand la source et le récepteur sont en des points éloignés les 2 ondes n'arrivent pas en même temps et elles contribuent au champ diffus de manière dite incohérente. Sauf dans un cas : lorsque la source et le récepteur se situent au même point. L'onde et sa réciproque vont alors emprunter exactement le même trajet complet et donc elles vont interférer de manière constructive. Cela implique que près de la source, on, observera une zone dans laquelle l'intensité des ondes sera plus forte, et ce même bien après que les ondes directes sont propagées au loin.. Il est possible de réaliser des expériences simples pour illustrer ce principe. Je vais vous en présenter une. On a installé une ligne de capteurs au dessus d'un milieu très diffractant, ici un volcan en Auvergne actif encore il y a quelques dizaines de milliers d'années, et que on tape sur le sol avec une masse. On enregistre les ondes et on voit arriver en premier les ondes directes puis plus tard la coda.Si on trace l'énergie présente dans le début de la coda en fonction de la distance source/récepteur, on s'aperçoit que l'énergie est répartie de manière à peu près constante, ce qui est ce que l'on attend intuitivement. En revanche si on laisse encore le temps s'écouler et que l'on refait le même tracé, alors on voit apparaître un pic d'énergie d'amplitude relative 2 au niveau de la source comme le principe de la réciprocité le prédit C'est la rétrodiffusion cohérente, appelée aussi localisation faible'. Donc, dans la nature, malgré les phénomènes d'absorption et de diffraction multiples, nos enregistrements conservent des propriétés fondamentales des équations d'onde dont on va tirer profit pour utiliser les champs diffus.
La corrélation
On a vu que les champs diffus conservaient l'information transportée par les ondes qui les composent. On va donc essayer de voir comment extraire cette information. Peut-on directement retrouver les composantes de nos sismogrammes, c'est à dire des signaux correspondant à des trajets physiques dans la Terre, sans avoir à passer par la mise en Suvre de sources, ni à faire de lourds calculs numériques ? Avec d'autres mots, peut-on reconstruire des sismogrammes entre 2 points sans utiliser de source mais en tirant partie des propriétés des champs diffus enregistrés à ces 2 points ? La fonction de corrélation va permettre d'atteindre ce résultat. La valeur de la fonction de corrélation au temps t est obtenue, et consiste à décaler un signal de t puis a multiplier les 2 signaux et enfin à calculer la somme du résultat. Par exemple, si on enregistre le passage d'une onde à deux endroits différents, les deux sismogrammes seront identiques mais décalés d'un certain temps dt. Si maintenant on corrèle ces deux signaux, tant que les signaux ne seront pas en phase la multiplication de nos deux signaux vaudra zéro, puis lorsque l'on aura décalé le deuxième signal de dt, les signaux seront l'un en face de l'autre, et la fonction de corrélation sera maximale. On peut donc grâce à la fonction de corrélation connaître la différence de temps de parcours entre deux stations. Si on fait cette expérience avec une série de sources qui entourent les 2 stations on peut remarquer que la somme des corrélations correspond essentiellement aux contributions des sources qui sont alignées avec les stations et donne donc exactement le temps de parcours. C'est un exemple d'application du théorème de la phase stationnaire. On peut tester cette approche sur des données réelles. On considère plusieurs enregistrements de séismes à différentes stations et on corrèle les codas entre elles. Si on représente la fonction de corrélation on peut voir qu'elle a beaucoup de similitude avec la réponse du milieu à une source à une des stations. On peut identifier et suivre l'onde de Rayleigh jusqu'à plus de 200 km de distance. Cela signifie, que lorsque l'on étudie les ondes diffuses à des stations distantes de 200 km de l'épicentre, et même si on a l'impression qu'elles sont rendues aléatoires, en réalité elles sont corrélées, et la fonction de corrélation contient la réponse impulsionnelle du milieu.
Ce principe s'appuie sur, le théorème de la fluctuation-dissipation. Il faut supposer que la Terre est soumise à une fluctuation aléatoire la corrélation de ces fluctuations à 2 points donne la réponse déterministe entre ces 2 points. Dans notre cas, le traitement de données à réaliser est un peu compliqué : il faut sélectionner des trajets et vérifier que l'on se situe en champ diffus. Cependant, si on revient à la source de ce théorème, il a été écrit pour le bruit thermique. Or en sismologie, on a vu que les jours sans tremblement de Terre, on enregistre aussi du bruit. Cela suggère d'essayer d'utiliser cette agitation permanente de la surface de la Terre. Cette agitation est principalement contrôlée par les interactions entre les océans et la Terre solide. La première de ces interactions ce sont les vagues et la houle sur les côtes. Une autre indication de l'interaction océan/Terre solide est l'aspect variable du bruit sismique, en effet lorsqu'une dépression se forme sur l'océan et se rapproche des côtes on voit le bruit sismique augmenter énormément. Le bruit sismique a donc une origine océanique, même si on ne comprend pas très bien les mécanismes de couplage pour beaucoup de gammes de fréquence.
Prenons un exemple en Californie où l'on a sélectionné un séisme qui s'est produit juste sous une station. On a enregistré pendant un an le bruit sismique à cette station et à une deuxième qui avait enregistré le séisme. On a ainsi pu comparer la corrélation moyenne dans le bruit et le sismogramme directement produit par le séisme et constater leur similitude avec en particulier une parfaire identité des ondes de Rayleigh. C'est le fait que, considéré sur une période de temps longue, le bruit soit aléatoire qui permet de reconstruire le signal car on se rapproche alors des propriétés fondamentales requises pour appliquer notre théorème. Paradoxalement, c'est exactement ce même argument qui a poussé les sismologues a ne pas utiliser ces signaux dans le passé.
En Californie, un réseau de 70 stations sismiques de très bonne qualité distantes d'une trentaine de km a été installé. En utilisant les enregistrements continus du bruit, on a pu calculer la réponse impulsionnelle du milieu entre chaque couple de capteur. Cela a permis d'obtenir un grand nombre de trajets qui servent de base à une tomographie avec une très bonne résolution. En utilisant des ondes d'une période centrale de 7,5 sec, on peut imager la croûte superficielle de la Californie, et comparer nos résultats avec les cartes géologiques de la région. Les résultats obtenus sont en très bon accord avec nos connaissances de cette région. Plus intéressant bien sûr, on peut, en changeant de gamme de fréquence, cartographier des zones plus profondes, comme la croûte moyenne. On peut ainsi identifier les racines profondes des structures géologiques majeures et déterminer précisément leurs extensions.
Exemple sur la lune
Pour conclure, on peut se demander si le bruit que nous observons a des caractéristiques très spécifiques qui permettent à cette technique de fonctionner sur la Terre. Pour répondre à cette question on va s'intéresser à la Lune. En effet, durant la mission Appolo 17 en 1976, un petit réseau de capteurs a été installé pour étudier les couches superficielles de la Lune. Le bruit lunaire a été enregistré en continu dans de bonnes conditions. On a donc pu utiliser ce bruit lunaire pour faire des corrélations entre les différents capteurs et voir là aussi émerger la réponse élastique entre les capteurs.
On enregistre du bruit sismique sur la lune, mais quelle en est l'origine sans atmosphère ni océan ? Les très fortes variations de température entre le jour et la nuit sont à l'origine d'effets de dilatation et de fissuration très marqués qui produisent un bruit' dont la périodicité est clairement visible sur les enregistrements. On a donc une structure du bruit très différente de celle de la Terre, et malgré tout on peut utiliser les principes vus précédemment qui paraissent donc très robustes. Ceci est très intéressant pour l'exploration à long terme des planètes, car ces méthodes passives ne nécessitent pas de transporter de source.
[1] Transcription réalisée par Soline Hallier
VIDEO CANAL U LIEN |
|
|
|
|
|
|
L’étude de la matière à toutes les échelles |
|
|
|
|
|
VIDEO CANAL U LIEN
L’étude de la matière à toutes les échelles par Marie-Paule Pileni
Texte de la 238e conférence de l’Université de tous les savoirs donnée le 25 août 2000.
L’étude de la matière à toutes les échelles par Marie-Paule Pileni
Introduction
La matière à toutes les échelles est un vaste sujet qui nécessite une connaissance globale de la Science, ce qui est impossible de nos jours. Aussi, il est évident qu’en quelques lignes, cette approche ne peut être que partielle. On se limitera au cadre de la Chimie et nous limiterons notre propos à l’assemblage d’éléments.
Deux questions se posent : Qu’est-ce que la Matière et quelles sont les échelles ?
En ce qui concerne la matière, pour un chimiste c’est l’association d’éléments de la classification périodique. Mendeleïev a classé les atomes par ordre de numéro atomique (de masse) croissant. Il a introduit une seconde notion d’ordre, qui est la configuration de la dernière couche électronique des atomes. Ainsi, tous les atomes, le long d’une même colonne, ont le même nuage électronique externe. Il existe des orbitales atomiques de type s, p, d et f. Les atomes ayant comme dernière couche des orbitales de type d sont dits éléments de transition comme l’aluminium, le cuivre, l’argent, etc.
L’échelle peut être l’évolution temporelle ou dimensionnelle. La plus courte observée expérimentalement en chimie est la femtoseconde (10-15s). Ces études permettent une bonne compréhension du mécanisme réactionnel. Un des exemples est l’étude des mécanismes existants lors de la photosynthèse. Il existe aussi l’échelle en dimension. Pour un chimiste, la plus petite échelle est l’Angstrom. Nous considérerons donc l’évolution de la matière de l’Angstrom à quelques millimètres (0,001m).
Dans un premier temps, nous donnerons quelques définitions.
La matière organique est principalement constituée d’atomes d’hydrogène, d’azote, de carbone, d’oxygène et de phosphore. Un des assemblages le plus connu est l’ADN. Il est constitué de deux brins (collier de perles) qui s’enroulent. Chaque brin est une succession d’atomes associés par liaisons fortes dites covalentes. L’association des brins est possible grâce à des liaisons faibles.
La matière inorganique est l’association d’atomes provenant des éléments de transition.
L’état massif d’un matériau correspond à sa forme la plus stable à température ordinaire et pression atmosphérique (un lingot d’or, un collier d’or ou l’eau du robinet sont des matériaux à l’état massif).
Quand une réaction chimique est possible par les lois de la physique, il est impossible de prévoir à quel moment la réaction aura lieu. Il existe des éléments qui permettent de diminuer le temps auquel la réaction a lieu. C’est le catalyseur. À la fin de la réaction chimique, le catalyseur est restitué. On dit que la réaction est catalysée par l’élément. Le catalyseur existe en proportion infinitésimale. Prenons l’exemple du platine qui est le catalyseur le plus utilisé dans l’automobile. L’essence est un hydrocarbure (formé de carbone et d’hydrogène). Lors de sa combustion, il se forme de l’oxyde de carbone, CO, composé extrêmement toxique. L’oxydation de CO en gaz carbonique, CO2, est catalysée par du platine qui est inséré dans les pots catalytiques.
Nous chercherons à répondre à deux questions :
1) Un même assemblage d'atomes, de molécules organiques, ou d'éléments inorganiques peut-il exister à différentes échelles et qu’elles sont leurs propriétés spécifiques ?
1
2) Un assemblage organique peut-il être utilisé pour fabriquer une nouvelle entité organique ou inorganique ?
Nous traiterons tout d’abord l’assemblage inorganique puis organique. Dans chacun des cas, nous considérerons une entité isolée et nous montrerons ses propriétés spécifiques. Dans un second temps, nous associerons cette entité à elle-même et nous montrerons que ces assemblages ont des propriétés très différentes de l’entité isolée.
Assemblage d’éléments inorganiques à différentes échelles : propriétés spécifiques
L’entité isolée
L'association d’atomes permet la fabrication de matériaux solides comme des semiconducteurs, des métaux et des alliages. À l'état massif, le matériau est formé de plusieurs milliers d’atomes. Au début du siècle, la matière était principalement abordée par l’étude de l’atome. Tout n’est pas encore compris, mais nous avons à ce jour une bonne connaissance des atomes. Depuis une vingtaine d’années les chercheurs ont abordé l’étude du comportement de quelques atomes associés entre eux. De nombreuses études tant théoriques qu’expérimentales ont été entreprises. Depuis une dizaine d’années les chercheurs s’intéressent à des assemblages plus gros (de l’ordre de 100 atomes ou plus). Ceci est principalement dû au fait, qu’il est possible de les fabriquer en quantité assez grande et donc éventuellement utilisable pour les applications. Nous présentons donc, deux classes de dimensionalité. La première correspond à un assemblage dont le nombre d'atomes est inférieur ou égal à 100, la seconde classe concerne un nombre d'atomes compris entre 100 et plus de 10 000.
Trois facteurs primordiaux1 contrôlent les propriétés d’un matériau :
i) La morphologie de l’entité
ii) Le rapport du nombre d’atomes de surface sur volume. Prenons un lingot d’or et
considérons un atome en son centre. L’or cristallise selon un réseau cubique face centrée. L’atome considéré est donc entouré de 12 atomes voisins (nombre maximum de voisins). On dit que l’atome est un atome de volume et sa coordinence est 12. Si l’on considère un atome situé à la surface du lingot, il ne sera plus entouré de ses 12 voisins mais d’un nombre inférieur d’atomes. On dit que c’est un atome de surface de coordinence inférieure à 12.
iii) La dimension de l’entité gouverne ses propriétés électroniques. Elles englobent non seulement les propriétés spécifiques du matériau, tel que par exemple, l’énergie nécessaire à arracher un électron du matériau (énergie d’ionisation), les propriétés catalytiques mais aussi les propriétés optiques et magnétiques.
L’ensemble de ces facteurs intervient de façon simultanée ou consécutive. Il n’existe pas de loi générale rendant compte des propriétés spécifiques d’un matériau en fonction de sa dimension.
Entités constituées d’un nombre d’atomes compris entre 1 et 100
Un atome peut s'associer à un second pour former un agrégat constitué de deux atomes. L'association d'un troisième créé un nouvel agrégat et ainsi de suite. On peut donc fabriquer des agrégats (ou clusters) au nombre d'atomes près. La fabrication de ces agrégats
1 Henry (C.), Chapon (C.), Giorgio (S.) et Goyhenex (C.), « Chemisorption and Reactivity of clusters and thin films NATO, ASI (2000).
2
Henry (C.), Surface Science reports 31, 231,(1998).
se fait par évaporation sous vide, suivie d’une sélection en taille. L’intérêt de fabriquer de telles entités à l’atome près est surtout basé sur la compréhension de la physique fondamentale de la matière.
La morphologie de ces agrégats dépend du type de matériau qui le constitue. La figure 1 montre que, pour un même nombre d’atomes, les agrégats de platine et de palladium diffèrent par leur forme.
Du fait de la faible dimensionalité de l’agrégat et du grand nombre d’atomes de surface par rapport aux atomes de volume, les propriétés électroniques sont fortement modifiées par rapport à celles de l’état massif. Dans le cas du platine, l’énergie d’ionisation (énergie nécessaire pour arracher un électron à une entité) diminue quand la taille de l’agrégat augmente. L’agrégat reste constitué d’un faible nombre d’atomes quand il atteint le potentiel d’ionisation du platine à l’état massif.
Les propriétés catalytiques d’un agrégat augmentent avec sa taille. Cependant, il existe des limitations. Prenons comme exemple, la catalyse du mono oxyde de carbone, CO, en gaz carbonique, CO2. La quantité de CO2 augmente avec le nombre d’atomes constituant le catalyseur (c’est-à-dire avec sa taille) (Fig. 2a). Cependant, si l’on rapporte le pourcentage de molécules de CO2 produites par atome constituant le catalyseur, des discontinuités dans le rendement sont observées (Fig. 2b). L’activité est maximale pour 5, 11 et 16 atomes et
3
minimale pour 8 et 13, puis elle diminue quand le nombre d'atomes est supérieur à 16. La plupart des études faites sur différents catalyseurs montre que l'activité catalytique augmente avec la taille des agrégats, mais des discontinuités non prévisibles sont observées. Contrairement aux propriétés électroniques, il est donc impossible de déduire une loi générale de l'évolution catalytique des agrégats en fonction du nombre d'atomes.
Deux catalyseurs de nature différente (telle que le Pt et l’Or par exemple) constitués du même nombre d’atomes ont des activités très différentes. Ainsi, l'oxydation de CO catalysée par (Pt)N est bien supérieure à celle obtenue avec (Au)N. Des différences similaires, observées avec le platine et le palladium, sont attribuées à un changement de morphologie qui induit des modifications des propriétés électroniques de l'agrégat.
En conclusion, les propriétés électroniques des agrégats dépendent du nombre d’atomes le constituant. Il est à remarquer qu’il existe très peu d’applications industrielles. Les études faites dans le domaine des agrégats de 1 à 100 atomes ont eu pour but principalement la compréhension du comportement de la matière. À l’inverse, comme nous le verrons ci-dessous, le domaine d’échelle compris entre 1nm et 100nm (entre 100 atomes et plus de 100 000) présente un grand nombre d’applications potentielles.
Entité de dimension comprise entre 1nm et 100nm
La préparation de telles entités fait maintenant appel à la chimie2. Le principe est basé sur le mélange de deux composés susceptibles de réagir entre eux pour produire soit une entité insoluble (coprécipitation), soit une réduction chimique (passage d’une espèce ionique
4
2 Pileni (M.-P.), J.Phys.Chem.; 97, 6961, (1993).
à un état métal). Dans ce cas, les entités ne sont donc plus caractérisées par un nombre fixe d'atomes. Elles ont une taille moyenne donnée. Afin de fixer l’échelle, on peut rappeler qu’un agrégat de platine formé de 100 atomes correspond à un diamètre de 1,5nm. On dit alors que l’entité est un nanomatériau. La morphologie, le rapport surface sur volume et la faible dimension restent les facteurs prépondérants pour les nanomatériaux de taille inférieure ou égale à 10nm. Au-delà de cette taille, la structure cristalline ainsi que les propriétés optiques et magnétiques sont semblables à celles du massif. En ce qui concerne les propriétés catalytiques, elles restent différentes de celles du massif. Ceci est principalement dû au fait que les processus catalytiques impliquent l’adsorption des réactifs sur l’entité.
Nous présentons tout d’abord les propriétés optiques puis magnétiques et enfin catalytiques des nanomatériaux.
Les principales modifications des propriétés optiques en fonction de leurs tailles sont obtenues avec des semiconducteurs3 et des métaux4. Elles sont principalement dues à des modifications électroniques du matériau. Considérons les semiconducteurs CdS, CdSe et CdTe de même taille moyenne de 2nm. Leur spectre d’absorption dépend du type de matériau. La figure 3 montre qu’il est possible de « balayer », en absorption, tout le domaine UV-Visible. Aux grandes longueurs d’onde, une augmentation abrupte de l’absorption suivie d’un pic bien défini sont observées.
3 Lisiecki (I.), et Pileni (M;-P.), J.Amer.Chem.Soc. ; 115, 3887, (1993) ; J.Phys. Chem. ; 99, 5077
(1995).
4 Petit (C.), Lixon (P.), et Pileni (M.-P.), J.Phys.Chem. ; 97, 12974 (1993).
5
Vers les faibles longueurs d’onde, l’augmentation de l’absorption est monotone. De plus, pour un nanomatériau donné, le spectre d’absorption se déplace vers les grandes longueurs quand la taille des nanocristaux augmente5 (Fig. 4).
On dit que c’est l’effet quantique de taille. Ainsi donc, en changeant, soit la taille du nanomatériau, soit le type de matériau, il est possible d’obtenir des matériaux de couleurs différentes. L’évolution de la couleur se fait continûment de l’incolore au noir. Ceci permet un grand nombre d’applications, dont par exemple, l’incorporation du nanomatériau dans les cosmétiques permet de produire de nouveau « make up ». Les nanomatériaux ont une taille suffisamment réduite pour que la solution dans laquelle ils sont dispersés soit isotrope (transparent à la lumière). De plus, ils présentent une absorption qui disparaît brutalement. Cette propriété permet aussi de fabriquer des filtres optiques. Si l’on considère la fluorescence de ces nanomatériaux, comme l’absorption, elle se déplace vers les grandes longueurs d’onde quand la taille augmente (Fig. 4). Il est à remarquer que la bande d’émission est très étroite. Ainsi, quel que soit, la longueur d’excitation des nanomatériaux de CdTe, le spectre d’émission reste inchangé en énergie. Cette propriété s’étend à une très large gamme de semiconducteurs. Ainsi, différentes couleurs fluorescentes peuvent être observées quand on change la taille du nanomatériau. Cette propriété ouvre la voie à de nombreuses applications. Un des exemples est les traceurs en biologie. Les nanomatériaux permettent l’excitation dans un large domaine spectral mais une émission de fluorescence très précise. Il est ainsi possible,
6
5 Ingert (D.), Feltin (N.), Levy (L.), Gouzerh (P.), et Pileni (M.-P.), Adv. Materials; 11, 220, (1999).
de fixer un antigène sur le nanomatériau. Il se fixera sélectivement à son anticorps et la fluorescence du nanomatériau permet alors de détecter de façon précise la localisation de l’anticorps.
Dans le cas des métaux, les électrons sont d’autant plus confinés que la taille du nanomatériau est petite. Ceci induit une modification de la réponse optique et se traduit par un changement du spectre d'absorption6. Les nanomatériaux de cuivre, dispersés en solution présentent un spectre d’absorption monotone pour des matériaux de petites tailles. L’augmentation de la taille des nanomatériaux induit l’apparition d’un pic d’absorption qui est d’autant plus prononcé que la taille des nanocristaux est grande, pour atteindre (vers 10nm) les propriétés optiques de cuivre massif. Des résultats similaires sont obtenus avec l'argent ou l'or. À nouveau, les nanomatériaux métalliques peuvent être utilisés non seulement comme filtres mais aussi dans le domaine des cosmétiques. Le caractère semiconducteur ou métallique de ces nanomatériaux permet d’espérer des propriétés électroniques utilisables en micro électronique.
Passons maintenant aux nanomatériaux magnétiques. Chaque atome constituant le nanocristal présente un moment magnétique. En première approximation, le moment magnétique de la particule est la somme des moments magnétiques de l’ensemble des atomes le constituant. Ainsi, le nanocristal peut être assimilé à un « macro » moment magnétique. L’énergie magnétique est du même ordre de grandeur que l’énergie thermique. Sous l’action d’un champ magnétique, le macro moment s’oriente. Dès la rupture du champ appliqué, les nanomatériaux perdent leur orientation. Ceci se traduit par une courbe de magnétisation ne présentant pas d’hystérésis. Néel7 a défini un tel processus comme un comportement superparamagnétique., qui ne permet pas d’utiliser les nanomatériaux pour la lecture magnétique.
En ce qui concerne les propriétés catalytiques, elles sont régulées par le nombre de cycles (turnover) qui est en fait le rapport de la vitesse de réaction par élément de surface. L'activité et la sélectivité d'un catalyseur dépendent non seulement de la nature de ce dernier, mais aussi des énergies mises en jeu lors de l’adsorption des réactifs et des produits. Il est donc impossible de prédire le comportement d'un catalyseur en fonction de sa taille.
En conclusion, l’évolution de la dimensionalité induit des changements optiques importants qui permettent non seulement la recherche des processus fondamentaux mis en jeu, mais aussi de nombreuses applications. À l’inverse, le comportement magnétique dans le domaine de taille ne permet pas d’envisager des applications. En ce qui concerne les propriétés catalytiques, elles dépendent du type de catalyseur utilisé et aussi de l’énergie d’adsorption des réactifs. Au-delà de 10nm, ces nanomatériaux présentent des propriétés tant optiques que magnétiques semblables à celles des mêmes éléments à l’état massif. La Figure 5 résume les différents facteurs mis en jeu quand les éléments sont considérés comme isolés. Nous chercherons à assembler ces nanomatériaux à l’échelle de quelques millimètres de façon à rechercher les propriétés collectives dues à cet assemblage.
6 Lisiecki (I.), et Pileni (M;-P.), J.Amer.Chem.Soc. ; 115, 3887, (1993) ; J.Phys. Chem. ; 99, 5077 (1995).
Petit (C.), Lixon (P.), et Pileni (M.-P.), J.Phys.Chem. ; 97, 12974 (1993).
Taleb (A.), Petit (C.) et Pileni (M.-P.), Chemistry Materials, 9, 950 (1997).
7 Neel (L.) Ann.Geophys. ; 5, 99, (1949) ; C.R.Acad.Sciences Paris, 252, 4075, (1961) ; 253, 9, (1961) ;
7
253, 203, (1961) ; 253, 1286, (1961).
Assemblage de nanomatériaux
Pour assembler des nanomatériaux, il faut tout d’abord les « habiller » par de longues chaînes hydrocarbonées (ou encore entourées de cheveux), (Fig. 6). Du fait de la présence de ces chaînes hydrocarbonées, ce matériau peut être dispersé dans un solvant non polaire (tel que l'huile). À faible concentration de particules, il peut être considéré comme isolé dans un solvant.
8
Dans ces conditions, les propriétés physiques (optiques, magnétiques, etc.) seront celles du nanomatériau lui-même. Si l’on dépose une goutte de cette solution de particules sur un support, le solvant s’évapore. Les chaînes vont avoir tendance à s’interpénétrer et s’auto- un support, le solvant s’évapore. Les chaînes ont alors tendance à s’interpénétrer et s’auto- organiser en réseau hexagonal compact (Fig. 6), (comme des oranges sur l’étal d’un marchand). Cette auto-organisation se produit sur de longues distances (plusieurs micromètres)8. Une question se pose alors : Les propriétés optiques de cet assemblage sont- elles identiques à celles des nanomatériaux isolés ? Dans l’hexane, le spectre d’absorption des nanocristaux d’argent est caractérisé par une bande de résonance centrée à 2,9eV. Quand les nanocristaux sont auto-organisés chacun d’eux est soumis à l'influence de ses voisins. Une nouvelle absorption apparaît à haute énergie9 . Le spectre d’absorption des nanomatériaux auto-organisés diffère donc considérablement de celui de ces mêmes particules isolées. Ceci est dû à des interactions dipolaires induites sous l’effet de la lumière10. Cette nouvelle absorption à haute énergie n’est observable que si les nanomatériaux sont organisés en réseau hexagonal compact. Ainsi, le mode d’organisation des nanomatériaux d’argent joue un rôle primordial sur les propriétés optiques de l’assemblage. Du point de vue pratique, les particules isolées peuvent jouer le rôle de filtre dans une gamme d’énergie comprise entre 2.5eV et 3eV alors qu’auto-organisées en réseau hexagonal compact le filtre s’étend de 2,5eV à 5eV. Ainsi l’auto-organisation permet de moduler les propriétés optiques de l’argent. Si, maintenant, la quantité de particules (ou oranges) augmente, elles vont s'empiler couche par couche. Quand le nombre de couches empilées est de l’ordre de 4, il est possible d’observer la symétrie 4-4 (les nanomatériaux sont au sommet de carrés accolés les uns aux autres) (Fig. 7a). Considérons une structure cubique face centrée (Fig. 7b) et jetons un œil sur la structure vue de haut du cristal. On peut voir non seulement des atomes dans le plan, mais aussi ceux hors du plan. Cet ensemble forme un carré (Fig. 7b). Cette organisation sous forme de carré est donc la signature d'une phase cristalline de type cubique face centrée11. L’assemblage est maintenant un « cristal » similaire à celui du sel de cuisine (ou chlorure de sodium) ou les atomes de sodium et de chlorure sont remplacés par des nanomatériaux.
9
8 Motte (L.), Billoudet (F.) et Pileni (M.-P.), J. Phys. Chem. ; 99, 16425, (1995).
Motte (L.), Billoudet (F.) et Pileni (M.-P.), Advanced Materials, 8, 1018, (1996).
9 Taleb (A.), Petit (C.) et Pileni (M.-P.), J.Phys.Chem. ; 102, 2214, (1998).
Taleb (A.), Russier (V.), Courty (A.) et Pileni (M.-P.) Phys.Rev B 59, 13350 (1999).
10 Russier (V.), Petit (C.), Legrand (J.) et Pileni (M.-P.) Phys. Rev.B 62, 3910, (2000).
11 Motte (L.), Billoudet (F.), Douin (J.), Lacaze (E.) et Pileni (M.-P.), J.Phys.Chem. ; 101, 138, (1997).
Par les techniques décrites ci-dessus, il est possible d’obtenir, soit des nanomatériaux isolés, soit organisé selon un réseau hexagonal compact (2D) ou selon une structure cubique face centrée (3D). À l'aide d'une pointe de microscopie à champ proche, il est possible de mesurer le courant qui passe à travers les nanocristaux (entre la pointe et le support). Quand elle est isolée sur un support, il n'y a pas transport de courant (on dit qu'il y a blocage), quand ces mêmes particules sont organisées à 2D, seule une faible partie du courant passe, alors qu'à 3D, le courant passe. L'organisation des nanoparticules créée un interrupteur nanométrique avec passage ou non du courant12. Cette propriété présente des applications potentielles importantes. C’est le premier exemple susceptible de montrer que les nanomatériaux, selon leurs organisations, peuvent être utilisés comme interrupteur. Pour ce faire, il faudra être capable d’organiser et désorganiser le système sur une échelle de temps très réduite.
Assemblages de molécules organiques
Il existe différents assemblages possibles13. Dans cette présentation, nous retiendrons l’assemblage de tensioactifs. Ce sont des molécules constituées d'une tête polaire hydrophile (attirée par l'eau) et d'une chaîne hydrocarbonée hydrophobe (attirée par l'huile). C’est en fait du savon. Si l'on tente de solubiliser un tensioactif dans l'eau, les chaînes ont tendance à
12 Taleb (A.), Silly (F.), Gusev (A.-O.), Charra (F.) et Pileni (M.-P.) Adanced Materials 12, 633, (2000). 13 Stupp (S.-I.), Son (S.), Lin (H.C.) et Li (L.-S.).; Science, 252, (1993) 59.
De la matière au vivant : Les systèmes moléculaires organisés ed CNRS (1994).
10
s'associer les unes aux autres pour former différents agrégats14. La forme du tensioactif joue un rôle considérable sur la formation de l’assemblage.
Si les molécules de tensioactifs ont une tête polaire très large et une petite chaîne le tensioactif a alors une forme de cône (ou cornet de glace), les chaînes ont tendance à s'associer entre elles et former un agrégat sphérique que l'on appelle micelle directe (Fig. 8). Elle est en général, composée d'une centaine de tensioactifs. Quand la micelle directe est formée à très faible concentration, elle est sphérique et sa dimension, fixée par la longueur de la chaîne hydrocarbonée et par la taille de la tête polaire, est de l'ordre 100Å. La taille de la micelle directe est augmentée par addition d’huile qui a pour but d’accroître le volume de l’agrégat. Pour maintenir la stabilité de l’édifice, une augmentation de la contribution polaire de l’interface est nécessaire. Elle est apportée par addition d’alcool peu soluble dans l’eau et l’huile. Le rapport relatif de l’alcool et de l’huile ajoutés est donc très important. L’agrégat porte alors le nom de microémulsion (Fig. 8).
11
14 De la matière au vivant : Les systèmes moléculaires organisés ed CNRS (1994).
Si le tensioactif a la forme d'un bouchon de champagne (petite tête polaire et chaînes hydrocarbonées ramifiées) (Fig. 8), les têtes polaires s'associent entre elles20. On a alors affaire à une micelle inverse (Fig. 8), qui est un agrégat sphérique. Contrairement à la micelle directe, sa dimension est variable. Elle dépend de la quantité d'eau ajoutée au système et varie de 40 à 180 Å. Comme pour les micelles directes, il est possible d’ajouter de l’alcool pour fabriquer des microémulsions de taille comprise entre 50 et 300 Å.
Si l'on ajoute trop d'eau à cette solution de micelles inverses, le système évolue ainsi que sa dimensionalité. Il se forme soit des assemblages ressemblant à une éponge, soit à des canaux d'eau interconnectés15. Dans ce dernier cas, l'espace est divisé en deux sous volumes égaux et régulièrement imbriqués de sorte qu'en tout point, la surface a une forme de selle de cheval. On dit qu'il se forme des cylindres interconnectés. Ce sont des structures bi-continues, à la fois en eau et en huile. Un ajout supplémentaire d’eau induit une nouvelle transition de phase. Le système devient opalescent et biréfringent (la lumière est éteinte entre deux polariseurs croisés). Il se forme alors une phase lamellaire. Les molécules de tensioactifs s’organisent comme un film plan (Fig. 8).
L’addition supplémentaire d’eau induit une démixion. Il n’y a plus assez de tensioactif pour couvrir l’interface eau-huile. Après agitation, la solution est trouble. C’est une émulsion. Elle se forme et disparaît dès que l’agitation cesse. Le système transite et une séparation de phase eau-huile apparaît. La taille de l’émulsion est de l’ordre du micromètre. Pour une émulsion d’un micromètre, la surface de contact entre l’eau et l’huile est de 1m2. Il n’y a plus assez de tensioactifs pour couvrir l’interface. Un phénomène identique se produit en mélangeant de l’huile et du vinaigre. Dès que l’agitation cesse, le vinaigre et l’huile se séparent. Cependant si on ajoute un jaune d’œuf (comprenant une lécithine qui est un tensioactif) et de la moutarde (qui est aussi un tensioactif) l’émulsion formée reste stable pendant plusieurs heures. Cependant si l’on met cette émulsion au frigidaire, plusieurs phases apparaissent. Même s’il est remis à température ordinaire, on n’obtiendra plus l’émulsion initiale. Le système est dit instable.
Ainsi donc, la micelle directe a une taille fixée par la chaîne et la tête polaire du tensioactif. La micelle inverse (gouttelettes d’eau dans l’huile) voit sa taille augmenter de 2nm à 18nm. Ces deux types d’agrégats sont sphériques. Par augmentation des quantités d’eau, il est possible de transiter vers des phases éponges ou cylindres interconnectés ou encore des émulsions. Selon les conditions expérimentales, l’association de tensioactif permet l’évolution du système dans un domaine de dimensionalité qui varie de 10Å à plus de 10 000Å (Fig. 8).
Récemment, il a été démontré qu’un système tensioactif-huile-eau peut former une émulsion stable16. C’est en fait un « supra agrégat ». Il contient des cylindres interconnectés dans sa phase interne et externe. En effet, une phase lamellaire (les tensioactifs s'organisent comme des lamelles) qui n’est plus plane mais forme un oignon (ou sphérulite). À l'intérieur de celui-ci, on retrouve une phase de cylindres d'eau interconnectés. Ainsi, la phase oignon contient d'autres types d'agrégats (cylindres interconnectés). Cette configuration est très favorable du point de vue énergétique. La présence des cylindres interconnectés augmente la quantité d'interfaces nécessaires pour rendre l'émulsion stable. La formation de ces émulsions peut s'expliquer par des considérations géométriques liées à la morphologie du tensioactif.
15 Clichés de cryofractures fournis par Dr ; T. Gulik du Centre de Génétique Moléculaire à Gif sur Yvette.
16 André (P.), Filankembo (A.), Lisiecki (I.), Petit (C.), Tanori (J.), Gulik-Krzywicki (T.), Ninham (B.- W.) et Pileni (M.-P.) Advanced Materials, 12, 119, (2000).
12
Un assemblage de molécules organiques peut-il permettre la fabrication de nouveaux matériaux organiques ou inorganiques ?
En d’autres termes, un assemblage de molécules organiques peut-il être considéré comme un nanoréacteur ou encore une nanousine ?
Considérons des micelles inverses qui sont des gouttelettes d'eau dans huile (Fig. 8), dont la taille varie continûment selon la quantité d’eau ajoutée. Dispersées dans l’huile ces gouttelettes se déplacent de façon aléatoire. On dit qu’elles sont soumises au mouvement Brownien. Lors des collisions, elles échangent leur contenu aqueux pour reformer deux micelles distinctes (Fig. 9)17. Ces deux propriétés (taille et échange des contenus aqueux) permettent de les utiliser comme nanoréacteurs de tailles variables.
Soit deux réactifs A et B, l’un soluble dans l’eau et le second dans l’eau ou l’huile. Lors des échanges de cœur, A et B sont mis en contact et réagissent. Ainsi, il est possible
13
Pour illustrer l’utilisation de ces nanoréacteurs nous décrivons ci-dessous différents types de réactions :
i) Une réduction chimique : La réduction d’un cuivre permet la fabrication de nanocristaux de cuivre. La taille des nanocristaux augmente avec la taille du nanoréacteur. Il est intéressant de noter qu'un tel nanoréacteur permet d'obtenir des matériaux métalliques très oxydables sans que la présence d'oxyde soit détectable
ii) Une réaction entre un matériau inorganique et une molécule organique :
Il est possible d'attacher des « cheveux » (ou longues chaînes hydrophobes) sur des nanocristaux inorganiques. Après synthèse du nanomatériau en micelles inverses, un dérivé thiol (R-SH) est ajouté à la solution micellaire. Il y a alors réaction entre les atomes à l’interface du nanomatériau et le groupement SH. Si le groupement R est une longue chaîne hydrocarbonée, le nanocristal est alors entouré de « cheveux ». Il suffit alors de casser les micelles inverses pour récupérer des nanocristaux « habillés » (Fig. 6) sous forme de poudre et de les disperser dans un solvant non polaire (huile).
La plupart des protéines et les enzymes se dénaturent en présence d’huile. Il est cependant possible de les mettre en contact si l’on utilise les micelles inverses. La macromolécule est solubilisée dans la gouttelette. Le tensioactif joue alors le rôle de bouclier et la protège de toute dénaturation. Le nanoréacteur permet alors de modifier chimiquement la macromolécule et de la rendre hydrophobe sans pour autant la dénaturer.
Ainsi, les micelles inverses peuvent fabriquer des nanocristaux inorganiques sphériques. Elles sont aussi capables de modifier chimiquement des macromolécules. Ce dernier procédé est d'une grande importance pour la biotechnologie.
Une nouvelle question peut maintenant se poser. Les autres types d’assemblages décrits en Figure 8, peuvent-ils se comporter comme des nanoréacteurs ?
Cette approche ne peut concerner que les matériaux inorganiques. Dans les systèmes interconnectés, il est possible d'obtenir des cylindres de cuivre métal20 (Fig. 10). L’addition de chlorure de sodium (NaCl) favorise la formation de longs « bâtons » de cuivre21 de 1μm de long et de 20nm de large22. Ces bâtons sont caractérisés par une grande cristallinité avec des plans réticulaires bien définis23. Si l'on remplace le chlorure de sodium par du nitrate de sodium (un nouveau sel dit spectateur), seules des sphères sont observées24 . L'addition d'autres sels provoque aussi des modifications très importantes dans la structure du matériau, alors que sa forme n'a pas changée. Ceci est attribué à des modifications de la structure de l'eau à l'intérieur de la microphase.
14
15
Conclusion
L’échelle en dimension joue un rôle considérable sur le comportement de la matière. Pour des agrégats composés d’un nombre d'atomes inférieurs à 100, à la modification de la morphologie, s’accompagnent les changements des propriétés électroniques et vice-versa. L’activité catalytique est aussi directement liée aux propriétés électroniques de l’agrégat. Dans ce dernier cas, il faut aussi tenir compte de l’énergie d’adsorption des réactifs et des produits sur l’agrégat. Bien qu’un grand nombre d’études aient été entreprises, il n’existe pas de loi générale susceptible de prédire la forme de l’agrégat, les modifications de ses propriétés électroniques et catalytiques. Ceci montre la diversité de la matière et la difficulté qu’ont les chimistes et les physiciens à comprendre son comportement. Quand le nombre d’atomes de l’agrégat augmente, il est possible d’observer des lois générales, telles que l’effet quantique de taille des semiconducteurs ou les modifications optiques des métaux de tailles inférieures à 10nm, sans oublier le comportement superparamagnétique des nanomatériaux magnétiques. Cependant, il est impossible de trouver des lois générales en ce qui concerne la catalyse. Ceci est dû, non seulement aux changements des propriétés électroniques du matériau, mais aussi, aux processus cinétiques induits par la reconstruction de la surface. Celle-ci est à nouveau directement liée aux propriétés de chimisorption des réactifs, mais aussi, des produits sur la surface du nanomatériau. Au-delà de 100nm, les propriétés physiques du matériau sont similaires à celles du massif. En ce qui concerne, les propriétés catalytiques, seuls les phénomènes cinétiques avec reconstruction des surfaces restent des processus dominants. L’association des nanocristaux sur longue distance, permet d’observer des propriétés physiques différentes de celles de la particule isolée et de celles du matériau massif. Chaque nanocristal est influencé par ses voisins. Nous avons pu aussi montrer l’existence de propriétés collectives tant optiques que magnétiques, mais aussi, de transport
électronique. Les processus d’auto-association sont aussi observés avec des molécules organiques qui ont des groupes fonctionnels différents. Il peut s’agir d’une différence de solubilité comme dans le cas des tensioactifs ou encore des différences de réflexibilités. L’association de ces molécules permet d’obtenir des agrégats dont la taille peut varier de plusieurs ordres de grandeurs. Nous avons aussi montré, que les systèmes colloïdaux permettent de fabriquer des nanocristaux différents par leur dimensionalité. Ils permettent aussi de modifier chimiquement des macromolécules. Cette présentation est bien sûr, très limitée, par rapport à la chimie, mais montre qu’un même élément peut être présenté sous différentes formes et que ses propriétés diffèrent de façon considérable.
Référence
Heiz (U.), et Schneifer (W.-D.), Metal clusters and dots ed. Meiwes-Broer (K.-H.) Spring Verlag (1999).
Taleb (A.), Petit (C.) et Pileni (M.-P.), J.Phys.Chem. ; 102, 2214, (1998).
Taleb (A.), Russier (V.), Courty (A.) et Pileni (M.-P.) Phys.Rev B 59, 13350 (1999). Stupp (S.-I.), Son (S.), Li (L.), Lin (H.C.) et Keser (M.), J.Amer.Chem.Soc.; 117,
5252, (1995).
Légendes
Figure 1. Comparaison de la forme d'agrégats de platine et de palladium constitués d'un nombre déterminé d'atomes.
Figure 2. Évolution comparée du rendement de production de CO2 catalysés par du platine ou de l'or en fonction du nombre d'atomes constituant l'agrégat (A). Même évolution rapportée au nombre d'atomes (B).
Figure 3. a) Spectre d'absorption de nanocristaux de 2nm de semi-conducteurs de type II-VI (CdS, CdSe et CdTe).
b) Évolution de la largeur de bande interdite pour des nanocristaux de même taille moyenne mais différant par leur nature propre.
Figure 4. Spectre d'absorption et d'émission de fluorescence de nanocristaux de CdTe différant par leurs tailles.
Figure 5. Résumé des différents facteurs physiques responsables des changements des propriétés en fonction de la taille du matériau.
Figure 6. Schéma de nanocristaux « habillés » par des cheveux qui s'interdigitent lors de l'évaporation du solvant.
Figure 7. Multicouche de nanocristaux d'argent en réseau 4x4 (a) et Réseau cubique face centrée (b).
Figure 8. Évolution de la taille d'agrégats fabriqués à partir de tensioactifs.
Figure 9. Processus d'échange des micelles inverses.
Figure 10. Cylindres de cuivre obtenus dans une phase de cylindres interconnectés.
16
|
|
|
|
|
|
|
La course à la lumière lente |
|
|
|
|
|
La course à la lumière lente
Franck Daninos dans mensuel 371
daté janvier 2004 -
Ralentir la lumière à quelques mètres par seconde semblait jusqu'à présent n'intéresser que les physiciens fondamentaux. La simplification considérable de ces expériences, dont un résultat témoigne en mars 2003, ouvre aujourd'hui des perspectives d'applications pratiques.
La vitesse de la lumière est l'une des constantes fondamentales de l'Univers. C'est la borne maximale sur laquelle bute irrémédiablement toute tentative d'accélération des particules élémentaires. Ce principe fondateur de la physique moderne, énoncé par Albert Einstein il y a bientôt cent ans dans le cadre de la théorie de la relativité restreinte, n'a jamais été remis en question : les ondes électromagnétiques se propagent dans le vide aux environs de 300 000 kilomètres par seconde.
En revanche, quand ces mêmes ondes traversent un autre milieu, leurs interactions avec la matière qui le constitue les ralentissent. Chaque milieu transparent est ainsi caractérisé par un « indice de réfraction », qui dépend du type d'atomes qui le composent, de leur arrangement et de la fréquence de la lumière considérée. Plus l'indice de réfraction est grand, plus la lumière est ralentie. Elle se propage toutefois à des vitesses encore phénoménales : 225 000 kilomètres par seconde dans l'eau, 200 000 kilomètres par seconde dans le verre ! Dans le diamant, qui affiche l'un des plus grands indices de réfraction, cette vitesse est encore de 125 000 kilomètres par seconde.
Pour certains physiciens, c'est encore trop. Depuis quelques années, ils se livrent en effet à une étonnante compétition : ralentir la lumière le plus possible, voire l'arrêter entièrement ! Leurs motivations ? Avant tout, faire progresser la physique fondamentale : maîtriser à ce point l'un des objets les plus évanescents de la nature nécessite une compréhension très fine des phénomènes mis en jeu. Un attrait pour la performance aussi : les physiciens, comme les sportifs, sont amateurs de records. Enfin, ils ne manquent jamais, dans leurs articles, d'évoquer d'éventuelles applications, en particulier dans le cadre d'ordinateurs optiques où les informations seraient transportées et stockées sous forme de photons plutôt que d'électrons. Mais les conditions dans lesquelles étaient réalisées jusqu'à présent ces expériences de ralentissement de la lumière, difficilement transposables à des appareils industriels, discréditaient quelque peu ce type de propositions : installations complexes, températures extrêmement basses, etc. Les choses ont changé en mars 2003 : Robert Boyd, de l'université de Rochester, a ralenti la lumière à la vitesse de 57 mètres par seconde dans un simple cristal de rubis et à température ambiante [1].
À la vitesse d'un coureur cycliste !
La course à la « lumière lente » a été médiatisée par Lene Vestergaard Hau, de l'université de Harvard. En 1999, elle stupéfiait le monde entier en ralentissant une impulsion lumineuse à seulement 17 mètres par seconde, soit environ 61 kilomètres à l'heure : moins vite qu'un coureur cycliste bien entraîné [2]. La comparaison, présentée en couverture de la revue Nature, est largement reprise par la presse internationale. Émues par le succès médiatique, d'autres équipes tentent alors de reproduire les expériences de Lene Hau, voire de faire mieux. Mais ce n'est pas si simple. La physicienne américaine ralentit en effet la lumière en lui faisant traverser un condensat de Bose-Einstein, gaz refroidi à quelques nanokelvins où les atomes sont indifférenciés. Ce type de milieu a été fabriqué pour la pre- mière fois seulement quatre ans auparavant, et son utilisation exige une maîtrise technique encore peu répandue.
Les records se succèdent
Forts de leur avance, Lene Hau et ses collaborateurs battent leur propre record en 2000, en atteignant moins de 0,5 mètre par seconde. Puis, en 2001, nouvelle perfor- mance : ils stoppent une impulsion lumineuse pendant quelques millisecondes, avant de la faire repartir [3]. Mais, déjà, ils ne sont plus seuls. Un autre groupe de l'université de Harvard, dirigé par Ron Walsworth, illustre le même phénomène presque simultanément. Surtout, l'expérience de Walsworth est plus simple que celle de Hau : le milieu « ralentisseur » de la lumière est une vapeur de rubidium, certes refroidie à 80 kelvins, mais nettement plus facile à fabriquer qu'un condensat de Bose-Einstein [4].
En 2002, suivant la même voie, une équipe du MIT et un laboratoire de l'US Air Force franchissent une nouvelle étape dans la simplification. Ils stoppent temporairement une impulsion lumineuse dans un solide : un alliage métallique refroidi à 5 kelvins [5]. Ralentir fortement la lumière ou l'arrêter n'est donc pas aussi difficile que les premières expériences le laissaient paraître. Les résultats obtenus par Robert Boyd l'ont confirmé : les basses températures ne sont même pas nécessaires. En fait, les principes physiques à la base de ces réalisations étaient connus depuis une trentaine d'années. Personne, simplement, n'avait pensé à les conjuguer dans cette perspective.
Le premier de ces principes repose sur la physique de la propagation des ondes dans les milieux matériels. Quelle que soit la qualité d'une source lumineuse, lorsqu'elle émet une impulsion courte, celle-ci est forcément constituée d'un ensemble d'ondes de fréquences légèrement différentes. Dans un milieu où l'indice de réfraction dépend de la fréquence, ces ondes se propagent à des vitesses différentes. Elles se superposent donc et interfèrent entre elles, recomposant une impulsion que l'on nomme aussi un « paquet d'ondes » et dont la vitesse de propagation est nommée « vitesse de groupe ». Or, des calculs de propagation d'ondes historiquement établis par les physiciens Arnold Sommerfeld et Léon Brillouin au milieu du XXe siècle montrent que cette vitesse de groupe devient très faible lorsque l'indice de réfraction varie très fortement en fonction de la fréquence. Conclusion : pour qui veut ralentir la lumière, il faut trouver une fréquence autour de laquelle la variation de l'indice est maximale.
Une telle fréquence existe dans la plupart des milieux : on l'appelle « fréquence de résonance », et elle correspond à l'absorption totale des ondes lumineuses par les atomes du milieu. Ainsi, la fréquence la plus favorable au ralentissement de la lumière est celle à laquelle la lumière... ne se propage pas ! Comment s'affranchir de cette difficulté ?
La réponse résidait dans une découverte de physique quantique tout à fait indépendante. Dans les années soixante-dix, Gerardo Alzetta, Adriano Gozzini et Gaspar Orriols, de l'université de Pise, remarquent que, si les fréquences d'un laser accordable correspondent aux transitions énergétiques très fines des atomes de sodium, ces derniers perdent leur capacité à absorber la lumière [6]. Ils nomment ce phénomène « piégeage cohérent de population ». Mais la lumière lente n'étant pas encore au goût du jour, ils ne réalisent pas le parti qu'ils pourraient tirer de leur découverte.
Le condensat, milieu idéal
C'est Steve Harris, de l'université Stanford, qui en a l'idée en 1990. Reprenant et améliorant les expériences des Italiens sur d'autres systèmes, il rebaptise le phénomène « transparence induite par électromagnétisme » TIE [7]. Pour cela, les matériaux doivent afficher la propriété quantique suivante : posséder deux fréquences de résonance assez éloignées. Deux voies d'excitation sont donc possibles. Les lois de la mécanique quantique disent que si deux voies coexistent pour conduire un système dans un même état énergétique, celles-ci interfèrent et, finalement, aucune excitation ne se produit. Avec un premier laser, les atomes sont conduits dans un état énergétique plus élevé. La lumière est absorbée. Un second laser illumine ensuite les atomes à la seconde fréquence de résonance. Résultat : le milieu devient transparent pour le premier laser lire encadré ci-dessus. Pour arrêter la lumière, il suffit d'éteindre progressivement le second laser. La lumière est alors entièrement stockée dans le milieu. Le rétablissement du second laser fait repartir cette lumière absorbée.
Ainsi, en 1995, dans une vapeur de plomb très dense, Harris parvient à diviser par un facteur 165 la vitesse de la lumière [8]. L'année 1995 est marquée par un autre événement, plus remarqué : la fabrication des premiers condensats de Bose-Einstein [9]. Lene Hau, bien que théoricienne, s'intéresse de près à ce nouvel état de la matière et, en quelques années, en acquiert la maîtrise expérimentale. Aussi, lorsqu'elle prend connaissance des travaux de Steve Harris, à la fin 1997 dans une conférence que celui-ci vient donner à Harvard sur la TIE, l'idée d'appliquer cette technique au condensat émerge assez naturellement. Serait-il possible de rendre transparent un condensat par TIE, s'interroge Lene Hau ? Cet état de la matière permettrait-il de réduire plus encore la vitesse de groupe, se demande Steve Harris avec un intérêt équivalent ? Les deux physiciens s'entendent alors pour une collaboration qui conduira, grâce à un condensat d'atomes de sodium, aux records déjà mentionnés.
À très basse température, les mouvements atomiques sont très faibles : les niveaux énergétiques du sodium sont donc tous quasi équivalents au regard d'une onde électromagnétique. C'est pour cela que la technique TIE est si efficace dans un condensat. Rapidement, d'autres systèmes aux fréquences de résonance mieux séparées et donc moins sensibles aux mouvements atomiques sont identifiés, ce qui a permis de s'émanciper des atomes froids pour ralentir la lumière.
Robert Boyd, quant à lui, a utilisé une technique légèrement différente. Lorsqu'il prend connaissance, en 1999, des résultats spectaculaires de Lene Hau et de Steve Harris, une expérience qu'il avait réalisée une vingtaine d'années auparavant dans le rubis lui revient en mémoire [10]. Un autre effet quantique, appelé « oscillation cohérente de population », peut amener un matériau à devenir transparent pour certaines fréquences. Le phénomène a été prédit pour la première fois dans les années soixante à l'occasion des premières études sur les rayonnements laser [11]. Boyd a alors l'idée d'utiliser ce phénomène décrit depuis de nombreuses années pour ralentir la lumière.
Le rubis est rouge car il absorbe les couleurs vertes et bleues qu'il reçoit. En l'éclairant avec un laser vert assez intense, on peut saturer les ions chrome qui lui donnent sa couleur rouge. Un second laser, dit « sonde » et de fréquence très proche, est ensuite émis dans le rubis. L'interaction des deux lasers créé une onde résultante qui, par des battements de forte amplitude, conduit les atomes à osciller à son rythme. L'une des conséquences est que le laser sonde n'est plus absorbé par le rubis, même s'il est de couleur verte. Il continue sa course mais à vitesse très réduite.
Ce dispositif conduira-t-il rapidement à des applications ? C'est bien sûr ce que laisse entendre Boyd dans le communiqué qui annonce sa découverte, où il ne se prive pas de railler les autres techniques : « Les condensats constituent la manière la plus compliquée de ralentir la lumière. Nous l'avons quant à nous réalisé de la manière la plus simple. Nous pouvons ralentir la lumière dans un espace qui correspond à celui d'un ordinateur, et le dispositif est extrêmement facile à fabriquer. » Ce que confirme Christoph Westbrook, de l'institut d'optique d'Orsay : « Les expériences de Boyd étonnent effectivement par leur simplicité. D'ailleurs, si un jour la lumière lente trouve le chemin des applications, ce seront probablement les siennes qui seront utilisées. » Mais sans doute fallait-il recourir d'abord à des méthodes complexes pour convaincre les physiciens qu'il est finalement assez banal d'aller plus vite que la lumière, puisque celle-ci peut aller aussi lentement qu'on le souhaite. F. D.
EN DEUX MOTS
En mars 1999, à Harvard, Lene Hau étonne le monde entier en ralentissant la lumière à 17 mètres par seconde dans un gaz d'atomes très froid. Depuis, plusieurs équipes se sont attaquées au même objectif, tout en essayant de simplifier les dispositifs expérimentaux : réchauffement du gaz, utilisation d'un milieu solide. En se fondant sur des principes physiques qui sont légèrement différents, un autre physicien américain, Robert Boyd, a marqué un point décisif en 2003 : il est parvenu à ralentir la lumière dans un solide et à température ambiante.
[1] R. Boyd et al., Phys. Rev. Lett., 90, 113903, 2003.
[2] L. Hau et al., Nature, 397, 594, 1999.
[3] C. Liu et al., Nature, 409, 490, 2001.
[4] D. Phillips et al., Phys. Rev. Lett., 86, 783, 2001.
[5] A. Turukhin et al., Phys. Rev. Lett., 88, 023602, 2002.
[6] G. Alzetta et al., Il Nuovo Cimento, 52 B, 209, 1979.
[7] S. Harris et al., Phys. Rev. Lett., 64, 1107, 1990.
[8] A. Kasapi et al., Phys. Rev. Lett., 74, 2447, 1995.
[9] Chris Westbook, Philippe Bouyer et Cécile Michaut, « Le laser à atomes », La Recherche, septembre 2003, p. 40.
[10] L. Hillman et al., Opt. Comm., 45, 416, 1983.
[11] S. Schwartz et al., Appl. Phys. Lett., 10, 4, 1967.
LA TRANSPARENCE INDUITE PAR ÉLECTROMAGNÉTISME
Pour produire de la lumière lente, le phénomène le plus couramment utilisé est celui de la transparence induite par électromagnétisme. Il s'agit de rendre transparent un milieu opaque, en l'éclairant aux longueurs d'onde proches de la résonance par des rayonnements laser. Pour ce faire, le milieu doit afficher une structure énergétique à trois niveaux, comme l'illustre le graphique ci-contre : A et B sont deux états énergétiques fonda- mentaux, qui caractérisent le système au repos ; C correspond à un niveau énergétique excité. Quand on éclaire le système avec un rayonnement correspondant à la transition énergétique A-C, les électrons passent du niveau A au niveau C. Le chemin B-C est également possible si l'on éclaire le système avec un rayonnement correspondant à la transition énergétique B-C. Quand on stimule simultanément les deux chemins, les transitions s'annulent par interférences destructives. Finalement, le système n'absorbe plus les ondes du premier laser, qui continuent leur course.
SAVOIR
Steve Harris,
Physics Today,
juillet 1997, p. 36.
Lene Vestergaard
Hau, Physics World,
septembre 2001, p. 35.
Robert Boyd,
Progress in Optics, 43,
499, 2002.
DOCUMENT larecherche LIEN |
|
|
|
|
|
|
MOLÉCULE |
|
|
|
|
|
molécule
(latin moles, masse, avec l'influence de corpuscule)
Cet article fait partie du dossier consacré à la matière.
Particule formée d'atomes et qui représente, pour un corps pur qui en est constitué, la plus petite quantité de matière pouvant exister à l'état libre.
La matière, au sens courant du terme, sous ses différents états est discontinue et formée par l'assemblage d'atome. Dans les conditions usuelles, toutefois, la matière n'est pas, à l'exception des gaz nobles, formée d'atomes isolés et indépendants. Le plus souvent, les atomes s'assemblent pour former des architectures plus volumineuses: les molécules.
1. Historique du concept de molécule
1.1. L'hypothèse d'Avogadro
La notion de molécule, comme entité distincte de celle de l’atome, fut suggérée la première fois en 1811 par l'Italien Amedeo Avogadro qui proposa l’hypothèse selon laquelle le nombre de molécules d'un gaz quelconque dans un volume donné est toujours le même, les gaz étant, dans les mêmes conditions de température et de pression.
Par ailleurs, le Français Louis Joseph Gay-Lussac avait montré expérimentalement en 1809 que les volumes mis en jeu dans les réactions chimiques entre les gaz sont dans des rapports simples. Par exemple, un volume de chlore réagit sur un volume égal d'hydrogène pour donner deux volumes de chlorure d'hydrogène (les trois gaz étant dans les mêmes conditions de température et de pression).
Si nous rapprochons cette constatation expérimentale de l'hypothèse d'Avogadro, nous avons :
1 volume de chlore + 1 volume d'hydrogène = 2 volumes de chlorure d'hydrogène
n molécules + n molécules = 2n molécules
Si de plus nous supposons, en accord avec l'analyse chimique, que le chlorure d'hydrogène correspond à la formule HCl, les 2n molécules de HCl contiennent 2n atomes H et 2n atomes Cl, donc chaque molécule de chlore et d'hydrogène contient deux atomes et la réaction entre le (di)chlore et le (di)hydrogène doit s'écrire :
H2 + Cl2 → 2 HCl (et non H + Cl → HCl).
Bien que reprise, peu de temps après (1814), par le Français André Marie Ampère, l'hypothèse d'Avogadro et la distinction atome-molécule qui en découle sont restées dans l'ombre, jusqu'aux travaux de l'Italien Stanislao Cannizzaro et des Français Auguste Laurent et Charles Gerhardt. La distinction entre atome et molécule conduisait en effet logiquement à considérer ces notions comme reflétant une réalité sous-jacente à celle qu'on peut observer. Cette conception, maintenant universellement adoptée, fut combattue avec vigueur par de nombreux scientifiques qui voyaient là, à tort, une hypothèse non fondée expérimentalement, donc à caractère quasi métaphysique. L’hypothèse d’Avogadro a ouvert la voie à la physique et la chimie modernes en permettant de comparer les masses relatives des molécules et, en définitive, de déterminer les masses atomiques relatives.
1.2. Le nombre d'Avogadro
C'est en hommage à Amedeo Avogadro que le nombre de molécules contenues dans une mole de gaz, soit 22,4 L de gaz (à 0 °C et sous 1 atm ; 1 atmosphère normale = 101 325 pascals ou 1,013 25 bar), nombre déterminé approximativement pour la première fois par l'Autrichien Johann Loschmidt en 1865, s'appelle nombre d'Avogadro. Sa valeur numérique actuellement reconnue est :
NA = 6,022 × 1023
.
2. Mole et masse molaire des molécules
La notion de mole est rendue indispensable par la petite taille des molécules. Elle est liée à la connaissance de leur formule chimique, qui renseigne sur la nature et le nombre de chacun des atomes constituant la molécule. La formule chimique d’une molécule permet ainsi de calculer la masse de celle-ci à partir de celle de ses atomes.
Grâce au choix judicieux de la mole, définie comme le nombre d'atomes de carbone contenus dans 12 g de carbone 12, la masse (en grammes) d'une mole d'un élément donné est égale au nombre de nucléons (protons et neutrons) contenus dans le noyau de l'atome.
Le noyau du carbone 12, par exemple, contient 12 nucléons ; la masse de 6,022 × 1023 atomes de carbone est de 12 g. Les données du tableau périodique des éléments permettent ainsi de connaître la masse d'une mole de molécules. Ainsi, une mole de méthanol de formule CH3OH a une masse de 32 g (12 + 4 + 16), une mole d'eau de formule H2O, une masse de 18 g (2 + 16), etc. Réciproquement, on dit que le méthanol a une masse molaire de 32 g·mol-1, ou que l’eau a une masse molaire de 18 g·mol-1, etc.
Dans le cas des gaz, le calcul est simplifié grâce à la loi d'Avogadro : « Des volumes égaux de différents gaz contiennent le même nombre de molécules. » Quand ces gaz sont dans les mêmes conditions de température et de pression (généralement 0 °C et 1 atm), 32 g d'oxygène (O2), 2 g d'hydrogène (H2) ou 44 g de dioxyde de carbone (CO2) occupent un volume identique de 22,4 L. La mole est donc le facteur qui établit un lien entre les caractéristiques microscopiques des molécules et des quantités (masses ou volumes) macroscopiques plus perceptibles.
3. Liaisons et stabilité des molécules
Les molécules résultent de la formation de liaisons covalentes entre les atomes qui les constituent. L'énergie des atomes liés dans une molécule est beaucoup plus faible que celle des atomes séparés ; la molécule est par conséquent le système le plus stable.
3.1. La liaison covalente
La nature de la liaison est restée longtemps mystérieuse. L'Américain Gilbert Lewis, le premier, proposa en 1916, sans justifications, un modèle qualificatif intéressant : les deux atomes d’hydrogène (H) mettent en commun leur unique électron pour former une paire d'électrons, qui est responsable de la cohésion de la molécule et dite, de ce fait, paire liante.
Ce type de liaison, que Lewis a appelé liaison covalente, permet à chacun des deux atomes H partageant les deux électrons d'acquérir la structure particulièrement stable de l'hélium.
De manière générale, dans une molécule, les atomes réalisent des liaisons covalentes de manière à acquérir une structure électronique stable en octet ou en duet (règle de l’octet et du duet). Une structure en duet implique deux électrons sur la couche électronique externe K ; une structure en octet implique huit électrons sur la couche externe L ou M. Ainsi, le carbone, de symbole C et de numéro atomique 6, a pour structure électronique (K)2 (L)4 et doit réaliser 4 liaisons covalentes pour compléter sa couche L (il est dit tétravalent).
3.2. Les liaisons intermoléculaires
Les molécules sont également soumises entre elles à des forces de liaison intermoléculaires, mais celles-ci sont beaucoup plus faibles que les liaisons covalentes (de l'ordre de quelques kilojoules par mole, contre plusieurs centaines de kilojoules par mole dans le cas de liaisons covalentes), ce qui entraîne des distances intermoléculaires plus grandes que les distances interatomiques dans la molécule. Les distances d'approche, à l'équilibre, entre atomes ou molécules sont en effet d'autant plus petites que les énergies d'attraction sont plus grandes.
Ces interactions existent entre les molécules d'un gaz (non parfait) et justifient la possibilité de liquéfaction puis de solidification d'un gaz quand la température s'abaisse. En effet, le refroidissement entraîne la diminution de l'agitation thermique des molécules, d'où la possibilité de formation d'états condensés, liquide et solide. L'absence par définition de forces intermoléculaires pour un gaz parfait rendrait impossible ce processus.
Inversement, la rupture thermique de ces liaisons intermoléculaires dans le cas d'un mélange de différentes molécules permet la séparation des divers constituants. Ainsi, l'azote, l'oxygène et l'argon sont obtenus industriellement par distillation de l'air liquide. Les énergies mises en jeu, bien que suffisantes pour séparer les constituants, ne permettent cependant pas de casser les molécules. Cela peut se produire à des températures plus élevées, par exemple lors du craquage des molécules d'hydrocarbures des pétroles et lors de la dissociation des molécules de dihydrogène (H2) ; à 5 000 K, sous 1 atm, 95 % des molécules H2 sont dissociées en atomes H. Les atomes, après avoir été séparés, peuvent perdre progressivement leurs électrons (ionisation), donnant naissance, à très hautes températures (plusieurs milliers de degrés), aux plasmas, où les atomes peuvent être totalement ionisés par la perte de tous leurs électrons.
4. La représentation des molécules
4.1. La représentation de Lewis
Dans la représentation de Lewis, chaque atome est représenté par son symbole ; un doublet liant est représenté par un segment entre les symboles des deux atomes liés ; un doublet non-liant est représenté par un segment placé à côté du symbole de l’atome auquel il appartient. Ainsi, les représentations de Lewis des molécules de dihydrogène (H2) et de l’eau (H2O) sont respectivement :


4.2. Les formules développées et semi-développées
Les formules développées et semi-développées d’une molécule sont une simplification de leur représentation de Lewis :
• formule développée : on ne représente plus les doublets non-liants des atomes ;
• formule semi-développée : on ne représente plus les liaisons engageant les atomes d’hydrogène. Par exemple, une molécule de méthanol CH4O pourra être représentée comme suit :

4.3. La formule topologique
Elle permet de représenter le plus simplement possible une molécule et est particulièrement utile pour représenter des molécules comportant un grand nombre de liaisons. Les règles d’écriture d’une formule topologique sont les suivantes :
• la chaîne carbonée est représentée par une ligne brisée où chaque segment représente une liaison. Les atomes de carbone et d’hydrogène ne sont pas représentés ;
• chaque sommet de la ligne brisée représente un atome de carbone ;
• les atomes autres que ceux de carbone et d’hydrogène sont représentés par leur symbole. On représente aussi les atomes d’hydrogène auxquels ceux-ci sont liés.
Par exemple, le pentan-1-ol de formule brute C5H12O a la formule topologique suivante :
5. La structure spatiale des molécules
Les liaisons covalentes, responsables de la cohésion des molécules, sont des liaisons fortes, saturées et dirigées. La notion de force se rapporte à l'énergie de liaison.
→ énergie chimique.
Par saturation, on entend que, par exemple, l’hydrogène (H) peut s'unir à l’azote (N) pour donner NH3 mais pas NH4 ; la justification électronique de la liaison covalente proposée par Lewis rend compte de cette propriété : l’azote, de numéro atomique 7, a pour structure électronique (K)2 (L)5 et doit donc réaliser 3 liaisons covalentes pour compléter sa couche L (il est dit trivalent), d’où le composé NH3.
Le mot directivité signifie que les liaisons covalentes, unissant un atome à d'autres dans une molécule, forment entre elles des angles définis, imposant ainsi une certaine forme à la molécule.
5.1. La méthode VSEPR
La méthode VSEPR (Valence Shell Electron Pair Repulsion ou « répulsion des doublets électroniques de la couche de valence ») également appelée règle de Gillespie-Nyholm, permet de prévoir l’orientation des liaisons entre les atomes d’une molécule. Cette méthode repose sur l’hypothèse très simplificatrice (qui ne correspond pas à la réalité) que tous les doublets, liants et non-liants de la couche de valence, se positionnent à la même distance du noyau et aussi loin que possible les uns des autres de manière à minimiser leur répulsion. Ainsi, selon leur nombre, les doublets électroniques occupent les sommets de diverses « figures de répulsion » inscrites dans une sphère :
Molécules
Méthode VSEPR
nombre de doublets : 2 3 4
figure de répulsion : droite triangle équilatéral tétraèdre
angles des liaisons : 180° 60° 109,5°
Par exemple, les molécules H2O (eau), NH3 (ammoniac) et CH4 (méthane) ayant chacune autour de leur atome central quatre doublets électroniques (deux non-liants et deux liants pour H2O ; un non-liant et trois liants pour NH3 ; quatre liants pour CH4) s'inscrivent sensiblement dans un tétraèdre avec au centre les atomes O, N, C, les atomes H étant situés sur deux, trois et quatre sommets. Les angles de liaison sont donc voisins de 109,5° (104,5° pour H2O, 107° pour NH3 et 109,5° pour CH4).
5.2. La stéréochimie ou la géométrie des molécules
Benzène
En fait, bien avant la mise en évidence expérimentale de la structure des molécules, quelques chimistes avaient proposé – pour un but essentiellement mnémonique, c'est-à-dire pour représenter le mieux possible les propriétés physico-chimiques des molécules – des schémas tels que le tétraèdre pour CH4 (Achille Le Bel et Jacobus Henricus Van't Hoff) ou la forme cyclique du benzène C6H6 (August Kekulé).
Actuellement, des méthodes variées (techniques spectroscopiques, diffraction des rayons X ou des électrons, microscopie électronique) permettent de trouver la structure spatiale des molécules et, quelquefois, d'obtenir des courbes de niveau de densité électronique.
Les molécules peuvent former des chaînes, des cycles, des cages… Ces structures sont représentées par des schémas de Lewis ou, plus correctement, par des modèles moléculaires éclatés ou compacts (voir ci-dessous l’exemple de la molécule de méthane). Les modèles compacts donnent une image de la forme réelle des molécules et de l'encombrement des atomes (modélisés par des sphères) qui les constituent. Ces modèles moléculaires tridimensionnels sont très utilisés en stéréochimie.
Toutefois, en l’absence de modèles moléculaires, il est possible de représenter une molécule en 3 dimensions sur un support à deux dimensions (c’est-à-dire sur une feuille de papier ou sur un tableau noir) en utilisant la représentation de Cram. En effet, celle-ci fait apparaître les liaisons de la molécule en perspective les unes par rapport aux autres, afin de comprendre la structure dans l’espace de la molécule. Les liaisons entre les atomes sont représentées par convention de la façon suivante :
• liaison dans le plan de la feuille :
• liaison en avant du plan de la feuille :
• liaison en arrière du plan de la feuille :
Par exemple, le méthane de formule CH4 a la représentation de Cram suivante :
5.3. Les phénomènes d'isomérie
Notons que les structures des molécules peuvent justifier les phénomènes d'isomérie (la même formule brute correspondant à des composés différents). Par exemple, C4H8O2 peut être l'acide butanoïque ou un diol (isomérie de constitution). Les molécules ne sont généralement pas rigides. Avec la vibration des atomes autour de leur position d'équilibre ou la rotation de groupes d'atomes autour d'un axe de liaison (phénomènes qui se produisent toujours, sauf à 0 K), certaines molécules peuvent changer rapidement de structure. Ainsi, la molécule d'ammoniac s'inverse très rapidement, comme un parapluie par fort vent, avec une fréquence de 23,79 GHz. C'est un exemple de molécule « flexible ».
DOCUMENT larousse.fr LIEN |
|
|
|
|
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 ] Précédente - Suivante |
|
|
|
|
|
|