ecole de musique piano
     
menu
 
 
 
 
 
 

L’étude de la matière à toutes les échelles

 

 

 

 

 

 

 

 

   VIDEO       CANAL  U         LIEN

L’étude de la matière à toutes les échelles par Marie-Paule Pileni

 

Texte de la 238e conférence de l’Université de tous les savoirs donnée le 25 août 2000.


L’étude de la matière à toutes les échelles par Marie-Paule Pileni


Introduction
La matière à toutes les échelles est un vaste sujet qui nécessite une connaissance globale de la Science, ce qui est impossible de nos jours. Aussi, il est évident qu’en quelques lignes, cette approche ne peut être que partielle. On se limitera au cadre de la Chimie et nous limiterons notre propos à l’assemblage d’éléments.
Deux questions se posent : Qu’est-ce que la Matière et quelles sont les échelles ?
En ce qui concerne la matière, pour un chimiste c’est l’association d’éléments de la classification périodique. Mendeleïev a classé les atomes par ordre de numéro atomique (de masse) croissant. Il a introduit une seconde notion d’ordre, qui est la configuration de la dernière couche électronique des atomes. Ainsi, tous les atomes, le long d’une même colonne, ont le même nuage électronique externe. Il existe des orbitales atomiques de type s, p, d et f. Les atomes ayant comme dernière couche des orbitales de type d sont dits éléments de transition comme l’aluminium, le cuivre, l’argent, etc.
L’échelle peut être l’évolution temporelle ou dimensionnelle. La plus courte observée expérimentalement en chimie est la femtoseconde (10-15s). Ces études permettent une bonne compréhension du mécanisme réactionnel. Un des exemples est l’étude des mécanismes existants lors de la photosynthèse. Il existe aussi l’échelle en dimension. Pour un chimiste, la plus petite échelle est l’Angstrom. Nous considérerons donc l’évolution de la matière de l’Angstrom à quelques millimètres (0,001m).
Dans un premier temps, nous donnerons quelques définitions.
La matière organique est principalement constituée d’atomes d’hydrogène, d’azote, de carbone, d’oxygène et de phosphore. Un des assemblages le plus connu est l’ADN. Il est constitué de deux brins (collier de perles) qui s’enroulent. Chaque brin est une succession d’atomes associés par liaisons fortes dites covalentes. L’association des brins est possible grâce à des liaisons faibles.
La matière inorganique est l’association d’atomes provenant des éléments de transition.
L’état massif d’un matériau correspond à sa forme la plus stable à température ordinaire et pression atmosphérique (un lingot d’or, un collier d’or ou l’eau du robinet sont des matériaux à l’état massif).
Quand une réaction chimique est possible par les lois de la physique, il est impossible de prévoir à quel moment la réaction aura lieu. Il existe des éléments qui permettent de diminuer le temps auquel la réaction a lieu. C’est le catalyseur. À la fin de la réaction chimique, le catalyseur est restitué. On dit que la réaction est catalysée par l’élément. Le catalyseur existe en proportion infinitésimale. Prenons l’exemple du platine qui est le catalyseur le plus utilisé dans l’automobile. L’essence est un hydrocarbure (formé de carbone et d’hydrogène). Lors de sa combustion, il se forme de l’oxyde de carbone, CO, composé extrêmement toxique. L’oxydation de CO en gaz carbonique, CO2, est catalysée par du platine qui est inséré dans les pots catalytiques.
Nous chercherons à répondre à deux questions :
1) Un même assemblage d'atomes, de molécules organiques, ou d'éléments inorganiques peut-il exister à différentes échelles et qu’elles sont leurs propriétés spécifiques ?
1
2) Un assemblage organique peut-il être utilisé pour fabriquer une nouvelle entité organique ou inorganique ?
Nous traiterons tout d’abord l’assemblage inorganique puis organique. Dans chacun des cas, nous considérerons une entité isolée et nous montrerons ses propriétés spécifiques. Dans un second temps, nous associerons cette entité à elle-même et nous montrerons que ces assemblages ont des propriétés très différentes de l’entité isolée.
Assemblage d’éléments inorganiques à différentes échelles : propriétés spécifiques
L’entité isolée
L'association d’atomes permet la fabrication de matériaux solides comme des semiconducteurs, des métaux et des alliages. À l'état massif, le matériau est formé de plusieurs milliers d’atomes. Au début du siècle, la matière était principalement abordée par l’étude de l’atome. Tout n’est pas encore compris, mais nous avons à ce jour une bonne connaissance des atomes. Depuis une vingtaine d’années les chercheurs ont abordé l’étude du comportement de quelques atomes associés entre eux. De nombreuses études tant théoriques qu’expérimentales ont été entreprises. Depuis une dizaine d’années les chercheurs s’intéressent à des assemblages plus gros (de l’ordre de 100 atomes ou plus). Ceci est principalement dû au fait, qu’il est possible de les fabriquer en quantité assez grande et donc éventuellement utilisable pour les applications. Nous présentons donc, deux classes de dimensionalité. La première correspond à un assemblage dont le nombre d'atomes est inférieur ou égal à 100, la seconde classe concerne un nombre d'atomes compris entre 100 et plus de 10 000.
Trois facteurs primordiaux1 contrôlent les propriétés d’un matériau :
i) La morphologie de l’entité
ii) Le rapport du nombre d’atomes de surface sur volume. Prenons un lingot d’or et
considérons un atome en son centre. L’or cristallise selon un réseau cubique face centrée. L’atome considéré est donc entouré de 12 atomes voisins (nombre maximum de voisins). On dit que l’atome est un atome de volume et sa coordinence est 12. Si l’on considère un atome situé à la surface du lingot, il ne sera plus entouré de ses 12 voisins mais d’un nombre inférieur d’atomes. On dit que c’est un atome de surface de coordinence inférieure à 12.
iii) La dimension de l’entité gouverne ses propriétés électroniques. Elles englobent non seulement les propriétés spécifiques du matériau, tel que par exemple, l’énergie nécessaire à arracher un électron du matériau (énergie d’ionisation), les propriétés catalytiques mais aussi les propriétés optiques et magnétiques.
L’ensemble de ces facteurs intervient de façon simultanée ou consécutive. Il n’existe pas de loi générale rendant compte des propriétés spécifiques d’un matériau en fonction de sa dimension.
Entités constituées d’un nombre d’atomes compris entre 1 et 100
Un atome peut s'associer à un second pour former un agrégat constitué de deux atomes. L'association d'un troisième créé un nouvel agrégat et ainsi de suite. On peut donc fabriquer des agrégats (ou clusters) au nombre d'atomes près. La fabrication de ces agrégats
1 Henry (C.), Chapon (C.), Giorgio (S.) et Goyhenex (C.), « Chemisorption and Reactivity of clusters and thin films NATO, ASI (2000).
2
Henry (C.), Surface Science reports 31, 231,(1998).
se fait par évaporation sous vide, suivie d’une sélection en taille. L’intérêt de fabriquer de telles entités à l’atome près est surtout basé sur la compréhension de la physique fondamentale de la matière.
La morphologie de ces agrégats dépend du type de matériau qui le constitue. La figure 1 montre que, pour un même nombre d’atomes, les agrégats de platine et de palladium diffèrent par leur forme.
Du fait de la faible dimensionalité de l’agrégat et du grand nombre d’atomes de surface par rapport aux atomes de volume, les propriétés électroniques sont fortement modifiées par rapport à celles de l’état massif. Dans le cas du platine, l’énergie d’ionisation (énergie nécessaire pour arracher un électron à une entité) diminue quand la taille de l’agrégat augmente. L’agrégat reste constitué d’un faible nombre d’atomes quand il atteint le potentiel d’ionisation du platine à l’état massif.
Les propriétés catalytiques d’un agrégat augmentent avec sa taille. Cependant, il existe des limitations. Prenons comme exemple, la catalyse du mono oxyde de carbone, CO, en gaz carbonique, CO2. La quantité de CO2 augmente avec le nombre d’atomes constituant le catalyseur (c’est-à-dire avec sa taille) (Fig. 2a). Cependant, si l’on rapporte le pourcentage de molécules de CO2 produites par atome constituant le catalyseur, des discontinuités dans le rendement sont observées (Fig. 2b). L’activité est maximale pour 5, 11 et 16 atomes et
3
minimale pour 8 et 13, puis elle diminue quand le nombre d'atomes est supérieur à 16. La plupart des études faites sur différents catalyseurs montre que l'activité catalytique augmente avec la taille des agrégats, mais des discontinuités non prévisibles sont observées. Contrairement aux propriétés électroniques, il est donc impossible de déduire une loi générale de l'évolution catalytique des agrégats en fonction du nombre d'atomes.
Deux catalyseurs de nature différente (telle que le Pt et l’Or par exemple) constitués du même nombre d’atomes ont des activités très différentes. Ainsi, l'oxydation de CO catalysée par (Pt)N est bien supérieure à celle obtenue avec (Au)N. Des différences similaires, observées avec le platine et le palladium, sont attribuées à un changement de morphologie qui induit des modifications des propriétés électroniques de l'agrégat.
En conclusion, les propriétés électroniques des agrégats dépendent du nombre d’atomes le constituant. Il est à remarquer qu’il existe très peu d’applications industrielles. Les études faites dans le domaine des agrégats de 1 à 100 atomes ont eu pour but principalement la compréhension du comportement de la matière. À l’inverse, comme nous le verrons ci-dessous, le domaine d’échelle compris entre 1nm et 100nm (entre 100 atomes et plus de 100 000) présente un grand nombre d’applications potentielles.
Entité de dimension comprise entre 1nm et 100nm
La préparation de telles entités fait maintenant appel à la chimie2. Le principe est basé sur le mélange de deux composés susceptibles de réagir entre eux pour produire soit une entité insoluble (coprécipitation), soit une réduction chimique (passage d’une espèce ionique
4
2 Pileni (M.-P.), J.Phys.Chem.; 97, 6961, (1993).
à un état métal). Dans ce cas, les entités ne sont donc plus caractérisées par un nombre fixe d'atomes. Elles ont une taille moyenne donnée. Afin de fixer l’échelle, on peut rappeler qu’un agrégat de platine formé de 100 atomes correspond à un diamètre de 1,5nm. On dit alors que l’entité est un nanomatériau. La morphologie, le rapport surface sur volume et la faible dimension restent les facteurs prépondérants pour les nanomatériaux de taille inférieure ou égale à 10nm. Au-delà de cette taille, la structure cristalline ainsi que les propriétés optiques et magnétiques sont semblables à celles du massif. En ce qui concerne les propriétés catalytiques, elles restent différentes de celles du massif. Ceci est principalement dû au fait que les processus catalytiques impliquent l’adsorption des réactifs sur l’entité.
Nous présentons tout d’abord les propriétés optiques puis magnétiques et enfin catalytiques des nanomatériaux.
Les principales modifications des propriétés optiques en fonction de leurs tailles sont obtenues avec des semiconducteurs3 et des métaux4. Elles sont principalement dues à des modifications électroniques du matériau. Considérons les semiconducteurs CdS, CdSe et CdTe de même taille moyenne de 2nm. Leur spectre d’absorption dépend du type de matériau. La figure 3 montre qu’il est possible de « balayer », en absorption, tout le domaine UV-Visible. Aux grandes longueurs d’onde, une augmentation abrupte de l’absorption suivie d’un pic bien défini sont observées.
3 Lisiecki (I.), et Pileni (M;-P.), J.Amer.Chem.Soc. ; 115, 3887, (1993) ; J.Phys. Chem. ; 99, 5077
(1995).
4 Petit (C.), Lixon (P.), et Pileni (M.-P.), J.Phys.Chem. ; 97, 12974 (1993).
5
Vers les faibles longueurs d’onde, l’augmentation de l’absorption est monotone. De plus, pour un nanomatériau donné, le spectre d’absorption se déplace vers les grandes longueurs quand la taille des nanocristaux augmente5 (Fig. 4).
On dit que c’est l’effet quantique de taille. Ainsi donc, en changeant, soit la taille du nanomatériau, soit le type de matériau, il est possible d’obtenir des matériaux de couleurs différentes. L’évolution de la couleur se fait continûment de l’incolore au noir. Ceci permet un grand nombre d’applications, dont par exemple, l’incorporation du nanomatériau dans les cosmétiques permet de produire de nouveau « make up ». Les nanomatériaux ont une taille suffisamment réduite pour que la solution dans laquelle ils sont dispersés soit isotrope (transparent à la lumière). De plus, ils présentent une absorption qui disparaît brutalement. Cette propriété permet aussi de fabriquer des filtres optiques. Si l’on considère la fluorescence de ces nanomatériaux, comme l’absorption, elle se déplace vers les grandes longueurs d’onde quand la taille augmente (Fig. 4). Il est à remarquer que la bande d’émission est très étroite. Ainsi, quel que soit, la longueur d’excitation des nanomatériaux de CdTe, le spectre d’émission reste inchangé en énergie. Cette propriété s’étend à une très large gamme de semiconducteurs. Ainsi, différentes couleurs fluorescentes peuvent être observées quand on change la taille du nanomatériau. Cette propriété ouvre la voie à de nombreuses applications. Un des exemples est les traceurs en biologie. Les nanomatériaux permettent l’excitation dans un large domaine spectral mais une émission de fluorescence très précise. Il est ainsi possible,
6
5 Ingert (D.), Feltin (N.), Levy (L.), Gouzerh (P.), et Pileni (M.-P.), Adv. Materials; 11, 220, (1999).
de fixer un antigène sur le nanomatériau. Il se fixera sélectivement à son anticorps et la fluorescence du nanomatériau permet alors de détecter de façon précise la localisation de l’anticorps.
Dans le cas des métaux, les électrons sont d’autant plus confinés que la taille du nanomatériau est petite. Ceci induit une modification de la réponse optique et se traduit par un changement du spectre d'absorption6. Les nanomatériaux de cuivre, dispersés en solution présentent un spectre d’absorption monotone pour des matériaux de petites tailles. L’augmentation de la taille des nanomatériaux induit l’apparition d’un pic d’absorption qui est d’autant plus prononcé que la taille des nanocristaux est grande, pour atteindre (vers 10nm) les propriétés optiques de cuivre massif. Des résultats similaires sont obtenus avec l'argent ou l'or. À nouveau, les nanomatériaux métalliques peuvent être utilisés non seulement comme filtres mais aussi dans le domaine des cosmétiques. Le caractère semiconducteur ou métallique de ces nanomatériaux permet d’espérer des propriétés électroniques utilisables en micro électronique.
Passons maintenant aux nanomatériaux magnétiques. Chaque atome constituant le nanocristal présente un moment magnétique. En première approximation, le moment magnétique de la particule est la somme des moments magnétiques de l’ensemble des atomes le constituant. Ainsi, le nanocristal peut être assimilé à un « macro » moment magnétique. L’énergie magnétique est du même ordre de grandeur que l’énergie thermique. Sous l’action d’un champ magnétique, le macro moment s’oriente. Dès la rupture du champ appliqué, les nanomatériaux perdent leur orientation. Ceci se traduit par une courbe de magnétisation ne présentant pas d’hystérésis. Néel7 a défini un tel processus comme un comportement superparamagnétique., qui ne permet pas d’utiliser les nanomatériaux pour la lecture magnétique.
En ce qui concerne les propriétés catalytiques, elles sont régulées par le nombre de cycles (turnover) qui est en fait le rapport de la vitesse de réaction par élément de surface. L'activité et la sélectivité d'un catalyseur dépendent non seulement de la nature de ce dernier, mais aussi des énergies mises en jeu lors de l’adsorption des réactifs et des produits. Il est donc impossible de prédire le comportement d'un catalyseur en fonction de sa taille.
En conclusion, l’évolution de la dimensionalité induit des changements optiques importants qui permettent non seulement la recherche des processus fondamentaux mis en jeu, mais aussi de nombreuses applications. À l’inverse, le comportement magnétique dans le domaine de taille ne permet pas d’envisager des applications. En ce qui concerne les propriétés catalytiques, elles dépendent du type de catalyseur utilisé et aussi de l’énergie d’adsorption des réactifs. Au-delà de 10nm, ces nanomatériaux présentent des propriétés tant optiques que magnétiques semblables à celles des mêmes éléments à l’état massif. La Figure 5 résume les différents facteurs mis en jeu quand les éléments sont considérés comme isolés. Nous chercherons à assembler ces nanomatériaux à l’échelle de quelques millimètres de façon à rechercher les propriétés collectives dues à cet assemblage.
6 Lisiecki (I.), et Pileni (M;-P.), J.Amer.Chem.Soc. ; 115, 3887, (1993) ; J.Phys. Chem. ; 99, 5077 (1995).
Petit (C.), Lixon (P.), et Pileni (M.-P.), J.Phys.Chem. ; 97, 12974 (1993).
Taleb (A.), Petit (C.) et Pileni (M.-P.), Chemistry Materials, 9, 950 (1997).
7 Neel (L.) Ann.Geophys. ; 5, 99, (1949) ; C.R.Acad.Sciences Paris, 252, 4075, (1961) ; 253, 9, (1961) ;
7
253, 203, (1961) ; 253, 1286, (1961).
Assemblage de nanomatériaux
Pour assembler des nanomatériaux, il faut tout d’abord les « habiller » par de longues chaînes hydrocarbonées (ou encore entourées de cheveux), (Fig. 6). Du fait de la présence de ces chaînes hydrocarbonées, ce matériau peut être dispersé dans un solvant non polaire (tel que l'huile). À faible concentration de particules, il peut être considéré comme isolé dans un solvant.
8
Dans ces conditions, les propriétés physiques (optiques, magnétiques, etc.) seront celles du nanomatériau lui-même. Si l’on dépose une goutte de cette solution de particules sur un support, le solvant s’évapore. Les chaînes vont avoir tendance à s’interpénétrer et s’auto- un support, le solvant s’évapore. Les chaînes ont alors tendance à s’interpénétrer et s’auto- organiser en réseau hexagonal compact (Fig. 6), (comme des oranges sur l’étal d’un marchand). Cette auto-organisation se produit sur de longues distances (plusieurs micromètres)8. Une question se pose alors : Les propriétés optiques de cet assemblage sont- elles identiques à celles des nanomatériaux isolés ? Dans l’hexane, le spectre d’absorption des nanocristaux d’argent est caractérisé par une bande de résonance centrée à 2,9eV. Quand les nanocristaux sont auto-organisés chacun d’eux est soumis à l'influence de ses voisins. Une nouvelle absorption apparaît à haute énergie9 . Le spectre d’absorption des nanomatériaux auto-organisés diffère donc considérablement de celui de ces mêmes particules isolées. Ceci est dû à des interactions dipolaires induites sous l’effet de la lumière10. Cette nouvelle absorption à haute énergie n’est observable que si les nanomatériaux sont organisés en réseau hexagonal compact. Ainsi, le mode d’organisation des nanomatériaux d’argent joue un rôle primordial sur les propriétés optiques de l’assemblage. Du point de vue pratique, les particules isolées peuvent jouer le rôle de filtre dans une gamme d’énergie comprise entre 2.5eV et 3eV alors qu’auto-organisées en réseau hexagonal compact le filtre s’étend de 2,5eV à 5eV. Ainsi l’auto-organisation permet de moduler les propriétés optiques de l’argent. Si, maintenant, la quantité de particules (ou oranges) augmente, elles vont s'empiler couche par couche. Quand le nombre de couches empilées est de l’ordre de 4, il est possible d’observer la symétrie 4-4 (les nanomatériaux sont au sommet de carrés accolés les uns aux autres) (Fig. 7a). Considérons une structure cubique face centrée (Fig. 7b) et jetons un œil sur la structure vue de haut du cristal. On peut voir non seulement des atomes dans le plan, mais aussi ceux hors du plan. Cet ensemble forme un carré (Fig. 7b). Cette organisation sous forme de carré est donc la signature d'une phase cristalline de type cubique face centrée11. L’assemblage est maintenant un « cristal » similaire à celui du sel de cuisine (ou chlorure de sodium) ou les atomes de sodium et de chlorure sont remplacés par des nanomatériaux.
9
8 Motte (L.), Billoudet (F.) et Pileni (M.-P.), J. Phys. Chem. ; 99, 16425, (1995).
Motte (L.), Billoudet (F.) et Pileni (M.-P.), Advanced Materials, 8, 1018, (1996).
9 Taleb (A.), Petit (C.) et Pileni (M.-P.), J.Phys.Chem. ; 102, 2214, (1998).
Taleb (A.), Russier (V.), Courty (A.) et Pileni (M.-P.) Phys.Rev B 59, 13350 (1999).
10 Russier (V.), Petit (C.), Legrand (J.) et Pileni (M.-P.) Phys. Rev.B 62, 3910, (2000).
11 Motte (L.), Billoudet (F.), Douin (J.), Lacaze (E.) et Pileni (M.-P.), J.Phys.Chem. ; 101, 138, (1997).
Par les techniques décrites ci-dessus, il est possible d’obtenir, soit des nanomatériaux isolés, soit organisé selon un réseau hexagonal compact (2D) ou selon une structure cubique face centrée (3D). À l'aide d'une pointe de microscopie à champ proche, il est possible de mesurer le courant qui passe à travers les nanocristaux (entre la pointe et le support). Quand elle est isolée sur un support, il n'y a pas transport de courant (on dit qu'il y a blocage), quand ces mêmes particules sont organisées à 2D, seule une faible partie du courant passe, alors qu'à 3D, le courant passe. L'organisation des nanoparticules créée un interrupteur nanométrique avec passage ou non du courant12. Cette propriété présente des applications potentielles importantes. C’est le premier exemple susceptible de montrer que les nanomatériaux, selon leurs organisations, peuvent être utilisés comme interrupteur. Pour ce faire, il faudra être capable d’organiser et désorganiser le système sur une échelle de temps très réduite.

Assemblages de molécules organiques
Il existe différents assemblages possibles13. Dans cette présentation, nous retiendrons l’assemblage de tensioactifs. Ce sont des molécules constituées d'une tête polaire hydrophile (attirée par l'eau) et d'une chaîne hydrocarbonée hydrophobe (attirée par l'huile). C’est en fait du savon. Si l'on tente de solubiliser un tensioactif dans l'eau, les chaînes ont tendance à
12 Taleb (A.), Silly (F.), Gusev (A.-O.), Charra (F.) et Pileni (M.-P.) Adanced Materials 12, 633, (2000). 13 Stupp (S.-I.), Son (S.), Lin (H.C.) et Li (L.-S.).; Science, 252, (1993) 59.
De la matière au vivant : Les systèmes moléculaires organisés ed CNRS (1994).
10
s'associer les unes aux autres pour former différents agrégats14. La forme du tensioactif joue un rôle considérable sur la formation de l’assemblage.
Si les molécules de tensioactifs ont une tête polaire très large et une petite chaîne le tensioactif a alors une forme de cône (ou cornet de glace), les chaînes ont tendance à s'associer entre elles et former un agrégat sphérique que l'on appelle micelle directe (Fig. 8). Elle est en général, composée d'une centaine de tensioactifs. Quand la micelle directe est formée à très faible concentration, elle est sphérique et sa dimension, fixée par la longueur de la chaîne hydrocarbonée et par la taille de la tête polaire, est de l'ordre 100Å. La taille de la micelle directe est augmentée par addition d’huile qui a pour but d’accroître le volume de l’agrégat. Pour maintenir la stabilité de l’édifice, une augmentation de la contribution polaire de l’interface est nécessaire. Elle est apportée par addition d’alcool peu soluble dans l’eau et l’huile. Le rapport relatif de l’alcool et de l’huile ajoutés est donc très important. L’agrégat porte alors le nom de microémulsion (Fig. 8).
11
14 De la matière au vivant : Les systèmes moléculaires organisés ed CNRS (1994).
Si le tensioactif a la forme d'un bouchon de champagne (petite tête polaire et chaînes hydrocarbonées ramifiées) (Fig. 8), les têtes polaires s'associent entre elles20. On a alors affaire à une micelle inverse (Fig. 8), qui est un agrégat sphérique. Contrairement à la micelle directe, sa dimension est variable. Elle dépend de la quantité d'eau ajoutée au système et varie de 40 à 180 Å. Comme pour les micelles directes, il est possible d’ajouter de l’alcool pour fabriquer des microémulsions de taille comprise entre 50 et 300 Å.
Si l'on ajoute trop d'eau à cette solution de micelles inverses, le système évolue ainsi que sa dimensionalité. Il se forme soit des assemblages ressemblant à une éponge, soit à des canaux d'eau interconnectés15. Dans ce dernier cas, l'espace est divisé en deux sous volumes égaux et régulièrement imbriqués de sorte qu'en tout point, la surface a une forme de selle de cheval. On dit qu'il se forme des cylindres interconnectés. Ce sont des structures bi-continues, à la fois en eau et en huile. Un ajout supplémentaire d’eau induit une nouvelle transition de phase. Le système devient opalescent et biréfringent (la lumière est éteinte entre deux polariseurs croisés). Il se forme alors une phase lamellaire. Les molécules de tensioactifs s’organisent comme un film plan (Fig. 8).
L’addition supplémentaire d’eau induit une démixion. Il n’y a plus assez de tensioactif pour couvrir l’interface eau-huile. Après agitation, la solution est trouble. C’est une émulsion. Elle se forme et disparaît dès que l’agitation cesse. Le système transite et une séparation de phase eau-huile apparaît. La taille de l’émulsion est de l’ordre du micromètre. Pour une émulsion d’un micromètre, la surface de contact entre l’eau et l’huile est de 1m2. Il n’y a plus assez de tensioactifs pour couvrir l’interface. Un phénomène identique se produit en mélangeant de l’huile et du vinaigre. Dès que l’agitation cesse, le vinaigre et l’huile se séparent. Cependant si on ajoute un jaune d’œuf (comprenant une lécithine qui est un tensioactif) et de la moutarde (qui est aussi un tensioactif) l’émulsion formée reste stable pendant plusieurs heures. Cependant si l’on met cette émulsion au frigidaire, plusieurs phases apparaissent. Même s’il est remis à température ordinaire, on n’obtiendra plus l’émulsion initiale. Le système est dit instable.
Ainsi donc, la micelle directe a une taille fixée par la chaîne et la tête polaire du tensioactif. La micelle inverse (gouttelettes d’eau dans l’huile) voit sa taille augmenter de 2nm à 18nm. Ces deux types d’agrégats sont sphériques. Par augmentation des quantités d’eau, il est possible de transiter vers des phases éponges ou cylindres interconnectés ou encore des émulsions. Selon les conditions expérimentales, l’association de tensioactif permet l’évolution du système dans un domaine de dimensionalité qui varie de 10Å à plus de 10 000Å (Fig. 8).

Récemment, il a été démontré qu’un système tensioactif-huile-eau peut former une émulsion stable16. C’est en fait un « supra agrégat ». Il contient des cylindres interconnectés dans sa phase interne et externe. En effet, une phase lamellaire (les tensioactifs s'organisent comme des lamelles) qui n’est plus plane mais forme un oignon (ou sphérulite). À l'intérieur de celui-ci, on retrouve une phase de cylindres d'eau interconnectés. Ainsi, la phase oignon contient d'autres types d'agrégats (cylindres interconnectés). Cette configuration est très favorable du point de vue énergétique. La présence des cylindres interconnectés augmente la quantité d'interfaces nécessaires pour rendre l'émulsion stable. La formation de ces émulsions peut s'expliquer par des considérations géométriques liées à la morphologie du tensioactif.
15 Clichés de cryofractures fournis par Dr ; T. Gulik du Centre de Génétique Moléculaire à Gif sur Yvette.
16 André (P.), Filankembo (A.), Lisiecki (I.), Petit (C.), Tanori (J.), Gulik-Krzywicki (T.), Ninham (B.- W.) et Pileni (M.-P.) Advanced Materials, 12, 119, (2000).
12
Un assemblage de molécules organiques peut-il permettre la fabrication de nouveaux matériaux organiques ou inorganiques ?
En d’autres termes, un assemblage de molécules organiques peut-il être considéré comme un nanoréacteur ou encore une nanousine ?
Considérons des micelles inverses qui sont des gouttelettes d'eau dans huile (Fig. 8), dont la taille varie continûment selon la quantité d’eau ajoutée. Dispersées dans l’huile ces gouttelettes se déplacent de façon aléatoire. On dit qu’elles sont soumises au mouvement Brownien. Lors des collisions, elles échangent leur contenu aqueux pour reformer deux micelles distinctes (Fig. 9)17. Ces deux propriétés (taille et échange des contenus aqueux) permettent de les utiliser comme nanoréacteurs de tailles variables.
Soit deux réactifs A et B, l’un soluble dans l’eau et le second dans l’eau ou l’huile. Lors des échanges de cœur, A et B sont mis en contact et réagissent. Ainsi, il est possible
13

Pour illustrer l’utilisation de ces nanoréacteurs nous décrivons ci-dessous différents types de réactions :
i) Une réduction chimique : La réduction d’un cuivre permet la fabrication de nanocristaux de cuivre. La taille des nanocristaux augmente avec la taille du nanoréacteur. Il est intéressant de noter qu'un tel nanoréacteur permet d'obtenir des matériaux métalliques très oxydables sans que la présence d'oxyde soit détectable
ii) Une réaction entre un matériau inorganique et une molécule organique :
Il est possible d'attacher des « cheveux » (ou longues chaînes hydrophobes) sur des nanocristaux inorganiques. Après synthèse du nanomatériau en micelles inverses, un dérivé thiol (R-SH) est ajouté à la solution micellaire. Il y a alors réaction entre les atomes à l’interface du nanomatériau et le groupement SH. Si le groupement R est une longue chaîne hydrocarbonée, le nanocristal est alors entouré de « cheveux ». Il suffit alors de casser les micelles inverses pour récupérer des nanocristaux « habillés » (Fig. 6) sous forme de poudre et de les disperser dans un solvant non polaire (huile).

La plupart des protéines et les enzymes se dénaturent en présence d’huile. Il est cependant possible de les mettre en contact si l’on utilise les micelles inverses. La macromolécule est solubilisée dans la gouttelette. Le tensioactif joue alors le rôle de bouclier et la protège de toute dénaturation. Le nanoréacteur permet alors de modifier chimiquement la macromolécule et de la rendre hydrophobe sans pour autant la dénaturer.
Ainsi, les micelles inverses peuvent fabriquer des nanocristaux inorganiques sphériques. Elles sont aussi capables de modifier chimiquement des macromolécules. Ce dernier procédé est d'une grande importance pour la biotechnologie.
Une nouvelle question peut maintenant se poser. Les autres types d’assemblages décrits en Figure 8, peuvent-ils se comporter comme des nanoréacteurs ?

Cette approche ne peut concerner que les matériaux inorganiques. Dans les systèmes interconnectés, il est possible d'obtenir des cylindres de cuivre métal20 (Fig. 10). L’addition de chlorure de sodium (NaCl) favorise la formation de longs « bâtons » de cuivre21 de 1μm de long et de 20nm de large22. Ces bâtons sont caractérisés par une grande cristallinité avec des plans réticulaires bien définis23. Si l'on remplace le chlorure de sodium par du nitrate de sodium (un nouveau sel dit spectateur), seules des sphères sont observées24 . L'addition d'autres sels provoque aussi des modifications très importantes dans la structure du matériau, alors que sa forme n'a pas changée. Ceci est attribué à des modifications de la structure de l'eau à l'intérieur de la microphase.

14
15
Conclusion
L’échelle en dimension joue un rôle considérable sur le comportement de la matière. Pour des agrégats composés d’un nombre d'atomes inférieurs à 100, à la modification de la morphologie, s’accompagnent les changements des propriétés électroniques et vice-versa. L’activité catalytique est aussi directement liée aux propriétés électroniques de l’agrégat. Dans ce dernier cas, il faut aussi tenir compte de l’énergie d’adsorption des réactifs et des produits sur l’agrégat. Bien qu’un grand nombre d’études aient été entreprises, il n’existe pas de loi générale susceptible de prédire la forme de l’agrégat, les modifications de ses propriétés électroniques et catalytiques. Ceci montre la diversité de la matière et la difficulté qu’ont les chimistes et les physiciens à comprendre son comportement. Quand le nombre d’atomes de l’agrégat augmente, il est possible d’observer des lois générales, telles que l’effet quantique de taille des semiconducteurs ou les modifications optiques des métaux de tailles inférieures à 10nm, sans oublier le comportement superparamagnétique des nanomatériaux magnétiques. Cependant, il est impossible de trouver des lois générales en ce qui concerne la catalyse. Ceci est dû, non seulement aux changements des propriétés électroniques du matériau, mais aussi, aux processus cinétiques induits par la reconstruction de la surface. Celle-ci est à nouveau directement liée aux propriétés de chimisorption des réactifs, mais aussi, des produits sur la surface du nanomatériau. Au-delà de 100nm, les propriétés physiques du matériau sont similaires à celles du massif. En ce qui concerne, les propriétés catalytiques, seuls les phénomènes cinétiques avec reconstruction des surfaces restent des processus dominants. L’association des nanocristaux sur longue distance, permet d’observer des propriétés physiques différentes de celles de la particule isolée et de celles du matériau massif. Chaque nanocristal est influencé par ses voisins. Nous avons pu aussi montrer l’existence de propriétés collectives tant optiques que magnétiques, mais aussi, de transport
électronique. Les processus d’auto-association sont aussi observés avec des molécules organiques qui ont des groupes fonctionnels différents. Il peut s’agir d’une différence de solubilité comme dans le cas des tensioactifs ou encore des différences de réflexibilités. L’association de ces molécules permet d’obtenir des agrégats dont la taille peut varier de plusieurs ordres de grandeurs. Nous avons aussi montré, que les systèmes colloïdaux permettent de fabriquer des nanocristaux différents par leur dimensionalité. Ils permettent aussi de modifier chimiquement des macromolécules. Cette présentation est bien sûr, très limitée, par rapport à la chimie, mais montre qu’un même élément peut être présenté sous différentes formes et que ses propriétés diffèrent de façon considérable.
Référence
Heiz (U.), et Schneifer (W.-D.), Metal clusters and dots ed. Meiwes-Broer (K.-H.) Spring Verlag (1999).
Taleb (A.), Petit (C.) et Pileni (M.-P.), J.Phys.Chem. ; 102, 2214, (1998).
Taleb (A.), Russier (V.), Courty (A.) et Pileni (M.-P.) Phys.Rev B 59, 13350 (1999). Stupp (S.-I.), Son (S.), Li (L.), Lin (H.C.) et Keser (M.), J.Amer.Chem.Soc.; 117,
5252, (1995).
Légendes
Figure 1. Comparaison de la forme d'agrégats de platine et de palladium constitués d'un nombre déterminé d'atomes.
Figure 2. Évolution comparée du rendement de production de CO2 catalysés par du platine ou de l'or en fonction du nombre d'atomes constituant l'agrégat (A). Même évolution rapportée au nombre d'atomes (B).
Figure 3. a) Spectre d'absorption de nanocristaux de 2nm de semi-conducteurs de type II-VI (CdS, CdSe et CdTe).
b) Évolution de la largeur de bande interdite pour des nanocristaux de même taille moyenne mais différant par leur nature propre.
Figure 4. Spectre d'absorption et d'émission de fluorescence de nanocristaux de CdTe différant par leurs tailles.
Figure 5. Résumé des différents facteurs physiques responsables des changements des propriétés en fonction de la taille du matériau.
Figure 6. Schéma de nanocristaux « habillés » par des cheveux qui s'interdigitent lors de l'évaporation du solvant.
Figure 7. Multicouche de nanocristaux d'argent en réseau 4x4 (a) et Réseau cubique face centrée (b).
Figure 8. Évolution de la taille d'agrégats fabriqués à partir de tensioactifs.
Figure 9. Processus d'échange des micelles inverses.
Figure 10. Cylindres de cuivre obtenus dans une phase de cylindres interconnectés.
16

 

 
 
 
 

La course à la lumière lente

 

 

 

 

 

 

 

La course à la lumière lente

Franck Daninos dans mensuel 371
daté janvier 2004 -

Ralentir la lumière à quelques mètres par seconde semblait jusqu'à présent n'intéresser que les physiciens fondamentaux. La simplification considérable de ces expériences, dont un résultat témoigne en mars 2003, ouvre aujourd'hui des perspectives d'applications pratiques.

La vitesse de la lumière est l'une des constantes fondamentales de l'Univers. C'est la borne maximale sur laquelle bute irrémédiablement toute tentative d'accélération des particules élémentaires. Ce principe fondateur de la physique moderne, énoncé par Albert Einstein il y a bientôt cent ans dans le cadre de la théorie de la relativité restreinte, n'a jamais été remis en question : les ondes électromagnétiques se propagent dans le vide aux environs de 300 000 kilomètres par seconde.
En revanche, quand ces mêmes ondes traversent un autre milieu, leurs interactions avec la matière qui le constitue les ralentissent. Chaque milieu transparent est ainsi caractérisé par un « indice de réfraction », qui dépend du type d'atomes qui le composent, de leur arrangement et de la fréquence de la lumière considérée. Plus l'indice de réfraction est grand, plus la lumière est ralentie. Elle se propage toutefois à des vitesses encore phénoménales : 225 000 kilomètres par seconde dans l'eau, 200 000 kilomètres par seconde dans le verre ! Dans le diamant, qui affiche l'un des plus grands indices de réfraction, cette vitesse est encore de 125 000 kilomètres par seconde.
Pour certains physiciens, c'est encore trop. Depuis quelques années, ils se livrent en effet à une étonnante compétition : ralentir la lumière le plus possible, voire l'arrêter entièrement ! Leurs motivations ? Avant tout, faire progresser la physique fondamentale : maîtriser à ce point l'un des objets les plus évanescents de la nature nécessite une compréhension très fine des phénomènes mis en jeu. Un attrait pour la performance aussi : les physiciens, comme les sportifs, sont amateurs de records. Enfin, ils ne manquent jamais, dans leurs articles, d'évoquer d'éventuelles applications, en particulier dans le cadre d'ordinateurs optiques où les informations seraient transportées et stockées sous forme de photons plutôt que d'électrons. Mais les conditions dans lesquelles étaient réalisées jusqu'à présent ces expériences de ralentissement de la lumière, difficilement transposables à des appareils industriels, discréditaient quelque peu ce type de propositions : installations complexes, températures extrêmement basses, etc. Les choses ont changé en mars 2003 : Robert Boyd, de l'université de Rochester, a ralenti la lumière à la vitesse de 57 mètres par seconde dans un simple cristal de rubis et à température ambiante [1].

À la vitesse d'un coureur cycliste !
La course à la « lumière lente » a été médiatisée par Lene Vestergaard Hau, de l'université de Harvard. En 1999, elle stupéfiait le monde entier en ralentissant une impulsion lumineuse à seulement 17 mètres par seconde, soit environ 61 kilomètres à l'heure : moins vite qu'un coureur cycliste bien entraîné [2]. La comparaison, présentée en couverture de la revue Nature, est largement reprise par la presse internationale. Émues par le succès médiatique, d'autres équipes tentent alors de reproduire les expériences de Lene Hau, voire de faire mieux. Mais ce n'est pas si simple. La physicienne américaine ralentit en effet la lumière en lui faisant traverser un condensat de Bose-Einstein, gaz refroidi à quelques nanokelvins où les atomes sont indifférenciés. Ce type de milieu a été fabriqué pour la pre- mière fois seulement quatre ans auparavant, et son utilisation exige une maîtrise technique encore peu répandue.
Les records se succèdent
Forts de leur avance, Lene Hau et ses collaborateurs battent leur propre record en 2000, en atteignant moins de 0,5 mètre par seconde. Puis, en 2001, nouvelle perfor- mance : ils stoppent une impulsion lumineuse pendant quelques millisecondes, avant de la faire repartir [3]. Mais, déjà, ils ne sont plus seuls. Un autre groupe de l'université de Harvard, dirigé par Ron Walsworth, illustre le même phénomène presque simultanément. Surtout, l'expérience de Walsworth est plus simple que celle de Hau : le milieu « ralentisseur » de la lumière est une vapeur de rubidium, certes refroidie à 80 kelvins, mais nettement plus facile à fabriquer qu'un condensat de Bose-Einstein [4].
En 2002, suivant la même voie, une équipe du MIT et un laboratoire de l'US Air Force franchissent une nouvelle étape dans la simplification. Ils stoppent temporairement une impulsion lumineuse dans un solide : un alliage métallique refroidi à 5 kelvins [5]. Ralentir fortement la lumière ou l'arrêter n'est donc pas aussi difficile que les premières expériences le laissaient paraître. Les résultats obtenus par Robert Boyd l'ont confirmé : les basses températures ne sont même pas nécessaires. En fait, les principes physiques à la base de ces réalisations étaient connus depuis une trentaine d'années. Personne, simplement, n'avait pensé à les conjuguer dans cette perspective.
Le premier de ces principes repose sur la physique de la propagation des ondes dans les milieux matériels. Quelle que soit la qualité d'une source lumineuse, lorsqu'elle émet une impulsion courte, celle-ci est forcément constituée d'un ensemble d'ondes de fréquences légèrement différentes. Dans un milieu où l'indice de réfraction dépend de la fréquence, ces ondes se propagent à des vitesses différentes. Elles se superposent donc et interfèrent entre elles, recomposant une impulsion que l'on nomme aussi un « paquet d'ondes » et dont la vitesse de propagation est nommée « vitesse de groupe ». Or, des calculs de propagation d'ondes ­ historiquement établis par les physiciens Arnold Sommerfeld et Léon Brillouin au milieu du XXe siècle ­ montrent que cette vitesse de groupe devient très faible lorsque l'indice de réfraction varie très fortement en fonction de la fréquence. Conclusion : pour qui veut ralentir la lumière, il faut trouver une fréquence autour de laquelle la variation de l'indice est maximale.
Une telle fréquence existe dans la plupart des milieux : on l'appelle « fréquence de résonance », et elle correspond à l'absorption totale des ondes lumineuses par les atomes du milieu. Ainsi, la fréquence la plus favorable au ralentissement de la lumière est celle à laquelle la lumière... ne se propage pas ! Comment s'affranchir de cette difficulté ?
La réponse résidait dans une découverte de physique quantique tout à fait indépendante. Dans les années soixante-dix, Gerardo Alzetta, Adriano Gozzini et Gaspar Orriols, de l'université de Pise, remarquent que, si les fréquences d'un laser accordable correspondent aux transitions énergétiques très fines des atomes de sodium, ces derniers perdent leur capacité à absorber la lumière [6]. Ils nomment ce phénomène « piégeage cohérent de population ». Mais la lumière lente n'étant pas encore au goût du jour, ils ne réalisent pas le parti qu'ils pourraient tirer de leur découverte.

Le condensat, milieu idéal
C'est Steve Harris, de l'université Stanford, qui en a l'idée en 1990. Reprenant et améliorant les expériences des Italiens sur d'autres systèmes, il rebaptise le phénomène « transparence induite par électromagnétisme » TIE [7]. Pour cela, les matériaux doivent afficher la propriété quantique suivante : posséder deux fréquences de résonance assez éloignées. Deux voies d'excitation sont donc possibles. Les lois de la mécanique quantique disent que si deux voies coexistent pour conduire un système dans un même état énergétique, celles-ci interfèrent et, finalement, aucune excitation ne se produit. Avec un premier laser, les atomes sont conduits dans un état énergétique plus élevé. La lumière est absorbée. Un second laser illumine ensuite les atomes à la seconde fréquence de résonance. Résultat : le milieu devient transparent pour le premier laser lire encadré ci-dessus. Pour arrêter la lumière, il suffit d'éteindre progressivement le second laser. La lumière est alors entièrement stockée dans le milieu. Le rétablissement du second laser fait repartir cette lumière absorbée.
Ainsi, en 1995, dans une vapeur de plomb très dense, Harris parvient à diviser par un facteur 165 la vitesse de la lumière [8]. L'année 1995 est marquée par un autre événement, plus remarqué : la fabrication des premiers condensats de Bose-Einstein [9]. Lene Hau, bien que théoricienne, s'intéresse de près à ce nouvel état de la matière et, en quelques années, en acquiert la maîtrise expérimentale. Aussi, lorsqu'elle prend connaissance des travaux de Steve Harris, à la fin 1997 dans une conférence que celui-ci vient donner à Harvard sur la TIE, l'idée d'appliquer cette technique au condensat émerge assez naturellement. Serait-il possible de rendre transparent un condensat par TIE, s'interroge Lene Hau ? Cet état de la matière permettrait-il de réduire plus encore la vitesse de groupe, se demande Steve Harris avec un intérêt équivalent ? Les deux physiciens s'entendent alors pour une collaboration qui conduira, grâce à un condensat d'atomes de sodium, aux records déjà mentionnés.
À très basse température, les mouvements atomiques sont très faibles : les niveaux énergétiques du sodium sont donc tous quasi équivalents au regard d'une onde électromagnétique. C'est pour cela que la technique TIE est si efficace dans un condensat. Rapidement, d'autres systèmes aux fréquences de résonance mieux séparées ­ et donc moins sensibles aux mouvements atomiques ­ sont identifiés, ce qui a permis de s'émanciper des atomes froids pour ralentir la lumière.

Robert Boyd, quant à lui, a utilisé une technique légèrement différente. Lorsqu'il prend connaissance, en 1999, des résultats spectaculaires de Lene Hau et de Steve Harris, une expérience qu'il avait réalisée une vingtaine d'années auparavant dans le rubis lui revient en mémoire [10]. Un autre effet quantique, appelé « oscillation cohérente de population », peut amener un matériau à devenir transparent pour certaines fréquences. Le phénomène a été prédit pour la première fois dans les années soixante à l'occasion des premières études sur les rayonnements laser [11]. Boyd a alors l'idée d'utiliser ce phénomène décrit depuis de nombreuses années pour ralentir la lumière.
Le rubis est rouge car il absorbe les couleurs vertes et bleues qu'il reçoit. En l'éclairant avec un laser vert assez intense, on peut saturer les ions chrome qui lui donnent sa couleur rouge. Un second laser, dit « sonde » et de fréquence très proche, est ensuite émis dans le rubis. L'interaction des deux lasers créé une onde résultante qui, par des battements de forte amplitude, conduit les atomes à osciller à son rythme. L'une des conséquences est que le laser sonde n'est plus absorbé par le rubis, même s'il est de couleur verte. Il continue sa course mais à vitesse très réduite.
Ce dispositif conduira-t-il rapidement à des applications ? C'est bien sûr ce que laisse entendre Boyd dans le communiqué qui annonce sa découverte, où il ne se prive pas de railler les autres techniques : « Les condensats constituent la manière la plus compliquée de ralentir la lumière. Nous l'avons quant à nous réalisé de la manière la plus simple. Nous pouvons ralentir la lumière dans un espace qui correspond à celui d'un ordinateur, et le dispositif est extrêmement facile à fabriquer. » Ce que confirme Christoph Westbrook, de l'institut d'optique d'Orsay : « Les expériences de Boyd étonnent effectivement par leur simplicité. D'ailleurs, si un jour la lumière lente trouve le chemin des applications, ce seront probablement les siennes qui seront utilisées. » Mais sans doute fallait-il recourir d'abord à des méthodes complexes pour convaincre les physiciens qu'il est finalement assez banal d'aller plus vite que la lumière, puisque celle-ci peut aller aussi lentement qu'on le souhaite. F. D.

EN DEUX MOTS
En mars 1999, à Harvard, Lene Hau étonne le monde entier en ralentissant la lumière à 17 mètres par seconde dans un gaz d'atomes très froid. Depuis, plusieurs équipes se sont attaquées au même objectif, tout en essayant de simplifier les dispositifs expérimentaux : réchauffement du gaz, utilisation d'un milieu solide. En se fondant sur des principes physiques qui sont légèrement différents, un autre physicien américain, Robert Boyd, a marqué un point décisif en 2003 : il est parvenu à ralentir la lumière dans un solide et à température ambiante.

[1] R. Boyd et al., Phys. Rev. Lett., 90, 113903, 2003.
[2] L. Hau et al., Nature, 397, 594, 1999.
[3] C. Liu et al., Nature, 409, 490, 2001.
[4] D. Phillips et al., Phys. Rev. Lett., 86, 783, 2001.
[5] A. Turukhin et al., Phys. Rev. Lett., 88, 023602, 2002.
[6] G. Alzetta et al., Il Nuovo Cimento, 52 B, 209, 1979.
[7] S. Harris et al., Phys. Rev. Lett., 64, 1107, 1990.
[8] A. Kasapi et al., Phys. Rev. Lett., 74, 2447, 1995.
[9] Chris Westbook, Philippe Bouyer et Cécile Michaut, « Le laser à atomes », La Recherche, septembre 2003, p. 40.
[10] L. Hillman et al., Opt. Comm., 45, 416, 1983.
[11] S. Schwartz et al., Appl. Phys. Lett., 10, 4, 1967.

LA TRANSPARENCE INDUITE PAR ÉLECTROMAGNÉTISME
Pour produire de la lumière lente, le phénomène le plus couramment utilisé est celui de la transparence induite par électromagnétisme. Il s'agit de rendre transparent un milieu opaque, en l'éclairant aux longueurs d'onde proches de la résonance par des rayonnements laser. Pour ce faire, le milieu doit afficher une structure énergétique à trois niveaux, comme l'illustre le graphique ci-contre : A et B sont deux états énergétiques fonda- mentaux, qui caractérisent le système au repos ; C correspond à un niveau énergétique excité. Quand on éclaire le système avec un rayonnement correspondant à la transition énergétique A-C, les électrons passent du niveau A au niveau C. Le chemin B-C est également possible si l'on éclaire le système avec un rayonnement correspondant à la transition énergétique B-C. Quand on stimule simultanément les deux chemins, les transitions s'annulent par interférences destructives. Finalement, le système n'absorbe plus les ondes du premier laser, qui continuent leur course.

SAVOIR
Steve Harris,
Physics Today,
juillet 1997, p. 36.
Lene Vestergaard
Hau, Physics World,
septembre 2001, p. 35.
Robert Boyd,
Progress in Optics, 43,
499, 2002.

 

DOCUMENT      larecherche        LIEN

 
 
 
 

MOLÉCULE

 

 

 

 

 

 

 

molécule
(latin moles, masse, avec l'influence de corpuscule)

Cet article fait partie du dossier consacré à la matière.
Particule formée d'atomes et qui représente, pour un corps pur qui en est constitué, la plus petite quantité de matière pouvant exister à l'état libre.

La matière, au sens courant du terme, sous ses différents états est discontinue et formée par l'assemblage d'atome. Dans les conditions usuelles, toutefois, la matière n'est pas, à l'exception des gaz nobles, formée d'atomes isolés et indépendants. Le plus souvent, les atomes s'assemblent pour former des architectures plus volumineuses: les molécules.

1. Historique du concept de molécule
1.1. L'hypothèse d'Avogadro
La notion de molécule, comme entité distincte de celle de l’atome, fut suggérée la première fois en 1811 par l'Italien Amedeo Avogadro qui proposa l’hypothèse selon laquelle le nombre de molécules d'un gaz quelconque dans un volume donné est toujours le même, les gaz étant, dans les mêmes conditions de température et de pression.

Par ailleurs, le Français Louis Joseph Gay-Lussac avait montré expérimentalement en 1809 que les volumes mis en jeu dans les réactions chimiques entre les gaz sont dans des rapports simples. Par exemple, un volume de chlore réagit sur un volume égal d'hydrogène pour donner deux volumes de chlorure d'hydrogène (les trois gaz étant dans les mêmes conditions de température et de pression).
Si nous rapprochons cette constatation expérimentale de l'hypothèse d'Avogadro, nous avons :
1 volume de chlore + 1 volume d'hydrogène = 2 volumes de chlorure d'hydrogène
n molécules + n molécules = 2n molécules
Si de plus nous supposons, en accord avec l'analyse chimique, que le chlorure d'hydrogène correspond à la formule HCl, les 2n molécules de HCl contiennent 2n atomes H et 2n atomes Cl, donc chaque molécule de chlore et d'hydrogène contient deux atomes et la réaction entre le (di)chlore et le (di)hydrogène doit s'écrire :
H2 + Cl2 → 2 HCl (et non H + Cl → HCl).


Bien que reprise, peu de temps après (1814), par le Français André Marie Ampère, l'hypothèse d'Avogadro et la distinction atome-molécule qui en découle sont restées dans l'ombre, jusqu'aux travaux de l'Italien Stanislao Cannizzaro et des Français Auguste Laurent et Charles Gerhardt. La distinction entre atome et molécule conduisait en effet logiquement à considérer ces notions comme reflétant une réalité sous-jacente à celle qu'on peut observer. Cette conception, maintenant universellement adoptée, fut combattue avec vigueur par de nombreux scientifiques qui voyaient là, à tort, une hypothèse non fondée expérimentalement, donc à caractère quasi métaphysique. L’hypothèse d’Avogadro a ouvert la voie à la physique et la chimie modernes en permettant de comparer les masses relatives des molécules et, en définitive, de déterminer les masses atomiques relatives.

1.2. Le nombre d'Avogadro
C'est en hommage à Amedeo Avogadro que le nombre de molécules contenues dans une mole de gaz, soit 22,4 L de gaz (à 0 °C et sous 1 atm ; 1 atmosphère normale = 101 325 pascals ou 1,013 25 bar), nombre déterminé approximativement pour la première fois par l'Autrichien Johann Loschmidt en 1865, s'appelle nombre d'Avogadro. Sa valeur numérique actuellement reconnue est :
NA = 6,022 × 1023
.
2. Mole et masse molaire des molécules
La notion de mole est rendue indispensable par la petite taille des molécules. Elle est liée à la connaissance de leur formule chimique, qui renseigne sur la nature et le nombre de chacun des atomes constituant la molécule. La formule chimique d’une molécule permet ainsi de calculer la masse de celle-ci à partir de celle de ses atomes.
Grâce au choix judicieux de la mole, définie comme le nombre d'atomes de carbone contenus dans 12 g de carbone 12, la masse (en grammes) d'une mole d'un élément donné est égale au nombre de nucléons (protons et neutrons) contenus dans le noyau de l'atome.

       
Le noyau du carbone 12, par exemple, contient 12 nucléons ; la masse de 6,022 × 1023 atomes de carbone est de 12 g. Les données du tableau périodique des éléments permettent ainsi de connaître la masse d'une mole de molécules. Ainsi, une mole de méthanol de formule CH3OH a une masse de 32 g (12 + 4 + 16), une mole d'eau de formule H2O, une masse de 18 g (2 + 16), etc. Réciproquement, on dit que le méthanol a une masse molaire de 32 g·mol-1, ou que l’eau a une masse molaire de 18 g·mol-1, etc.
Dans le cas des gaz, le calcul est simplifié grâce à la loi d'Avogadro : « Des volumes égaux de différents gaz contiennent le même nombre de molécules. » Quand ces gaz sont dans les mêmes conditions de température et de pression (généralement 0 °C et 1 atm), 32 g d'oxygène (O2), 2 g d'hydrogène (H2) ou 44 g de dioxyde de carbone (CO2) occupent un volume identique de 22,4 L. La mole est donc le facteur qui établit un lien entre les caractéristiques microscopiques des molécules et des quantités (masses ou volumes) macroscopiques plus perceptibles.

3. Liaisons et stabilité des molécules
Les molécules résultent de la formation de liaisons covalentes entre les atomes qui les constituent. L'énergie des atomes liés dans une molécule est beaucoup plus faible que celle des atomes séparés ; la molécule est par conséquent le système le plus stable.

3.1. La liaison covalente

La nature de la liaison est restée longtemps mystérieuse. L'Américain Gilbert Lewis, le premier, proposa en 1916, sans justifications, un modèle qualificatif intéressant : les deux atomes d’hydrogène (H) mettent en commun leur unique électron pour former une paire d'électrons, qui est responsable de la cohésion de la molécule et dite, de ce fait, paire liante.
Ce type de liaison, que Lewis a appelé liaison covalente, permet à chacun des deux atomes H partageant les deux électrons d'acquérir la structure particulièrement stable de l'hélium.
De manière générale, dans une molécule, les atomes réalisent des liaisons covalentes de manière à acquérir une structure électronique stable en octet ou en duet (règle de l’octet et du duet). Une structure en duet implique deux électrons sur la couche électronique externe K ; une structure en octet implique huit électrons sur la couche externe L ou M. Ainsi, le carbone, de symbole C et de numéro atomique 6, a pour structure électronique (K)2 (L)4 et doit réaliser 4 liaisons covalentes pour compléter sa couche L (il est dit tétravalent).

3.2. Les liaisons intermoléculaires
Les molécules sont également soumises entre elles à des forces de liaison intermoléculaires, mais celles-ci sont beaucoup plus faibles que les liaisons covalentes (de l'ordre de quelques kilojoules par mole, contre plusieurs centaines de kilojoules par mole dans le cas de liaisons covalentes), ce qui entraîne des distances intermoléculaires plus grandes que les distances interatomiques dans la molécule. Les distances d'approche, à l'équilibre, entre atomes ou molécules sont en effet d'autant plus petites que les énergies d'attraction sont plus grandes.
Ces interactions existent entre les molécules d'un gaz (non parfait) et justifient la possibilité de liquéfaction puis de solidification d'un gaz quand la température s'abaisse. En effet, le refroidissement entraîne la diminution de l'agitation thermique des molécules, d'où la possibilité de formation d'états condensés, liquide et solide. L'absence par définition de forces intermoléculaires pour un gaz parfait rendrait impossible ce processus.

Inversement, la rupture thermique de ces liaisons intermoléculaires dans le cas d'un mélange de différentes molécules permet la séparation des divers constituants. Ainsi, l'azote, l'oxygène et l'argon sont obtenus industriellement par distillation de l'air liquide. Les énergies mises en jeu, bien que suffisantes pour séparer les constituants, ne permettent cependant pas de casser les molécules. Cela peut se produire à des températures plus élevées, par exemple lors du craquage des molécules d'hydrocarbures des pétroles et lors de la dissociation des molécules de dihydrogène (H2) ; à 5 000 K, sous 1 atm, 95 % des molécules H2 sont dissociées en atomes H. Les atomes, après avoir été séparés, peuvent perdre progressivement leurs électrons (ionisation), donnant naissance, à très hautes températures (plusieurs milliers de degrés), aux plasmas, où les atomes peuvent être totalement ionisés par la perte de tous leurs électrons.

4. La représentation des molécules

4.1. La représentation de Lewis
Dans la représentation de Lewis, chaque atome est représenté par son symbole ; un doublet liant est représenté par un segment entre les symboles des deux atomes liés ; un doublet non-liant est représenté par un segment placé à côté du symbole de l’atome auquel il appartient. Ainsi, les représentations de Lewis des molécules de dihydrogène (H2) et de l’eau (H2O) sont respectivement :

 


4.2. Les formules développées et semi-développées
Les formules développées et semi-développées d’une molécule sont une simplification de leur représentation de Lewis :
• formule développée : on ne représente plus les doublets non-liants des atomes ;
• formule semi-développée : on ne représente plus les liaisons engageant les atomes d’hydrogène. Par exemple, une molécule de méthanol CH4O pourra être représentée comme suit :


4.3. La formule topologique
Elle permet de représenter le plus simplement possible une molécule et est particulièrement utile pour représenter des molécules comportant un grand nombre de liaisons. Les règles d’écriture d’une formule topologique sont les suivantes :
• la chaîne carbonée est représentée par une ligne brisée où chaque segment représente une liaison. Les atomes de carbone et d’hydrogène ne sont pas représentés ;
• chaque sommet de la ligne brisée représente un atome de carbone ;
• les atomes autres que ceux de carbone et d’hydrogène sont représentés par leur symbole. On représente aussi les atomes d’hydrogène auxquels ceux-ci sont liés.
Par exemple, le pentan-1-ol de formule brute C5H12O a la formule topologique suivante :

5. La structure spatiale des molécules
Les liaisons covalentes, responsables de la cohésion des molécules, sont des liaisons fortes, saturées et dirigées. La notion de force se rapporte à l'énergie de liaison.
→ énergie chimique.

       
Par saturation, on entend que, par exemple, l’hydrogène (H) peut s'unir à l’azote (N) pour donner NH3 mais pas NH4 ; la justification électronique de la liaison covalente proposée par Lewis rend compte de cette propriété : l’azote, de numéro atomique 7, a pour structure électronique (K)2 (L)5 et doit donc réaliser 3 liaisons covalentes pour compléter sa couche L (il est dit trivalent), d’où le composé NH3.
Le mot directivité signifie que les liaisons covalentes, unissant un atome à d'autres dans une molécule, forment entre elles des angles définis, imposant ainsi une certaine forme à la molécule.
5.1. La méthode VSEPR

La méthode VSEPR (Valence Shell Electron Pair Repulsion ou « répulsion des doublets électroniques de la couche de valence ») également appelée règle de Gillespie-Nyholm, permet de prévoir l’orientation des liaisons entre les atomes d’une molécule. Cette méthode repose sur l’hypothèse très simplificatrice (qui ne correspond pas à la réalité) que tous les doublets, liants et non-liants de la couche de valence, se positionnent à la même distance du noyau et aussi loin que possible les uns des autres de manière à minimiser leur répulsion. Ainsi, selon leur nombre, les doublets électroniques occupent les sommets de diverses « figures de répulsion » inscrites dans une sphère :

Molécules
Méthode VSEPR
nombre de doublets :    2    3    4
figure de répulsion :    droite    triangle équilatéral    tétraèdre
angles des liaisons :    180°    60°    109,5°

   
Par exemple, les molécules H2O (eau), NH3 (ammoniac) et CH4 (méthane) ayant chacune autour de leur atome central quatre doublets électroniques (deux non-liants et deux liants pour H2O ; un non-liant et trois liants pour NH3 ; quatre liants pour CH4) s'inscrivent sensiblement dans un tétraèdre avec au centre les atomes O, N, C, les atomes H étant situés sur deux, trois et quatre sommets. Les angles de liaison sont donc voisins de 109,5° (104,5° pour H2O, 107° pour NH3 et 109,5° pour CH4).

5.2. La stéréochimie ou la géométrie des molécules

Benzène
En fait, bien avant la mise en évidence expérimentale de la structure des molécules, quelques chimistes avaient proposé – pour un but essentiellement mnémonique, c'est-à-dire pour représenter le mieux possible les propriétés physico-chimiques des molécules – des schémas tels que le tétraèdre pour CH4 (Achille Le Bel et Jacobus Henricus Van't Hoff) ou la forme cyclique du benzène C6H6 (August Kekulé).

Actuellement, des méthodes variées (techniques spectroscopiques, diffraction des rayons X ou des électrons, microscopie électronique) permettent de trouver la structure spatiale des molécules et, quelquefois, d'obtenir des courbes de niveau de densité électronique.
Les molécules peuvent former des chaînes, des cycles, des cages… Ces structures sont représentées par des schémas de Lewis ou, plus correctement, par des modèles moléculaires éclatés ou compacts (voir ci-dessous l’exemple de la molécule de méthane). Les modèles compacts donnent une image de la forme réelle des molécules et de l'encombrement des atomes (modélisés par des sphères) qui les constituent. Ces modèles moléculaires tridimensionnels sont très utilisés en stéréochimie.


Toutefois, en l’absence de modèles moléculaires, il est possible de représenter une molécule en 3 dimensions sur un support à deux dimensions (c’est-à-dire sur une feuille de papier ou sur un tableau noir) en utilisant la représentation de Cram. En effet, celle-ci fait apparaître les liaisons de la molécule en perspective les unes par rapport aux autres, afin de comprendre la structure dans l’espace de la molécule. Les liaisons entre les atomes sont représentées par convention de la façon suivante :
• liaison dans le plan de la feuille :

 
• liaison en avant du plan de la feuille :

 
• liaison en arrière du plan de la feuille :

Par exemple, le méthane de formule CH4 a la représentation de Cram suivante :


5.3. Les phénomènes d'isomérie

       
Notons que les structures des molécules peuvent justifier les phénomènes d'isomérie (la même formule brute correspondant à des composés différents). Par exemple, C4H8O2 peut être l'acide butanoïque ou un diol (isomérie de constitution). Les molécules ne sont généralement pas rigides. Avec la vibration des atomes autour de leur position d'équilibre ou la rotation de groupes d'atomes autour d'un axe de liaison (phénomènes qui se produisent toujours, sauf à 0 K), certaines molécules peuvent changer rapidement de structure. Ainsi, la molécule d'ammoniac s'inverse très rapidement, comme un parapluie par fort vent, avec une fréquence de 23,79 GHz. C'est un exemple de molécule « flexible ».

 

 DOCUMENT   larousse.fr    LIEN

 
 
 
 

NANOSCIENCES

 

 

 

 

 

 

 

Paris, 28 juin 2016


Première pierre du Centre de nanosciences et de nanotechnologies

Le Centre de nanosciences et de nanotechnologies (C2N, CNRS/Université Paris-Sud), créé au 1er juin 2016, regroupe deux laboratoires franciliens leaders dans leur domaine : le Laboratoire de photonique et de nanostructures (CNRS) et l'Institut d'électronique fondamentale (CNRS/Université Paris-Sud). La première pierre de ce nouveau laboratoire a été posée le mardi 28 juin 2016 sur le campus de l'université Paris-Saclay, en présence de Thierry Mandon secrétaire d'État chargé de l'Enseignement supérieur et de la Recherche. Cette nouvelle structure, qui hébergera la plus grande centrale de nanotechnologie francilienne du réseau national Renatech1, se place dans une perspective ambitieuse : constituer, en France, un laboratoire phare de niveau mondial pour la recherche en nanosciences et en nanotechnologies. Le C2N, avec son bâtiment de 18 000 m², représente le plus grand projet immobilier du CNRS depuis 1973. Conduit conjointement par le CNRS et l'université Paris-Sud depuis 2009, ce projet s'inscrit dans l'opération d'intérêt national Paris-Saclay portée par l'Etablissement public d'aménagement Paris-Saclay.
L'implantation du Centre de nanosciences et de nanotechnologies (C2N) au cœur du plateau de Saclay, dans le quartier de l'école Polytechnique, a été initiée dans le cadre du plan Campus en 2009. Elle permet de renforcer la dynamique de l'écosystème scientifique des nanosciences et nanotechnologies en Ile-de-France.

Le C2N mène ses recherches dans de nombreux domaines innovants dont la science des matériaux, la nanophotonique2, la nanoélectronique3, les nanobiotechnologies et les microsystèmes, ainsi que dans ceux des nanotechnologies (voir des exemples de travaux de recherche en fin de texte). Structuré en quatre départements scientifiques, le C2N aborde des recherches à la fois fondamentales et appliquées. Il représentera le pôle de référence en matière de nanosciences et nanotechnologies de l'université Paris-Saclay. Plus largement, à l'échelle européenne, il constituera l'un des plus grands centre académique de nanophotonique et, avec les acteurs locaux, l'un des plus grands consortiums en spintronique. Le C2N participe donc au rayonnement de la communauté à l'international. Ainsi l'université Paris-Sud vient d'être reconnue 42e établissement mondial en science des matériaux par le dernier classement de Shanghai en ingénierie (juin 2016).

Au cœur du projet du C2N, la salle blanche (2800 m²) de la centrale de technologie sera la plus grande plateforme de ce type à l'échelle nationale. Elle constituera le pôle francilien du réseau national des grandes centrales académiques Renatech, réseau d'infrastructures et de moyens lourds en micro et nanotechnologie. Cette centrale sera ouverte à l'ensemble des acteurs académiques et industriels du domaine des nanosciences et des nanotechnologies afin qu'ils puissent y développer leurs technologies. Un espace sera ainsi réservé à l'accueil d'entreprises, notamment des start-up et des PME, pour des développements technologiques spécifiques. La formation à la recherche sera également au centre des priorités du C2N, avec notamment la mise en place d'une salle blanche d'entraînement, en conditions réelles, réservée à la formation pratique d'étudiants, stagiaires, ingénieurs et chercheurs désireux d'apprendre.

Ce projet immobilier d'environ 92 millions d'euros a été financé à hauteur de 71 millions d'euros par le Programme d'investissements d'avenir, 12,7 millions d'euros par le CNRS, qui contribuera également au déménagement des deux laboratoires et au raccordement des équipements à hauteur de 4,3 millions d'euros. Le foncier s'élevant à 4,32 millions d'euros a été acquis par le CNRS en 2014. La conception du bâtiment a été confiée au groupement ARTELIA (structure ingénierie et bureau d'étude) et à l'atelier d'architecture Michel Rémon et le chantier à Bouygues Ouvrages Publics, Engie Axima, GER2I, Engie Ineo et Eurovia.

Les travaux ont débuté en novembre 2015 et se termineront à l'automne 2017. Les 18 000 m² du bâtiment, regroupant les laboratoires expérimentaux (3400 m²), les bureaux (2900 m²) et la salle blanche (2800 m²), accueilleront fin 2017 entre 410 et 470 personnes, réparties entre personnels permanents (chercheurs et enseignant-chercheurs, ingénieurs, techniciens et administratifs) et non permanents (doctorants, post doctorants, étudiants, techniciens stagiaires, visiteurs, etc.).


Quelques exemples de résultats obtenus au LPN et à l'IEF :
Des LED flexibles à nanofils : une nouvelle avancée pour les écrans pliables
Une nouvelle source de lumière quantique
Diagnostic médical : un test nanobiophotonique pour détecter des micro-ARNs
Des nanolasers couplés pour approcher le régime quantique de la brisure spontanée de symétrie

Film :
Film CNRS Images sur le LPN : Nouvelles techniques de lithographie.

Site internet du C2N : http://www.c2n.universite-paris-saclay.fr

Télécharger le communiqué :



Notes :
1 Consulter le site web
2 La nanophotonique est l'étude de la lumière et de ses interactions avec la matière à des échelles nanométriques.
3 La nanoélectronique fait référence à l'utilisation des nanotechnologies dans la conception des composants électroniques.


 DOCUMENT       cnrs        LIEN 

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 ] Précédente - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales /confidentialité

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon