ecole de musique piano
     
menu
 
 
 
 
 
 

LE GIEC

 


 

 

 

 

 

L'ESSENTIEL SUR...
Le GIEC


Publié le 23 novembre 2018

Le GIEC, Groupe d’experts intergouvernemental sur l’évolution du climat, a pour mission d’évaluer de la façon la plus précise et complète possible les informations internationales scientifiques, techniques et socio-économiques sur l’évolution du climat. Le point sur sa création, ses missions, son fonctionnement...
SA CRÉATION ET SES MISSIONS
En 1988, l’Organisation météorologique mondiale (OMM) et le Programme des Nations unies pour l’environnement (PNUE) créent le Groupe d’experts intergouvernemental sur l’évolution du climat (le GIEC) ayant pour mandat d’évaluer de façon impartiale les informations internationales scientifiques, techniques et socio-économiques sur l’évolution du climat. Le GIEC a rendu son premier rapport en 1990. Depuis, de manière régulière, environ tous les 5-6 ans, le GIEC délivre des rapports d’évaluation qui tiennent lieu de référence pour les scientifiques et les décideurs du monde entier.

 
Le GIEC est organisé en trois groupes de travail, chacun mobilisant des centaines de spécialistes.
*         Le Groupe I fait le point sur l’état de la recherche scientifique dans le domaine de l’évolution du climat. En pratique, le groupe I évalue l’ensemble des données de l’évolution observée du climat ainsi que sa modélisation pour le XXe et XXIe siècle.
*         Le Groupe II traite des impacts des changements climatiques sur différents secteurs (eau, écosystèmes, agriculture, santé…) et des possibilités de s’y adapter.
*         Enfin, le Groupe III examine les moyens de réduction des gaz à effet de serre et d’atténuation du changement climatique en général. À ces trois groupes principaux s’ajoutent des groupes de travail spécifiques, pour les inventaires nationaux d’émissions des gaz à effet de serre ou certains sujets techniques (séquestration du carbone, transport aérien, couche d’ozone…).
*        
Un rapport de synthèse qui résume les contributions des groupes I, II et III est également rédigé par le GIEC.


 
UN FONCTIONNEMENT UNIQUE
EN SON GENRE

Le fonctionnement du GIEC s’appuie sur une base scientifique, mais il passe également par une interaction entre scientifiques et responsables gouvernementaux.
Typiquement, un cycle du GIEC se déroule comme suit. Les délégués gouvernementaux décident en séance plénière de la réalisation d’un rapport, de sa structure générale (nombre de groupes), des présidents du GIEC et de ses groupes, ainsi que de son échéance. Les présidents des groupes réunissent des experts scientifiques lors de quelques réunions de réflexions (scoping meetings) afin de définir une trame générale du rapport. Des auteurs de chapitres sont alors choisis parmi la communauté scientifique internationale. Ces auteurs vont ensuite se réunir tous les six mois pendant deux ans afin de rédiger le rapport. Les versions intermédiaires du rapport (drafts) sont mises à la disposition de la communauté scientifique pour relecture. La dernière version du rapport ainsi que le résumé à l’intention des décideurs qui fait une quinzaine de pages sont relus par la communauté scientifique à nouveau, mais également par les représentants gouvernementaux des différents États membres du GIEC.
Finalement, le résumé à l’intention des décideurs est soumis à l’approbation des gouvernements en séance plénière. Cette assemblée est composée des représentants des États, de représentants observateurs d’organisations non gouvernementales, et des deux scientifiques coprésidents du groupe de travail du GIEC, entourés de leurs auteurs principaux. Pendant une semaine, parfois jour et nuit, le document est discuté ligne par ligne jusqu’à accord à l’unanimité. C’est lors de cette épreuve que l’on parle de consensus entre les scientifiques et les gouvernements. Depuis la création du GIEC, tous les rapports ont été adoptés en séance plénière par l’ensemble des 192 pays représentés dans l’assemblée du GIEC.

 CONSENSUS ET TRANSPARENCE
Cette approche par consensus a parfois été critiquée par les “climatosceptiques”, c’est-à-dire ceux qui mettent en doute la réalité du changement climatique ou de son origine, à savoir l’activité humaine. Leur argument est le suivant : en science, il n’y a pas de consensus, il n’y a pas de pensée unique ; au contraire, il y a un débat d’idées permanent et une perpétuelle remise en question des acquis. C’est tout à fait exact, et les travaux du GIEC s’inscrivent pleinement dans cette définition.
Pendant deux ans, les coprésidents de chaque groupe, entourés de leurs auteurs, recensent l’ensemble de la connaissance dans le domaine. Ils le font dans une transparence totale. Non seulement les textes sont mis sur le Web, mais également les remarques des nombreux rapporteurs et les réponses des auteurs à ces remarques. Les incertitudes et les controverses non résolues sont clairement présentées dans les volumineux rapports. Seul le résumé pour les décideurs, qui fait une quinzaine de pages, est discuté lors des assemblées plénières. L’objectif de cette séance plénière est de produire un document, le résumé pour les décideurs, qui ait à la fois l’aval des scientifiques qui l’ont préparé et celui des États membres qui vont le cosigner. Le texte se doit donc d’être dans un langage compréhensible et sans ambiguïté pour les non-scientifiques.


UN CINQUIÈME RAPPORT D’ÉVALUATION POUR 2013-2014
La force du GIEC réside, d’une part, dans ses rapports longs qui sont une source précieuse d’informations pour la communauté scientifique et, d’autre part, dans le rapport pour les décideurs qui, de par son processus d’approbation en séance plénière, engage pleinement les États membres. Les gouvernements ne peuvent plus prétendre ne pas avoir l’information pertinente ; ils l’ont approuvée. L’action politique nécessaire à la limitation du changement climatique est donc entre leurs mains. C’est cette double approche qui a valu auxmembres du GIEC de se voir décerner le prix Nobel de la Paix en 2007 “pour leur effort pour rassembler et disséminer la connaissance du changement climatique anthropique et pour établir les fondations pour les mesures qui sont nécessaires pour le contrecarrer”.
De fait, le premier rapport, publié en 1990, a conduit l’Assemblée générale des Nations unies à élaborer une convention-cadre sur les changements climatiques, entrée en vigueur en 1994.
Le deuxième rapport, sorti en 1995, a fourni les éléments de base aux négociations du protocole de Kyoto (1), dans le cadre de la convention.
Le troisièmerapport, paru en 2001, a confirmé la responsabilité humaine dans le réchauffement constaté au cours de la seconde moitié du XXe siècle. Il prévoit notamment une aggravation du phénomène conduisant à un réchauffement moyen global de plusieurs degrés entre 1990 et 2100.
Les conclusions du quatrième rapport ont été rendues publiques en 2007, avant la conférence des parties de Bali (Indonésie).
Lors de la session du GIEC, qui s’est déroulée en Hongrie à Budapest en avril 2008, il a été décidé de préparer un cinquième rapport. À Stockholm, en Suède, le 27 septembre 2013, les membres du Giec ont adopté le premier volet de leur 5e rapport, consacré aux « éléments physiques du climat ». Sa rédaction a impliqué des scientifiques auteurs du monde entier, parmi lesquels 17 français dont 8 chercheurs du Laboratoire des sciences du climat et de l’environnement (LSCE Institut Pierre Simon Laplace - CEA/CNRS/UVSQ). Une étude qui confirme et précise l’ampleur du changement climatique provoqué par l’accumulation des gaz à effet de serre.
Les deux autres volets sur les impacts, vulnérabilités et adaptation et sur l’atténuation du changement climatique ont été publiés début 2014.


COP21/CMP11
Du 30 novembre au 11 décembre 2015, la France a accueilli et présidé la 21e Conférence des parties de la Convention-cadre des Nations unies sur les changements climatiques de 2015 : COP21/CMP11. Cet événement a rassemblé près de 40 000 participants, avec 195 pays représentés.
La COP21 a abouti à un accord universel, ambitieux, à valeur juridique, avec des mécanismes de révision tous les 5 ans, dans l'optique d'accélérer les efforts pour limiter les rejets de gaz à effet de serre et la transition vers des sociétés et des économies sobres en carbone.

UN SIXIÈME RAPPORT D’ÉVALUATION DU GIEC 2016 - 2022
Le Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC) a entamé son 6e cycle d’évaluation. Au cours de ce cycle, le groupe d’experts produira trois rapports spéciaux, un raffinement du rapport méthodologique pour les inventaires nationaux d’émission de gaz à effet et son 6e rapport d’évaluation (AR6) prévu pour avril 2022.
Les scientifiques du Laboratoire des sciences du climat et de l’environnement (Institut Pierre Simon Laplace - CEA/CNRS/UVSQ) sont très impliqués dans la préparation du rapport AR6 du GIEC.

*         Pour en savoir plus : https://www.ipcc.ch/pdf/ar6_material/AC6_brochure_fr.pdf

.[1] Protocole de Kyoto: un des trois traités internationaux sur lesquels repose la gouvernance internationale sur le climat. Il propose un calendrier de réduction des émissions des six gaz à effet de serre considérés comme la principale cause du réchauffement climatique des cinquante dernières années.

 

    DOCUMENT     cea         LIEN

 
 
 
 

les supercalculateurs

 


 

 

 

 

 

les supercalculateurs

Publié le 29 mai 2017

Un supercalculateur est un très grand ordinateur, réunissant plusieurs dizaines de milliers de processeurs, et capable de réaliser un très grand nombre d’opérations de calcul ou de traitement de données simultanées. Les superordinateurs sont utilisés par les scientifiques et les industriels pour concevoir de nouveaux systèmes et objets (moteurs, avions, voitures), des matériaux ou des médicaments ; simuler des phénomènes physiques complexes (séismes, formation des étoiles, galaxies ou même Univers entier…) ; réaliser des prévisions (météorologie, climat) ; ou réaliser virtuellement des expériences difficilement réalisables en laboratoire.

COMMENT FONCTIONNE
UN SUPERCALCULATEUR ?

Dans les années 1930, les ordinateurs – ou calculateurs – effectuaient une opération par seconde. Aujourd’hui, les supercalculateurs les plus puissants réalisent des dizaines de millions de milliards d’opérations par seconde.
De tels progrès ont été possibles grâce à la miniaturisation des processeurs et des mémoires mais aussi grâce à une organisation particulière de ces calculateurs et de leur environnement à différentes échelles.

UN FONCTIONNEMENT EN « GRAPPE »
Pour réaliser autant d’opérations simultanées, les supercalculateurs effectuent les calculs « en parallèle », c’est-à-dire en les répartissant sur différents processeurs. Ceux-ci sont organisés en « grappe » de « nœuds de calcul », connectés par un réseau ultrarapide. Les nœuds de calcul mettent en commun leurs mémoires pour former une mémoire « distribuée » de très grande taille, et sont reliés à des espaces de stockage de plus grande taille encore. L’architecture détaillée des nœuds de calcul est également devenue un élément déterminant pour optimiser leur fonctionnement.
Les performances d’un supercalculateur décrivent ses capacités à exécuter des calculs mais aussi à traiter de très grands volumes de données. A ce niveau, on parle de « calcul haute performance » (ou « HPC », pour High Performance Computing en anglais) et la vitesse de traitement des opérations s’exprime principalement en Flops (Floating Point Operations Per Second, opération de base pour du calcul numérique, soit addition ou multiplication décimale).

LES SUPERCALCULATEURS  :
DES CAPACITÉS DE STOCKAGE GIGANTESQUES

Physiquement, les supercalculateurs sont constitués de nombreuses armoires (baies), reliées entre elles par des kilomètres de câble réseau (interconnexion ultra-rapide des nœuds de calcul) et regroupées dans des centres de calcul. Un centre de calcul comprend aussi de gigantesques capacités de stockage local de données auxquelles les ordinateurs doivent pouvoir accéder rapidement (dizaines de « petaoctets », contrepartie des dizaines de « petaflops » de puissance de calcul).
Comme ces machines sont de plus en plus puissantes et denses, leur consommation électrique devient très importante et dégage énormément de chaleur – tant dans les processeurs que dans les mémoires et réseaux de communication. Il faut donc mettre en place un système de refroidissement efficace et lui-même le moins énergivore possible - par exemple par circulation d’eau dans les portes des armoires ou dans les nœuds de calcul - ainsi qu’une climatisation dans la salle machine. Bien optimisés, ces systèmes de refroidissement consomment une fraction minoritaire de la consommation électrique globale, l’essentiel de l’énergie apportée au centre de calcul peut alors servir directement aux calculs et traitements de données et les coûts de fonctionnement sont mieux maîtrisés

LES SUPERCALCULATEURS, DES OUTILS ESSENTIELS POUR LA MODÉLISATION ET L’ANALYSE DES DONNÉES AU PROFIT DE LA SCIENCE ET DE L’INDUSTRIE

Grâce aux progrès des supercalculateurs, la simulation numérique – calculs permettant de représenter un phénomène physique ou complexe sur un ordinateur – s’est généralisée à toutes les disciplines au point de devenir le « troisième pilier » de la méthode scientifique, aux côtés de la théorie et de l’expérimentation.
La simulation numérique permet de mener des « expériences virtuelles » qui remplacent ou complètent les expérimentations lorsque celles-ci sont dangereuses (accidents, crash tests), à des échelles de temps trop longues ou trop courtes  (climatologie, physique atomique), à des échelles de taille trop petites ou trop grandes   (protéines, astrophysique) ou encore interdites (essais nucléaires)…
Depuis quelques années le calcul intensif, producteur de masses de données de plus en plus importantes, devient également un maillon indispensable du traitement des « mégadonnées » d’autres origines (expériences, observations, réseaux de capteurs, Internet…). Les techniques et méthodes du calcul haute performance (HPC) se retrouvent ainsi au cœur de processus mêlant production et analyse de données, modélisation numérique, techniques statistiques et d’apprentissage, intelligence artificielle...
Véritable fer de lance de ces approches, le HPC est la déclinaison la plus avancée à un moment donné de traitements parallèles qui se retrouvent souvent employés ou diffusés largement, à plus petite échelle et à terme, dans tous les secteurs de l’informatique.

LES DIFFÉRENTES ÉTAPES
D’UNE SIMULATION NUMÉRIQUE
Les différentes étapes d’une simulation numérique

Prenons l’exemple d’un chercheur ou d’une équipe de recherche recourant au HPC. Les moyens de calcul sont fournis par des centres de calcul régionaux, nationaux ou encore internationaux. L’accès à ces ressources se fait souvent via des dossiers de demande préparés à l’avance, parfois soumis à des processus de sélection compétitifs.

L’activité complète de modélisation/simulation comporte plusieurs étapes :

*         Décrire la réalité : les phénomènes physiques sont souvent complexes. Pour les représenter, les physiciens prennent en compte de nombreuses lois physiques, par exemple celles qui régissent les relations entre la vitesse, la température et la pression dans un fluide.
*        
*         Modélisation : Les lois physiques sont traduites en équations mathématiques, faisant intervenir l’ensemble des paramètres pertinents.
*        
*         Résolution numérique et programmation : les équations mathématiques, trop complexes pour être calculées humainement, doivent être traitées par un ordinateur. Comme celui-ci ne peut les résoudre en tous points et de manière continue, les mathématiciens les scindent en plus petits intervalles. Les équations sont calculées pour chacun des points et des instants pertinents. L’enchaînement des calculs à réaliser s’appelle un algorithme. En général, en simulation numérique, il s’agit au final de nombreuses additions et multiplications traduisant l’évolution des quantités physiques. Pour que l’ordinateur puisse exécuter l’algorithme, celui-ci est converti en langage informatique par les informaticiens.
*        
*         Validation : les trois étapes précédentes produisent un logiciel de calcul dont il faut assurer la mise au point « physique » (on parle de validation) et pas uniquement « informatique » (ici on parle de vérification). Il s’agit de délimiter la justesse physique des résultats pour certains domaines dans lesquels on peut se fier au logiciel. La comparaison avec des expériences ou résultats déjà connus est un ingrédient de la validation. De plus en plus, on recherche aussi l’estimation des incertitudes ou des sensibilités des calculs vis-à-vis de leurs paramètres. A défaut de réduire totalement les erreurs ou incertitudes, leur encadrement est apprécié.
*        
*         Ces quatre étapes ne sont pas nécessairement reproduites à chaque étude. L’effort de mise au point d’un environnement de simulation (logiciel de calcul et tous les outils complémentaires tels que la visualisation des résultats) se fait en amont soit par une équipe de recherche ou un groupement d’équipes, parfois par des sociétés logicielles spécialisées, et il est amorti sur des durées parfois très longues – années voire décennies.
*        
*         5. Exécution de simulations : grâce aux moyens de plus en plus performants mis à leur disposition par les spécialistes concevant les supercalculateurs et les centres de calcul, les physiciens et ingénieurs lancent leurs simulations numériques. Puis les résultats sont conservés dans des espaces de stockage de grande capacité, conçus pour un accès performant et pérenne. Les utilisateurs peuvent en général visualiser leurs données sur leur poste de travail de façon interactive, parfois directement connectés au système de stockage du centre de calcul - les masses de données concernées par le post-traitement peuvent en effet excéder les capacités locales de recopie ou les capacités de débit du réseau entre site de calcul et laboratoire.       
Les enjeux de la simulation numérique
La simulation numérique a pour objectifs :
*         De comprendre et faire progresser la science, dans tous les domaines ;
*         De concevoir : dans l’industrie, la simulation numérique permet de réduire le nombre de tests nécessaires au développement des produits, et donc le coût et la durée des étapes de recherche, développement, et conception. Ainsi, elle améliore la productivité, la compétitivité et la capacité d’innovation des entreprises dans tous les secteurs : aéronautique, cosmétique, bâtiment…
*         D’agir et décider : dans le domaine de la sécurité vis-à-vis des risques naturels ou industriels, de la santé, de l’environnement, de la prévision climatique..., la simulation numérique permet de répondre à des enjeux sociétaux.

 

   DOCUMENT     cea         LIEN
 

 
 
 
 

LA PHYSIQUE QUANTIQUE (SERGE HAROCHE)

 

 

 

 

 

 

 

LA PHYSIQUE QUANTIQUE (SERGE HAROCHE)

"La théorie quantique, centrale à notre compréhension de la nature, introduit en physique microscopique les notions essentielles de superpositions d'états et d'intrication quantique, qui nous apparaissent comme "" étranges "" et contre-intuitives. Les interférences quantiques et la non-localité - conséquences directes du principe de superposition et de l'intrication - ne sont en effet pas observables sur les objets macroscopiques de notre expérience quotidienne. Le couplage inévitable de ces objets avec leur environnement détruit très vite les relations de phase entre les états quantiques. C'est le phénomène de la décohérence qui explique pourquoi autour de nous l'étrangeté quantique est généralement voilée. Pendant longtemps, superpositions, intrication et décohérence sont restés des concepts analysés à l'aide d'" expériences de pensée " virtuelles, dont celle du chat de Schrödinger à la fois mort et vivant est la plus connue. À la fin du XXe siècle, les progrès de la technologie ont rendu réalisables des versions de laboratoire simples de ces expériences. On peut maintenant piéger et manipuler des atomes et des photons un par un et construire des systèmes de particules suspendus entre deux états quantiques distincts qui apparaissent ainsi comme des modèles réduits de chats de Schrödinger. Au delà de la curiosité scientifique et du défi que constitue l'observation de l'étrangeté quantique pour ainsi dire in vivo, ces expériences éclairent la frontière entre les mondes classique et quantique et ouvrent des perspectives fascinantes d'applications. "


Texte de la 213ème conférence de l’Université de tous les savoirs donnée le 31 juillet 2000.
Une exploration au cœur du monde quantique par Serge Haroche
Cent ans de physique quantique
L’an 2000 marque le centenaire de la physique quantique. C’est en 1900 que Planck, pour comprendre les propriétés du rayonnement des corps chauffés, émit la fameuse hypothèse que les échanges d’énergie entre la matière et la lumière devaient se faire par quanta discrets, et non de façon continue. Einstein reprit cette notion de quanta cinq ans plus tard en montrant que la lumière elle-même était constituée de grains discrets, appelés par la suite photons, et en interprétant à l’aide de cette idée révolutionnaire l’effet photoélectrique, l’émission d’électrons par les métaux éclairés. Dans les vingt ans suivants, la théorie quantique, cherchant à comprendre le comportement de la nature à l’échelle atomique, se développa à partir d’hypothèses hardies et d’intuitions géniales, notamment grâce aux travaux de Niels Bohr. En 1925 et 1926, Heisenberg, Schrödinger et Dirac arrivèrent indépendamment à la formulation complète de la théorie, qui constitue sans nul doute une des plus grandes conceptions de l’esprit humain.
La théorie quantique sert en effet de cadre essentiel à notre compréhension de la Nature, de l’infiniment petit à l’infiniment grand. La physique des particules dites élémentaires, celle des atomes et des molécules, toute la chimie sont basées sur les lois quantiques. Les ensembles d’atomes que constituent les solides obéissent également à ces lois, qui seules peuvent expliquer, par exemple, la conductivité électrique, le magnétisme ou la supraconductivité de certains métaux aux basses températures. Même la vie, dans la mesure où elle dépend de processus physico-chimiques au niveau de la molécule d’ADN, ne pourrait être comprise en dehors des lois quantiques. Enfin, la cosmologie, la science qui s’attache à l’étude de l’évolution de l’univers, donne une grande importance aux phénomènes quantiques qui se sont produits au moment du big-bang initial.

Et pourtant, malgré ses succès éclatants, la physique quantique est souvent perçue comme étrange. Elle introduit en effet dans la description du monde des notions bizarres qui défient notre intuition classique. Il s’agit du principe de superposition des états qui implique qu’un système physique peut être comme suspendu entre différentes réalités, ou encore du concept d’intrication quantique qui introduit une notion troublante de non-localité en physique. Le caractère étrange de ces concepts provient en grande part de ce que nous n’en observons jamais les effets sur les objets macroscopiques qui nous entourent et que donc notre esprit n’est pas préparé à les comprendre. Cette étrangeté troublait les fondateurs de la théorie, et son interprétation a fait l’objet entre eux de discussions très animées. Ces débats se sont en particulier déroulés au cours des fameux Congrès Solvay, à l’époque de l’élaboration de la théorie. Les participants à ces congrès prirent l’habitude d’imaginer des expériences virtuelles dans lesquelles ils isolaient et manipulaient en pensée des particules obéissant aux lois quantiques pour essayer de mettre en évidence des contradictions internes de la théorie. Tous ces débats se conclurent par la victoire de la théorie quantique, à laquelle ni Einstein ni Schrödinger qui jouaient volontiers le rôle d’avocats du diable ne purent trouver de faille. L’intérêt de la majorité des physiciens se détourna alors de ces discussions sur des expériences infaisables, et se consacra à l’exploitation de la théorie pour comprendre la nature, avec le succès évoqué plus haut.

Depuis quelques années cependant, les progrès de la technologie ont permis de réaliser des versions simples des expériences de pensée des fondateurs de la théorie. On peut maintenant piéger des photons, des atomes ou des molécules un à un, les manipuler pour ainsi
dire in vivo à l’aide de faisceaux lasers et ainsi construire des objets étranges, relativement complexes, obéissant à la logique quantique. On peut alors aborder à nouveau, mais de façon concrète, l’étude des fondements de la théorie. On peut également commencer à envisager des applications fascinantes. C’est à ces expériences de pensée devenues réelles qu’est consacré cet exposé, brève exploration au cœur du monde quantique.
Superpositions, interférences quantiques et complémentarité
Commençons par une introduction au principe de superposition. La théorie quantique nous dit que, d’une certaine manière, toute particule microscopique possède un don d’ubiquité. Alors que classiquement elle doit à tout instant être en un point bien précis, quantiquement, elle peut se trouver comme « suspendue » dans une superposition des états correspondant à toutes les positions classiques possibles. À chacune de ces positions est associé un nombre appelé fonction d’onde de la particule au point considéré. Cette fonction a été introduite par de Broglie et c’est Schrödinger qui a établi l’équation qui décrit son évolution, jetant ainsi les bases des lois de la dynamique quantique. La fonction d’onde est en général un nombre complexe. Alors qu’un nombre réel peut être symbolisé par un segment sur une droite, un complexe est représenté par un vecteur dans un plan et possède donc une amplitude (la longueur du vecteur) et une phase (sa direction). C’est le physicien Max Born qui donna l’interprétation physique de la fonction d’onde. Le carré de son amplitude représente la probabilité de trouver la particule au point correspondant lorsqu’une mesure est effectuée. Ainsi, d’après la théorie, l’ambiguïté quantique, la superposition, ne subsiste que tant que l’on ne cherche pas à savoir où est la particule. Si on cherche à déterminer sa position, on force la nature à abandonner son étrangeté quantique, la particule apparaît bien en un point et en un seul, mais cette apparition ne peut être que prévue statistiquement et non déterminée de façon absolue comme en physique classique. C’est ce qui fit dire à Einstein que selon la physique quantique « Dieu joue aux dés », ce qu’il se refusait personnellement à admettre.

La physique atomique permet d’illustrer un aspect élémentaire du principe de superposition. Les chimistes représentent l’état d’un électron dans un atome – par exemple le plus simple d’entre eux, l’hydrogène – par un volume de l’espace qu’on appelle son orbitale (Figure 1a). Ce volume est, pour l’état fondamental de l’hydrogène, une petite sphère centrée sur le noyau de l’atome d’environ un Angström (soit 10-10 m) de diamètre. Il décrit la région de l’espace dans laquelle l’électron est délocalisé. Il se trouve en fait dans une superposition de toutes les positions possibles à l’intérieur de cette sphère. Lorsque l’on porte l’électron de l’atome dans un niveau électronique excité en lui fournissant de l’énergie lumineuse, la forme de l’orbitale change, elle s’étire en général pour occuper des régions plus éloignées du noyau comme le montre la figure 1b. Les états très excités de l’atome s’appellent des états de Rydberg. Dans certains de ces états, l’électron occupe une orbitale très étendue, en forme de tore, dont le rayon peut atteindre un millier d’Angströms (figure1c). Ces états excités géants ont des propriétés très intéressantes que nous retrouverons plus loin.

Abordons maintenant une conséquence essentielle du principe de superposition, l’existence d’interférences quantiques. Considérons la fameuse expérience des fentes de Young réalisée au début du XIXe siècle avec de la lumière, c’est-à-dire des photons, et au XXe siècle avec des électrons, et plus récemment avec des atomes et des molécules : des particules traversent une paroi percée de deux fentes avant d’atteindre un écran. Les particules sont détectées en des points discrets sur l’écran, comme le montre la figure 2a. Après avoir enregistré l’arrivée d’un grand nombre de particules, on constate que les points d’impact se regroupent suivant un réseau de franges « brillantes », séparées par des franges « noires » où les particules n’arrivent jamais. L’expérience se comprend bien en termes de fonction d’onde
des particules. Cette fonction possède en effet deux composantes, correspondant au passage de la particule par chacune des deux fentes. La fonction d’onde totale est la somme des deux composantes, au sens de l’addition des nombres complexes, ou encore des vecteurs qui les représentent. En certains points de l’écran, les ondes sont en phase, leurs vecteurs de même direction, et la probabilité de trouver la particule est importante. En d’autres points, les ondes sont en opposition de phase, leurs vecteurs opposés, et la particule a une probabilité nulle d’arriver. La figure d’interférence s’évanouit si on ferme une des deux fentes, puisque alors une des composantes de la fonction d’onde disparaît.
Cette interprétation ondulatoire est étrange si l’on note que l’expérience peut être faite dans des conditions de flux très faible, où il ne se trouve à chaque instant qu’une particule dans l’appareil. On obtient alors les mêmes franges, après un temps de moyen-âge très long. On peut alors se demander comment une particule, seule dans l’interféromètre, peut « savoir » si les deux trous sont ouverts, auquel cas elle doit éviter les franges noires, ou si un trou est bouché, auquel cas elle peut arriver n’importe où ! On a là un exemple typique de logique non-classique : un phénomène (arrivée de la particule en un point) est moins probable lorsque deux possibilités sont offertes à la particule que si une seule ne l’est ! Un physicien classique posera immédiatement des questions simples : par quel trou passe réellement la particule ? Est ce une onde (auquel cas on comprend les interférences mais pas l’arrivée discrète sur l’écran) ou une particule (auquel cas on comprend les impacts discrets mais plus les interférences). La mécanique quantique répond qu’en vertu du principe de superposition, la particule passe par les deux trous à la fois, aussi longtemps qu’on ne la force pas à choisir ! Notons enfin que de telles expériences, relativement faciles à réaliser avec des particules microscopiques, deviennent de plus en plus difficiles avec des particules de taille importante. C’est encore possible avec des molécules, mais pas avec des boules de billard ou un quelconque objet macroscopique !
Les interférences quantiques jouent un rôle capital en physique microscopique et l’on peut s’en servir pour des applications importantes. Considérons par exemple un atome possédant deux niveaux d’énergie, un niveau fondamental g d’énergie Eg, et un niveau excité e, d’énergie Ee. On sait qu’en absorbant de la lumière dont la fréquence ν satisfait la relation Ee – Eg = hν (où h est la constante de Planck) l’atome peut être porté du niveau g au niveau e en absorbant un photon. Si on excite l’atome par une impulsion lumineuse et si on ajuste la durée de cette impulsion, on peut s’arranger pour que l’atome se trouve excité « à mi-
chemin » entre e et g, dans une superposition de ces deux états. Appliquons maintenant à l’atome initialement dans l’état g deux impulsions identiques, séparées dans le temps, à deux instants t1 et t2. Chacune des impulsions superpose les deux états e et g. Mesurons enfin l’énergie de l’atome et, en recommençant l’expérience un grand nombre de fois, déterminons la probabilité de le trouver finalement dans l’état e. La fonction d’onde associée à l’atome va, comme dans le cas de l’expérience de Young, présenter deux termes. L’un correspond à l’excitation de l’atome de g à e à l’instant t1, l’autre à l’instant t2. À ces termes correspondent des amplitudes complexes qui interfèrent. Leur phase relative peut être variée en balayant la fréquence ν autour de la fréquence de résonance atomique. On observe alors que la probabilité de trouver l’atome dans l’état e oscille en fonction de ν. On obtient un signal d’interférence dit « de Ramsey », du nom du physicien qui a mis au point cette méthode interférométrique. Alors que dans l’expérience de Young l’interférence provient du fait que l’on ne sait pas par quelle fente la particule est passée, ici elle résulte de l’ambiguïté sur l’instant de l’excitation de l’atome. C’est en détectant de telles franges sur l’atome de Césium que l’on fait fonctionner l’horloge atomique qui définit actuellement la seconde.
Revenons un instant sur la question de savoir par quel chemin la particule est passée. L’interférence ne s’observe que si on n’a aucun moyen de connaître ce chemin. Si on cherche à le déterminer, il faut introduire un nouvel élément dans l’appareillage expérimental, par
exemple ajouter dans l’expérience des fentes d’Young une source lumineuse, un laser, qui éclaire les fentes (figure 2b). Lorsque la particule passe, elle diffuse de la lumière au voisinage de la fente correspondante et l’éclair lumineux peut être détecté pour déterminer le trajet de la particule. On constate bien alors que la particule passe aléatoirement par un trou ou par l’autre, mais aussi que les franges disparaissent : les points d’impact sont maintenant distribués de façon uniforme. En d’autres termes, la particule, en diffusant la lumière qui révèle son chemin a été perturbée de façon telle que les relations de phase existant entre les deux composantes de la fonction d’onde associée sont brouillées, entraînant la disparition des franges. Ce résultat exprime ce que Bohr a appelé le principe de complémentarité. L’existence des franges et l’information sur le chemin suivi sont deux aspect exclusifs l’un de l’autre et complémentaires de la réalité physique. Ils nécessitent l’utilisation d’appareils différents. On est sensible tantôt à l’aspect ondulatoire de la particule, si on utilise un appareil rendant les chemins indiscernables, tantôt à l’aspect corpusculaire, si on utilise un appareil permettant de distinguer les chemins.

Intrication quantique, chat de Schrödinger et décohérence
Venons-en maintenant à une autre conséquence essentielle du principe de superposition, observable dans des systèmes constitués d’au moins deux particules qui interagissent entre elles, puis se séparent. Pour fixer les idées, considérons la collision de deux atomes identiques. Chacun de ces atomes possède deux niveaux d’énergie e et g. Supposons qu’avant la collision, l’atome 1 est excité (état e) et l’atome 2 est dans son état fondamental (état g). Au cours de la collision deux événements différents peuvent survenir. Ou bien les atomes conservent leurs énergies initiales, ou bien ils les échangent. Classiquement, les atomes devraient « choisir » l’une de ces deux possibilités. La règle quantique est différente. Ils peuvent suivre les deux voies à la fois. Le système se trouve après la collision dans une superposition de l’état où l’atome 1 est dans e et 2 dans g et de l’état où 1 est dans g et 2 dans e. À chacun de ces états est associée une amplitude complexe. Les modules élevés au carré de ces amplitudes représentent les probabilités de trouver l’une ou l’autre de ces deux situations au cours d’une mesure effectuée sur les deux atomes. Notons que si le résultat de la mesure sur chaque atome est aléatoire, les corrélations entre les résultats des mesures sont certaines. Si l’atome1 est trouvé dans e, l’atome 2 est dans g et inversement. C’est cette corrélation parfaite, observable quel que soit le type de mesure effectué sur les atomes, que l’on appelle intrication (« entanglement » en anglais). Cette intrication subsiste même si les deux atomes se sont éloignés l’un de l’autre et se trouvent séparés après la collision par une distance arbitrairement grande. Elle décrit une non-localité fondamentale de la physique quantique. Une mesure de l’atome 1 peut avoir un effet immédiat à grande distance sur le résultat de la mesure de l’atome 2 ! Il y a donc entre les deux particules un lien quantique immatériel et instantané. C’est Einstein, avec ses collaborateurs Podolski et Rosen, qui a discuté le premier en 1935 cet aspect troublant de la théorie quantique. On l’appelle depuis le problème EPR. Pour Einstein, il s’agissait là d’un défaut grave de la théorie puisqu’elle prévoyait des effets qui lui paraissaient manifestement absurdes. Depuis, le problème a été repris par d’autres physiciens, notablement John Bell dans les années 60, et des expériences effectuées sur des photons intriqués ont montré que la nature se comportait bien comme la théorie quantique le prescrit. L’une des expériences les plus probantes a été effectuée dans les années 1980 par Alain Aspect et ses collègues à Orsay. Notons que la non-localité vérifiée par ces expériences ne contredit pas le principe de causalité. On ne peut se servir des corrélations EPR pour transmettre de l’information instantanément entre deux points.
Si l’intrication nous apparaît comme bizarre, c’est pour une bonne part parce que, comme les interférences quantiques, elle ne s’observe jamais sur des objets macroscopiques.

Ceci nous conduit à la métaphore fameuse du chat de Schrödinger. Réfléchissant sur le problème EPR, Schrödinger alla en effet plus loin. Qu’est ce qui empêcherait, se demanda-t- il, d’amplifier un phénomène d’intrication microscopique pour y impliquer un système macroscopique? Considérons un atome excité qui émet un photon en se désexcitant. La mécanique quantique nous apprend qu’avant que le photon n’ait été émis de façon certaine, le système se trouve dans une superposition d’un état où l’atome est encore excité et d’un état où il s’est déjà désexcité. Chacun de ces termes est affecté de son amplitude complexe dans l’expression de l’état global du système. Mais, remarque Schrödinger, un seul photon peut déclencher un événement macroscopique. Imaginons en effet notre atome enfermé dans une boîte avec un chat. Supposons que le photon émis par l’atome déclenche un dispositif qui tue le chat. Si l’atome est dans une superposition d’un état où il a émis un photon et d’un état où il ne l’a pas encore émis, quel est à cet instant l’état du chat ? Si l’on admet que le chat peut être décrit par un état quantique bien défini ( et l’on touche là, comme nous le montrons plus loin, à un aspect crucial du problème), on conclut immanquablement à l’existence d’une intrication du système « atome + chat » qui devrait se trouver dans une superposition du chat vivant associé à l’atome excité et du chat mort associé à l’atome désexcité. Une telle situation laissant le malheureux chat suspendu entre la vie et la mort, représentée sur la figure 2c, était jugée burlesque par Schrödinger. Ce problème a fait couler beaucoup d’encre. Certains ont dit que c’est au moment où on cherche à observer si le chat est vivant ou mort qu’un processus mental chez l’observateur « force » la nature à décider. D’autres se sont demandé s’il fallait tenir compte du processus mental du chat lui-même et la discussion a vite versé dans la métaphysique.
Si on veut éviter un tel débat, l’approche pragmatique de Bohr est utile. Pour savoir si la superposition d’états existe, il faut imaginer un dispositif d’observation spécifique. La superposition « chat vivant- chat mort » ne peut être prouvée que si l’on sait réaliser une expérience susceptible de révéler l’interférence des amplitudes complexes associées aux parties « vivante » et « morte » du chat. Schrödinger n’a pas poussé la discussion jusque-là, mais on peut par exemple songer à utiliser comme sonde de l’état du chat une souris
« quantique» à qui l’on demanderait de traverser la boîte. La probabilité que la souris s’échappe devrait alors être le carré de la somme de deux amplitudes, une correspondant au chat vivant, l’autre au chat mort. Verra-t-on dans la probabilité finale un terme
d’interférence ? C’est peu probable et fortement contraire à notre intuition.

La question qui se pose est alors : qu’est-il arrivé aux interférences, pourquoi ont-elles disparu ? La réponse fait intervenir la notion fondamentale de décohérence. La situation que nous avons schématisée à l’extrême a négligé un élément essentiel. Notre chat ne peut être isolé en présence d’un seul atome « décidant » de son sort. Le chat – comme en général tout système macroscopique - est en effet baigné par un environnement constitué de très nombreuses molécules, de photons thermiques, et son couplage avec cet environnement ne peut être négligé. Pour mieux comprendre ce qui se passe, revenons à l’expérience d’Young. Si l’on cherche à déterminer le chemin par lequel la particule est passée, on doit par exemple lui faire diffuser un photon (figure 2b). On intrique alors ce photon avec la particule et on obtient une espèce de paire EPR dont un élément est la particule et l’autre le photon. Si on mesure le photon dans un état, on sait que la particule est passée par un trou. L’autre état a alors disparu. Il n’y a plus d’interférence. On comprend ainsi mieux la complémentarité comme un effet d’intrication de la particule avec l’environnement (ici le photon) qui interagit avec elle. La situation de notre chat est similaire. Notons tout d’abord que le point de départ de notre raisonnement, l’existence d’un état quantique bien déterminé pour le chat à l’instant initial de l’expérience, doit être remis en question. Dès cet instant, le chat est déjà intriqué avec son environnement et ne peut donc pas être décrit par un état quantique qui lui est propre. En admettant même que l’on puisse le découpler du reste du monde à cet instant
initial, il serait impossible d’éviter son interaction avec l’environnement pendant qu’il interagit avec l’atome unique imaginé par Schrödinger. Dès qu’il serait placé dans un état de superposition, il interagirait aussi avec un bain de molécules et de photons qui se trouveraient rapidement dans des états quantiques différents suivant que le chat est vivant ou mort. Très vite, une information sur l’état du chat fuirait dans l’environnement, détruisant les interférences quantiques, de la même façon que le photon diffusé par la particule dans l’expérience de Young fait disparaître les franges. L’environnement agit comme un « espion » levant l’ambiguïté quantique.
Notons enfin que la décohérence se produit de plus en plus vite lorsque la taille des systèmes augmente. Ceci est dû au fait que plus le système est gros, plus il est couplé à un grand nombre de degrés de libertés de l’environnement. Il n’est pas nécessaire de considérer des systèmes aussi macroscopiques qu’un chat pour que la décohérence domine. C’est déjà le cas pour les systèmes microscopiques au sens de la biologie que sont les macromolécules, les virus ou les bactéries. Le fait que l’on aît raisonné sur des êtres vivants n’a non plus rien d’essentiel ici. La décohérence est tout aussi efficace sur un objet inerte constitué d’un grand nombre de particules (agrégat d’atomes, grain de poussière...). L’image du chat n’est qu’une métaphore extrême imaginée par Schrödinger pour frapper les esprits.

Des atomes et des photons dans une boîte
Passons à la description de quelques expériences récentes sur l’intrication quantique, véritables réalisations des expériences de pensée. Il existe essentiellement trois systèmes sur lesquels des manipulations relativement complexes d’intrication ont été réalisées. Les sources de photons intriqués se sont considérablement améliorées depuis les expériences d’Aspect. On réalise à présent des paires de photons intriqués en décomposant dans un cristal non-linéaire un photon ultraviolet en deux photons visibles ou infrarouge. De belles expériences sur ces paires de photons ont été récemment réalisées, à Innsbruck, à Genève et aux États-Unis. Dans certains cas, il est préférable de disposer de particules massives, qui restent un long moment dans l’appareil pour être manipulées, au lieu de photons qui s’échappent du système à la vitesse de la lumière. On peut alors utiliser des ions piégés dans un champ électromagnétique. Il s’agit d’atomes auxquels on a arraché un électron et qui possèdent ainsi une charge sensible aux forces électriques exercées sur elle par un jeu d’électrodes métalliques convenablement agencées. On peut ainsi piéger quelques ions observables par la lumière de fluorescence qu’ils émettent lorsqu’ils sont éclairés par un laser. D’autres lasers peuvent servir à manipuler les ions. De belles expériences d’intrication ont été ainsi faites à Boulder dans le Colorado.

Le troisième type d’expérience, réalisé à l’École Normale Supérieure à Paris, est intermédiaire entre les deux précédents. On y intrique à la fois des photons et des atomes. Les photons ne se propagent pas, mais sont piégés dans une cavité électromagnétique traversée par les atomes. La cavité est formée de miroirs métalliques en niobium supraconducteur à très basse température placés l’un en face de l’autre. Des photons micro-onde peuvent se réfléchir des centaines de millions de fois sur ces miroirs et rester ainsi piégés pendant un temps de l’ordre de la milliseconde. Des atomes, préparés dans un état de Rydberg très excité, traversent un à un la cavité, interagissent avec les photons et sont ensuite ionisés et détectés. La grande taille de ces atomes (figure 1c) les rend extrêmement sensibles au couplage avec le rayonnement de la cavité, une condition essentielle à l’observation des phénomènes d’intrication quantique.
Nous donnerons ici simplement un aperçu général sur quelques expériences récentes d’intrication atome-cavité. Pour simplifier, admettons que nos atomes possèdent essentiellement deux niveaux de Rydberg appelés comme précédemment e et g. La séparation des miroirs est, dans un premier temps, réglée pour que les photons de la cavité soient
résonnants avec la transition entre ces deux niveaux. Cela veut dire que si l’atome entre dans la cavité dans le niveau e, il peut, en conservant l’énergie, y émettre un photon en passant dans le niveau g et que s’il y entre dans g, il peut absorber un photon présent pour passer dans l’état e. Envoyons un atome dans e à travers la cavité initialement vide et réglons le temps de traversée de la cavité par l’atome pour que la probabilité d’émission d’un photon soit de
50 %. L’état final obtenu est une superposition d’un atome dans e avec une cavité vide et d’un atome dans g avec une cavité contenant un photon, ce qui constitue une intrication atome- photon. Cette intrication survit à la sortie de l’atome de la cavité.
Compliquons maintenant la situation en envoyant dans la cavité deux atomes, l’un dans e, l’autre dans g. Le premier atome a sa vitesse réglée pour émettre avec 50 % de probabilité un photon et le second interagit le temps qu’il faut pour absorber à coup sûr le photon s’il y en a un. Il s’agit donc d’un transfert d’énergie entre les deux atomes induit par la cavité. Si on se demande, après la traversée des deux atomes, si l’excitation a été transférée de l’un à l’autre, la théorie quantique nous donne une réponse ambiguë : oui et non à la fois. Le résultat est une paire d’atomes intriqués. Le schéma – illustré sur la figure 3 - se généralise avec un plus grand nombre de particules. On peut réaliser des situations où deux atomes et un photon, ou encore trois atomes, sont intriqués...
Une version de laboratoire du chat de Schrödinger
Envisageons maintenant une situation où la cavité est désaccordée par rapport à la fréquence de la transition atomique. La non-conservation de l’énergie interdit alors l’émission ou l’absorption de photons par l’atome. Cela ne veut pas dire cependant que les deux systèmes n’interagissent pas. La simple présence de l’atome dans la cavité modifie légèrement la fréquence du champ qu’elle contient. Cet effet dépend de l’état d’ énergie de l’atome. La fréquence du champ est augmentée ou diminuée, suivant que l’atome se trouve dans un niveau ou l’autre. Que se passe-t-il alors si l’atome est dans une superposition des deux états ? Les lois quantiques disent que l’on doit avoir en même temps une fréquence diminuée et augmentée. Cette réponse ambiguë conduit à la possibilité de créer un nouveau type d’intrication.
Commençons par injecter entre les miroirs un champ contenant quelques photons à l’aide d’une source micro-onde couplée à la cavité par un guide d’onde, puis coupons cette source. Nous piégeons ainsi quelques photons dans la cavité pendant un temps d’une fraction de milliseconde. Le champ électrique de l’onde qui leur est associée est une fonction périodique du temps. On peut représenter cette fonction par un nombre complexe dont le module et la phase correspondent à ceux du champ. Ce nombre complexe est associé à un vecteur (on retrouve la représentation des nombres complexes évoquée plus haut, introduite en optique par Fresnel). L’extrémité du vecteur se trouve dans un petit cercle d’incertitude qui reflète l’existence pour de tels champs contenant quelques photons des fluctuations quantiques d’amplitude et de phase. Envoyons à présent dans la cavité notre atome dans une superposition des états e et g (Figure 4a). Sa présence a pour résultat de changer de façon transitoire la période des oscillations du champ et donc de le déphaser, c’est-à-dire de déplacer les instants où il passe par ses maxima et minima (Figure 4b). De façon équivalente, le vecteur représentatif tourne dans le plan de l’espace des phases. Mais du fait que l’atome est dans une superposition de deux états produisant des effets de signes opposés, on a deux états de phases différentes, intriqués aux deux états atomiques, une situation qui rappelle celle du chat de Schrödinger (Figure 4c). On voit également que le champ est une espèce d’aiguille de mesure qui « pointe » dans deux directions différentes du plan de Fresnel suivant que l’atome est dans e ou g, jouant ainsi le rôle d’un appareil de mesure qui « observe » l’atome.

Cette remarque nous conduit à décrire une expérience de démonstration simple du principe de complémentarité. Nous avons vu qu’ en soumettant l’ atome à deux impulsions lumineuses mélangeant les états e et g, aux instants t1 et t2 (en appliquant à l’atome deux impulsions dans les « zones de Ramsey » indiquées par des flèches sur la Figure 5a), on obtient, pour la probabilité finale de trouver l’atome dans g, un signal de franges d’interférence. Ces franges ne s’observent que si rien dans le dispositif ne nous permet de savoir dans quel état se trouve l’atome entre les deux impulsions. Soumettons alors l’atome entre t1 et t2 à un petit champ non résonnant stocké dans une cavité. La phase de ce champ tourne d’un angle dépendant de l’état de l’atome. Le champ « espionne » l’atome et les franges vont donc s’effacer. C’est bien ce qu’on observe (figure 5b). Si la rotation de phase du champ est faible, on ne peut en déduire avec certitude l’état atomique et les franges subsistent avec un contraste réduit. Elles disparaissent par contre totalement dans le cas d’une rotation de phase importante, rendant certaine l’information sur le chemin suivi par l’atome. On modifie simplement la rotation de phase du champ en changeant le désaccord de fréquence entre l’atome et la cavité.
La décohérence quantique saisie sur le vif
L’expérience que nous venons de décrire s’intéresse à la superposition des états de l’atome, influencée par la présence du champ. Que peut-on dire de la superposition des états du champ lui-même ? Combien de temps cette superposition d’états survit-elle ? L’environnement du champ est constitué par l’espace qui entoure la cavité, qui peut se remplir de photons diffusés par les défauts de surface des miroirs. En fait, c’est ce processus de diffusion qui limite dans notre expérience la durée de vie du champ à un temps Tcav d’une fraction de milliseconde. Si la cavité contient en moyenne n photons, un petit champ contenant environ un photon s’échappe donc dans l’environnement en un temps très court, Tcav divisé par n. Ce champ microscopique emporte une information sur la phase du champ restant dans la cavité. Ainsi, au bout d’un temps Tcav/n, la cohérence quantique entre les deux composantes du champ dans la cavité a disparu. Ceci explique pourquoi des champs macroscopiques, pour lesquels n est très grand (de l’ordre d’un million ou plus), se comportent classiquement, la décohérence y étant quasi-instantanée. Dans notre expérience cependant, n est de l’ordre de 3 à 10. Le temps de décohérence est alors assez long pour permettre l’observation transitoire d’interférences quantiques associées aux deux composantes de notre « chat de Schrödinger ». Pour cette observation, nous envoyons dans la cavité, après le premier atome qui prépare le « chat », un second atome jouant le rôle de la « souris quantique » évoquée plus haut. Cet atome recombine les composantes du champ séparées par le premier atome de telle sorte qu’il apparaît, dans un signal de corrélation entre les résultats des détections des deux atomes, un terme sensible à l’interférence associée aux deux composantes du chat créé par le premier atome. Ce signal d’interférence (voir Figure 6) décroît lorsque le délai entre les deux atomes augmente. Ce phénomène est d’autant plus rapide que les deux composantes du « chat » sont plus séparées, ce qui illustre un des aspects essentiels de la décohérence, qui agit d’autant plus vite que le système est plus
« macroscopique ». Cette expérience constitue une exploration de la frontière entre les mondes quantique (dans lequel les effets d’interférences sont manifestes) et quantique (dans lequel ces effets sont voilés).
Vers une utilisation pratique de la logique quantique ?
En dehors de leur intérêt fondamental, quelles peuvent être les retombées pratiques de ces expériences et de celles qui sont effectuées sur des ions piégés ou des photons intriqués ?
La logique qui y est à l’œuvre peut être décrite dans le cadre d’une branche en plein développement de l’informatique, qui s’intéresse à la façon dont on peut transmettre et manipuler de l’information en exploitant les lois quantiques. On peut en effet considérer les systèmes à deux états que nous avons considérés (atome à deux niveaux, cavité avec 0 ou 1 photon, champ présentant deux phases possibles) comme des « porteurs » d’information, des « bits » à l’aide desquels on peut coder deux valeurs, 0 ou 1. Nos expériences peuvent être vues comme des opérations sur ces bits, qui les couplent suivant une dynamique conditionnelle. On peut par exemple considérer que le champ (0 ou 1 photon) est un bit
« contrôle » et que l’atome est un bit « cible ». On peut réaliser l’expérience en cavité de sorte que si le bit contrôle est dans l’état 0, le bit cible ne change pas, et que par contre il change d’état si le bit contrôle est dans l’état 1. On obtient alors une porte conditionnelle analogue aux portes utilisées dans les ordinateurs classiques. La nouveauté de cette porte par rapport à celles des ordinateurs usuels est que les bits peuvent être mis dans des superpositions d’états. On manipule ainsi non pas seulement les valeurs 0 ou 1, mais aussi des superpositions de ces valeurs. On parle alors de bits quantiques ou « qubits ». Si on prépare le qubit contrôle dans une superposition de 0 et de 1, le fonctionnement de la porte conditionnelle génère en sortie deux bits intriqués. Cette intrication élémentaire peut être amplifiée en se servant de la sortie d’une porte comme entrée d’une porte en cascade et ainsi de suite. On peut construire de la sorte des combinaisons complexes d’opérations. L’intrication ainsi réalisée permettrait en principe d’obtenir des situations équivalentes à la superposition cohérente d’un grand nombre d’ordinateurs classiques, travaillant en parallèle et interférant entre eux. Pour certains types de calculs (comme la factorisation des grands nombres), on devrait gagner énormément en vitesse d’exécution par rapport à ce que permettent les algorithmes de calcul classiques.
Cette constatation explique en grande part l’engouement actuel pour ce type de recherche. Il faut cependant faire ici une réserve importante. La décohérence est un problème très sérieux pour ce genre de système. Ce que l’on cherche à construire ainsi n’est autre qu’un super chat de Schrödinger dont nous venons de voir la sensibilité extraordinaire au couplage avec l’environnement. Dès qu’un quantum s’échappe de l’ « ordinateur », la cohérence quantique est perdue. Certains espèrent résoudre la difficulté en ajoutant des dispositifs correcteurs d’erreurs quantiques. Il s’agit de processus complexes, dont la mise en œuvre efficace est loin d’être évidente. L’ avenir de l’ordinateur quantique reste – et c’est un euphémisme – bien incertain. D’autres applications de la logique quantique, moins sensibles à la décohérence, sont plus prometteuses. Le partage entre deux observateurs de paires de particules intriquées ouvre la voie à une cryptographie quantique permettant l’échange d’informations secrètes, suivant une procédure inviolable. Des expériences très encourageantes ont été réalisées en ce domaine. La téléportation quantique permet de reproduire à distance, en se servant des propriétés de l’intrication, l’état d’une particule quantique. Cet effet pourrait lui aussi être utilisé dans des dispositifs de traitement quantique de l’information.
Conclusion : la « gloire et la honte du quantum »
Au terme de cette brève exploration de la physique quantique, concluons sur un mot du physicien Archibald Wheeler, l’un des derniers survivants de la génération des fondateurs de la théorie. Réfléchissant sur ce siècle des quanta, il a parlé sous une forme lapidaire de « la gloire et de la honte du quantum ». La gloire c’est bien sûr l’immense succès de cette théorie pour nous faire comprendre la nature. La honte, c’est qu’au fond, on ne « comprend » pas la théorie. En essayant d’utiliser un langage issu de notre monde classique, on arrive à des problèmes d’interprétation troublants. En fait, beaucoup de physiciens ne se posent pas ces problèmes. La nature est ce qu’elle est, quantique sans doute, et ils l’admettent sans états
d’âme, obéissant à l’injonction de Bohr à Einstein : « arrête de dire à Dieu ce qu’il doit
faire » ! Pour d’autres, il manque encore une formulation de la théorie qui réconcilierait notre intuition avec le monde tel qu’il est. La nouveauté de cette fin de siècle est que ce problème, longtemps réservé aux théoriciens et aux « imagineurs » d’expériences de pensée, s’ouvre maintenant aux expériences réelles.

Réaliser ces expériences de pensée est un défi amusant et excitant. C’est un plaisir rare de pouvoir suivre in vivo la danse des atomes et des photons qui obéissent de façon si parfaite aux injonctions de la théorie quantique. Il faut cependant constater que ces expériences deviennent de plus en plus difficiles lorsqu’on augmente la taille du système. Maintenir ne serait-ce qu’un modèle réduit de chat de Schrödinger suspendu dans une superposition cohérente d’états est vraiment difficile. Même si l’ordinateur quantique n’est pas vraiment en vue, ce domaine de recherche nous réserve cependant encore bien des surprises. Il y aura sans doute des applications de toute cette physique, et, comme c’est souvent le cas, ce ne seront vraisemblablement pas celles que l’on prévoit.
RÉFÉRENCES :
Sur l’intrication quantique et la décohérence :
W. ZUREK, « Decoherence and the transition from quantum to classical », Physics Today, Vol 44, No 10, p36 (1991).
Sur les expériences d’atomes en cavité :
P.R. BERMAN (éditeur) : « Cavity Quantum Electrodynamics », Academic Press, Boston (1994)
S. HAROCHE, J.M. RAIMOND et M. BRUNE, « Le chat de Schrödinger se prête à l’expérience », La Recherche, 301, p50, Septembre 1997.
Sur l’information quantique :
D. BOUWMEESTER, A. EKERT et A. ZEILINGER (éditeurs) « The physics of quantum information », Springer Verlag, Berlin, Heidelberg (2000).
Légendes des figures :
Figure 1. Représentation des orbitales de l’état fondamental (a), du premier état excité (b) et d’un état de Rydberg très excité (c) de l’électron de l’atome d’hydrogène. La figure (c) n’est pas à l’échelle (une orbitale de Rydberg peut avoir un diamètre mille fois plus grand que celui d’un état fondamental).
Figure 2. Interférences quantiques : (a) Expérience d’Young : chaque particule traverse l’interféromètre suivant deux chemins indiscernables et les points d’impact sur l’écran reproduisent une figure de franges. (b) Si on cherche à déterminer le chemin suivi, l’interférence disparaît (complémentarité). (c) quand on essaye de superposer deux états distincts d’un système macroscopique (superposition symbolisée par le signe + d’un « chat vivant » et d’un « chat mor t » dans une boîte), l’environnement (molécules dans la boîte) s’intrique avec le système, supprimant très rapidement les effets d’interférence (décohérence).
Figure 3. Expérience préparant une paire d’atomes intriqués : deux atomes, le premier dans l’état e, le second dans g sont envoyés dans une cavité initialement v ide, formée de deux miroirs se faisant face. Si les temps d’interaction atome-champ sont convenablement réglés, les deux atomes émergent dans une superposition d’états.
Figure 4 : Principe de la préparation d’un état « chat de Schrödinger » du champ dans la cavité : (a) un atome dans une superposition de deux états traverse la cavité. (b) il donne au champ deux phases à la fois. (c) Chaque composante de phase est représentée par un vecteur pointant dans une direction donnée.
Figure 5 : Expérience de complémentarité : (a) Principe : l’atome suit deux
« chemins » entre les zones de Ramsey et la phase du champ dans la cavité fournit une information levant l’ambiguité. (b) Signal : La probabilité de détecter l’atome dans le niveau g est enregistrée en fonction de la fréquence appliquée dans les zones de Ramsey, pour trois valeurs du déphasage du champ. Les franges sont d’autant moins visibles que les deux composantes du champ dans la cavité sont plus séparées.

Figure 6. Expérience de décohérence : (a) Principe : l’atome 1 prépare la superposition d’états de phases différentes du champ dans la cavité et l’atome 2 la sonde après un délai variable. (b) Signaux de corrélation à deux atomes en fonction du délai entre eux, obtenus en moyennant les résultats d’un grand nombre de réalisations. Le nombre moyen de photons est 3,3. L’expérience est effectuée pour deux séparations différentes des composantes du champ (cercles et triangles expérimentaux). Les courbes sont théoriques.

 

  VIDEO       CANAL  U         LIEN 
 

 
 
 
 

DE L'ATOME AU CRISTAL : LES PROPRIÉTÉS ÉLECTRONIQUES DES MATÉRIAUX

 

 

 

 

 

 

 

DE L'ATOME AU CRISTAL : LES PROPRIÉTÉS ÉLECTRONIQUES DES MATÉRIAUX

Métaux, semi-conducteurs, ou même supraconducteurs transportant un courant électrique sans aucune résistance, les matériaux présentent une diversité de propriétés électroniques remarquable, mise à profit dans de nombreuses applications qui font partie de notre quotidien. La chimie de l'état solide, en explorant les très nombreuses combinaisons entre éléments pour élaborer des structures de plus en plus complexes, nous invite à un véritable jeu de construction avec la matière, source de nouvelles découvertes. En même temps, le développement de techniques permettant d'élaborer, de structurer, et de visualiser ces matériaux à l'échelle de l'atome, ouvre d'immenses perspectives. Des lois de la mécanique quantique qui régissent le comportement d'un électron, aux propriétés d'un matériau à l'échelle macroscopique, c'est une invitation au voyage au coeur des matériaux que propose cette conférence.

Transcription de la 580e conférence de l'Université de tous les savoirs prononcée le 23 juin 2005
De l'atome au cristal : Les propriétés électroniques de la matière

Par Antoine Georges
Les ordres de grandeur entre l'atome et le matériau :
1. Il existe entre l'atome et le matériau macroscopique un très grand nombre d'ordres de grandeur, d'échelles de longueur. Prenons l'exemple d'un lingot d'or : quelqu'un muni d'une loupe très puissante pourrait observer la structure de ce matériau à l'échelle de l'atome : il verrait des atomes d'or régulièrement disposés aux nSuds d'un réseau périodique. La distance entre deux de ces atomes est de l'ordre de l'Angstrom, soit 10-10m. Ainsi, dans un lingot cubique de un millimètre de côté, il y a 10 millions (107) d'atomes dans chaque direction soit 1021 atomes au total ! Les échelles spatiales comprises entre la dimension atomique et macroscopique couvrent donc 7 ordres de grandeur. Il s'agit alors de comprendre le fonctionnement d'un système composé de 1021 atomes dont les interactions sont régies par les lois de la mécanique quantique.

2. Malheureusement, une telle loupe n'existe évidemment pas. Cependant, il est possible de voir les atomes un par un grâce à des techniques très modernes, notamment celle du microscope électronique à effet tunnel. Il s'agit d'une sorte de « gramophone atomique », une pointe très fine se déplace le long d'une surface atomique et peut détecter d'infimes changements de relief par variation du courant tunnel (voir plus loin). Cette découverte a valu à ses inventeurs le prix Nobel de physique de 1986 à Gerd Karl Binnig et Heinrich Rohrer (Allemagne).

3. Nous pouvons ainsi visualiser les atomes mais aussi les manipuler un par un au point de pouvoir « dessiner » des caractères dont la taille ne dépasse pas quelques atomes ! (Le site Internet www.almaden.ibm.com/vis/stm/gallery.html offre de très belles images de microscopie à effet tunnel). Cette capacité signe la naissance du domaine des nanotechnologies où la matière est structurée à l'échelle atomique.

4. Les physiciens disposent d'autres « loupes » pour aller regarder la matière à l'échelle atomique. Parmi elles, le synchrotron est un grand anneau qui produit un rayonnement lumineux très énergétique et qui permet de sonder la structure des matériaux, des molécules ou des objets biologiques, de manière statique ou dynamique. Les applications de ce genre de loupe sont innombrables en physique des matériaux, chimie, biologie et même géologie (par pour l'étude des changements structuraux des matériaux soumis à de hautes pressions).

5. Il existe encore bien d'autres « loupes » comme par exemple la diffusion de neutrons, la spectroscopie de photo-émission, la résonance magnétique... Dans la diffusion de neutrons, un neutron pénètre un cristal pour sonder la structure magnétique du matériau étudié.

La grande diversité des matériaux :
6. Ces différentes techniques révèlent la diversité structurale des matériaux, qu'ils soient naturels ou artificiels. Le sel de cuisine, par exemple, a une structure cristalline très simple. En effet, il est composé d'atomes de sodium et de chlore régulièrement alternés. Il existe également des structures plus complexes, comme par exemple les nanotubes de carbone obtenus en repliant des feuilles de graphite sur elles-mêmes ou la célèbre molécule C60 en forme de ballon de football composée de 60 atomes de carbone (fullerènes)

7. Tous ces matériaux peuvent être soit présents à l'état naturel soit élaborés de manière artificielle. Cette élaboration peut être faite plan atomique par plan atomique en utilisant une technique appelée « épitaxie par jet moléculaire » dans laquelle un substrat est bombardé par des jets moléculaires. Les atomes diffusent pour former des couches monoatomiques. Cette technique permet alors de fabriquer des matériaux contrôlés avec une précision qui est celle de l'atome.

8. La diversité des matériaux se traduit donc pas une grande diversité des structures, mais aussi de leurs propriétés électroniques. Par exemple, la résistivité (c'est-à-dire la capacité d'un matériau à s'opposer au passage d'un courant : R=U/I) varie sur 24 ordres de grandeurs entre de très bons conducteurs et un très bon isolant, ce qui est encore bien plus que les 7 ordres de grandeurs des dimensions spatiales. Il existe donc des métaux (qui sont parfois de très bons conducteurs), des isolants (de très mauvais conducteurs), des semi-conducteurs et même des supraconducteurs. Ces derniers sont des métaux, qui en dessous d'une certaine température, n'exercent aucune forme de résistance et ne dissipent aucune énergie. D'autres matériaux encore voient leur gradient thermique évoluer en fonction du courant qui les traverse, ceci permet par exemple de fabriquer du « froid » avec de l'électricité ou fabriquer de l'électricité avec de la chaleur, ce sont des thermoélectriques. Enfin, la résistivité de certains matériaux est fonction du champ magnétique dans lequel ils sont placés.

9. Ces diversités, autant structurales qu'électroniques, sont et seront de plus en plus mises à profit dans d'innombrables applications. Nous pouvons citer parmi elles, le transistor, le circuit intégré, le lecteur CD, l'imagerie par résonance magnétique etc. Derrière ces applications pratiques, il y a des problèmes de physique et de chimie fondamentales, et pour parfaitement comprendre l'origine de cette diversité, il faut remonter aux lois de la mécanique quantique. Il s'agit donc de jeter un pont entre l'échelle macroscopique et le monde quantique, à travers ces fameux 7 ordres de grandeurs. Particulièrement dans ce domaine, les sciences théoriques et expérimentales interagissent énormément. Nous allons donc partir de l'échelle atomique pour essayer de comprendre le comportement macroscopique d'un matériau.
De l'atome au matériau :

10. Commençons donc par la structure atomique. Un atome est composé d'un noyau, autour duquel gravitent des électrons. L'électron est environ 2000 fois plus léger que les protons et neutrons, constituants de base du noyau. La taille de cet ensemble est d'environ 10-10m (un Angstrom).
11. Le système {noyau+électron} semble comparable au système {Terre+soleil}, dans ce cas, l'électron tournerait sur une orbite bien régulière autour du noyau. Il n'en n'est rien. Même si les physiciens ont, pour un temps, cru au modèle planétaire de l'atome, nous savons depuis les débuts de la mécanique quantique que le mouvement de l'électron est bien différent de celui d'une planète !

12. La première différence notable est que l'électron ne suit pas une trajectoire unique. En fait, nous ne pouvons trouver l'électron qu'avec une certaine probabilité dans une région de l'espace. Cette région est appelée orbitale atomique. La forme de ce nuage de probabilités dépend de l'énergie de l'électron et de son moment cinétique. Si cette région est sphérique, on parle d'orbitale « s », (cas de l'atome d'hydrogène où seul un électron tourne autour du noyau). On parle d'orbitale « p » lorsque le nuage de probabilités est en forme de 8, (atome d'oxygène). Enfin, lorsque ce nuage prend une forme de trèfle à quatre feuilles, on parle d'orbitale « d » (atome de fer). Ainsi, il n'existe pas de trajectoires à l'échelle quantique, mais uniquement des probabilités de présence.
13. De plus, l'énergie d'un électron ne peut prendre que certaines valeurs bien déterminées, l'énergie est quantifiée (origine du terme quantique). La localisation de ces différents niveaux d'énergies et la transition entre ces niveaux par émission ou par absorption a été à l'origine de la mécanique quantique. Ces travaux ont valu à Niels Bohr le prix Nobel de physique de 1922. L'état d'énergie le plus bas est appelé état fondamental de l'atome. Il est par ailleurs possible d'exciter l'électron (avec de la lumière, par exemple) vers des niveaux d'énergie de plus en plus élevés. Ceci est connu grâce aux spectres d'émission et d'absorption de l'atome, qui reflètent les différents niveaux d'énergie possibles.

14. La troisième particularité du mouvement de l'électron est son Spin, celui-ci peut être représenté par une représentation imagée : l'électron peut tourner sur lui-même vers la gauche ou vers la droite, en plus de sa rotation autour du noyau. On parle de moment cinétique intrinsèque ou de deux états de Spin possibles. Pauli, physicien autrichien du XXéme siècle, formula le principe d'exclusion, à savoir qu'un même état d'énergie ne peut être occupé par plus de deux électrons de Spin opposé. Nous verrons plus loin qu'il est impossible de connaître l'état macroscopique d'un matériau sans tenir compte du principe d'exclusion de Pauli. Pour l'atome d'hélium par exemple, la première (et seule) couche contient deux atomes et deux seulement, il serait impossible de rajouter un atome dans cette couche, elle est dite complète.
15. On peut considérer grâce à ces trois principes (description probabiliste, niveaux d'énergies quantifiés et principe d'exclusion) que l'on remplit les couches électroniques d'un atome avec les électrons qui le constituent. Les éléments purs, dans la nature, s'organisent alors de manière périodique, selon la classification de Mendeleïev. Cette classification a été postulée de manière empirique bien avant le début de la mécanique quantique, mais cette organisation reflète le remplissage des couches atomiques, en respectant le principe d'exclusion de Pauli.
16. Un autre aspect du monde quantique est l'effet tunnel. Dans le microscope du même nom, cet effet est mis à profit pour mesurer une variation de relief. L'effet tunnel est une sorte de « passe-muraille quantique ». En mécanique classique, un personnage qui veut franchir un obstacle doit augmenter son niveau d'énergie au dessus d'un certain niveau. En mécanique quantique, en revanche, il est possible de franchir cet obstacle avec une certaine probabilité même si notre énergie est inférieure au potentiel de l'obstacle. Bien sûr, cette probabilité diminue à mesure que cette différence d'énergie augmente.
17. Cet effet tunnel assure la cohésion des solides, et permet aussi à un électron de se délocaliser sur l'ensemble d'un solide. Cet effet tunnel est possible grâce à la dualité de l'électron : il est à la fois une particule et une onde. On peut mettre en évidence cette dualité grâce à l'expérience suivante : une source émet des électrons un par un, ceux-ci ont le choix de passer entre deux fentes possibles. La figure d'interférence obtenue montre que, bien que les électrons soient émis un par un, ils se comportent de manière ondulatoire.

18. Les électrons des couches externes de l'atome (donc les moins fortement liés au noyau) vont pouvoir se délocaliser d'un atome à l'autre par effet tunnel. Ces « sauts », sont à l'origine de la cohésion d'un solide et permettent également la conduction d'un courant électronique à travers tout le solide.
19. Une autre conséquence de cet effet tunnel est que l'énergie d'un solide n'est pas une simple répétition n fois des niveaux d'énergie de chaque atome isolé. En réalité, il apparaît une série d'énergies admissibles qui se répartissent dans une certaine gamme d'énergie, cette gamme est appelée bande d'énergie permise. D'autres gammes restent interdites. Ainsi, si les atomes restent éloignés les uns des autres, les bandes d'énergies admises sont très étroites, mais à mesure que la distance inter-atomique diminue, ces bandes s'élargissent et le solide peut alors admettre une plus large gamme de niveaux d'énergie.

20. Nous pouvons penser, comme dans la classification périodique, que les électrons remplissent ces bandes d'énergies, toujours en respectant le principe d'exclusion de Pauli. L'énergie du dernier niveau rempli est appelée énergie du niveau de Fermi. La manière dont se place ce dernier niveau rempli va déterminer la nature du matériau (métal ou isolant). Si le niveau de Fermi se place dans une bande d'énergie admise, il sera très facile d'exciter les électrons, le matériau sera donc un métal. Si au contraire le niveau de Fermi se place dans une bande d'énergie interdite, il n'est pas possible d'exciter les électrons en appliquant une petite différence de potentiel, nous avons donc affaire à un isolant. Enfin, un semi-conducteur est un isolant dont la bande d'énergie interdite (« gap », en anglais), est suffisamment petite pour que l'on puisse exciter un nombre significatif de porteurs de charge simplement avec la température ambiante.
Nous voyons donc que l'explication de propriétés aussi courantes des matériaux repose sur les principes généraux de la mécanique quantique.

21. Ainsi, dans un solide constitué d'atomes dont la couche électronique externe est complète, les électrons ne peuvent sauter d'un atome à l'autre sans violer le principe d'exclusion de Pauli. Ce solide sera alors un isolant.

22-23. En réalité, les semi-conducteurs intrinsèques (les matériaux qui sont des semi-conducteurs à l'état brut) ne sont pas les plus utiles. On cherche en fait à contrôler le nombre de porteurs de charge que l'on va induire dans le matériau. Pour cela, il faut créer des états d'énergies très proches des bandes permises (bande de conduction ou bande de Valence). On introduit à ces fins des impuretés dans le semi-conducteur (du bore dans du silicium, par exemple) pour fournir ces porteurs de charges. Si on fournit des électrons qui sont des porteurs de charges négatifs, on parlera de dopage N. Si les porteurs de charges sont des trous créés dans la bande de Valence, on parlera de dopage P.

24. L'assemblage de deux semi-conducteurs P et N est la brique de base de toute l'électronique moderne, celle qui permet de construire des transistors (aux innombrables applications : amplificateurs, interrupteurs, portes logiques, etc.). Le bond technologique dû à l'invention du transistor dans les années 1950 repose donc sur tout l'édifice théorique et expérimental de la mécanique quantique. L'invention du transistor a valu le prix Nobel en 1956 à Brattain, Shockley et Bardeen. Le premier transistor mesurait quelques centimètres, désormais la concentration dans un circuit intégré atteint plusieurs millions de transistors au cm². Il existe même une célèbre loi empirique, proposée par Moore, qui observe que le nombre de transistors que l'on peut placer sur un microprocesseur de surface donnée double tous les 18 mois. Cette loi est assez bien vérifiée en pratique depuis 50 ans !

25. En mécanique quantique, il existe un balancier permanent entre théorie et expérience. La technologie peut induire de nouvelles découvertes fondamentales, et réciproquement.
Ainsi, le transistor à effet de champ permet de créer à l'interface entre un oxyde et un semi-conducteur un gaz d'électrons bidimensionnel, qui a conduit à la découverte de « l'effet Hall quantifié ».

26. Cette nappe d'électron présente une propriété remarquable : lorsqu'on applique un champ magnétique perpendiculaire à sa surface, la chute de potentiel dans la direction transverse au courant se trouve quantifiée de manière très précise. Ce phénomène est appelé effet Hall entier (Klaus von Klitzing, prix Nobel 1985) ou effet Hall fractionnaire (Robert Laughlin, Horst Stormer et Daniel Tsui, prix Nobel 1998).

27. L'explication de ces phénomènes fait appel à des concepts fondamentaux de la physique moderne comme le phénomène de localisation d'Anderson, qui explique l'effet des impuretés sur la propagation des électrons dans un solide. Nous voyons donc encore une fois cette interaction permanente entre technologie et science fondamentale.
La supraconductivité :
28. Il existe donc des métaux, des isolants, des semi-conducteurs. Il existe un phénomène encore plus extraordinaire : la supraconductivité. Il s'agit de la manifestation d'un phénomène quantique à l'échelle macroscopique : dans un métal « normal », la résistance tend vers une valeur finie non nulle lorsque la température tend vers 0 alors que dans un métal supraconducteur, la résistance s'annule en dessous d'une certaine température dite critique. Les perspectives technologiques offertes par la supraconductivité paraissent donc évidentes car il serait alors possible de transporter un courant sans aucune dissipation d'énergie. Le problème est de contrôler la qualité des matériaux utilisés, et il serait évidemment merveilleux de pouvoir réaliser ce phénomène à température ambiante...

29. La supraconductivité a été découverte par Kammerlingh Onnes en 1911 quand il refroidit des métaux avec de l'hélium liquide à une température d'environ 4 degrés Kelvin.
30. Ce phénomène ne fut expliqué que 46 ans plus tard, car il fallait tout l'édifice de la mécanique quantique pour réellement le comprendre. Nous devons cette explication théorique à Bardeen, Cooper et Schieffer à la fin des années 1950.
31. Dans un métal, il y a une source naturelle d'attraction entre les électrons. On peut imaginer que chaque électron déforme légèrement le réseau cristallin et y attire un autre électron pour former ce que l'on nomme une paire de Cooper. Ces paires peuvent échapper au principe d'exclusion de Pauli car elles ont un Spin 0. Elles se comportent alors comme des bosons et non plus comme des fermions, et s'écroulent dans un même état d'énergie pour former un état collectif. Le matériau a un comportement analogue à l'état de superfluide de l'hélium 4. Toutes ces paires de Cooper sont donc décrites par une unique fonction d'onde, c'est un état quantique macroscopique. Il existe donc de nombreuses propriétés qui révèlent cet état quantique à l'échelle du matériau.

32. A la fin des années 1950, la théorie de la supraconductivité est enfin comprise et le but est maintenant d'augmenter la température critique. Une véritable course est alors lancée, mais celle-ci n'eut pas que des succès. Alors que en 1911 Kammerlingh Onnes observait la supraconductivité du mercure à une température de 4K, à la fin des années 80, nous en étions encore à environ 30K. En 1986, cette température critique fait un bond considérable et se trouve aujourd'hui aux alentours des 140K. La température de l'azote liquide étant bien inférieure à ces 140K, il est désormais moins coûteux d'obtenir des supraconducteurs.
33. Ces supraconducteurs possèdent des propriétés étonnantes. Par exemple, un champ magnétique ne peut pénétrer à l'intérieur d'un matériau supraconducteur. Ceci permet de faire léviter un morceau de supraconducteur en présence d'un champ magnétique !
34. Cette « lévitation magnétique » offre de nouvelles perspectives : il est par exemple possible de faire léviter un train au dessus de ses rails, il faut alors très peu d'énergie pour propulser ce train à de grandes vitesses. Un prototype japonais a ainsi atteint des vitesses de plus de 500km/h.

Les supraconducteurs permettent de créer des champs magnétiques à la fois très intenses et contrôlés, et servent donc pour l'imagerie par résonance magnétique (IRM). Ceci offre bien sûr de nouvelles possibilités en imagerie médicale.
Les supraconducteurs peuvent être également utilisés pour créer de nouveaux outils pour les physiciens : dans le nouvel accélérateur de particules au CERN à Genève, les aimants sont des supraconducteurs.
35. L'année 1986 voit une véritable révolution dans le domaine de la supraconductivité. Bednorz et Muller découvrent en effet une nouvelle famille de matériaux supraconducteurs qui sont des oxydes de cuivre dopés. En l'absence de dopage, ces matériaux sont des isolants non-conventionnels, dans lesquels le niveau de Fermi semble être dans une bande permise (isolants de Mott). La température critique de ces supraconducteurs est bien plus élevée que dans les supraconducteurs conventionnels : le record est aujourd'hui de 138 degrés Kelvin pour un composé à base de mercure. C'est une très grande surprise scientifique que la découverte de ces nouveaux matériaux, il y a près de vingt ans.
Des matériaux aux propriétés étonnantes :
36. Ces sont donc des isolants d'un nouveau type, dits de Mott. Ces matériaux sont isolants non pas parce que leur couche extérieure est pleine mais parce que les électrons voulant sauter d'un atome à l'autre par effet tunnel se repoussent mutuellement.

37. La compréhension de la physique de ces matériaux étonnants est un grand enjeu pour les physiciens depuis une vingtaine d'années. En particulier, leur état métallique demeure très mystérieux et ne fait à ce jour pas le consensus de la communauté scientifique.
38. Il est également possible de fabriquer des métaux à partir de molécules organiques, nous obtenons alors des « plastiques métalliques » pouvant également devenir supraconducteurs en dessous d'une certaine température (découverte par Denis Jérome et son équipe à Orsay en 1981). Le diagramme de phase des supraconducteurs organiques est au moins voire plus compliqué que celui des oxydes métalliques.
39. Actuellement, des recherches sont menées sur des alliages ternaire, et quaternaires qui semblent offrir encore de nouvelles propriétés. Par exemple, les oxydes de manganèse ont une magnétorésistance colossale, c'est-à-dire que leur résistance varie beaucoup en présence d'un champ magnétique. Cette particularité pourrait être utilisée dans le domaine de l'électronique de Spin, où on utilise le Spin des électrons, en plus de leur charge pour contrôler les courants électriques. Les oxydes de Cobalt, quant à eux, présentent la propriété intéressante d'être des thermoélectriques (i.e capables de produire un courant électrique sous l'action d'un gradient de température).
Il existe donc de très nombreux défis dans ce domaine, ils sont de plusieurs types. D'abord, l'élaboration de structures peut permettre de découvrir de nouveaux matériaux aux nouvelles propriétés qui soulèvent l'espoir de nouvelles applications.

Mais il existe aussi des défis théoriques : est il possible de prédire les propriétés d'un matériau à partir des lois fondamentales ? Des progrès importants ont été réalisés durant la seconde partie du XXème siècle et ont valu à Walter Kohn le prix Nobel de chimie. Cependant, ces méthodes ne sont pas suffisantes pour prédire la physique de tous les matériaux, en particulier de ceux présentant de fortes corrélations entre électrons. Les puissances conjuguées de la physique fondamentale et calculatoire des ordinateurs doivent être mise à service de ce défi. Par ailleurs, de nouveaux phénomènes apparaissent dans ces matériaux qui amèneront certainement des progrès en physique fondamentale.
La chimie, la physique et l'ingénierie des matériaux et de leurs propriétés électroniques semblent donc avoir de beaux jours devant eux !

 

VIDEO       CANAL  U         LIEN 

 

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 ] Précédente - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales /confidentialité

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon