|
|
|
|
|
|
Les matières premières critiques |
|
|
|
|
|
Les matières premières critiques
Publié le 2 février 2022
Les matières premières dites critiques sont des matières premières pour lesquelles un risque pèse sur la chaîne d’approvisionnement, soit parce que celle-ci est concentrée dans un très petit nombre de pays, soit parce que la stabilité politique des pays fournisseurs est limitée, alors qu’elles présentent un intérêt économique ou industriel fort pour les pays demandeurs. Certaines sont très utilisées pour le développement des nouvelles technologies, notamment celles des transitions énergétique et numérique. Elles sont donc au cœur d’enjeux stratégiques importants, allant même jusqu’à toucher directement à l’indépendance des pays.
QU’EST-CE QU’UNE MATIÈRE PREMIÈRE CRITIQUE ?
Une matière première critique est une matière première dont l’approvisionnement peut être sujet à des aléas et dont le défaut peut avoir des impacts industriels ou économiques négatifs importants. Ces matières premières peuvent être aussi bien des métaux que des éléments chimiques. Elles sont répertoriées par la Commission européenne tous les 3 ans depuis 2011, sur une liste qui en compte aujourd’hui 30. Outre les terres rares (un groupe de 17 métaux aux propriétés voisines), cette liste comprend notamment l’indium, le cobalt, le lithium, la bauxite ou encore des métaux nobles comme le platine.
Le Comes
En France, le ministère de l’Industrie et le ministère de la Transition Ecologique ont créé le Comes (Comité aux métaux stratégiques) en 2015. Il regroupe entre autres des organismes de recherche français - CEA, BRGM - et des industriels avec trois objectifs :sensibiliser les filières industrielles sur les risques d’approvisionnement en matières premières ;valoriser les ressources primaires (extraites) et secondaires (recyclées) du territoire ;engager une diplomatie des matières premières.
En France, le Comité pour les métaux stratégiques (Comes) publie depuis 2015 une matrice de criticité permettant d’identifier des métaux stratégiques pour la France, c’est-à-dire des métaux indispensables notamment pour l’économie du pays, l’indépendance énergétique et la défense. Cette liste spécifique à la France inclut notamment l’argent, le chrome ou encore le cuivre, qui ne sont pas identifiés comme critiques au niveau européen.
POURQUOI CES MATIÈRES SONT-ELLES CRITIQUES ?
Ces matières premières ont généralement une production (extraction et raffinage) concentrée dans quelques pays. Or, pour certaines d’entre elles, la demande se fait croissante, comme dans le domaine des batteries, des panneaux photovoltaïques ou des moteurs électriques. Les batteries des véhicules électriques contiennent ainsi du lithium, du cobalt et du graphite, trois matières premières critiques. Or, l’Agence Internationale de l’Energie estime par exemple que la demande en lithium sera multipliée par 10 à 40 d’ici à 2040, par rapport à 2020.
Autre exemple, les aimants permanents. Utilisés dans la plupart des moteurs des voitures électriques ou dans les génératrices d’éoliennes en mer, ils contiennent des « terres rares », dont 75 à 80 % sont extraites en Chine, ce qui rend difficile la diversification des sources d’approvisionnement. Le besoin en matières premières pour le marché européen est stratégique et pourtant l’Europe reste dépendante à plus de 95 % de sociétés hors de l’Union Européenne.
QUELS SONT LES PRINCIPAUX PAYS PRODUCTEURS DE MATIÈRES PREMIÈRES CRITIQUES ?
Parmi les principaux producteurs de matières premières critiques se trouvent :
* la Chine, qui produit aujourd’hui 86 % des terres rares, 89 % du magnésium, 80 % du bismuth, gallium et germanium ;
* l’Afrique du Sud, qui produit 93 % du ruthénium, 80 % du rhodium et 71 % du platine ;
* le Congo, qui produit 59 % du tantale et 64 % du cobalt ;
* les Etats-Unis, qui produisent 88 % du béryllium ;
* le Brésil, qui produit 92 % du niobium ;
* le Chili, qui produit 44 % du lithium ;
* la France, qui produit 49 % du hafnium (utilisé notamment dans les réacteurs nucléaires de sous-marins).

Cependant, il y a pour chaque matière première une chaîne de valeur : mines, transformation, composants et systèmes, impliquant souvent différents pays, ce qui augmente les risques et les tensions d’approvisionnement.
Dans le domaine de l’extraction du cuivre par exemple, le Chili domine, mais la transformation du minerai en cuivre (utilisable par l’industrie) est majoritairement effectuée en Chine. Même chose pour le cobalt, qui est extrait en République démocratique du Congo (RDC), mais transformé et vendu par la Chine.
DEPUIS QUAND L’UNION EUROPÉENNE
S’INTÉRESSE-T-ELLE AUX MATIÈRES PREMIÈRES CRITIQUES ?
En Europe, il existe depuis 2008 une initiative pour les matières premières et un partenariat d’innovation européen sur les matières premières. Ces structures définissent des priorités en termes de recherche et de développement industriel afin de garder le meilleur positionnement possible sur le marché des matières premières. Toutefois, en 2010, la Chine et le Japon ont connu un différend territorial concernant les îles Senkaku, situées en mer de Chine orientale entre les deux pays. La Chine a alors décrété un embargo sur l’exportation des terres rares vers le Japon, ce qui a fortement pénalisé l’industrie high-tech de ce dernier. Par la suite, la Chine a décliné cet embargo en quotas d’exportations vers le reste du monde. Cela a entraîné une forte hausse des prix des terres rares et une prise de conscience chez les pays touchés de leur dépendance. C’est à la suite de cette crise que la Commission Européenne a fortement renforcé son plan d’action avec la création de la première liste européenne des matières premières critiques. Liste qui a permis d’orienter une partie des financements de la recherche européenne (FP7 puis H2020 puis Horizon Europe) sur ces matières, et les terres rares en premier lieu.
QUELS SONT LES ENJEUX LIÉS À CES MATIÈRES PREMIÈRES CRITIQUES EN FRANCE ?
La France est principalement un pays importateur de produits semi-finis et finis. L’enjeu est donc non seulement de sécuriser les chaînes d’approvisionnement des métaux stratégiques que l’on retrouve dans ces produits mais aussi de maîtriser, à terme, les filières technologiques associées. Cela passe par exemple par la prise de parts dans des mines, la création de stocks stratégiques, ou le développement du recyclage, mais aussi par une relocalisation des industries de la transformation, à l’instar de ce qu’a fait la Chine. Le cas des aimants en est un exemple : en quarante ans, ce pays est ainsi passé de simple producteur de minerais de terres rares à premier fournisseur mondial d’aimants permanents.
Par ailleurs, l’importation et l’utilisation de certaines matières premières et des composants d’un pays dont on ne maîtrise ni la stratégie énergétique ni les conditions d’extraction pose la question de la maîtrise des impacts environnementaux (qui découlent notamment du mix énergétique choisi) et sociaux (qui concernent par exemple les conditions de travail des ouvriers).
La France, face à cette situation, souhaite sécuriser l’approvisionnement en métaux stratégiques, en particulier les batteries et les aimants en apportant son soutien aux industriels. L’objectif est de leur permettre :
* le développement des solutions techniques et technologiques sur le territoire afin de réduire cette dépendance,
* l’investissement dans des mines « responsables » avec des contrats à long terme
* ou encore la création d’un observatoire des métaux critiques.
DOCUMENT cea LIEN
|
|
|
|
|
|
|
Question de la semaine : c'est quoi le Boson de Higgs ? |
|
|
|
|
|
Question de la semaine : c'est quoi le Boson de Higgs ?
Par Azar Khalatbari le 10.08.2018 à 16h09
Lecture 4 min.
Chaque semaine, Sciences et Avenir répond à une question posée par ses lecteurs. Cette semaine, retours sur une découverte phare : celle du Boson de Higgs.
En fait, cela est bien plus simple qu'il n'y paraît. En juillet 2012 le Cern annonçait la découverte du "boson de Higgs", une particule dont l’existence avait été supposée en 1964 par trois chercheurs, deux Belges François Englert et Robert Brout, et puis indépendamment par l’Ecossais Peter Higgs, même si l’histoire n’a retenu que le nom de ce dernier.
Pour résumer sa fonction, il a souvent été dit que " Le boson de Higgs est responsable de la masse de tout ce qui nous entoure ", un raccourci qui nécessite d’être décrypté. Si les objets qui nous entourent ont une masse, c’est parce que les particules qui les composent, ont interagi, dans un passé lointain avec le champ de Higgs : les électrons, mais aussi les quarks qui rentrent dans la composition des nucléons -proton et neutron. Cela ne nous surprend plus car nous sommes très habitués à ce que les objets qui nous entourent possèdent une masse.
Qu'est ce que le Boson de Higgs
Selon le modèle standard, la particule ainsi piégée au Cern a existé pendant les premières fractions de seconde après le Big-Bang soit lorsque l’Univers était âgé de 10-10 seconde et la température frôlait les 1015 degrés. Avec le LHC, le grand collisionneur à Hadrons de l’institution européenne, les physiciens ont pu créer exactement ces conditions. Dans cet univers extrêmement chaud et dense des débuts, le boson BEH a pu se matérialiser et décroître aussitôt en se désintégrant en un ensemble de particules d’énergie bien précise. Leur détection est une preuve indirecte de sa présence.
Le chaînon manquant
La découverte du BEH annoncée en juillet 2012 permet de valider l’ensemble du modèle standard. Selon ce modèle, aujourd’hui dans l’Univers tous les phénomènes qui nous entourent, sont l’œuvre de quatre interactions fondamentales : la gravité explique la chute des corps et la ronde des planètes, la force électromagnétique est à l’origine de la lumière et de l’aimantation, l’interaction faible explique la radioactivité de certains noyaux atomique tandis que l’interaction forte explique la cohésion même du noyau de l’atome. Pourquoi quatre forces ? Les physiciens ne le savent pas encore, mais pour bon nombre d’entre eux, dans les toutes premières fractions de seconde de l’Univers, une seule et même force régissait l’Univers tout entier. C’est la Théorie du tout que certains cherchent à reconstituer.
Unifier les forces
Sur ce chemin, un pas important a été franchi en 1960 : Sheldon Glashow, Abdus Salam et Stephen Weinberg, qui ont été tous les trois lauréats du prix Nobel de physique 1979, ont réussi à démontrer que lorsque la température de l’Univers était de l’ordre de 1018 degrés, la force électromagnétique et la force "faible" étaient unifiées sous le nom de l’interaction électrofaible. Or, la force électromagnétique se manifeste par l’émission d’une particule sans masse, le photon- tandis que les particules médiatrices, W et Z sont massives.
Que s’est-il donc passé, pour qu’à un moment donné de l’histoire de l’Univers, la force électrofaible disparaisse en donnant naissance à deux forces aussi différentes ? C’est pour répondre à cette question que l’hypothèse du boson de BEH a été formulée. Avant son existence, les particules étaient dénuées de masse, après interaction avec le BEH , elles ont acquis une masse. Ainsi le mécanisme qui a donné naissance au boson de BEH est à l’origine de la masse dans l’Univers … Le Cern a donc trouvé la recette du boson.. reste encore à déterminer minutieusement ses propriétés … C’est à cette tâche que vont s’atteler les physiciens maintenant.
DOCUMENT sciences et avenir.fr LIEN |
|
|
|
|
|
|
Une photodiode à spin pour la transmission optique d’une information portée par des spins électroniques |
|
|
|
|
|
Une photodiode à spin pour la transmission optique d’une information portée par des spins électroniques
Les travaux d'une collaboration internationale menée par le CEA-Iramis (LSI) ouvrent la voie au développement de « photodiodes à spin » efficaces qui permettraient le transport à longue distance, par voie optique, d'informations portées par des spins électroniques.
Publié le 6 avril 2022
La charge ou le spin des électrons permet d'encoder des informations pour les traiter et les stocker. Il est possible d'exploiter l'orientation des spins (up ou down), définissant un état magnétique local, comme dans les mémoires magnétiques MRAM ou encore, un courant électrique polarisé en spin, avec un sens majoritaire d'orientation des spins électroniques. Dans les deux cas, il serait intéressant de pouvoir transporter les informations portées par le spin sur de longues distances, par voie optique.
Dans cette perspective, pourrait-on convertir un courant électrique polarisé en spin (up ou down) en lumière polarisée circulairement (droite ou gauche) et vice versa ?
Il est en effet possible de produire une émission de lumière polarisée circulairement avec un taux de polarisation convenable (jusqu'à 67 %) en injectant des électrons polarisés en spin dans un semi-conducteur. À l'inverse, les capteurs sensibles à la polarisation circulaire de la lumière (« photodiodes à spin ») sont encore peu efficaces.
Pour progresser dans cette voie, des chercheurs du Laboratoire des solides irradiés (Iramis) et leurs partenaires ont développé une photodiode à spin et ont analysé les mécanismes qui y sont à l'œuvre.
Les photons incidents excitent les électrons dans une couche semi-conductrice du dispositif, ce qui tend à aligner les spins électroniques selon une direction déterminée par l'état de polarisation circulaire de la lumière. Les électrons sont ensuite transférés dans une couche magnétique où la polarisation en spin du courant peut être analysée.
L'effet recherché n'est cependant pas aisé à mettre en évidence. Il est nécessaire de moduler l'état de polarisation de la lumière à l'aide d'un modulateur photo-élastique pour des mesures de qualité. Il faut également prendre en compte des phénomènes parasites tels que le dichroïsme magnétique ou le courant inverse de trous et il faut enfin appliquer un champ magnétique externe pour stabiliser le spin des électrons et renforcer le signal.
Après avoir franchi ces obstacles, l'équipe est aussi parvenue à reconstituer les différents mécanismes d'excitation et relaxation des électrons afin de mieux les contrôler. Par une modélisation de l'ensemble de ces phénomènes physiques, ils ont pu obtenir et tester avec succès un modèle global, à même de reproduire le fonctionnement du dispositif pour différentes plages de tensions et de champs magnétiques appliqués.
Ces travaux menés en collaboration avec l'Unité mixte CNRS-Thales, l'Institut Jean Lamour, l'Institut Ioffe de Saint-Pétersbourg et l'Académie des sciences chinoise ouvrent la voie au développement de photodiodes à spin efficaces qui permettraient d'envisager le transport à longue distance d'informations portées par des spins.
25 février 2022
Photodiodes à spin : un détecteur de lumière polarisée circulairement



Se propageant sur de longues distances à la vitesse de la lumière, les photons peuvent être un bon vecteur de transmission d'une information portée localement par des spins électroniques, à condition de savoir convertir l'état de spin local vers un état de polarisation de la lumière et réciproquement.
Une collaboration internationale incluant le Laboratoire des solides irradiés publie dans Physical Review Letters [1] un article détaillant les mécanismes à l’œuvre pour détecter une lumière polarisée circulairement grâce à des dispositifs de spin-optoélectronique de type photodiodes à spin.
Les charges électriques (piégées par exemple dans la grille flottante d'un transistor CMOS de mémoire flash) ou le spin des électrons (pour le stockage magnétique MRAM ou sur un disque dur) permettent aujourd'hui le stockage et le traitement de l'information. En utilisant les propriétés de spin, l'information peut être encodée soit par l'orientation des spins (up ou down), définissant un état magnétique local, ou encore par un courant électrique polarisé en spin, avec un sens majoritaire d'orientation des spins des électrons. Se propageant sur de longues distances à la vitesse de la lumière, les photons peuvent être un bon vecteur de transmission d'une information portée localement par les spins électroniques, à condition de savoir convertir l'état de spin vers un état de polarisation de la lumière et inversement.
En injectant des électrons polarisés en spin dans un semi-conducteur, il est déjà possible d'obtenir une émission de lumière polarisée circulairement, et un taux de polarisation de 67% a récemment pu être obtenu [2]. "Inversement, les capteurs sensibles au spin de la lumière existent, mais ils sont encore peu efficaces" précise Henri-Jean Drouhin. Avec ses collègues de l’équipe CNRS-Thalès, de l’Institut Jean Lamour, mais aussi de l’Institut Ioffe de Saint Pétersbourg et de l’Académie des sciences chinoise, ils ont alors mené un travail expérimental et théorique afin de comprendre précisément les mécanismes à l’œuvre dans ce type de capteur.
"Dans ce travail, la spintronique est alliée avec l’optique. C’est la spin-optoélectronique" explique Henri-Jean Drouhin, co-auteur de l’étude parue dans Physical Review Letters et responsable du groupe "Physique et Chimie des nano-objets" au sein du Laboratoire des solides irradiés (LSI*). Les photons, possèdent en effet l'équivalent d'un spin, qui se manifeste notamment dans le fait que la lumière peut être polarisée de façon circulaire droite ou gauche, ce qui signifie que le champ électrique de la lumière s’enroule vers la droite ou vers la gauche comme une hélice dans la direction de propagation des photons. Lorsque cette lumière polarisée arrive sur le capteur conçu par les chercheurs, les photons incidents excitent les électrons du matériau. Le spin des électrons adopte alors une direction préférentielle fonction de la polarisation de la lumière, i.e. de l'orientation du spin des photons. L'analyse du spin des électrons permet donc d’obtenir des informations sur la polarisation de la lumière incidente, faisant de ces dispositifs des "photodiodes à spin", à l’image des photodiodes classiques qui mesurent l’intensité de la lumière.
Vu schématique de la photodiode à spin étudiée : on retrouve la couche de conversion semi-conducteur GaAs, où les photons polarisés circulairement excitent des électrons en les portant dans un état excité avec une orientation de spin donnée. La polarisation Vb = V+-V- permet alors d'obtenir un courant polarisé en spin. Une couche mince de MgO, puis une couche ferromagnétique nanostructurée Co0.4Fe0.4B0.2 avec une aimantation perpendiculaire coiffent le diapositif et permettent l'analyse de la polarisation en spin du courant généré.
"Le dispositif est constitué de plusieurs couches empilées de semi-conducteur à base de GaAs, arséniure de gallium, où les photons reçus peuvent porter les électrons de la bande de valence dans la bande de conduction. Une polarisation électrique Vb contrôle l'extraction des électrons ainsi excités vers une couche magnétique qui permet d'identifier la polarisation en spin du courant ainsi généré. Cette couche mince est constituée d'un métal ferromagnétique (alliage de cobalt, fer et bore) dans lequel les électrons pénètrent plus ou moins facilement selon l'orientation de leur spin. Entre les deux matériaux, une couche d’isolant (de l’oxyde de magnésium) permet de réguler le passage des électrons par effet tunnel.
Avec le dispositif étudié, l'effet n'est cependant pas si aisé à mettre en évidence : un modulateur photoélastique permet de révéler par détection synchrone la corrélation entre le photocourant et la polarisation circulaire de la lumière incidente. Pour isoler la contribution du spin, il faut aussi tenir compte correctement du dichroïsme magnétique, du courant inverse de trous qui est non négligeable et mettre à profit un champ magnétique externe appliqué B qui renforce le signal en stabilisant le spin des électrons.
Les chercheurs ont ainsi réussi à reconstituer les différents mécanismes d'excitation et relaxation des électrons et trouvé comment les contrôler à l’aide de la polarisation Vb et du champ magnétique appliqué. "Dans notre modélisation, nous avons également parfaitement modélisé théoriquement les phénomènes physiques mis en jeu, et testé que ce modèle fonctionnait pour différentes plages de tensions et de champs magnétiques appliqués au dispositif" souligne Slava Safarov, co-auteur de l’étude au LSI.
Avec ces travaux de recherche fondamentale, l’équipe montre les pistes à suivre pour développer des détecteurs efficaces de lumière polarisée circulairement qui pourraient servir pour un nouveau mode de télécommunication optique, avec le transport à grande distance d'une information portée par le spin.
Contact CEA-Iramis : Henri-Jean Drouhin (LSI).
Référence :
[1] Recombination time mismatch and spin dependent photocurrent at a ferromagnetic-metal–semiconductor tunnel junction,
Viatcheslav I. Safarov, Igor V. Rozhansky, Ziqi Zhou, Bo Xu, Zhongming Wei, Zhan-Guo Wang, Yuan Lu, Henri Jaffrès, and Henri-Jean Drouhin, Phys. Rev. Lett. 128, 057701.
[2] Voir aussi : "Convertir le spin des électrons en lumière polarisée sans champ magnétique extérieur".
Collaboration :
* LSI, UMR École Polytechnique - CEA - CNRS, Institut Polytechnique de Paris, 91128 Palaiseau, France
* Ioffe Institute, St. Petersburg 194021, Russia
* Institut Jean Lamour, UMR7198, Université de Lorraine - CNRS, 54011 Nancy, France
* Institute of Semiconductors, Chinese Academy of Sciences, and Beijing 100083, China
* Unité Mixte de Physique, CNRS, Thales, Université Paris Saclay, 91767 Palaiseau, France.
DOCUMENT cea LIEN
|
|
|
|
|
|
|
La genèse du silicium quantique : de l’industrie à la recherche ! |
|
|
|
|
|
La genèse du silicium quantique : de l’industrie à la recherche !
Le « silicium quantique », aujourd'hui en développement au CEA, à Grenoble, dans le cadre de programmes européens (ERC, Flagship On Quantum Computing), est né d'un long compagnonnage entre des chercheurs du CEA-Leti et du CEA-Irig. En 1996, les équipements industriels du Leti en microélectronique s'ouvrent à la recherche fondamentale et plusieurs premières mondiales s'enchaînent jusqu'au premier bit quantique CMOS, en 2016. Marc Sanquer de l'Irig et Simon Deleonibus du Leti témoignent de cette aventure atypique et couronnée de succès.
Publié le 12 janvier 2021
Quel est le contexte en 1995 ?
Simon Deleonibus : La microélectronique visait à « faire » toujours plus petit et plus rapide, et moins gourmand d'énergie mais on sentait arriver les limites de la miniaturisation des transistors MOSFET (Metal Oxide Semiconductor Field Effect Transistor). Au bout de cette logique, la communauté de la microélectronique se heurtait à des effets « limites ». Par exemple : l'effet tunnel direct à travers l'isolant de « grille » (oxyde de silicium, le O de MOSFET) qui sépare l'électrode de commande du transistor (grille) du « canal » (par lequel transitent les électrons). Les électrons traversent alors l'isolant devenu trop mince. Pour réduire ces fuites de courant indésirables, nous avons remplacé l'oxyde de silicium par de l'oxyde d'hafnium.
Mais plus fondamentalement, la petitesse du canal était, elle aussi, à l'origine de fuites qui pouvaient devenir incontrôlables. On voyait apparaître des effets au 2e ordre qui risquaient de passer au 1er ordre. Perdre un électron sur quelques dizaines à l'échelle de 20 nm n'a pas le même impact qu'en perdre un sur quelques milliers à l'échelle de 100 nm ! Ces effets remettaient en cause non seulement le fonctionnement des composants numériques et analogiques mais aussi celui des circuits mémoires, en particulier les mémoires non volatiles auxquelles le CEA-Leti consacrait un programme important.
Il fallait préparer la microélectronique du futur et mettre en place des collaborations tant avec la Direction de la recherche fondamentale du CEA (DRF) que d'autres laboratoires académiques nationaux et internationaux.
Avec Jacques Gautier du Leti, nous avons fait un tour du monde en 1995 : Universités de Stanford, Berkeley, Harvard, Columbia, SUNY, MIT, Toshiba, Hitachi, Fujitsu, Université de Tokyo, Riken, etc. De cet état des lieux, il est ressorti que tous les labos travaillaient sur deux thématiques majeures : les limites de la technologie CMOS et de sa miniaturisation d'une part et la recherche d'alternatives, tant du point de vue des composants que des nouveaux paradigmes du calcul informatique, d'autre part. De nombreux labos universitaires travaillaient sur les semi-conducteurs III-V (GaAs, GaAlAs, InGaN, etc.) car ils offraient la possibilité de mettre en évidence des effets quantiques limites sans aller vers une miniaturisation extrême. Se procurer une lithographie et du silicium à l'état de l'art n'était pas à la portée de toutes les bourses des labos académiques…
Votre collaboration démarre en 1996 avec PLATO… De quoi s'agit-il ?
SD : Avec les encouragements de Jean Therme, alors responsable de la microélectronique au Leti, nous avons créé le programme « PLATO Microélectronique du futur » en 1996. L'objectif est à la fois de repousser les limites de l'existant – le transistor à effet de champ MOSFET– et de susciter des ruptures technologiques. En référence au philosophe Platon, symbole de connaissance, on avait choisi de l'appeler PLATO, que nous avons ensuite décliné en « plateforme technologique ouverte ». PLATO, c'était donc à la fois un accès privilégié à des moyens de fabrication au meilleur niveau pour les chercheurs académiques et, pour nous, une porte ouverte sur la communauté scientifique française et internationale. En un an, nous avons monté près de cent projets, avec Marc Sanquer et de nombreux autres partenaires (Insa Lyon, Institut Néel, IEF, etc) et avons fourni des tranches de silicium comptant de très nombreux composants à tester !
Marc Sanquer : Le binômage avec Simon Deleonibus a commencé avec l'ouverture d'une salle blanche du Leti à la recherche fondamentale (PLATO). Notre idée était d'explorer le comportement de transistors à très basse température. Avec une curiosité de chercheur fondamentaliste, on s'est mis à mesurer les caractéristiques de transistors standard : à 4 K, 1 K, 50 mK. On s'est rendu compte que le transport de courant fonctionnait de manière très différente à ces températures et à température ambiante. Ainsi par exemple, quand la tension de grille de contrôle du transistor croît aux bornes du transistor, le courant oscille au lieu d'augmenter ! On s'attendait à des ruptures fondamentales. Nombre d'entre elles avaient été mises en évidence dans les semi-conducteurs III-V mais le silicium présentait un cas différent : un oxyde très performant, une capacité de fabrication via PLATO de dispositifs au moins dix fois moins longs, une « structure de bande » électronique complexe mais permettant de jouer sur différentes « vallées » et sur le « couplage spin-orbite », et, enfin nous y reviendrons, la quasi-absence de spins nucléaires après purification isotopique. Tous ces aspects ont joué un rôle par la suite.
SD : On a fait de la « leçon de choses » en quelque sorte, on a appris de l'existant, on a vérifié que nos idées étaient les bonnes. C'était un peu l'aventure… Je me souviens de la réflexion de Marc après avoir analysé nos premiers échantillons. « Je peux tester vos composants plusieurs fois, ils sont toujours vivants ! » Les autres composants étaient loin de bénéficier de la même maturité technologique.
Avec Marc Sanquer et son équipe, nous définissions et exploitions ensemble les manips – nous avons pu ouvrir nos cahiers de labo – et nous mettre d'accord sur leur interprétation. Nous étions copropriétaires des idées. On peut dire que cette cogestion de projets a été une réussite : elle a été transmise ! Nous en sommes aujourd'hui à la 6e ou 7e génération de chercheurs « héritiers ».
En 1999, 2000, 2003, arrivent les grandes premières. Comment sont-elles accueillies ?
SD : En 1999 , nous avons réalisé le plus petit transistor du monde de l'époque ! Les circuits les plus avancés dans l'industrie étaient basés sur une technologie de transistors MOS de longueur 180 nm. Nous avons raccourci cette géométrie à 20 nm. Les ministères chargés de la recherche et de l'industrie et le CEA ont annoncé notre résultat publié dans la revue scientifique IEEE Electron Device Letters. Toute la presse quotidienne, les radios, les télévisions nationales et internationales se sont fait l'écho de l'évènement.
Nous avions exploré le comportement de canaux de dimensions nanométriques afin d'orienter la technologie qui serait utilisée dans nos téléphones portables, quinze ans plus tard. Cette anticipation était nécessaire, compte tenu de l'ampleur de la tâche qui nous attendait : le développement des architectures du type Fully Depleted Silicon On Insulator (FDSOI) et plus encore celui des transistors à grille « enrobante » (avec des canaux à nanorubans ou nanofils). Le CEA-Leti avait de nombreux atouts dans ce domaine grâce à sa maîtrise unique de la fabrication de substrats SOI.
Après ce record, on nous a regardés avec plus de bienveillance. Ça nous a permis de nous ouvrir davantage à la communauté scientifique internationale. Ça a fait boule de neige. Nous avons pu augmenter le recrutement de scientifiques de bon niveau. Parmi eux, certains venaient de la DRF ou des laboratoires académiques avec lesquels nous collaborions.
A 20-nm physical gate length NMOSFET featuring 1.2 nm gate oxide, shallow implanted source and drain and BF2 pockets, IEEE Electron Device Letters (2000)
MS : De nombreux scientifiques travaillaient sur un effet « mono-électronique » appelé blocage de Coulomb. De quoi s'agit-il ? Quand un électron se présente dans le canal d'un transistor, il ne peut passer que si le canal est énergétiquement « indifférent » à l'ajout d'un électron. Si ce n'est pas le cas, il y a « blocage de Coulomb », l'électron ne passe pas et le courant entre électrodes du transistor (drain – source) s'éteint, ce qui explique les oscillations déjà mentionnées. En 1998, nous avons mis en évidence, pour la première fois, cet effet surprenant dans un transistor MOSFET qui n'était pourtant pas optimal pour ces expériences.
Coulomb oscillations in 100 nm and 50 nm CMOS devices, IEEE (1999)
SD : Nous avions besoin de comprendre plus en profondeur le blocage de Coulomb. Était-il seulement gênant ou pouvait-il être utile ?
Avant de pouvoir faire du blocage de Coulomb dans des transistors à nanofils reproductibles et fiables, nous avons utilisé des « boîtes quantiques » de quelques nm de diamètre pour ces manips. Pour les fabriquer, nous avions adapté nos technologies de dépôt de silicium polycristallin pour produire des nanocristaux individuels de silicium. Enrobé d'un isolant, cet objet pouvait piéger ou perdre des électrons en très faible quantité, voire un par un. Une charge unitaire piégée dans un nanocristal a permis de manipuler le blocage de Coulomb dans un canal de MOSFET. Mené en parallèle, le développement technologique des nanocristaux de silicium a eu des retombées pour l'intégration de mémoires non volatiles, commercialisées plus tard par STMicroelectronics et Freescale.
Single electron charging and discharging phenomena at room temperature in a silicon nanocrystal memory, Solid-State Electronics (2003)
Manipulation of periodic Coulomb blockade oscillations in ultra-scaled memories by single electron charging of silicon nanocrystal floating gates, IEEE Transactions on Nanotechnology(2005)
MS : En utilisant le blocage de Coulomb, nous avons appris à contrôler les électrons un par un dans le canal d'un transistor CMOS, en 2003. On était les premiers et les seuls à le montrer dans un transistor CMOS. Quelques industriels japonais seulement (NTT en particulier), avaient conservé une activité de recherche sur le silicium.
Controlled single-electron effects in non-overlapped ultra-short silicon field effect transistor, IEEE transactions on Nanotechnology (2003)
Et puis, vient le temps des projets européens. Quel regard portez-vous sur cette période ?
MS : Au début de la collaboration, nos échantillons n'étaient pas prioritaires. On était un peu des extraterrestres et on sentait à notre égard une curiosité amusée. Et puis la série de contrats européens – pour la plupart, coordonnés par nous – a permis d'asseoir progressivement nos activités à Grenoble. Les collègues du Leti ont vu qu'on avait du répondant. Et aujourd'hui, je suis très content que cette thématique soit devenue un « vrai » programme européen du Leti !
SD : Aujourd'hui, l'introduction de nouveaux composants ou de technologies de rupture va de pair avec des recherches collaboratives fortes, la motivation des chercheurs est primordiale. Dans le domaine de la high tech, il faut y ajouter des moyens technologiques lourds, comme ceux du CEA. Suite au succès de notre collaboration, le CEA nous a soutenus par des programmes internes (couplage Direction des sciences de la matière – Direction de la recherche technologique, etc.) complétant des financements de collaborations à l'extérieur du CEA. Par exemple, AFSID, le premier projet collaboratif européen que nous avons coordonné (voir ci-dessous) a ouvert des applications originales et variées, dérivées du blocage de Coulomb : mémoires non volatiles ou encore pompes à électrons pour la métrologie, génération de nombres aléatoires ou signatures indélébiles de transistors individuels.
MS : AFSID a été considéré comme un succès par la Commission européenne. Ce projet nous a aussi rapprochés de l'Université de Melbourne, spécialiste de l'implantation de dopant unique. Avec un dopant unique de phosphore dans le canal, on a pu étudier un transistor à atome unique puis à deux atomes uniques, dans lesquels les électrons passent par les orbitales atomiques d'un ou deux dopants de phosphore.
Single donor ionization energies in a nanoscale CMOS channel, Nature Nanotechnology (2010)
Detection of a large valley-orbit splitting in silicon with two-donor spectroscopy, Phys. Rev. Lett. (2012)
Une thématique nouvelle s'ouvrait car ces expériences, développées parallèlement par des australiens, constituaient des premières.
Il y a eu également TOLOP (voir ci-dessous), avec des applications très basse énergie, SIAM (idem) sur les pompes à électrons et SISPIN (idem), consacré au spin des électrons, qui annonce la montée en puissance des recherches européennes sur le quantique (ERC Synergy QuCube et Flagship On Quantum Energy) et pour lequel nous avons reçu le Trophée des Étoiles de l'Europe en 2017.
Le quantique entre en scène en 2016 avec l'annonce du premier bit quantique CMOS, puis l'ERC Synergy et le Flagship On Quantum Computing (voir ci-dessous). Comment la bascule s'opère-t-elle ?
MS : Alors que les basses températures limitaient jusque-là les applications à des niches, le quantique a cassé la contrainte sur la température. Un bit quantique ne peut fonctionner qu'à basse température. Ça a libéré les idées ! Le « comptage » d'électrons permettait-il de fabriquer un bit quantique ? En réalité, non, la charge électrique de l'électron conduit à un dispositif qui n'est pas assez stable. Notre choix s'est donc porté sur le spin de l'électron, une propriété purement quantique : l'électron est fixe et seul son spin est modifié quand le bit associé change de valeur.
SD : En parallèle, le transistor évolue vers une structure à nanofil, déjà évoquée. La miniaturisation rendant toujours plus difficile le contrôle des fuites, il faut « sécuriser » davantage le chemin des électrons et donc, entourer complètement le canal d'isolant. Le canal doit lui-même être recouvert par l'électrode qui contrôle le passage des électrons (grille). Ces impératifs conduisent à la forme cylindrique du canal, contenu dans un nanofil de silicium. La grille et l'isolant de grille, déposés sur le nanofil, enrobent le canal partiellement, voire totalement.
MS : En 2016, nous réalisons le premier bit quantique CMOS avec un transistor FD-SOI dont le canal est un nanofil de silicium de section 10×20 nm², recouvert de deux grilles de 30 nm de longueur en série. Sous chaque grille, un électron est d'abord piégé. Le spin du 1er électron peut être manipulé grâce au champ électrique créé par cette 1re grille – c'était une vraie prouesse – tandis que le spin du 2e électron est figé. Ici, c'est l'état de spin du 1er électron qui permet d'encoder l'information quantique. Pour lire cette information, on utilise le principe de Pauli qui interdit le transfert de charge lorsque les spins des deux électrons sont identiques.
En réalité, nous n'avons pas fait l'expérience avec des électrons mais avec des trous, c'est-à-dire des lacunes d'électrons, car le spin des trous est sensible au champ électrique – facile à manipuler dans un transistor à effet de champ – et celui des électrons au champ magnétique. L'inconvénient des trous est qu'ils sont plus lourds que les électrons et « voient » davantage les défauts du transistor. Une voie de recherche actuelle vise à étudier comment utiliser plutôt les électrons.
Un autre point concerne le matériau silicium. L'isotope majoritaire du silicium (28Si) ne porte pas de spin nucléaire, à la différence des atomes Ga et As dans les boîtes quantiques et de l'isotope minoritaire du silicium (29Si), présent à hauteur d'environ 5 % dans le silicium naturel. Pour que les trous « voient » autour d'eux un « vide » de spin, il faut utiliser du silicium 28 le plus pur possible, avec moins de 0,006 % de 29Si. Nous avons réalisé cette purification et espérons voir une augmentation drastique de la cohérence de nos trous.
Personne ne sait quel bit quantique sera utilisé dans les futurs processeurs quantiques. Aujourd'hui, le qubit CMOS n'est ni le premier ni le meilleur, mais il ouvre la microélectronique CMOS au monde quantique et à ses promesses de rupture.
A CMOS silicon spin qubit, Nature Communications (2016)
CEA Sciences
21,7 k abonnés
Marc Sanquer (Chef du labo Transport éléctronique quantique et supraconductivité - Inac)
SD : Je partage ce point de vue. Aujourd'hui, la micro ou nanoélectronique sur silicium traite une quantité d'informations que nous n'aurions pas imaginée il y a 50 ans et nous sommes arrivés à la croisée des chemins prédite, dès le milieu des années 2000, par la « feuille de route » des semi-conducteurs (International Technology Roadmap of Semiconductors) à laquelle j'ai contribué. La réduction de la taille des composants (suivant 2 dimensions) pourrait désormais ralentir, voire s'arrêter, au-delà de 2030.
Dès 2004, des alternatives à l'augmentation du nombre de composants par puce (selon la loi dite de Moore) ont été identifiées. L'ordinateur quantique apparaissait intéressant pour le calcul massivement parallèle, les architectures « neuromorphiques » et programmables pour la résilience des systèmes, des interfaces, des capteurs intelligents, la gestion de la consommation, etc. Chaque option a été comparée à ses concurrentes, comme l'avaient été les technologies à base de semi-conducteurs dès 1997, avec une vision à 15 ans. Le calcul quantique devra être soumis à la même démarche critique.
Un registre de n bits quantiques contient à tout instant 2n informations au lieu de n, en informatique classique. Cette propriété désigne le traitement massivement parallèle de données (sur internet ou dans des bases de données à forte capacité) et les problèmes de factorisation comme les applications phares du calcul quantique.
La mise en œuvre de ces bits quantiques se heurte cependant à des défis de taille, tant au niveau de la technologie, qu'à celui de l'architecture des circuits et des ordinateurs. Il faudra en particulier augmenter la part de déterminisme dans les procédés de fabrication, tout en diminuant les éléments parasites pouvant perturber l'état d'une particule ou d'un atome unique. Et il sera primordial de réussir à exploiter la 3e dimension pour raccourcir les distances entre blocs de circuits et minimiser les perturbations de signaux et les temps de latence.
Les équipes du CEA et leurs partenaires académiques nationaux (CNRS, universités, etc.), internationaux et industriels sont bien armés pour relever ces défis et tracer le chemin vers de futures applications !
DOCUMENT cea LIEN |
|
|
|
|
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 ] Précédente - Suivante |
|
|
|
|
|
|