ecole de musique piano
     
menu
 
 
 
 
 
 

Des atomes pour sonder la gravité

 

 

 

 

 

 

 

Des atomes pour sonder la gravité

Remi Geiger, laboratoire Systèmes de référence temps-espace, Observatoire de Paris, université PSL, CNRS, Sorbonne Université, Laboratoire national d'essais dans mensuel 547

daté mai 2019 - 1917 mots

Selon la physique quantique, les atomes peuvent se comporter de façon ondulatoire. Ce principe sert à construire des interféromètres atomiques qui mesurent avec une grande précision des grandeurs comme la gravité, indispensable aux géophysiciens. Leur potentiel est tel qu'ils sont désormais utilisés en dehors des laboratoires.
Nous observons régulièrement des ondes, comme les vagues à la surface de l'eau. Lorsque deux vagues se superposent, elles donnent naissance à une nouvelle vague de plus grande amplitude si les crêtes d'une des vagues correspondent aux crêtes de l'autre, ou de plus faible amplitude, voire d'amplitude nulle, si les crêtes de la première vague se superposent aux creux de la seconde. C'est le phénomène d'interférence. Il existe quel que soit le type d'ondes : les vagues, le son, la lumière... L'interférométrie optique - avec de la lumière - est à l'origine d'une révolution dans notre compréhension physique du monde : les expériences menées à la fin du XIXe siècle par Michelson et Morley ont contribué à la naissance de la théorie de la relativité. Les détecteurs Ligo et Virgo, qui ont capté ces dernières années les premiers signaux directs d'ondes gravitationnelles (*), sont des interféromètres qui mesurent plusieurs kilomètres de long. Les interféromètres optiques ont permis de nombreuses applications industrielles modernes, en analyse de surfaces ou en télécommunications.
Dans un interféromètre, on sépare une onde incidente en deux ondes, qui empruntent des chemins différents, et que l'on recombine ensuite en un point. On cherche alors à observer les perturbations sur un des chemins en étudiant leur impact sur le phénomène d'interférence qui se produit en sortie du dispositif. Il peut donc être employé avec n'importe quel type d'ondes. Or au coeur de la physique quantique se trouve la dualité onde-particule. Ce principe indique qu'à toute entité microscopique corpusculaire - un atome, par exemple -, on peut associer une onde. On peut donc réaliser un interféromètre avec des atomes. Contrairement aux particules de lumière (les photons), les atomes sont des particules composites dotées d'une masse et se mouvant bien plus lentement, ce qui les rend plus sensibles à certaines forces. Il devient possible de mesurer avec une précision accrue une rotation ou une accélération, comme celle de la pesanteur à la surface de la Terre.

Le laser, un outil précieux
Dans un interféromètre, séparation et déflection des ondes lumineuses sont effectuées à l'aide de lames séparatrices et de miroirs. Pour observer un signal d'interférence bien contrasté - c'est-à-dire une grande amplitude de variation du signal entre les conditions d'interférence constructives, lorsque les ondes se superposent parfaitement, et les conditions destructives -, et donc extraire avec une bonne résolution la différence entre les deux chemins, il est nécessaire de contrôler avec précision la direction prise par les différentes ondes dans les bras de l'interféromètre. Améliorer la performance d'un interféromètre nécessite ainsi de regrouper toutes les ondes autour d'une direction commune. C'est une problématique bien connue de l'interférométrie optique pour laquelle le laser est un outil de prédilection. Pour les ondes de matière, plus les vitesses des particules s'étendent sur une large gamme - plus la distribution des vitesses est large -, plus les directions seront différentes, aboutissant à un interféromètre peu contrasté. Pour remédier à ce problème, il faut réduire la vitesse des particules liée à l'agitation thermique. À 25 °C, les vitesses d'agitation des molécules de l'air sont en effet de plusieurs centaines de mètres par seconde ! Ici entre en scène le refroidissement par laser : en envoyant des faisceaux lasers exerçant sur les atomes une force 10 000 fois supérieure à la force de gravité, les atomes ralentissent à des vitesses de l'ordre du centimètre par seconde, correspondant à des températures de l'ordre du microkelvin, un millionième de degré au-dessus du zéro absolu. On parle donc d'« atomes froids ».
Afin de réaliser, pour des ondes atomiques, les fonctions équivalentes aux miroirs et aux lames séparatrices utilisés en optique, on emploie encore des faisceaux lasers (Fig. 1). On peut se représenter ce mécanisme de manipulation d'ondes atomiques en termes d'échange de photons entre le laser et l'atome : en envoyant deux faisceaux lasers se propageant en sens opposés, l'atome peut absorber un photon du premier laser et émettre un photon suivant la direction du second laser. L'atome peut alors occuper deux états de vitesse, correspondant aux deux chemins de l'interféromètre : son état initial s'il n'a absorbé aucun photon, ou un état modifié par le transfert de vitesse communiqué par les deux photons. La probabilité de transfert d'un état vers l'autre est contrôlable par la force de l'interaction entre l'atome et la lumière. Varier la durée de l'interaction atome-laser (usuellement de l'ordre de quelques microsecondes) ou l'intensité du laser (une centaine de milliwatts par centimètre carré) permet de générer un état dans lequel l'atome occupe un chemin, ou l'autre, ou les deux à la fois ! On a alors réalisé l'équivalent d'une lame séparatrice pour l'atome. En utilisant une durée d'interaction plus longue ou une intensité plus élevée, il est possible de faire basculer l'atome d'un chemin vers l'autre avec une probabilité de 1, ce qui constitue l'équivalent d'un miroir.

Règle lumineuse
Nous disposons ainsi des briques de base pour concevoir un interféromètre. En partant d'un nuage d'atomes froids en chute libre (soumis à la gravité), on applique une première impulsion de type « séparatrice », suivie d'une impulsion de type « miroir », et enfin une seconde impulsion séparatrice au moment où les deux chemins se rejoignent. On réalise ainsi un interféromètre dans lequel deux ondes atomiques s'éloignent l'une de l'autre, puis sont défléchies pour se recombiner au niveau de la lame séparatrice de sortie, où un signal d'interférence pourra être observé. Pour lire l'état de sortie de l'atome, on peut recourir à une caméra (similaire à celle d'un smartphone) collectant la lumière émise par l'atome et capable de résoudre l'écart en position, correspondant aux deux sorties de l'interféromètre.

Notre objectif est d'utiliser cet interféromètre atomique pour des mesures d'accélération ou de rotation, des grandeurs qu'on dit « inertielles ». Il nous faut donc avoir accès à une information sur le mouvement de l'atome par rapport au référentiel de l'expérience. Pour le comprendre, revenons sur le processus d'interaction entre l'atome et les lasers. Lors de son changement de chemin, l'atome emporte avec lui une information relative à sa position dans les lasers. Plus précisément, la superposition des deux lasers contra-propageant peut être vue comme une règle lumineuse, dont le pas est égal à la moitié de la longueur d'onde de la lumière (typiquement 500 nm). Après avoir interagi avec ces lasers, l'atome emporte avec lui l'information sur sa position moyenne dans cette règle. Après une série de deux impulsions, on accède à une différence de positions, c'est-à-dire à la vitesse de l'atome dans la règle laser. Une série de trois impulsions donne accès à une différence de vitesses ; nous avons donc réalisé un accéléromètre.
La sensibilité du dispositif dépend essentiellement de deux ingrédients : plus le pas de la règle laser est fin, plus l'information sur la position de l'atome dans la règle sera précise ; en outre, plus la durée de libre évolution de l'atome entre les impulsions lasers augmente, plus le déplacement relatif de l'atome dans la règle sera important. En pratique, le pas de la règle laser doit correspondre à des transitions optiques dans des atomes, c'est-à-dire à des longueurs d'onde typiques comprises entre 400 et 800 nm (le spectre visible). Le temps d'interrogation peut varier de quelques millisecondes à quelques centaines de millisecondes, pour concevoir un capteur peu sensible mais compact, ou, au contraire, très sensible mais plus volumineux.

Le géoïde, la surface équipotentielle de pesanteur de la Terre, sert notamment à déterminer le niveau moyen des océans. Afin d'affiner les mesures, des gradiomètres à étomes froids sont en cours de conception. DR
Venons maintenant au point crucial pour des mesures de précision d'effets inertiels : la réponse de l'interféromètre atomique à une accélération du dispositif dépend surtout d'un paramètre expérimental, la longueur d'onde de la règle laser utilisée, dont on connaît la valeur exacte et dont on peut s'assurer de la stabilité dans le temps à des niveaux relatifs meilleurs que 10-10 ! Une telle performance d'exactitude et de stabilité confère un avantage certain aux capteurs inertiels à atomes froids pour plusieurs applications.
La mesure de gravité, ou gravimétrie, est indispensable aux géophysiciens : la mesure de l'accélération de la pesanteur et de ses variations spatio-temporelles renseigne en effet sur la répartition des masses au sein de la Terre. Une variation de densité dans le sous-sol, associée par exemple à la présence d'eau ou d'hydrocarbures, peut induire une variation relative de l'accélération de la pesanteur locale de l'ordre de 10-9. Détecter des variations aussi infimes suppose que l'instrument utilisé ne dérive pas de lui-même sur l'échelle de temps de la mesure. Sur cet aspect en particulier, les gravimètres à atomes froids se distinguent des autres technologies, utilisant notamment des systèmes masse-ressort ingénieux sujets aux dérives en température, difficiles à contrôler à ces niveaux de stabilité. Après plus de vingt ans de recherches, ils sortent désormais du laboratoire pour des mesures de terrain ! Ainsi, avec le projet Girafe 2, l'Onera a effectué des mesures de gravité à bord d'un navire ; et un gravimètre atomique de la société Muquans va être installé au sommet de l'Etna pour surveiller son activité (lire encadré).

Pour des études du champ de gravité terrestre à l'échelle globale, des gradiomètres (mesurant la dérivée spatiale du champ de pesanteur) à atomes froids, embarquables dans des satellites, sont actuellement en phase de conception par les laboratoires et les agences spatiales. Grâce à leur meilleure stabilité intrinsèque en comparaison des technologies utilisées jusqu'à présent (des gradiomètres électrostatiques), ils pourraient permettre d'affiner les mesures de la surface équipotentielle de pesanteur, le géoïde, qui représente la forme théorique de la Terre si elle était recouverte d'océans au repos et façonnée uniquement par la gravité. Cette surface de référence est utile pour de nombreuses études scientifiques, en particulier pour déterminer le niveau moyen des océans ou l'épaisseur des glaces, et donc pour comprendre le changement climatique et ses impacts.
Une autre application de ces capteurs est la navigation. Le positionnement autonome d'un engin en mouvement (avion, bateau, sous-marin, missile, etc.) s'effectue à partir des données d'accéléromètres et de gyromètres à bord (une centrale inertielle), dont les performances limitent la précision du positionnement. Dans un avion de ligne long-courrier, par exemple, l'instabilité des capteurs inertiels se traduit par des erreurs d'une centaine de mètres après une heure de vol, nécessitant un réétalonnage régulier au moyen d'un système de positionnement par satellite.

Dans les applications (sous-marines par exemple) où l'accès à ce type d'informations est fortement contraint, la durée de navigation autonome est limitée par l'instabilité des capteurs composant la centrale inertielle. De par leur grande stabilité intrinsèque, les dispositifs à atomes froids sont donc prometteurs. Si les instruments actuels ne sont pas encore assez matures pour les applications dans ce domaine, de nombreux travaux sont menés pour les rendre plus robustes (aux vibrations notamment), étendre leur dynamique de mesure, simplifier leur architecture et les confronter aux conditions du terrain.

Écouter l'Univers
Initialement pensés pour des études fondamentales, les interféromètres à atomes froids sortent donc du laboratoire, tant leur potentiel de précision est important. Le domaine rassemble aujourd'hui plus de 30 laboratoires de recherche dans le monde, ainsi que des entreprises. La recherche académique se poursuit activement, car les interféromètres atomiques pourraient permettre de répondre à certaines des grandes questions de la physique, comme la recherche de signatures de la matière noire ou de l'énergie sombre, ou l'étude de potentielles violations du principe d'universalité de la chute libre.
La France, pionnière du domaine des capteurs inertiels à atomes froids, s'est notamment lancée dans le projet Miga, prototype de détecteur d'ondes gravitationnelles utilisant l'interférométrie atomique. Si des développements conséquents en physique atomique restent à mener pour détecter ces vibrations de l'espace-temps, ces instruments nous permettraient « d'écouter » l'Univers à des fréquences plus basses que les détecteurs actuels, et ainsi de sonder la dynamique de trous noirs massifs encore peu étudiés. Si nous y parvenons, de nombreuses applications connexes verront sans doute le jour.
(*) Les ondes gravitationnelles sont des vibrations de l'espace-temps émises lorsque des corps sont accélérés. Les fusions de trous noirs ou d'étoiles à neutrons produisent des ondes gravitationnelles très intenses que l'on peut aujourd'hui détecter sur Terre.

ENSEIGNANT-CHERCHEUR, Remi Geiger est maître de conférences à Sorbonne Université et chercheur en technologies quantiques au laboratoire Syrte. Ses recherches portent sur les applicationsde l'interférométrie atomique aux mesures inertielles de précision, aux tests de physique fondamentale et à la détection d'ondes gravitationnelles.

CONTEXTE
Grâce à la physique quantique, les scientifiques savent manipuler les atomes avec de la lumière. Cela a permis de réaliser des horloges atomiques extrêmement stables. Les atomes peuvent aussi servir à mesurer les accélérations, les rotations ou la force de gravité avec une précision inédite.
SURVEILLER L'ACTIVITÉ DE L'ETNA

Le gravimètre à atomes froids, instrument de mesure ultra-précis, renseigne sur la répartition des masses au sein de la Terre © Muquans
L'Etna est l'un des volcans les plus actifs du monde. La gravimétrie permet de suivre les déplacements du magma qui remonte des profondeurs, et peut-être d'expliciter les mécanismes liant le volcanisme et les variations de gravité. C'est l'objectif du projet Newton-g auquel participe la société française Muquans, qui fabrique un gravimètre à atomes froids « absolu », donnant directement la valeur de g. Il sera installé à l'été 2020, à 2 500 mètres d'altitude, au sommet du volcan, en compagnie de gravimètres à base de microsystèmes électromécaniques, plus petits mais qui nécessitent d'être étalonnés. Ce gravimètre quantique a l'avantage d'avoir une très bonne résolution sur la mesure de g, quelque 10-8 m.s-2. En outre, il mesure en continu, à raison de deux observations par seconde, contrairement aux gravimètres absolus utilisés jusqu'ici en géophysique, constitués d'un interféromètre optique dont l'un des miroirs subit une chute libre.
 
Article suivant du dossier : "Nous voulons mettre en place un internet quantique", par Stéphanie Wehner, professeur d'information quantique à l'université technologique de Delft, aux Pays-Bas

 

  DOCUMENT      larecherche        LIEN  

 
 
 
 

L'intelligence artificielle

 



 

 

 

 

 

L'intelligence artificielle

Publié le 21 novembre 2017

 L’intelligence artificielle ou IA s'applique à tous les secteurs d’activité : transports, santé, énergie, industrie, logistique, finance ou encore commerce. Cloud, véhicule autonome, compteurs intelligents... utilisent tous des algorithmes performants pour fournir des réponses efficaces, fiables et personnalisées aux utilisateurs. Associant matériels et logiciels, l’intelligence artificielle mobilise des connaissances multidisciplinaires : électronique (collecte de données, réseaux de neurones), informatique (traitement de données, apprentissage profond), mathématiques (modèles d'analyse des données) ou sciences humaines et sociales pour analyser l'impact sociétal induit par ces nouveaux usages. L’essentiel sur les enjeux industriels et sociétaux majeurs de l’intelligence artificielle.

QU’EST-CE QUE L’INTELLIGENCE ARTIFICIELLE ?
L’intelligence artificielle ou encore IA, est un ensemble d’algorithmes conférant à une machine des capacités d’analyse et de décision lui permettant de s’adapter intelligemment aux situations en faisant des prédictions à partir de données déjà acquises.
L’intelligence artificielle associe les logiciels à des composants physiques (ou « hardware ») qui peuvent être des capteurs, des interfaces pour l’utilisateur…


A QUOI SERT L’INTELLIGENCE
ARTIFICIELLE ?
L’intelligence artificielle permet :

*         D’analyser des textes : qu’ils soient oraux ou écrits, l’intelligence artificielle arrive de mieux en mieux à comprendre et utiliser le langage pour répondre automatiquement à des requêtes variées. Aujourd’hui, elle est utilisée, par exemple, pour gérer les relations clients, sur Internet ou par téléphone. Les agents conversationnels ou chatbot en anglais sont des systèmes intelligents qui arrivent à entretenir une conversation en langage naturel. Ils se basent sur différentes briques technologiques : reconnaissance de texte, de la parole, d’expressions du visage…
*        
*         De modéliser des connaissances pour aider à la prise de décisions : l’intelligence artificielle permet de coder un ensemble de connaissances, de reproduire un raisonnement type et d’utiliser ces informations pour prendre des décisions. Par exemple, il est aujourd’hui possible, à partir de données multiples et complexes, d’aider les médecins à proposer des traitements personnalisés du cancer de la prostate.
*        
*         De produire des connaissances grâce au « machine learning » ou apprentissage automatique : grâce à l’intelligence artificielle, la machine devient capable de repérer des tendances ou des corrélations dans un très grand volume de données, en adaptant ses analyses et ses comportements et ainsi de créer ses propres connaissances en fonction de l’expérience accumulée. Cela permet de proposer des prédictions très fines sur la consommation d’énergie, l’évolution du comportement d’une machine ou d’un bâtiment. Les règles prédictives qui en sont tirées ne sont que le résultat de ce qui a déjà eu lieu ; ce ne sont pas des lois générales.
*        
*         D’analyser des images ou des scènes en temps réel : reconnaître des défauts de fabrication ou détecter des visages. Par exemple, certaines usines ont des robots qui détectent en temps réel les problèmes techniques, défauts et corrigent ou arrêtent la production. Pour parvenir à analyser une très grande quantité de données visuelles en simultané, les chercheurs développent des logiciels à base de réseaux de neurones profonds, qui permettent aux ordinateurs d’acquérir des capacités d’apprentissage (deep learning).
*        
*         De réaliser des actions : par exemple, l’intelligence artificielle permet d’imiter et reproduire à la perfection certains gestes humains comme celui d’administrer un vaccin via une main robotisée.


COMMENT FONCTIONNE LE DEEP LEARNING ?
Les chercheurs montrent un très grand nombre d’images ou de données numériques à une machine qui fonctionne à base de réseaux de neurones profonds (c’est-à-dire avec un très grand nombre de couches) en lui fixant un objectif comme « reconnaître un visage » ou « comprendre des panneaux de signalisation » ou « reconnaître un bruit sonore ».

En indiquant à la machine quelles sont les données pertinentes pour la requête, les chercheurs lui « apprennent » petit à petit à reconnaître ces informations. L’intelligence artificielle se base sur des similitudes pour reconnaître l’objet recherché, mais également pour le différencier des autres ! Par exemple, dans le cadre d’un apprentissage de la perception pour un véhicule autonome, on cherche à faire la différence entre les deux roues, les voitures, les piétons et l’environnement.


LES ENJEUX ET LIMITES
DU DÉVELOPPEMENT DE L’INTELLIGENCE ARTIFICIELLE
L’intelligence artificielle se retrouve dans tous les secteurs d’activité, des transports à la santé ou l’énergie, de la finance à l’administration et au commerce. Son développement impacte également l’organisation du travail, qui peut ainsi être facilitée (assistance à l’opérateur pour les tâches pénibles ; par exemple, automatisation des tâches répétitives).
L’intégration de plusieurs briques d’intelligence artificielle aboutit à des innovations de rupture comme le véhicule autonome. Pour des véhicules autonomes de niveau 4, c’est-à-dire capables de conduire et prendre toutes les décisions à la place du conducteur sur des portions de route de type autoroute, l’intelligence artificielle permettra à la fois d’analyser des textes (panneaux de signalisation) et des images (environnement de la voiture, type de panneaux) ; de prendre des décisions en fonction de l’environnement et  du code de la route ; et de conduire à la place de l’homme. Ces véhicules sont actuellement au stade de prototype et devraient être commercialisés d’ici 2020.

Les intelligences artificielles développées aujourd’hui sont dites « faibles » : elles savent au mieux imiter le raisonnement de l’être humain et appliquer des protocoles qui guident leurs décisions. Ces machines semblent agir comme si elles étaient intelligentes, mais elles montrent leurs limites quand on leur fait passer le test de Turing.


Le test de Turing
Le test de Turing du nom d’Alan Turing, pionnier de l’intelligence artificielle dans les années 50 et inventeur du test, a pour objectif, en s’adressant à une machine et à un humain lors d’un dialogue de détecter lequel est une IA.
Ce test simple consiste à mettre en relation trois « individus » A, B et C via un ordinateur. A et B parlent tous deux à C qui est un humain et qui a pour mission de découvrir qui de A ou de B n’est pas humain. Si C n’arrive pas à se décider, le test de Turing sera réussi car la machine aura réussi à parfaitement imiter un humain.
Ce test est plus un défi pour les sciences informatiques qu’un réel test. L’imitation de la pensée humaine a énormément évolué mais reste insuffisante, notamment en raison de l’absence de conscience de soi.

Vers une intelligence artificielle égale ou supérieure à l’humain ?
Si les intelligences artificielles actuelles sont loin d’égaler l’intelligence humaine, certains chercheurs  estiment que la première intelligence artificielle dite « forte » (qui aurait les mêmes capacités intellectuelles qu’un être humain ainsi qu’une conscience propre) pourrait voir le jour dès 2045 si les recherches continuent à progresser à ce rythme.
Que deviendrait l’Homme si l’intelligence artificielle avait conscience de sa supériorité sur l’espèce humaine ? Cette question, digne d’un film de science-fiction, légitime la définition de limites éthiques et légales.
C’est pourquoi l’encadrement législatif autour de l’intelligence artificielle est au cœur de nombreux débats, en France et dans le monde, afin de définir les responsabilités légales du comportement des intelligences artificielles.

Cybersécurité et intelligence artificielle
Une intelligence artificielle, basée sur des logiciels, est potentiellement vulnérable et peut être ciblée par des cyberattaques. Les questions de cybersécurité sont donc primordiales dans le développement des algorithmes d’IA. D’autant plus lorsque les intelligences artificielles effectuent des actions « critiques » comme des opérations chirurgicales (robots) ou la gestion de systèmes de production (usines). Dans ces situations, un simple piratage informatique peut vite tourner à la catastrophe. L’amélioration de la cybersécurité des intelligences artificielles est donc une nécessité à leur démocratisation.

L’INTELLIGENCE ARTIFICIELLE VA PERMETTRE L’AVÈNEMENT DE L’USINE DU FUTUR
Même si le développement et le perfectionnement de l’intelligence artificielle soulèvent des questions éthiques et de sécurité, l’un de ses enjeux reste d’assister l’Homme dans les gestes pénibles, voire de le remplacer dans les tâches les plus dangereuses.
La transformation numérique, et notamment les progrès de la robotique, vont inévitablement bouleverser le monde du travail, en recentrant les activités humaines sur les tâches à plus forte valeur ajoutée. L'accomplissement des tâches les plus pénibles par des robots collaboratifs entraînera aussi la création de nouveaux postes pour la conception, la maintenance et l’exploitation de ces robots intelligents. Et les entreprises qui s’en équiperont gagneront en compétitivité, et pourront développer de nouvelles compétences.
L’usine du futur utilise déjà des intelligences artificielles analysant l’ensemble des données de l’usine pour permettre une production plus responsable et économe en ressources. Conséquences : moins de déchets et de rebus, une gestion en temps réel de la production mais aussi de la consommation en électricité et matières premières.

 

   DOCUMENT     cea         LIEN

 
 
 
 

L'ESSENTIEL SUR... Les déchets radioactifs

 



 

 

 

 

 

L'ESSENTIEL SUR...
Les déchets radioactifs


Publié le 27 janvier 2015

On appelle déchet radioactif toute matière radioactive qui ne peut plus être ni recyclée ni réutilisée. Du fait de leur radiotoxicité, potentiellement dangereuse pour l’homme et pour l’environnement, les déchets radioactifs sont gérés de façon spécifique. Cette gestion est encadrée par la Loi. 90 % des déchets radioactifs (en volume), produits en France, disposent déjà d’une filière de gestion en stockage ultime. Les déchets de haute activité et de moyenne activité à vie longue (HA et MA-VL) n’ont pas encore de filières définitives de stockage. Ils sont conditionnés et entreposés par leurs producteurs, dans l’attente d’un site de stockage définitif.
DÉCHETS RADIOACTIFS : DÉFINITION
Les déchets radioactifs sont d’une grande diversité : éléments issus des combustibles usés des centrales nucléaires et des activités Défense pour la force de dissuasion, matériaux issus du démantèlement d'installations nucléaires, éléments radioactifs à usage industriel (techniques de contrôle de fabrication, stérilisation) ou médical (imagerie, radiothérapie), éléments issus de la recherche nucléaire…
En France, les déchets radioactifs sont classés selon deux critères :
*         Leur durée de vie, calculée en fonction de la « période radioactive » des radioéléments contenus : la période est le temps au bout duquel la quantité d’un même radionucléide est divisée par deux. Elle varie, selon les radionucléides, de quelques jours à plusieurs milliers d’années. On parle de déchets à vie courte (VC), quand la période est inférieure à 31 ans, et de déchets à vie longue (VL) au-delà.
*        
*         Leur niveau de radioactivité, exprimé en becquerels : cela correspond au nombre de désintégrations d’atomes par seconde. On parle de déchets de très faible activité (TFA), faible activité (FA), moyenne activité (MA) ou haute activité (HA).


Les différentes catégories de déchets radioactifs
En fonction de ces deux critères, il existe 5 catégories de déchets radioactifs :
*         Les déchets de très faible activité (TFA) issus principalement du démantèlement des installations nucléaires : gravats, bétons, ferrailles. Leur radioactivité décroit de manière significative en une dizaine d'années. Ils représentent 27% du volume des déchets radioactifs produits en France et contiennent moins de 0,01% de la radioactivité de l’ensemble des déchets.

*         Les déchets de faible et moyenne activité à vie courte (FMA-VC) : il s'agit essentiellement des déchets liés à la maintenance des installations nucléaires. Une partie provient aussi des hôpitaux ou des laboratoires de recherche. Ce sont des objets contaminés comme des gants, des filtres, des résines… Leur radioactivité décroit de manière significative en 300 ans environ. Les déchets FMA-VC constituent 63% du volume des déchets radioactifs, pour 0,02% de leur radioactivité.
*        
*         Les déchets de faible activité à vie longue (FA-VL) : cette catégorie couvre les déchets radifères (contenant du radium) provenant de minéraux utilisés dans certaines industries et les déchets de graphite issus du démantèlement des réacteurs nucléaires de 1ère génération. Les déchets FA-VL constituent 7% du volume des déchets radioactifs, pour 0,01% de leur radioactivité. 

*         Les déchets de moyenne activité à vie longue (MA-VL), issus du traitement des combustibles usés des centrales nucléaires : structures qui entourent les combustibles usés (coques et embouts) et effluents liquides issus du procédé de retraitement. Les déchets MA-VL constituent 3% du volume des déchets radioactifs, pour 4% de leur radioactivité.

*         Les déchets de haute activité à vie longue (HA-VL) correspondent aux déchets issus du traitement des combustibles nucléaires usés : ils contiennent les « produits de fission » et les « actinides mineurs » formés par les réactions nucléaires dans le combustible lors de son séjour en réacteur. Leur durée de vie peut s'étendre sur plusieurs milliers, voire plusieurs millions d'années. Ils ne représentent que 0,2% du volume des déchets radioactifs mais 96% de la radioactivité totale des déchets radioactifs en France.

ENJEU :
ASSURER UNE GESTION DURABLE
DES DÉCHETS RADIOACTIFS
Les déchets radioactifs contiennent des radionucléides potentiellement dangereux pour l’homme et pour l’environnement. Ils doivent donc être gérés de manière spécifique tout au long de leur durée de nuisance potentielle : inventaire et collecte des déchets radioactifs, conditionnement adaptés, solutions de stockage sûres et pérennes.
Juridiquement, les grands principes de gestion des déchets radioactifs sont indiqués par la loi du 28 juin 2006 relative à la gestion durable des matières et déchets radioactifs.
Ces principes sont les suivants :
*         protection de la santé des personnes et de l’environnement ;
*         réduction de la quantité et de la nocivité des déchets radioactifs ;
*         prévention ou limitation des charges supportées par les générations futures ;
*         principe pollueur-payeur qui prévaut en droit de l’environnement.

L'Agence nationale pour la gestion des déchets radioactifs (Andra) est l’organisme chargé de trouver, mettre en œuvre et garantir des solutions de gestion sûres pour l’ensemble des déchets radioactifs français.
Renouvelé tous les 3 ans, le plan national pour la gestion des matières et des déchets radioactifs (PNGMDR) constitue l’outil privilégié pour mettre en œuvre ces principes. Par ailleurs, tous les 3 ans, un inventaire complet des matières et des déchets radioactifs est réalisé et publié par l’Andra.
Aujourd’hui, 90 % des déchets nucléaires (en volume) produits en France disposent déjà d’une filière de gestion en stockage ultime. L’Andra dispose de centres dédiés de stockage et peut ainsi les gérer de façon industrielle : les déchets de très faible activité (TFA) sont stockés sur le site de Morvilliers (Aube), les déchets de faible et moyenne activité à vie courte (FMA-VC) sont stockés en surface sur le centre de Soulaines (dans l’Aube également).

Pour les déchets FA-VL, une démarche de recherche de site de stockage est conduite par l’Andra depuis 2008. En attendant la création d'un centre pouvant les accueillir, les déchets FA-VL sont entreposés dans des installations spécifiques, le plus souvent sur le lieu même où ils sont produits.
Enfin, les déchets de haute activité (HA) et de moyenne activité à vie longue (MA-VL) n’ont pas non plus de filière définitive de stockage. Dans l’attente d’un site de stockage définitif, ils sont conditionnés et entreposés dans des installations ad hoc par leurs producteurs, principalement à La Hague (Manche), Marcoule (Gard), Cadarache (Bouches-du-Rhône) et Valduc (Côte-d’Or). À terme, ils devraient être stockés sous terre, dans des formations géologiques de grande profondeur. C’est le projet Cigéo (Centre industriel de stockage géologique pour les déchets) de l’Andra, qui fait l’objet d’un débat public durant l’année 2013.


LES RECHERCHES SCIENTIFIQUES
SUR LES DÉCHETS RADIOACTIFS
La gestion des déchets radioactifs s’inscrit dans une démarche de progrès continu. Elle fait donc l’objet de programmes de R&D importants depuis la fin des années 1950, le but étant de minimiser la quantité de déchets, de concentrer la radioactivité et de garantir le confinement dans des conditions sûres.
Les déchets HA et MA-VL font l’objet de programmes de recherches particuliers dont les grandes orientations sont fixées par la loi du 28 juin 2006.
Cette loi définit trois axes de recherche et d’études complémentaires :
*         La séparation/transmutation des actinides mineurs, sous la responsabilité du CEA : il s’agit d’isoler puis de transformer les éléments les plus radiotoxiques en les « transmutant » en d’autres éléments moins radiotoxiques et à vie plus courte. Ces recherches sont menées par le CEA en lien avec celles menées sur les réacteurs nucléaires à neutrons rapides de 4ème génération, capables de réaliser la transmutation. Le CEA a coordonné les travaux de recherche menés par les établissements publics (Andra, CEA, CNRS, Universités) et leurs partenaires industriels (Areva, EDF) afin d’évaluer les perspectives industrielles des technologies étudiées. Un dossier sur le résultat de ces travaux a été remis au gouvernement fin 2012.

Le stockage en formation géologique profonde (projet Cigéo en Meuse / Haute-Marne), sous la responsabilité de l’Andra : le stockage des déchets de haute et moyenne activité à vie longue en formation géologique profonde est retenu par la loi comme solution de référence. Cet axe de recherche correspond au projet Cigéo de l’Andra. Dans le domaine de la R&D, le CEA y contribue avec des études notamment sur le comportement à long terme des colis de déchets en milieu géologique profond et sur la migration des radionucléides dans les couches géologiques.

Le 3ème axe d’étude porte sur l’entreposage des déchets radioactifs HA et MA-VL en attente d’une solution de gestion définitive. Il est aussi confié à l’Andra. Le CEA a contribué à des études de conception de ces installations d’entreposage.

 

   DOCUMENT     cea         LIEN

 
 
 
 

Les noyaux des atomes

 


 

 

 

 

 

Les noyaux des atomes

Publié le 3 novembre 2016

La conception que se font les physiciens des noyaux des atomes et de la physique qui les gouverne a fortement évolué depuis le début du XXème siècle. On les classe sur un diagramme en fonction de leur nombre de protons et de neutrons appelé charte des noyaux. Dans ce diagramme, la « vallée de la stabilité » délimite la zone des noyaux existants.

A L’INTÉRIEUR DE L’ATOME
L’atome est le constituant de base de la matière. Dans le noyau de l’atome se trouvent les protons (chargés positivement) et les neutrons (non chargés), tandis que les électrons (chargés négativement) sont localisés autour du noyau.

Son nombre de protons ou numéro atomique est noté Z. L’atome étant neutre, il comporte autant d’électrons que de protons. Ainsi le numéro atomique détermine les propriétés chimiques de l’atome.
A chaque valeur de Z correspond un nom d’atome, un élément chimique. Ainsi l’hydrogène possède 1 proton, tandis que le carbone en possède 6.

Le nombre de neutrons au sein du noyau est désigné N. Le nombre de masse A est la somme de Z+N. Pour un atome de Z donné, on peut compter plusieurs isotopes, en fonction du nombre de neutrons.


DES NOYAUX DANS TOUS LEURS ÉTATS
Un noyau d’atome est dit :
*         lié lorsque la cohésion des protons et des neutrons est assurée. Plus leur énergie de cohésion est élevée, plus il faudra fournir d’énergie pour séparer les constituants du noyau. Les noyaux liés peuvent être stables ou instables.

*         stable lorsqu’il ne se désintègre pas spontanément en un autre noyau. La majorité des noyaux que l’on trouve sur Terre sont stables.

*         instable ou radioactif lorsqu’il tend à se transformer spontanément en un autre noyau. On appelle cette transformation « désintégration radioactive ». La probabilité que cet événement survienne dépend de sa période radioactive, qui correspond au temps au bout duquel la moitié d’un ensemble de noyaux de même nature s’est désintégrée.

*         excité lorsque, stable ou instable, il a acquis un surplus d’énergie. Le noyau peut vibrer ou tourner sur lui même et /ou dissiper cette énergie excédentaire par émission d’une particule ou d’un photon.       


DES NOYAUX EN FORME
Dès les origines de la physique nucléaire, devant la complexité d'un système composé de N particules en interaction, les physiciens imaginent des modèles visant à donner une description simple mais suffisamment réaliste du noyau. Depuis les années 60 les physiciens constatent que le noyau des atomes peut prendre les formes les plus inattendues. La forme d’un noyau correspond à la zone dans laquelle ses constituants élémentaires peuvent se trouver. Ces constituants élémentaires sont les protons et les neutrons, qu’on nomme ensemble les nucléons, liés par l’interaction forte, l’une des quatre forces fondamentales à l’œuvre dans l’Univers. Ils sont eux-mêmes composés de quarks et de gluons (également soumis à l’interaction forte).
Jusqu’au 19e siècle, l’atome est considéré comme la brique de base de la matière, indivisible. A partir du 20e siècle, la physique permet aux scientifiques de rentrer dans l’intimité de l’atome.

Voici les principales phases de la transformation de notre vision du noyau :
*         1911-1919 : On voit l’atome comme un noyau composé de protons chargés positivement autour duquel gravitent les électrons ;

*         1932 : Le noyau compte aussi des neutrons ;

*         1934 : Synthèse d’un atome artificiel. C’est le premier noyau exotique. Casse tête des physiciens tant leurs propriétés sont variées (forme, mode de désintégration radioactive, composition, durée de vie tellement courte que la notion même d’existence semble dépassée…), les noyaux exotiques continuent d’être étudiés aujourd’hui : il en resterait, selon les modèles théoriques, 3 000 à 5 000 à découvrir.

*         Années 40 : Certaines combinaisons particulières de protons et de neutrons entraînent des noyaux ayant une énergie de liaison très élevée. Les physiciens les appellent les noyaux magiques. C’est le cas pour les noyaux qui comptent 2, 8, 20, 28, 50, 82 ou 126 protons et/ou neutrons. A la même époque, le noyau peut être décrit macroscopiquement comme une goutte de matière. C’est le modèle de la goutte liquide qui permet de calculer l’énergie de liaison du noyau grâce à une seule équation simple.

*         Années 50 : On pense que les nucléons sont organisés en niveaux d’énergies qu’on appelle couches nucléaires, similaires à celles des électrons autour du noyau. C’est le modèle en couches : chaque couche a un nombre fini d’emplacements, lorsqu’une couche est totalement remplie et qu’aucune n’est remplie partiellement, l’édifice est particulièrement robuste.

*         Années 70 : La théorie du champ moyen considère que chaque nucléon se déplace dans un puits de potentiel, généré par l’ensemble des autres nucléons, qui le confine dans le noyau.

*         Années 80 : les noyaux ne sont plus vus comme un mélange homogène et plus ou moins sphérique. Ils sont imaginés comme des structures très variées : ainsi le carbone 12, atome stable, porté à haute énergie, est vu comme un tripode de trois noyaux d’hélium ; Le lithium 11 fait partie d’une nouvelle famille de noyaux dits noyaux à halo : son extension spatiale est similaire à celle du plomb 208, qui comporte pourtant vingt fois plus de nucléons.

*         Années 90 : A quelques encablures de la vallée de la stabilité, la théorie prévoit l’existence d’une série de noyaux comportant plus de 110 protons dont la durée de vie serait relativement élevée. Les scientifiques parlent de l’îlot de stabilité des noyaux super-lourds. Cette relative stabilité des noyaux super-lourds va à l’encontre de la force de répulsion coulombienne qui tend à faire se disloquer un édifice composé d’un trop grand nombre de charges de même signe.

*         Années 2000 : Avec la montée en puissance des grands accélérateurs de faisceaux radioactifs (Spiral au Ganil, RIBF à Riken…) de nombreux nouveaux isotopes radioactifs sont découverts et étudiés.

*         Aujourd’hui, tous les éléments jusqu’à 118 protons ont été synthétisés. Les quatre derniers découverts (113, 115, 117 et 118 protons) ont été officiellement nommés en 2016. De nouveaux instruments sont en développement pour aller encore plus loin. Les noyaux exotiques très riches en neutrons produits lors des explosions de supernovae sont encore hors de notre portée. On est encore très loin d’avoir découvert tous les noyaux existants et les phénomènes surprenants qu’ils pourraient faire apparaître !

LA VALLÉE DE LA STABILITÉ
Lorsqu’on classe les noyaux connus des atomes en fonction de leur nombre de protons (Z, éléments) et de neutrons  (N, isotopes), on obtient un ensemble de données en forme de faisceau. Si on ajoute la valeur de l’énergie de liaison de chaque noyau sous la forme d’un histogramme, on obtient un graphe en trois dimensions qui présente une surprenante vallée au fond de laquelle se  trouvent les 250 à 300 atomes stables. Plus on s’éloigne de ces noyaux, plus l’énergie de liaison de nucléons dans le noyau est faible. Les atomes radioactifs subissent une série de transformations qui les ramène toujours vers le fond de ladite vallée. Les chercheurs désignent cette figure par le terme imagé de «  vallée de la stabilité ».


D’OU VIENNENT LES NOYAUX :
LA NUCLÉOSYNTHÈSE DANS LES ÉTOILES
Les éléments qui constituent la matière sont apparus à différentes étapes de l’histoire de l’univers. Les atomes les plus légers sont les plus anciens : hydrogène, hélium, lithium et béryllium ont été formés par assemblage de protons et de neutrons dans les trois minutes suivant le Big Bang. Il y a entre douze et quinze milliards d’années. Les autres éléments, plus lourds, sont plus récents et ont été produits dans les étoiles. Les premiers atomes compris entre le carbone et le fer ont été synthétisés lors de la fin de vie d’étoiles près de dix fois plus massives que notre Soleil. Au delà du cobalt, les noyaux sont synthétisés lors de réactions explosives telles que les supernovas. On ne connaît pas encore précisément tous les processus responsables de la création des atomes dans l’Univers.

 

  DOCUMENT     cea         LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 ] Précédente - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales /confidentialité

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon