ecole de musique piano
     
menu
 
 
 
 
 
 

CHIMIE POLLUANTE, CHIMIE NON-POLLUANTE ET CHIMIE DÉPOLLUANTE

 

 

 

 

 

 

 

CHIMIE POLLUANTE, CHIMIE NON-POLLUANTE ET CHIMIE DÉPOLLUANTE

L'image de la Chimie comme source de toutes les pollutions est partiellement vraie, et ceci depuis fort longtemps. Métallurgie du plomb dans l'Antiquité, usage de cosmétiques toxiques pendant la Renaissance, empoisonnement d'utilisateurs de pesticides puissants, rejets odorants ou toxiques... Les exemples abondent de cette chimie Noire, ou Brune, ou même Rouge. Après en avoir fait un catalogue incomplet, je montrerai que ces abus ont conduit à une chimie non-polluante, fondée dans l'idéal sur l'absence de rejets toxiques, mais surtout sur la maîtrise des rejets inévitables. Nous en sommes au développement de la Chimie Verte. Je montrerai ensuite que l'ensemble des activités humaines est polluant, et qu'il est souvent nécessaire d'avoir recours à la Chimie pour contrecarrer les effets de ces activités.

Texte de la 292e conférence de l’Université de tous les savoirs donnée le 18 octobre 2000. Chimie polluante, chimie non-polluante, chimie dépolluante par Guy Ourisson Au fond, j'aurais dû proposer un autre titre : « Chimie Noire, Chimie Rouge, Chimie Blanche, Chimie Verte, Chimie Rose ». Et c'est bien ainsi que je vais traiter mon sujet. Je suis à la fin d'une carrière de chimiste, que j'ai été heureux de pouvoir mener àbien. J'ai passé toute mon enfance dans une usine de produits chimiques, à Thann, dans le Sud de l'Alsace, où mes camarades et moi jouions dans les ateliers de fabrication, insouciants des odeurs de chlore, d'acide chlorhydrique ou d'anhydride sulfureux. Les énormes charpentes centenaires des chambres de plomb, édifiées avec le concours de Monsieur de Gay-Lussac, faisaient d’admirables cadres pour des parties de cache-cache. Quand j'ai été élu à la Présidence de l'Académie des Sciences, le magazine Marianne a publié un écho disant que cette élection avait donné des boutons à certains membres du Cabinet de Madame Voynet, parce que j'étais considéré comme « un croisé de la Chimie ». J'ai pris cet écho comme un compliment, bien que je me sente plus proche de bien des environnementalistes qu'ils ne le croient. Mais vous êtes prévenus : mon propos sera celui d'un « croisé de la Chimie ». La Chimie a été noire, et elle a été rouge. Elle a été noire, c'est à dire polluante. Les gravures d'il y a un siècle, représentant l'usine de Thann dont je vous parlais, insistent sur ce qui démontrait la prospérité de l'usine : les épaisses volutes de fumée sortant des cheminées. Ce n’est qu’un exemple, et il n'y avait bien sûr pas que les industriels de la chimie qui se flattaient de cracher de la fumée noire. Notez cependant que ces fumées ne sortent pas nécessairement des ateliers de fabrication, mais plutôt des centrales dans lesquelles était brûlé du charbon. Ces fumées noires étaient aussi celles qui régnaient dans nos villes où chaque foyer (notez le terme) se chauffait par une cheminée brûlant du charbon : de l'anthracite ou des boulets. Ceux d'entre vous qui n'ont pas eu tous les jours à recharger une chaudière à charbon, dans l'atmosphère suffocante due à la combustion du soufre résiduel, ceux qui n'ont pas connu Londres dans le brouillard jaune dû aux innombrables cheminées individuelles, ceux-là ne savent pas ce qu'est une pollution atmosphérique ! Il est vrai que, dans la villa que nous habitions à Thann, dans l'enceinte de l'usine, il était inutile de laver les voilages des fenêtres : ils partaient en charpie au lavage et il fallait les changer tous les ans. Il fallait aussi changer tous les ans ou tous les deux ans les arbustes d'ornement plantés en bordure de l'usine. C'était une usine noire. En ce temps, avant-guerre, il n’était pas possible de mesurer la pollution atmosphérique, sinon pour des concentrations plus élevées que ce que mesurait le nez : une forte odeur de SO2 voulait dire que le vent avait tourné à l'Ouest et qu’il y avait une fuite ;une forte odeur de chlore, qu'il avait tourné à l'Est et qu’il y avait une fuite – et un coup de téléphone au contremaître responsable réglait le problème. Cependant, le travail à l'usine et notre vie familiale dans l'usine n'étaient pas considérés comme mortifiants ou morbifiques. Je n'en déduis pas que c'était une situation idéale, loin de là. Je veux simplement dire que nous revenons de loin. Des photographies récentes de l'usine de Thann ou de toute autre usine chimique ne montrent jamais de fumées noires ; tout au plus des volutes blanches de vapeur d'eau. Peut-être influent-elles sur le climat local.Il y a même une certaine prétention à croire que nos petits moyens ont une puissance suffisante pour cela... « Noire », la chimie l'était aussi d'une façon plus insidieuse, invisible et inodore. Cette noirceur clandestine, je l'illustrerai à nouveau par l'exemple de l'usine de Thann. Cette usine a longtemps eu une exclusivité en France : elle produisait de la potasse et du chlore par électrolyse du chlorure de potassium extrait des mines de potasse d'Alsace, toutes proches. Cette électrolyse se faisait avec des cathodes de mercure, au moment même où, pour réussir l'examen de chimie minérale à la Sorbonne, il fallait pouvoir expliquer pour quelles bonnes raisons théoriques cette électrolyse, possible avec le chlorure de sodium, était impossible avec le chlorure de potassium. Thann produisait de la potasse et du chlore. Mais Thann consommait du mercure, alors qu'en principe ce métal toxique ne devait pas quitter l'atelier de production : il ne devait se retrouver ni dans le chlore ni dans la potasse. Il n’aurait pas fallu en perdre, vu son prix. Pourtant, il s'en perdait quelques kilos tous les ans. Ce n'est que dans les années suivant la guerre que les méthodes analytiques sont devenues suffisamment sensibles pour qu'il soit possible de retrouver des teneurs inacceptables de mercure dans les sédiments de la petite rivière passant à côté de l'usine, la Thur. Une fois les fuites de mercure localisées, il devint possible de les colmater, puis de nettoyer la rivière, et de mettre au point une production « propre », pour laquelle l'usine de Thann obtint l'un des premiers trophées nationaux pour son action efficace de protection de l'environnement. Ceci n'est qu'un exemple. La règle qu'appliquent toutes les usines chimiques « civilisées » est de chercher à limiter ce qui sort de l'usine aux produits destinés à la vente, à de l'eau propre, de l'azote ou de l'oxygène, des matériaux inertes utilisables éventuellement dans le bâtiment ou les travaux publics... Ne me faites pas dire que c'est toujours le cas, mais toute déviation à cette règle est reconnue comme une déficience à corriger. Ne me faites pas non plus dire que toute déviation constitue un danger : il est bien probable que les habitants de Vieux-Thann, en aval des rejets de mercure méconnus, contenaient dans leur corps moins de mercure venant de l'usine de Thann que ne leur en procuraient les amalgames bouchant leurs dents cariées. Mais la chimie n'est-elle pas rouge ? N'est-elle pas la source d'accidents ?Le voisinage de ses centres de production n'est-il pas dangereux ? Les noms de Seveso ou de Bhopal ne sont-ils pas ceux de catastrophes majeures ? Bhopal assurément. Des milliers de victimes. Un accident rendu possible parce que les mesures de sécurité normales dans une usine occidentale n'étaient pas respectées dans cette filiale indienne de la société-mère américaine. Il n'y a pas de petit profit. Comme en outre le bidonville de Bhopal cernait l'usine, l'incident est devenu une catastrophe. Et cette catastrophe a pris un tour insoutenable, quand les avocats spécialisés se sont abattus sur les victimes pour les convaincre d'engager des procès dont ils partageraient les bénéfices. La catastrophe est devenue un scandale. Et Seveso, dans le Nord de l'Italie, un pays sans bidonville ? Le Monde parlait encore tout récemment de la « catastrophe » de Seveso et de ses « milliers de victimes ». Il est nécessaire de rappeler les faits. Une explosion nocturne a conduit à la formation d'un nuage de vapeur d'eau, de soude, de phénol, de phénols chlorés, le tout évidemment très irritant, contenant des teneurs mesurables et importantes de chlorodioxines, dont la célèbre « dioxine ». Ce nuage a frappé directement les animaux dans les champs et les clapiers situés sur sa trajectoire et a provoqué la mort de ces animaux. La dioxine qu'il contenait a provoqué chez de nombreux habitants, par une réaction bien connue, une « chloracné », c'est à dire des boutons d'autant plus désagréables qu'ils sont parfois longtemps récidivants. Les habitants ont été déplacés, leurs maisons ont été détruites, les moutons et autres animaux de la région ont été abattus et incinérés, la couverture de terre a été enlevée et transportée vers des centres d'incinération spécialisés, un trafic s'est établi pour évacuer en douce, en dehors de tous les règlements, des détritus contaminés vers des sites non-autorisés. Bref, il s'en est suivi toute une série de conséquences graves et frisant le scandale. Et les milliers de victimes humaines ? En fait, il n'y en a aucune, ou plutôt qu'une seule : le directeur de l'usine, qui a été abattu quelques années plus tard, dans l'un des attentats des « années de plomb » italiennes. Des études épidémiologiques sérieuses ont fait le bilan de l'apparition de cancers dans la population exposée à l'accident de Seveso. Les résultats en ont été publiés ; ils ne montrent aucune différence significative entre les taux de cancers de cette population et ceux de populations éloignées de l'accident . Le taux de cancers du sein a même été plus faible, sur vingt ans, pour les plus exposés. Seveso a été un accident qui n'aurait pas dû avoir lieu ; ses suites ont constitué un traumatisme majeur pour des centaines de personnes, mais on ne peut pas dire que cela ait été une « catastrophe » ou alors il faudrait trouver un autre terme pour les catastrophes réelles qui se produisent chaque semaine sur la planète. Il y a évidemment une autre façon pour une industrie comme l’industrie chimique d'être rouge : c'est d'être dangereuse pour ses ouvriers. Nous disposons en France d'une source précieuse de renseignements grâce à la Caisse nationale de l'Assurance Maladie des Travailleurs Salariés, qui établit chaque année des statistiques par branche d'activité professionnelle. On y voit par exemple qu'en 1955, dans l'industrie chimique, il y avait eu 51 accidents avec arrêt de travail par million d'heures travaillées. En 1991, ce taux de fréquence des accidents avec arrêt était tombé de 51 à 16 et il est actuellement à 12, c'est à dire moins que dans l'industrie du vêtement et le plus bas de l'ensemble des branches d'activité. Et l'indice de gravité correspondant, l'indice qui mesure les incapacités temporaires ou définitives, est aussi au niveau le plus bas de toutes les branches industrielles. Pendant le même temps, dans le bâtiment et les travaux publics, le taux est passé de 94 à 60, c'est à dire cinq fois plus élevé. La prochaine fois que vous passerez à côté d'un chantier, comptez les têtes sans casques et les mains sans gants... La chimie n'est pas une industrie rouge pour ses producteurs, mais cela ne s'est réalisé que par un effort déterminé. À ce propos, je dois ajouter que l'enseignement de la chimie a enfin pris un tournant. Quand j'étais étudiant, j'ai appris par mes professeurs de belles histoires de beaux accidents. Mais personne ne m'avait appris comment éviter les accidents. J'espère ne pas me tromper en disant qu'il n'est plus possible maintenant pour un lycéen ou un étudiant d'entrer dans un laboratoire de travaux pratiques sans porter une blouse de coton et des lunettes de protection. Et il y a vraiment longtemps que je n'ai plus vu d'étudiant ou de chercheur fumer dans un laboratoire, alors que cela était fréquent il y a trente ans, avec les conséquences que l'on peut en attendre : quelques beaux incendies d'acétone ou d'éther. Je parlerai dans un moment des conséquences invisibles. Ni noire ni rouge, comment la chimie peut-elle être verte ? C'est là une notion nouvelle, mais une notion acceptée au point qu'il existe un journal spécialisé depuis deux ans dans la publication des travaux de chimie respectueuse de l'environnement. Il s'appelle bien sûr Green Chemistry. Le concept est simple : peut-on produire les matières chimiques qui nous sont utiles par des procédés doux, des procédés verts, sans réactif ou sous-produit toxique, en dépensant peu d'énergie et peu de matières premières non-renouvelables ? Peut-on remplacer des produits conduisant, après usage, à des pollutions, par des équivalents aussi efficaces, mais conduisant à des effluents bénins ? La réponse est dans presque tous les cas : « oui, on le peut, mais c'est plus cher », ou « c'est moins commode », ou « on ne peut pas en produire autant ». Ce dilemme n'est pas nouveau : par exemple il a déjà fallu remplacer il y a quelque dizaines d'années les premiers détergents par des produits un peu plus chers, mais biodégradables. Le concept de « chimie verte », conduisant à faire le bilan écologique complet d'une production, est nouveau. Il conduit à un renouveau d'intérêt pour les procédés catalytiques, dans lesquels en principe le catalyseur n'est pas du tout consommé et ne fait que faciliter une réaction. Il conduit à proscrire des réactifs toxiques comme le phosgène, mais à en trouver des équivalents pour pouvoir continuer à produire les mousses de polyuréthanes qui remplissent les coussins de nos voitures, à contrôler les réactions avec une très grande finesse pour éviter la formation de sous-produits potentiellement dangereux comme les dioxines, ou simplement inutiles, à utiliser des réactions sans solvants, toujours difficiles à récupérer, etc. Retenons simplement qu'il y a de plus en plus de chercheurs engagés dans cette voie, mais qu'il reste énormément à faire pour que la chimie soit vraiment verte. En fait, beaucoup de ces applications apparemment banales sont peut-être les plus difficiles à verdir. Je citerai seulement un exemple. Le nettoyage à sec de nos vêtements se fait avec des solvants. Jusque dans les années 1950 en tout cas, le solvant de choix pour cela était le benzène. On savait qu'il pouvait être toxique, et qu'il était inflammable, mais il était bon marché et efficace. Puis sont venus les solvants chlorés, ininflammables, bon marché, et bien volatils, ne laissant pas d'odeur. Mais leur récupération, si elle est facile à 99 %, est difficile à 100 %. La solution verte serait par exemple de tenter le nettoyage par le gaz carbonique supercritique : excellent solvant, ni toxique ni inflammable, mais exigeant de remplacer par des installations complexes, sous pression, tous les ateliers actuels. L'eau supercritique serait encore plus verte. Je doute que son utilisation soit compatible avec nos vêtements actuels... et seriez-vous prêts à payer peut-être dix fois plus cher le nettoyage de vos cravates ? Noire, rouge, verte. Reste la chimie rose. C'est avant tout celle qui nous soigne. Sans chimie, pas de médicaments vraiment efficaces. Je n'en parlerai pas davantage. Mais la chimie rose, c'est aussi celle qui dépollue. Par exemple, nous en bénéficions tous les jours, simplement en buvant un verre d'eau de ville. Aucune eau naturelle ne reste pure, potable, très longtemps. Elle sort de la source, et son destin est de devenir rapidement le foyer de larves de moustiques, de sangsues, d'escargots d'eau, de daphnies, et de bien des micro-organismes dont certains n'attendent que d'être bus pour devenir des parasites dangereux. Avant la guerre, il n'était pas question de boire l'eau du robinet sans l'avoir fait bouillir, tout au moins dans les régions bénies du Sud de la Loire. Actuellement, dans bien des pays, c'est encore le cas. Si notre eau est potable, nous le devons exclusivement à la chimie. À la chimie qui sait produire les membranes de filtration, au chlore que l'on sait additionner en quantités minimes et dosées, à l'ozone qui permet des traitements encore plus doux et verts. Quand nous l'avons bue et éliminée, c'est encore une chimie douce, une chimie rose, qui nous permet de la traiter puis de la rejeter sans trop de dégâts sur l'environnement. Floculants, additifs, contrôles chimiques multiples, heureusement combinés à des traitements microbiologiques, font des usines de traitement des eaux usées de véritables usines chimiques roses. Mon propos ne serait pas complet si je n'ajoutais pas quelques faits. Les journaux sèment la peur : peur des pollutions, peur des intoxications, peur des dangers qui nous guettent. Retenez, même si cela n'a plus rien à voir directement avec ma chimie arc-en-ciel, quelques faits : - Nous gagnons actuellement tous les ans un trimestre supplémentaire d'espérance de vie : un an tous les quatre ans, et parmi les petites filles nées cette année, on peut prévoir que la moitié deviendront centenaires. Ceci n'est guère compatible avec l'idée d'un monde de plus en plus dangereux. Dans nos pays, la vie est en fait de moins en moins dangereuse. En partie grâce à la chimie. - Dans une mauvaise année, celle où il y aurait un accident chimique vraiment très grave, il pourrait y avoir peut-être une dizaine de victimes. Or, il y a en France près de dix mille morts prématurées par an, par suite des accidents de la route. - Et le tabac, à lui seul, est responsable de 40 000 à 60 000 morts prématurées par an. Ces morts sont dues bien entendu aux produits chimiques contenus dans la fumée de tabac. Ce sont, de très loin, les morts les plus nombreuses que l'on puisse attribuer à la Chimie. Cette chimie-là est rouge, rouge-sang.


   VIDEO       CANAL  U         LIEN

 
 
 
 

MACHINES ET MOTEURS MOLÉCULAIRES : DE LA BIOLOGIE AU MOLÉCULES DE SYNTHÈSE

 

 

 

 

 

 

 

MACHINES ET MOTEURS MOLÉCULAIRES : DE LA BIOLOGIE AU MOLÉCULES DE SYNTHÈSE

De nombreux processus biologiques essentiels font intervenir des moteurs moléculaires (naturels). Ces moteurs sont constitués de protéines dont la mise en mouvement, le plus souvent déclenchée par l'hydrolyse d'ATP (le "fioul" biologique), correspond à une fonction précise et importante. Parmi les exemples les plus spectaculaires, nous pouvons citer l'ATPsynthase, véritable moteur rotatif responsable de la fabrication de l'ATP. Pour le chimiste de synthèse, l'élaboration de molécules totalement artificielles, dont le comportement rappelle celui des systèmes biologiques, est un défi formidable. L'élaboration de "machines" et "moteurs" moléculaires de synthèse représente un domaine particulièrement actif, qui a vu le jour il y a environ une douzaine d'années. Ces machines sont des objets nanométriques pour lesquels il est possible de mettre en mouvement une partie du composé ou de l'assemblée moléculaire considérée, par l'intervention d'un signal envoyé de l'extérieur, alors que d'autres parties sont immobiles. Si une source d'énergie alimente le système de manière continue, et qu'un mouvement périodique en résulte, l'assemblée moléculaire en mouvement pourra être considérée comme un "moteur". D'ores et déjà, certaines équipes de chimiste ont pu fabriquer des moteurs rotatifs minuscules, des moteurs linéaires mis en mouvement par un signal électronique ou des "muscles" moléculaires de synthèse, capables de se contracter ou de s'allonger sous l'action d'un stimulus externe. Quelques exemples représentatifs seront discutés lors de l'exposé. Un certain nombre de questions ayant trait aux applications potentielles du domaine de "nanomécanique moléculaire" seront abordées : - "ordinateurs moléculaires", pour lesquels certains chercheurs fondent de grands espoirs, stockage et traitement de l'information au niveau moléculaire, - robots microscopiques, capables de remplir une grande variété de fonctions allant de la médecine à la vie de tous les jours, - transport sélectif de molécules ou d'ions à travers des membranes.

Transcription de la 613e conférence de l'Université de tous les savoirs donnée le 20 juin 2006 revue par l'auteur.
Jean Pierre Sauvage : « Machine et moteurs moléculaires : de la biologie aux molécules de synthèse »

De nombreux processus biologiques essentiels font intervenir des moteurs moléculaires naturels. Ces moteurs sont constitués de protéines dont la mise en mouvement, le plus souvent déclenchée par l'hydrolyse d'ATP (le « fuel » biologique), correspond à une fonction précise et importante. Parmi les exemples les plus spectaculaires, nous pouvons citer l'ATPsynthase, véritable moteur rotatif responsable de la fabrication de l'ATP. Pour le chimiste de synthèse, l'élaboration de molécules totalement artificielles, dont le comportement rappelle celui des systèmes biologiques, est un défi formidable.
L'élaboration de « machines » et « moteurs » moléculaires de synthèse représente un domaine particulièrement actif, qui a vu le jour il y a environ une douzaine d'années. Ces machines sont des objets nanométriques pour lesquels il est possible de mettre en mouvement une partie du composé ou de l'assemblée moléculaire considérée, par l'intervention d'un signal envoyé de l'extérieur, alors que d'autres parties sont immobiles. Si une source d'énergie alimente le système de manière continue, et qu'un mouvement périodique en résulte, l'assemblée moléculaire en mouvement pourra être considérée comme un « moteur ». D'ores et déjà, certaines équipes de chimistes ont pu fabriquer des moteurs rotatifs minuscules, des moteurs linéaires mis en mouvement par un signal électronique ou des « muscles » moléculaires de synthèse, capables de se contracter ou de s'allonger sous l'action d'un stimulus externe.
Quelques exemples représentatifs seront discutés et un certain nombre de questions ayant trait aux applications potentielles du domaine de « nanomécanique moléculaire » seront abordées.
Qu'entend-on par machine et moteur moléculaires ? Et quels sont les systèmes naturels étudiés ?
Une machine moléculaire est un système dynamique comportant plusieurs constituants et capable de subir des mouvements réversibles de grande amplitude. Ces mouvements sont contrôlés par un signal extérieur (le signal peut être photonique, électronique ou chimique).

Il existe 3 catégories de machines moléculaires :
-les protéines moteurs (en biologie): ce sont des moteurs rotatifs, comme l'ATPsynthase ou les flagelles des bactéries qui permettent leur locomotion, des moteurs linéaires (les muscles, la kinésine ou la dynéine), ou encore des presses, comme la famille des chaperons (les chaperons sont capables d'encapsuler et de comprimer des protéines dénaturées pour leur redonner la bonne conformation).
-les systèmes hybrides : ce sont des systèmes développés par des biologistes, souvent en association avec des chimistes et des ingénieurs, comportant des fragments naturels et éventuellement des éléments artificiels issus de la chimie de synthèse.
-les molécules ou assemblées moléculaires totalement artificielles : c'est ce à quoi nous nous intéresserons plus particulièrement.
Détaillons un exemple de moteur moléculaire (de la catégorie des protéines moteurs), l'ATPsynthase schématisée figure 1. L'ATPsynthase est une enzyme universelle (nous pouvons la trouver chez les bactéries les plus primitives ainsi que chez les mammifères : elle est présente dans tous les organismes vivants). Elle est responsable de la fabrication de l'ATP (Adénosine TriPhosphate) à partir d'ADP (Adénosine DiPhosphate) et de phosphate inorganique. L'ATP représente un véritable « fuel » biologique qui permet le stockage énergétique dans la cellule (nous fabriquons chaque jour la moitié de notre poids en ATP !).

Figure 1 : l'ATPsynthase est un moteur rotatif merveilleux
Figure 2 : la rotation du rotor g à l'intérieur de la roue
a3b3 a été mise en évidence en attachant un
filament d'actine à une extrémité et en alimentant
le système en ATP
Lorsqu'une solution d'ATP est ajoutée, le groupe japonais a pu remarquer que le filament d'actine (qui a été modifié de telle façon à être rendu luminescent) tourne dans le sens inverse des aiguilles d'une montre : l'ATPsynthase a agi comme un moteur rotatif réalisant l'hydrolyse de l'ATP en ADP et en phosphate inorganique, c'est à dire la réaction inverse de celle produisant l'ATP.
Ce groupe a donc mis en évidence que nous avons un « fuel », l'ATP, dont la conversion
engendre un mouvement de rotation pour un moteur moléculaire très complexe issu de la
biologie, mais qui peut être classé comme un moteur hybride.
Il existe d'autres protéines moteurs qui sont des moteurs linéaires :
-la kinésine et la dynéine : elles sont responsables du transport de la matière dans les cellules, dans des organelles (sortes de « sacs » présents sur la kinésine). La kinésine bouge très vite (300-400 km/h si l'on ramène l'échelle à celle d'une personne courant sur une piste de stade).
-les muscles striés : ils se contractent ou s'allongent grâce à des filaments (actine : filament fin / myosine : filament épais) qui coulissent les uns le long des autres.
Les molécules de synthèse
De manière générale, l'élaboration de molécules artificielles a beaucoup évolué. Il reste cependant des défis inaccessibles aujourd'hui.
Certaines substances naturelles très complexes peuvent être synthétisées au laboratoire, comme la brévétoxine A (figure 3). Cette molécule présente un grand nombre de carbones asymétriques (22). Elle a été préparée par un groupe américain et a nécessité le travail de 20 personnes sur une période d'environ 12 ans. Cette synthèse représente un véritable tour de force, salué par la communauté des chimistes des molécules.

Figure 3 : le groupe américain de K.C. Nicolaou a réalisé la synthèse totale
de la brévétoxine A
Mais pour le moment, aucune équipe n'est parvenue à synthétiser la maitotoxine (figure 4), substance naturelle comprenant environ une centaine de carbones asymétriques.
Figure 4 : la maitotoxine, un des poisons marins les plus violents, n'a pas encore pu être synthétisée au laboratoire
Les moteurs et machines moléculaires artificiels : caténanes et rotaxanes
Les caténanes et les rotaxanes (figure 5) sont devenus très populaires dans le domaine de la recherche contemporaine (véritable révolution au cours des 20 dernières années) et sont beaucoup étudiés par les chimistes, les physiciens et les ingénieurs pour leur potentiel dans la fabrication de machines moléculaires.
Figure 5 : schéma d'un [2]caténane et d'un [2]rotaxane
Jusqu'au début des années 1980, ces composés semblaient inaccessibles car il n'existait pas de méthode de synthèse, puis une méthode a été découverte (figure 6) : elle met en Suvre l'effet de matrice d'un métal de transition, le cuivre (I), afin d'entremêler 2 fils moléculaires par exemple pour obtenir un précurseur qui permettra ensuite de fabriquer un [2]caténane.
Figure 6 : stratégie pour entremêler 2 fragments moléculaires afin de préparer un [2]caténane
Sur la figure 6, nous avons 2 fragments moléculaires f-f capables d'interagir avec un centre métallique (cation métallique susceptible de rassembler et d'orienter ces 2 fragments). Nous obtenons alors un intermédiaire, comportant deux fils f-f entremêlés, conduisant au [2]caténane par une réaction chimique classique de formation d'anneau.
Traitons un exemple concret pour illustrer cette stratégie : la formation d'un entrelacs de 2 fils moléculaires dppOH (dihydroxyphénylphénanthroline) grâce au cation métallique Cu (I) (figure 7), entrelacs réalisé par Dietrich-Buchecker et al., en 1984.

Figure 7 : réalisation d'un entrelacs de 2 fragments organiques grâce à
l'effet de matrice du cuivre (I)
Le cuivre existe sous 2 états :
-un état oxydé : c'est le cuivre (II) ou Cu2+
-un état réduit : c'est le cuivre (I) ou Cu+.
C'est le cuivre dans son état réduit qui a été utilisé ici et qui est toujours utilisé pour réaliser un entrelacs de ce type.
Une fois l'entrelacs effectué, une réaction de chimie classique est mise en Suvre afin de synthétiser le [2]caténane (figure 8).

Figure 8 : formation du [2]caténane par une réaction chimique classique
Figure 9 : structure cristallographique du
[2]caténane complexé au cuivre
Les deux anneaux étant entrelacés, la seule manière de les séparer est de couper un lien chimique. Il est possible de retirer le cuivre (I) en réalisant ce qu'on appelle la démétallation (figure 10).
Figure 10 : il est facile de retirer le centre métallique en utilisant du cyanure de potassium
Figure 11 : la molécule se réarrange
pendant la démétallation
La première machine moléculaire à partir d'un caténane :
La première machine moléculaire réalisée à partir d'un [2]caténane est un moteur rotatif dont le mouvement est déclenché par l'oxydation et la réduction du cuivre (figure 12). Il faut cependant noter que ce n'est pas un véritable moteur rotatif, dans la mesure où la direction des deux demi-tours représentés sur la figure 12 n'est pas contrôlée.

Figure 12 : rotation d'un anneau à l'intérieur d'un autre anneau, sans contrôle de la
direction : utilisation du couple Cu(II) / Cu(I)
Le cuivre (I) est stable lorsqu'il est entouré de 4 atomes donneurs (atomes d'azote) : il présente une géométrie pseudo-tétraédrique lors de la coordination à deux phénanthrolines (chacune a 2 atomes d'azote).
Le cuivre (II) n'est lui par contre pas stable en pseudo-tétraèdre, il préfère être entouré de 5
atomes donneurs : une phénanthroline et une terpyridine (respectivement 2 et 3 atomes
d'azote).
Lorsque le cuivre (I) est oxydé (-e-) en cuivre (II), nous passons d'une situation stable (en haut à gauche) à une situation instable (en haut à droite). Le système instable va évoluer (se relaxer) et la relaxation implique qu'un des deux anneaux tourne à l'intérieur de l'autre anneau. Ceci s'effectue de manière à venir placer le fragment à 3 azotes (terpyridine) en position d'interaction avec le cuivre : le système retrouve alors une situation stable (en bas à droite). Ce réarrangement a été réalisé en effectuant une rotation d'un demi-tour.
Le système est réversible, ce qui signifie qu'il est possible de réduire (+e-) le cuivre (II) en cuivre (I) pour revenir à la situation de départ (en haut à gauche), en passant par un système instable (en bas à gauche).
Ce moteur rotatif est donc fondé sur un mouvement contrôlé par électrochimie et le système est parfaitement réversible : il est possible de faire autant de cycles CuI à CuII à CuI que l'on veut.
Une navette moléculaire à partir d'un rotaxane :
Nous avons vu qu'un rotaxane pouvait être un moteur rotatif ou un moteur linéaire. Le groupe de Fraser Stoddart, aux Etats-Unis, a préparé une navette moléculaire (figure 13) à partir d'un rotaxane, c'est un moteur linéaire.

Figure 13 : schématisation d'une navette moléculaire
C'est un processus électronique qui permet de faire coulisser l'anneau d'une station vers l'autre (figure 14).
Figure 14 : une « navette » moléculaire :la mise en mouvement se fait en
oxydant la station verte puis en réduisant sa forme oxydée
Ce processus est réversible puisqu'il est possible de revenir à la situation de départ en réduisant la station verte, c'est à dire en revenant à sa forme neutre du point de vue des charges.
Cette navette moléculaire et des molécules dérivées de sa structure originelle ont conduit à des applications qui peuvent être importantes : des chimistes se sont associés à des ingénieurs et à des physiciens pour tenter de fabriquer des systèmes de stockage d'information (mémoires) et des ordinateurs primitifs à base moléculaire.
Peut-on mettre en Suvre un système de stockage de l'information moléculaire en utilisant une navette moléculaire ?

Figure 15 : découverte de l'année 2001, publiée dans le magazine Science, vol. 294, 21
décembre 2001, p. 2442 : nous dirigeons-nous vers des ordinateurs moléculaires ?
Le système qui a été élu « découverte de l'année 2001 » par le magazine Science (figure 15) pourrait donner naissance à un ordinateur moléculaire, permettant le stockage de l'information.
Ce dispositif est composé de barreaux de semi-conducteur ou d'un métal conducteur : 3 barreaux en haut et 3 barreaux en bas, positionnés de manière orthogonale. Entre ces barreaux ont été intercalées des molécules de la navette moléculaire. Lorsqu'un potentiel est appliqué entre deux barreaux perpendiculaires, la position de l'anneau (représenté en blanc sur la figure) peut être contrôlée. Dans le même temps, les propriétés de conduction de l'électricité du filament organique sont modifiées. Ainsi, selon la position de l'anneau sur le filament organique, nous avons un conducteur (qui peut être considéré comme le 1 d'un système informatique) ou un isolant (qui est alors le 0). L'état du fil organique reliant les barreaux peut être « lu ». Il est également possible d' « effacer » afin de revenir à l'état initial.
Nous avons donc un système permettant le stockage de l'information, à base moléculaire. Il faut cependant noter que ce petit dispositif fait encore l'objet de nombreuses discussions et débats.
Vers des muscles moléculaires de synthèse à l'échelle nanométrique :
Il est possible de mimer les moteurs linéaires que sont les muscles. Cela a été réalisé par Maria Consuelo Jiménez et Christiane Dietrich-Buchecker qui ont cherché à imiter le fonctionnement du muscle strié en préparant un dimère de rotaxane (figure 16). Dans ce dimère de rotaxane, les filaments vont pouvoir coulisser l'un sur l'autre pour conduire à une forme contractée ou à une forme étirée.
Figure 16 : un dimère de rotaxane est la topologie idéale pour réaliser l'interconversion d'une structure étirée et d'un système contracté. L'axe d'une sous-unité (bleue, par exemple) traverse l'anneau de l'autre sous-unité (noire)
La synthèse du muscle est un réel défi, proche du point de vue de la difficulté, de celui que peut représenter la synthèse de produits naturels complexes. C'est la coordination au métal qui détermine le fait qu'il soit étiré ou contracté. L'étape clé de la préparation du muscle est la réaction de double « enfilage » (figure 17). La structure doublement entrelacée de ce composé a été mise en évidence par diffraction des rayons X (figure 18).
Figure 17 : formation du dimère de rotaxane par double enfilage au cuivre (I)

Figure 18 : structure cristallographique du
composé doublement entrelacé
La mise en mouvement du muscle est réalisée par une réaction d'échange cuivre (I) / zinc (II) (figure 19).
Comme nous l'avons vu précédemment, le cuivre (I) est stable lorsqu'il est tétracoordiné : sa sphère de coordination est composée de 2 phénanthrolines, c'est la forme étirée (85 Angström). Le mouvement est induit par échange du cuivre (I) par du zinc (II) qui, lui, est stable lorsqu'il est pentacoordiné (géométrie de bipyramide trigonale) : sa sphère de coordination comprend une phénanthroline et une terpyridine, c'est la forme contractée (65 Angström).
L'amplitude est à peu près la même que celle que nous trouvons dans les muscles striés (myosine / actine) : la contraction est d'environ 25 % de la longueur totale de l'objet dans la forme étirée.

Figure 19 : les deux états du muscle
Il est donc possible de contracter ou d'étirer une molécule par une réaction chimique, de manière très substantielle. La mise en mouvement d'objets ou de particules beaucoup plus grands que cette espèce suscite actuellement beaucoup d'intérêt.
Les moteurs et machines moléculaires fondés sur des molécules non entrelacées : un exemple de système mis en mouvement par la lumière
Plusieurs machines moléculaires ont été proposées par différents laboratoires, qui travaillent sur des composés qui ne comportent pas d'anneaux entrelacés. Nous discuterons brièvement un exemple précis, conduisant à un véritable dispositif micrométrique.
Un groupe de chercheurs hollandais (Feringa et al.) a publié en 2006, dans la revue Nature, un article à propos d'un nanomoteur qui engendre la rotation d'objets de l'ordre du micron. Il s'agit en fait d'un moteur moléculaire intégré dans un film de cristal liquide (figure 20) qui utilise la lumière pour faire tourner des objets de grande taille, par comparaison à celle du moteur moléculaire lui-même.

Figure 20
Le groupe de Feringa a déposé un barreau de verre (5x28mm) sur ce film de cristal liquide dopé. Sous irradiation lumineuse, le petit barreau est entraîné et il est possible de visualiser clairement la rotation, ce qui constitue une très jolie preuve de principe.
Finalement, quelles sont les motivations des chercheurs travaillant dans le domaine des machines et moteurs moléculaires de synthèse ?
Tout d'abord, la fabrication de tels objets, molécules ou dispositifs, représente un véritable défi synthétique : les molécules pouvant donner naissance à un moteur ou à une machine moléculaire sont complexes et originales. Leur synthèse nécessite beaucoup de temps et de talent. Leur obtention représente un véritable exploit, que ce soit au niveau conceptuel ou du point de vue expérimental.
Ensuite, c'est la possibilité de reproduire les fonctions les plus simples des moteurs biologiques qui attire les chercheurs. Il faut cependant noter que les machines moléculaires accessibles aujourd'hui sont extrêmement primitives, comparées aux machines naturelles très complexes mises au point par la nature au cours de l'évolution.
Pour finir, ce sont certainement les nombreux domaines d'applications possibles qui captivent également les chercheurs :
-le stockage et le traitement de l'information au niveau moléculaire (écrire / lire / effacer)
-la mise au point de robots microscopiques capables d'assurer des fonctions variées
-en chimie médicinale : le transport d'une molécule jusqu'à un endroit précis ou celle-ci sera utile (médicament), l'ouverture / la fermeture d'une valve ou d'une porte qui contrôle le flux d'une molécule dans un fluide biologique, le pilotage d'une micro-seringue susceptible d'injecter un composé dans une cellule...

Remerciements
Caténanes :
-synthèse et chimie de coordination :
Laboratoire de Chimie Organo-Minérale (Strasbourg) :
Christiane Dietrich-Buchecker, Jean-Claude Chambron, Jean-Marc Kern, et beaucoup
d'autres...
-structures cristallographiques par diffraction des rayons X :
Claudine Pascard, Michèle Césario (Gif-sur-Yvette)
Jean Fischer, André De Cian, Nathalie Gruber, Richard Welter (Strasbourg)
Mouvement de caténanes et rotaxanes complexés au cuivre :
-catenanes in motion :
Aude Livoreil, Diego J. Cardenas
-translation of a ring along an axle:
Jean-Paul Collin, Pablo Gaviña
-pirouetting of a ring along the axle:
Laurence Raehm, Jean-Marc Kern, Ingo Poleschak, Ulla Létinois, Jean-Paul Collin
-towards molecular muscles :
Maria Consuelo Jiménez, Christiane Dietrich-Buchecker

 
 
 
 

PARTICULES ÉLÉMENTAIRES

 

 

 

 

 

 

 

PARTICULES  ÉLÉMENTAIRES

 

PLAN
            PARTICULES ÉLÉMENTAIRES
                *         PHYSIQUE
                *         1. Vers l'infiniment petit
                *         2. Les moyens d'étude
                *         2.1. Les accélérateurs de particules
                *         2.2. Les détecteurs de particules
                *         3. Physique des particules et cosmologie
                *         4. Le modèle standard
                *         4.1. Quarks et leptons
                *         4.2. Création et destruction de particules
                *         4.3. Les quatre forces fondamentales
                *         4.3.1. L'interaction électromagnétique
                *         4.3.2. L’interaction forte
                *         4.3.3. L’interaction faible
                *         4.3.4. L’interaction gravitationnelle
                *         4.4. Points forts et points faibles du modèle standard
                *         4.5. Vers la « théorie du tout » ?

particules élémentaires

Cet article fait partie du dossier consacré à la matière.
Constituant fondamental de la matière apparaissant, dans l'état actuel des connaissances, comme indivisible.

PHYSIQUE
1. Vers l'infiniment petit
De tout temps les scientifiques ont sondé la structure de la matière pour trouver unité et simplicité dans un monde qui nous frappe par sa diversité et sa complexité apparentes. N'est-il pas remarquable de découvrir que tous les objets qui nous entourent ne sont que les multiples assemblages, parfois fort complexes, d'un petit nombre de constituants fondamentaux, qui nous apparaissent aujourd'hui comme les particules élémentaires du monde ? N'est-il pas remarquable que toutes les forces que nous voyons en jeu dans la nature ne soient que les différentes manifestations d'un tout petit nombre de mécanismes fondamentaux prenant une forme particulièrement simple au niveau des particules élémentaires ?

L'atome est tout petit (environ 10–10 m). Un gramme de matière contient près d'un million de milliards de milliards d'atomes (1024). Cependant, grâce aux instruments dont ils disposent, les physiciens peuvent maintenant décrire et comprendre la structure intime des atomes.


La physique des particules se pratique auprès de grands accélérateurs. Elle requiert de plus en plus d'importantes collaborations internationales, nécessaires pour réaliser et exploiter ces machines extrêmement coûteuses ainsi que les détecteurs qui permettent d'analyser les événements observés. Ces collaborations sont des milieux particulièrement favorables à l'éclosion de nouvelles technologies. C'est comme cela qu'est né le World Wide Web au Cern de Genève (→  Internet).


La physique des particules s'efforce de découvrir les constituants fondamentaux de la matière et de comprendre leurs interactions, c'est-à-dire la façon dont ces constituants se lient entre eux pour réaliser les structures souvent très complexes et variées que nous observons dans le monde qui nous entoure.

Dans les années 1980, le pouvoir de résolution des instruments les plus performants pour étudier la structure intime de la matière atteignait le millionième de milliardième de mètre (10–15 m), autrement dit la dimension du proton et du neutron, les constituants du noyau atomique. Ce dernier est beaucoup plus petit que l'atome, car les nucléons y sont tassés les uns contre les autres. L'atome a un rayon 100 000 fois plus grand et son volume est rempli par le mouvement incessant des électrons qui entourent le noyau.=
Aujourd'hui, le pouvoir de résolution atteint le milliardième de milliardième de mètre (10–18 m), ce qui permet de sonder l’intérieur des nucléons. En effet, les protons et les neutrons sont constitués de particules appelées quarks, qui etcomptent désormais parmi les constituants fondamentaux de la matière. Il y a 18 types de quarks, qui se distinguent par leur « saveur » et leur « couleur ». Il s'agit là de nouveaux concepts pour lesquels on a préféré ces appellations imagées aux racines grecques en faveur auparavant. L'électron est aussi l'un des constituants fondamentaux de la matière. Il fait partie d'un ensemble de six particules élémentaires appelées leptons.

Les forces présentes dans la nature résultent des symétries entre quarks et entre leptons. Tout cela est résumé par le modèle standard des particules élémentaires et des interactions fondamentales. C’est une théorie quantique des champs, autrement dit une théorie à la fois quantique et relativiste. Or, maintenir la causalité dans un monde quantique et relativiste implique l'existence d'antimatière, dont la prédiction et l'observation ont constitué un grand succès. À chaque particule correspond une antiparticule de même masse mais de charge opposée. Toutefois, si le modèle standard permet de décrire l'ensemble des particules élémentaires de la matière et les interactions fondamentales qui s'exercent entre elles, il n’inclut toujours pas l'interaction gravitationnelle. Ainsi, le modèle standard n'est pas la théorie ultime de la physique.

2. Les moyens d'étude

Pour atteindre la résolution qui est nécessaire pour plonger à l'intérieur du noyau, puis à l'intérieur des nucléons, il faut des rayons gamma de très faible longueur d'onde, autrement dit de très haute énergie. On peut les obtenir par rayonnement de particules chargées, comme l'électron ou le proton, quand ils sont accélérés à des vitesses proches de celle de la lumière (3 × 108 km.s-1). On peut cependant opérer plus directement en utilisant le fait que l'électron et le proton se comportent comme des ondes aussi bien que comme des particules. Cela traduit la description quantique qu'il faut adopter au niveau des particules. La longueur d'onde associée à une particule de très haute énergie est inversement proportionnelle à son énergie : électrons et protons de hautes énergies sont donc aussi des sondes qui se comportent comme de la lumière de très petite longueur d'onde. Ce sont eux qui permettent d'observer la structure fine de la matière, avec un pouvoir de résolution d'autant meilleur que leur énergie est plus élevée.

2.1. Les accélérateurs de particules

En étudiant les résultats de collisions à très hautes énergies, on peut explorer la structure intime de la matière, reconnaître les particules élémentaires et étudier leurs propriétés. Le pouvoir de résolution est déterminé par la puissance des accélérateurs.

Le principe de l'observation reste le même que celui utilisé avec la lumière visible, en aidant l'œil avec un instrument d'optique. Un accélérateur communique une grande énergie aux particules qu'il accélère. Les plus performants sont des collisionneurs, où des faisceaux de particules sont simultanément accélérés dans des directions opposées et amenés en collisions frontales dans des zones où l'on dispose les détecteurs. Les produits des collisions étudiées sont analysés par les détecteurs qui rassemblent les données permettant de déterminer la nature et les propriétés des particules issues de la collision. Ces collisions de haute énergie engendrent en général un véritable feu d'artifice de particules nouvelles. Une partie de l'énergie de collision se transforme en matière et en antimatière.

On exprime les énergies de collision en électronvolts (eV). L'électronvolt est l'énergie acquise par un électron sous une différence de potentiel de un volt. C'est en gros l'énergie par électron fournie par une pile électrique, car c'est aussi l'ordre de grandeur de la variation d'énergie par électron impliquée dans une réaction chimique typique (1 eV = 1,6 × 10-19 J). Vers 1960, les accélérateurs permettaient d'obtenir des énergies de collision de l'ordre d'une centaine de millions d'électronvolts (100 MeV). On pouvait ainsi descendre jusqu'à 10–15 m. Aujourd'hui, les énergies de collision atteintes dépassent le millier de milliards d'électronvolts (1 000 GeV, soient 1 TeV). Le collisionneur de Fermilab, près de Chicago, aux États-Unis, permet d'atteindre des énergies de collision de 2 TeV entre proton et antiproton.

       

Mais la machine la plus puissante du monde est désormais le LHC (Large Hadron Collider), grand collisionneur de hadrons de 27 km de circonférence mis en service en septembre 2008 au Cern, près de Genève. Il a atteint une énergie de collision de 8 TeV en juillet 2012, qui a permis de découvrir une particule qui présente toutes les caractéristiques du fameux boson de Higgs. Le LHC devrait fonctionner à 7  TeV par faisceau à partir de 2015, soit une énergie de collision de 14 TeV qui permettra de confirmer définitivement la découverte du boson de Higgs et d’aller encore plus loin dans l’exploration de l’infiniment petit.
Analyser et comprendre la structure intime de la matière, c'est donc aussi comprendre la physique des hautes énergies. C'est savoir décrire et prédire ce qui se passe au cours de telles collisions.

2.2. Les détecteurs de particules
Comment parvient-on à observer les particules malgré leur taille extrêmement réduite ? On ne voit en réalité que des effets secondaires liés à leur présence et l'on déduit de l'observation de ces phénomènes le passage et les propriétés d'une ou plusieurs particules. En utilisant plusieurs phénomènes secondaires et en courbant les trajectoires des particules dans des champs magnétiques, d'autant plus facilement que les particules ont moins d'énergie, on peut connaître la nature et les propriétés des particules qui traversent un détecteur.

Les détecteurs de particules modernes (comme les détecteurs Atlas ou CMS du LHC) sont composés de couches de sous-détecteurs, chacun étant spécialisé dans un type de particules ou de propriétés. Il existe trois grands types de sous-détecteurs :
• les trajectographes, qui permettent de suivre la trajectoire des particules chargées électriquement ;
• les calorimètres, qui arrêtent une particule et en absorbent l'énergie, ce qui permet de mesurer l’énergie de la particule ;
• les identificateurs de particules, qui permettent d’identifier le type de la particule par détection du rayonnement émis par les particules chargées.
Les détecteurs sont toujours soumis à un champ magnétique, qui courbe la trajectoire des particules. À partir de la courbure de la trajectoire, les physiciens peuvent calculer l’impulsion de la particule, ce qui les aide à l’identifier. Les particules à impulsion élevée se déplacent quasiment en ligne droite, alors que celles à impulsion plus faible décrivent de petites spirales.

3. Physique des particules et cosmologie

Selon le modèle du big bang, l'Univers tel que nous l'observons est né, semble-t-il, d'une sorte de grande explosion, le « big bang », qui s'est produite il y a environ 15 milliards d'années. L'Univers est en expansion et les galaxies semblent se fuir les unes les autres avec des vitesses proportionnelles à leurs distances respectives. Sa densité et sa température n'ont cessé de décroître depuis le big bang ; aujourd'hui, elles sont toutes deux très faibles : la densité moyenne correspond à un atome par mètre cube et la température moyenne est de l'ordre 3 K (soit –270 °C).
La relativité générale nous permet de suivre l'évolution de l'Univers et de retrouver les conditions proches de celles qui ont dû exister aux premiers instants de l’Univers à partir des données actuelles. Mais le modèle se heurte à une limite, une singularité, appelée « mur de Planck », qui correspond à l’instant 10-43 s après le big bang : il est impossible de connaître ce qui s’est passé avant cet instant car les lois de la physique que nous connaissons ne sont plus applicables, la densité et la température de l’Univers étant alors infinies. Or, en physique, des quantités infinies n’ont plus grand sens… Néanmoins, de cet instant jusqu’à nos jours, le modèle permet de décrire l’évolution de l’Univers – composé cependant à 96 % de matière et d’énergie noires inconnues !
Comme la température est proportionnelle à l'énergie moyenne par particule, au début de l'Univers, ses constituants avaient des énergies colossales et, du fait de la densité extrêmement forte, ils étaient en collision constante les uns avec les autres.
La physique qui prévalait à cette époque est donc la physique des hautes énergies que l'on explore à l'aide des accélérateurs : comprendre la structure intime de la matière, c'est aussi pouvoir décrire et comprendre ce qui se passait au début de l'Univers.
Vers 1970, les spécialistes maîtrisaient la physique à des énergies de l'ordre de 100 MeV, correspondant à la température de l'Univers quand il était âgé d'un dixième de millième de seconde (10-4 s). Aujourd'hui, les progrès réalisés permettent de comprendre la physique au niveau de 1 TeV, et, donc, les phénomènes qui se déroulaient dans l'Univers un centième de milliardième de seconde après le big bang (10-11 s). Ainsi, le facteur dix mille gagné dans les énergies par particule (ou les températures) en passant de 100 MeV à 1 TeV a permis de reculer d'un facteur dix millions dans l'histoire des premiers instants de l'Univers. C'est dire combien la physique des particules et la cosmologie sont intimement liées.

4. Le modèle standard

Le modèle standard de la physique des particules est la théorie de référence qui décrit les constituants élémentaires de la matière et les interactions fondamentales auxquelles ils participent.
La description de la structure de la matière fait appel à deux familles de particules élémentaires : les quarks et les leptons. À chaque constituant de la matière est associée son antiparticule, une particule de même masse et de charge opposée (par exemple, l’antiparticule de l’électron est le positon).

4.1. Quarks et leptons
Les quarks, découverts dans les années 1960, sont les constituants des nucléons (protons et neutrons), les particules constitutives des noyaux atomiques. Ils participent à toutes les interactions. Il en existe six espèces différentes. Pour décrire leurs propriétés, on a choisi d'utiliser des noms imagés, faute d'analogie avec quoi que ce soit de connu. Ainsi, la caractéristique qui, en dehors de la charge électrique, permet de distinguer les quarks est appelée « saveur ». Les six saveurs, caractéristiques des six espèces de quarks, sont dénommées : up (u), down (d), strange (s), charm (c), bottom (b) et top (t). Par ailleurs, chaque saveur peut exister en trois variétés, qui portent les noms de « couleurs » : rouge, vert et bleu. De même que la masse permet à une particule de réagir à la gravitation et la charge électrique à la force électromagnétique, la couleur rend les quarks sensibles à l'interaction nucléaire forte, responsable de leurs associations et de la cohésion des noyaux atomiques. Cette force ne se manifeste pas au niveau macroscopique : les trois couleurs se compensent mutuellement pour former la matière globalement « incolore ».
Une autre particularité des quarks est leur confinement : il est impossible de les obtenir individuellement à l'état libre. La famille des leptons rassemble les particules insensibles à la force nucléaire forte : l'électron ; deux particules analogues à l’électron, mais plus lourdes et instables, le muon et le tauon (ou tau) ; et trois particules électriquement neutres associées aux trois précédentes, les neutrinos électronique, muonique et tauique.
Les quarks et les leptons se présentent en doublets. Il existe un doublet de quarks (u et d) auquel fait pendant un doublet de leptons (neutrino et électron). L'électron a une charge électrique (prise par convention égale à –1), contrairement au neutrino. Il y a aussi une différence d'une unité entre la charge du quark d (–1/3) et celle du quark u (+2/3). Deux quarks u et un quark d forment un proton (charge globale +1). Deux quarks d et un quark u forment un neutron (charge globale nulle). Les protons et les neutrons sont à la base de tous les noyaux atomiques. En ajoutant suffisamment d'électrons pour compenser la charge électrique du noyau, on obtient les atomes.
L'électron, le quark u et le quark d sont les constituants exclusifs de la matière ordinaire.

4.2. Création et destruction de particules
Au cours de certains processus de désintégration radioactive, un quark d peut se transformer en quark u, mais simultanément un neutrino se transforme en électron, ou un électron est créé avec un antineutrino. La charge globale est conservée.
Dans un proton, les trois quarks ont des couleurs différentes et le proton est globalement « incolore ». C'est aussi le cas d'une multitude de particules instables qui apparaissent dans les collisions de protons quand une partie de l'énergie de collision se transforme en matière et antimatière : ces particules sont des hadrons, qui peuvent être soit des baryons – formés de trois quarks, soit des mésons – formés d'un quark et d'un antiquark. Les antiquarks ont des couleurs opposées à celles des quarks qui leur correspondent.
Quand l'énergie devient matière, il se crée autant de quarks que d'antiquarks et autant de leptons que d'antileptons. La même règle s'applique lors de l'annihilation de la matière et de l'antimatière en énergie.

Les collisions de haute énergie entre quarks ou leptons font apparaître d'autres quarks et d'autres leptons. La nature répète ainsi deux fois la famille initiale en présentant deux doublets supplémentaires de quarks, auxquels sont associés deux nouveaux doublets de leptons. Le deuxième doublet renferme le quark strange (s) et le quark charm (c), le troisième le quark bottom (b) et le quark top (t). Ce dernier a longtemps échappé aux investigations par sa masse très élevée, de l'ordre de 180 fois supérieure à celle du proton. Il a été finalement découvert au Fermilab, près de Chicago (États-Unis), en 1995, après que sa masse eut été prédite à partir de résultats obtenus à l'aide du LEP (Large Electron Positron collider) du Cern, près de Genève (Suisse). Les quarks c et b sont aussi beaucoup plus lourds que les quarks u et d, mais néanmoins nettement plus légers que le quark t.
De même, le muon et son neutrino ainsi que le tauon et son neutrino constituent les deux autres doublets de leptons associés aux deux doublets précédents de quarks. Le muon est environ 200 fois plus lourd que l'électron et le tauon près de 3 000 fois plus lourd. Ces quarks et ces leptons lourds sont instables et très éphémères à l'échelle humaine. Ils se désintègrent en se transformant en quarks ou en leptons de masse inférieure. Toutefois, la manifestation des forces entre quarks et leptons ne demande que des temps extrêmement faibles par rapport à la durée de vie de ces particules. À leur échelle, les quarks et les leptons sont donc tous aussi stables les uns que les autres et peuvent tous être considérés comme des constituants fondamentaux de la matière. Si la constitution de la matière stable de l'Univers ne fait appel qu'à la première famille de ces particules, les forces qui permettent de construire la matière à partir des éléments de la première famille font, elles, appel à la présence de tous les quarks et de tous les leptons.

4.3. Les quatre forces fondamentales
Si l'on a découvert une assez grande diversité de particules, toutes les forces présentes dans la nature se ramènent en revanche à un nombre très restreint d'interactions fondamentales. D'après la mécanique quantique, pour qu'il y ait une interaction, il faut qu'au moins une particule élémentaire, un boson, soit émise, absorbée ou échangée.
Interactions auxquelles sont soumises les particules fondamentales

4.3.1. L'interaction électromagnétique
Considérons l'interaction entre deux charges électriques. Dans la description usuelle du phénomène, on dit qu'une particule chargée crée un champ électrique qui remplit tout l'espace tout en décroissant comme l'inverse du carré de la distance à la charge. Une autre particule chargée est sensible à ce champ. Cela crée une force entre les deux particules. Si ces dernières se déplacent à une certaine vitesse, il faut introduire aussi le champ magnétique. On parle donc globalement de l'interaction électromagnétique (→  électromagnétisme). En physique quantique, ce champ présente également une forme corpusculaire : c'est une superposition de photons. Le processus fondamental de l'interaction électromagnétique correspond à l'émission d'un photon par un électron et à son absorption par un autre électron. Il implique la charge mais ne la modifie pas, puisque le photon échangé n'a pas de charge. C'est la base de l'électrodynamique quantique, qui permet de calculer tous les phénomènes mettant en jeu des échanges de photons au cours desquels peuvent aussi apparaître des paires électron-positon.

4.3.2. L’interaction forte
L'interaction forte repose sur la « couleur » des quarks. Le processus fondamental est très semblable à celui rencontré en électrodynamique. Deux quarks exercent une force l'un sur l'autre, et elle est associée à l'échange d'un gluon. Le gluon distingue la couleur mais peut aussi la changer car il porte lui-même de la couleur. Ce processus est à la base de la chromodynamique quantique, qui permet de calculer les phénomènes associés à l'échange de gluons, capables de se transformer en paires de quarks et d'antiquarks. Contrairement à l’interaction électromagnétique qui porte à l’infini, l’interaction forte ne s’exerce qu’à des distances très courtes, à quelques diamètres de noyaux

4.3.3. L’interaction faible
L'interaction électromagnétique et l'interaction forte ne peuvent pas changer la « saveur ». Mais il existe une autre interaction fondamentale qui peut le faire : c'est l'interaction faible. Elle existe sous deux formes. L'une peut changer la « saveur » et la charge et correspond à l'échange d'un boson W. L'autre peut agir sans changer la « saveur » ni la charge et correspond à l'échange d'un boson Z. Les neutrinos, qui n'ont ni charge ni « couleur », ne sont sensibles qu'à l'interaction faible. L’interaction faible (également appelée force nucléaire faible), qui permet de transformer un neutron en proton ou inversement – donc de changer la composition d'un noyau –, est ainsi responsable de certains phénomènes de la radioactivité, en particulier la radioactivité bêta.
L'interaction électromagnétique et les deux formes de l'interaction faible ne sont en fait que trois aspects d'un mécanisme unique : l'interaction électrofaible. En effet, en comprenant leur mode d'action, on s'est aperçu qu'on ne pouvait pas avoir l'une sans avoir les deux autres.
Mais il a fallu du temps pour parvenir à cette découverte car, si le photon a une masse nulle, les bosons W et Z sont très lourds, atteignant chacun près de cent fois la masse du proton, dont l'énergie de masse est proche de 1 GeV. Ce sont ces grandes masses échangées qui minimisent les effets de l'interaction et lui valent le qualificatif de faible. Ce n'est qu'au cours de collisions où l'énergie est comparable à l'énergie de masse du boson W ou du boson Z que la présence de ces masses élevées devient moins importante et que les interactions électromagnétiques et faibles peuvent montrer au grand jour leur étroite parenté.
4.3.4. L’interaction gravitationnelle

C'est une force universelle, en ce sens qu'elle est subie par toutes les particules connues. Elle est de loin la plus faible des forces, elle est toujours attractive et, de plus, elle a une portée infinie. C'est grâce à ces deux dernières caractéristiques qu'elle est détectable macroscopiquement : l'addition des forces gravitationnelles qui s'exercent entre les particules de notre corps et la Terre, par exemple, produit une force appelée poids.
→ gravitation.
Au niveau des particules élémentaires, cette force devient importante seulement lorsque des énergies considérables entrent en jeu. Dans un noyau atomique, par exemple, la force d'attraction gravitationnelle entre deux protons est 1036 fois plus faible que celle de la répulsion électrostatique. C'est à partir d'une énergie de 1019 GeV (1 GeV est l'énergie cinétique qu'acquiert un électron quand il est accéléré par une différence de potentiel de 1 000 millions de volts) qu'elle devient comparable à l'interaction électromagnétique.
Ainsi, malgré le grand nombre d'acteurs en présence, les thèmes de base de leurs jeux sont donc très peu nombreux et très semblables. C'est à ce niveau que se rencontrent l'unité et la simplicité. Qui plus est, on sait aujourd'hui déduire l'existence et les propriétés des forces fondamentales des symétries que les quarks et les leptons manifestent entre eux. La présence des forces est une conséquence du fait que ces particules sont nombreuses, mais qu'on peut dans une large mesure les mettre les unes à la place des autres sans modifier la description du monde : les quarks et les leptons sont groupés en doublets de « saveur » et les quarks en triplets de « couleur ». La compréhension de la nature profonde des forces est l'un des grands succès de la physique contemporaine. C'est le domaine des théories de jauge. L'existence et la propriété des forces sont impliquées par les symétries.

4.4. Points forts et points faibles du modèle standard
Le modèle standard consiste en un ensemble d'algorithmes, appelé développement perturbatif, permettant de calculer, par approximations successives, à l'aide d'un nombre fini et fixé de paramètres déterminés expérimentalement, les probabilités des réactions des leptons et des quarks, du photon et des bosons intermédiaires en interactions électromagnétique et faible, et les probabilités des réactions des quarks et des gluons en interaction forte à grand transfert d'énergie. Ce modèle a passé avec succès tous les tests expérimentaux auxquels il a été soumis et il a permis d'anticiper de très nombreuses découvertes expérimentales décisives : les réactions d'interaction faible à courants neutres en 1973, le quark charm en 1975, le gluon en 1979, les bosons intermédiaires de l'interaction faible (bosons W+, W– et Z0) en 1983, et le quark top en 1995. Toutes ses prédictions ont été confirmées par l'expérience et ce jusqu’à la très probable découverte en 2012 du boson de Higgs, la fameuse particule permettant d’expliquer l’origine de la masse de toutes les autres particules.

La chasse au boson de Higgs


Le boson de Higgs (ou de Brout-Englert-Higgs) est la particule élémentaire dont l'existence, postulée indépendamment par Robert Brout, François Englert et Peter Higgs dans les années 1960, permet d’expliquer l’origine de la masse de toutes les autres particules. En effet, les particules n’acquièrent une masse qu’en interagissant avec un champ de force invisible (appelé champ de Higgs) par l’intermédiaire du boson de Higgs. Plus les particules interagissent avec ce champ et plus elles deviennent lourdes. Au contraire, les particules qui n’interagissent pas avec ce champ ne possèdent aucune masse (comme le photon).

Pour mettre au jour le boson de Higgs, on provoque des milliards de chocs entre protons qui se déplacent quasiment à la vitesse de la lumière et on analyse les gerbes de particules produites. La découverte de ce boson, très probablement détecté dans le LHC du Cern en 2012, validerait ainsi le modèle standard de la physique des particules. Il faudra attendre 2015 et la remise en service du LHC dont les faisceaux de particules atteindront l’énergie nominale de 7 TeV par faisceau pour conclure définitivement sur la découverte du fameux boson.

Le modèle standard comporte cependant des points faibles.En particulier, il est en échec face au traitement quantique de la gravitation.Par ailleurs, il ne fournit pas d'explication à la propriété fondamentale du confinement qui interdit aux quarks de se propager à l'état libre hors des particules dont ils sont les constituants, etc. Ce modèle doit être considéré comme une théorie susceptible d'être améliorée et approfondie, voire remplacée dans l'avenir par une théorie radicalement nouvelle.

4.5. Vers la « théorie du tout » ?
Le modèle standard permet de décrire avec précision la structure de la matière avec une résolution de 10–18 m et d'évoquer ce qui se passait au début de l'Univers, dès 10–10 seconde après le big bang.
On pense aujourd'hui que l'interaction forte et l'interaction électrofaible ne sont que deux aspects d'un phénomène unique. Ce dernier ne devrait cependant se manifester ouvertement qu'à de très grandes énergies, que l'on situe vers 1016 GeV. On verra sans doute alors apparaître au grand jour d'autres mécanismes transformant les quarks en leptons et mettant en jeu l'échange de particules, encore hypothétiques, dont la masse est de l'ordre de 1016 GeV. Ce n'est que pour des énergies de collision dépassant largement ce seuil que les différents modes d'interaction devraient apparaître sur un pied d'égalité, dévoilant ainsi explicitement leur grande unité.
De telles énergies sont encore hors de notre portée et le resteront pour longtemps. Mais c'était celles qui prévalaient théoriquement 10–38 seconde seulement après le big bang. C'est à ce moment que les quarks et les leptons sont apparus, figés pour toujours dans leur état de quark ou de lepton avec un très léger excès, déjà mentionné, de quarks par rapport aux antiquarks et de leptons par rapport aux antileptons. On explique ainsi pourquoi l'Univers contient autant de protons que d'électrons, en étant globalement neutre. C'est le domaine de la théorie de Grande Unification, encore très spéculative. Aux énergies qui nous sont accessibles, la gravitation qui s'exerce entre des particules individuelles reste tout à fait négligeable en regard des autres forces fondamentales. Mais, à des énergies de l'ordre de 1019 GeV, elle devient aussi importante qu'elles, car ses effets croissent avec l'énergie. On pense même pouvoir l'associer aux autres modes d'interaction actuels dans le cadre d'une théorie unique. Celle-ci incorporerait une formulation quantique de la gravitation qui manque encore aujourd'hui mais dont la théorie des supercordes donne déjà un aperçu. La mise au point de cette « théorie du tout » constitue l'un des grands sujets de recherche actuels de la physique. L'Univers n'était âgé que de 10–43 seconde quand l'énergie y était de l'ordre de 1019 GeV. C'est à ce moment que le temps et l'espace prirent la forme que nous leur connaissons. Nous manquons encore de concepts plus profonds pour remonter au-delà.

 

  DOCUMENT   larousse.fr    LIEN

 
 
 
 

ÉLÉMENT

 


 

 

 

 

 

PLAN
            *         ÉLÉMENT
            *         CHIMIE
            *         1. Historique de la notion d'élément
            *         1.1. Les conceptions anciennes
            *         1.2. Du xviie s. à Mendeleïev
            *         1.3. La conception moderne
            *         2. La dénomination des éléments
            *         3. La classification périodique des éléments
            *         3.1. Une case, un élément
            *         3.2. Lignes et colonnes
            *         4. Les éléments radioactifs et leurs transmutations
            *         4.1. Radioactivité et stabilité des éléments
            *         4.2. Production et utilisations énergétiques des éléments transuraniens
    *         BIOLOGIE

élément

Cet article fait partie du dossier consacré à la matière.


Entité chimique fondamentale commune aux diverses variétés d'un même corps simple ainsi qu'aux combinaisons de ce corps simple avec d'autres corps.

CHIMIE
1. Historique de la notion d'élément
1.1. Les conceptions anciennes
Il est aisé de constater que les corps sont faits de matières différentes, le bois, le fer, etc. Une fois acquis qu'une matière peut être constituée de plusieurs substances – le bronze est obtenu par le mélange du cuivre et de l'étain –, il était naturel de s'interroger sur la composition de toute matière. La diversité des propriétés des substances oriente vers l'idée qu'elles sont constituées, selon différentes combinaisons, d'un petit nombre de substances élémentaires. Ce sont les qualités de ces éléments qui expliqueraient celles des matières composées.

De là naquit, parmi différentes théories, celle des quatre éléments, attribuée à Empédocle d'Agrigente (ve s. avant J.-C.), qui a joui d'une grande faveur jusqu'au xviiie s. : la terre, le feu, l'air et l'eau sont les noms couramment donnés à ces éléments. Aristote (ive s. avant J.-C.) perfectionna cette conception en leur attribuant des qualités, comme le chaud et l'humide. La quintessence était un cinquième élément, plus subtil, exemple parmi d'autres de ce qu'une spéculation sans frein n'a pas manqué de produire. L'alchimie, dans sa visée de connaissance et de maîtrise de la matière, y participa largement.

1.2. Du xviie s. à Mendeleïev

Au xviie s. la chimie, encore peu distincte de l'alchimie, commença à devenir plus scientifique : la connaissance devenait celle de la société des savants, et non plus le secret de quelques uns ; et l'usage de l'expérimentation commençait à relever d'une attitude plus méthodique. On en observe un effet dans la nouvelle définition des éléments que proposa Robert Boyle (1627-1691) : on doit désigner par ce mot les matières qui, à l'expérience, résistent à toute tentative de décomposition. Cette nouvelle conception allait s'imposer petit à petit contre l'ancienne, jusqu'à triompher à l'époque de Lavoisier. Cette notion expérimentale d'élément avait comme faiblesse d'être relative aux possibilités techniques d'analyse du moment. Tel corps qui a résisté à toutes les tentatives de décomposition peut, analysé selon une méthode nouvelle, révéler une structure composée.

Au cours du xixe s., les chimistes identifièrent quelques dizaines d'éléments. La quête chimique étant devenue attentive à la mesure des quantités, des « poids » notamment, des rapports simples apparurent dans les résultats, et la théorie atomique fut remise en chantier pour les expliquer. On associa aux éléments divers types d'atomes, différant les uns des autres, pour le moins, par leurs masses. En les classant par « poids atomique » croissant, Dimitri Mendeleïev (1834-1907) observa que certaines propriétés revenaient périodiquement. Il put ainsi classer les 63 éléments connus en un tableau rectangulaire. Certaines cases restant vides, Mendeleïev put prédire l'existence des éléments correspondants ainsi que leurs propriétés, et l'expérience lui donna bientôt raison.

1.3. La conception moderne

Au début du xxe s., lorsque l'on a commencé à connaître la structure de l'atome – un noyau autour duquel gravitent des électrons –, il est devenu possible de redéfinir la notion d'élément. On appelle ainsi, depuis, un type d'atome : il est caractérisé par son numéro atomique Z, qui est le nombre des protons présents dans son noyau. C'est aussi celui des électrons, tant qu'il n'y a pas ionisation.

Pour un même numéro atomique, le nombre des neutrons peut subir quelques variations : par exemple, le chlore (Z = 17) en a 20 dans un cas sur quatre et 18 dans les trois autres. Comme le chlore, tout élément peut donc présenter des isotopes, dont les propriétés chimiques sont semblables puisqu'elles sont liées, pour l'essentiel, à la structure électronique.
Un élément n'est pas nécessairement un corps, en ce sens que l'on ne le trouve pas toujours tel quel dans la nature. Dans les conditions ordinaires, par exemple, il n'y a pas de gaz dont les corpuscules seraient les atomes d'oxygène (O). Celui que l'on désigne traditionnellement par ce nom est appelé dioxygène par les chimistes ; ses molécules sont faites de deux atomes (O2). L'ozone (O3), quoique constitué du même élément O, est un autre corps simple.

2. La dénomination des éléments
Chaque élément est donc exprimé par un symbole et un numéro d'ordre, le numéro atomique (symbole Z).
Le premier élément a pour symbole H et pour numéro atomique Z = 1. On l'appelle hydrogène. Le deuxième a pour symbole He et pour numéro atomique Z = 2. On l'appelle hélium. Et ainsi de suite.
Les noms des éléments sont d'origine très variée : inconnue pour certains, qui sont en usage depuis la nuit des temps, elle est pour d'autres liée aux circonstances de leur découverte ou aux caractéristiques de l'élément. L'hydrogène doit son nom au fait qu'il « engendre l'eau » (par combustion), le phosphore au fait qu'il « apporte la lumière », le chlore à sa couleur d'un « vert jaunâtre » : les trois noms ont été construits sur les racines grecques correspondantes. Les chimistes ont aussi créé des noms à partir de mots d'origine latine : rubidium signifie « rouge » ; l'iridium a été baptisé par référence à la variété des couleurs obtenues par sa dissolution dans les acides…
L'hélium a été découvert dans le spectre de la lumière solaire : son nom vient du mot grec désignant le Soleil. Le hafnium a été ainsi nommé par Coster et Hevesy en 1923 : ce nom, qui vient de Hafnia (ancienne appellation latine de Copenhague) a été définitivement adopté, après des dénominations très variées (norium en 1845, jargonium en 1869, nigrium puis celtium en 1911) dues aux longues vicissitudes qui ont accompagné sa découverte.
Le rhénium (Rhin) a été nommé ainsi par ses inventeurs, trois Allemands travaillant dans le laboratoire Nernst en 1925. En 1830, Nils Sefström appela vanadium un élément qu'il venait de découvrir, en l'honneur de la déesse scandinave de l'Amour, Vanadis.

Plus récemment, les noms de mendélévium, nobélium et lawrencium ont été donnés aux éléments 101, 102 et 103 en hommage à leurs découvreurs. À partir de l'élément 104, la communauté scientifique internationale a décidé d'attribuer désormais à tout élément un nom systématique, construit avec le suffixe « -ium » sur les racines des trois mots latins signifiant les trois chiffres de son numéro atomique, conformément au tableau suivant, et un symbole construit avec les initiales des trois racines concernées. Par exemple :
104 – unnilquadium – Unq
105 – unnilpentium – Unp
118 – ununoctium – Uuo
Mais ces noms systématiques sont ensuite remplacés par des noms moins « anonymes », après la confirmation de la découverte des éléments correspondants et entente entre leurs découvreurs et la communauté scientifique internationale. Ainsi, l'Union internationale de chimie pure et appliquée (IUPAC) a finalement attribué le nom de rutherfordium à l’élément 104, dubnium au 105, seaborgium au 106, bohrium au 107, hassium au 108, meitnerium au 109, darmstadtium au 110, roentgenium au 111, copernicium au 112, flérovium au 114 et livermorium au 116. Ces deux derniers éléments font directement référence au lieu de leur découverte : le Lawrence Livermore National Laboratory (États-Unis) et le Flerov Laboratory of Nuclear Reactions (Russie). En 2016, les éléments 113, 115, 117 et 18 ont été officiellement baptisés respectivement nihonium (Nh, de nihon, Japon), moscovium (Mc, de Moscou, capitale russe), tennessine (Ts, de Tennesse, État américain) et oganesson (Og, du n. de Y. Oganessian, physicien nucléaire russe).

3. La classification périodique des éléments
3.1. Une case, un élément

La classification périodique des éléments se présente sous la forme d'un tableau qui recense tous les éléments connus. Chacun d'entre eux y occupe une case et est désigné par son symbole, accompagné de deux nombres. Le plus petit, toujours entier, est le numéro atomique Z (correspondant au nombre de protons) ; il augmente d'unité en unité, à partir de 1.
L'autre est la masse molaire atomique M, appelée aussi masse molaire ou masse atomique. Cette dernière appellation reprend et corrige l'ancienne expression de « poids » atomique. Elle a cependant l'inconvénient de paraître désigner la masse de l'atome considéré, ce qui n'est pas le cas. Cette grandeur est la masse d'une mole de l'atome en question, autrement dit la masse de 6,02 × 1023 atomes de l'élément considéré (6,02 × 1023 étant le nombre d’Avogadro) ; elle s'exprime en grammes par mole (g.mol−1).
Pour en savoir plus, voir l'article mole.
La valeur de cette masse est souvent proche d'un entier, au point que les tableaux simplifiés donnent presque exclusivement des entiers. Ainsi l'hélium, de numéro atomique 2, a-t-il pour masse molaire 4,0026 g.mol−1, ce que l'on arrondit à 4. Cet entier A, le nombre de masse, correspond en fait au nombre de nucléons, c'est-à-dire le nombre de protons et de neutrons composant le noyau atomique. Puisque Z = 2, l'atome d'hélium comporte deux électrons ainsi que deux protons. Puisque A = 4, le nombre des neutrons est N = A − Z = 2.
Les masses molaires éloignées d'une valeur entière sont liées à la présence non négligeable d'un isotope. Ainsi, dans le cas du chlore (Z = 17), l'isotope 35 (18 neutrons) se rencontrant trois fois plus que l'isotope 37 (20 neutrons), on prend 35,5 comme masse molaire moyenne de l'élément chlore. En conséquence, la masse molaire moléculaire du dichlore (Cl2) a pour valeur 71.

3.2. Lignes et colonnes
Les différentes lignes du tableau périodique correspondent au remplissage des différentes couches électroniques des atomes. La première couche, la plus proche du noyau, ne peut recevoir que deux électrons. C'est pourquoi la première ligne ne comporte que deux cases : H et He. La deuxième couche peut recevoir huit électrons : dans la deuxième ligne, le numéro atomique va de 3 à 10 ; etc.
Chaque colonne, par conséquent, correspond à la façon dont est occupée la dernière couche électronique de chaque atome. Dans la première colonne figurent les éléments pour lesquels la couche la plus externe comporte un unique électron. L'hydrogène (H), en tête, n'en a qu'un en tout ; le lithium (Li), en dessous, en a 3 (= 2 + 1) ; le sodium (Na, pour natrium), sur la troisième ligne, possède 11 électrons (= 2 + 8 + 1) etc.
C'est ce nombre des électrons de la couche externe (également appelée couche de valence) qui détermine les propriétés chimiques des corps, expliquant que les différents éléments d'une même colonne présentent des propriétés commune. La première colonne est celle des métaux alcalins (lithium, sodium, etc.) ; la dernière colonne est celle des gaz rares, ou inertes (hélium, néon, argon, etc.), l'avant-dernière étant celle des halogènes (fluor, chlore, etc.).
Le principe de remplissage des lignes du tableau qui vient d'être esquissé n'est pas respecté partout. Les irrégularités de sa constitution tiennent au fait que le remplissage des couches électroniques suit, dans certains domaines, des règles un peu plus compliquées. On notera, en particulier, la famille des actinides, où figure l'uranium (U), de numéro atomique 92. Tous les éléments qui viennent après sont les transuraniens : ils n'existent pas dans la nature, ils ont été produits artificiellement.

4. Les éléments radioactifs et leurs transmutations
La physique nucléaire, contrairement à la chimie, prend en compte des réactions dans lesquelles des noyaux atomiques se transforment. On peut donc y voir de véritables transmutations d'éléments.
Le concept de nucléide (ou nuclide) qui a cours dans cette branche de la physique n'est autre que celui de type de noyau, défini par les nombres Z et A. Autrement dit, le cortège électronique n'est pas pris en considération.

4.1. Radioactivité et stabilité des éléments
Le phénomène de la radioactivité peut prendre différentes formes. Des noyaux de plutonium 244, par exemple (94 protons et 150 neutrons), émettent une particule, constituée de deux protons et de deux neutrons. Cette dernière est donc en fait un atome d'hélium complètement ionisé He2+ ou, si l'on préfère, un noyau d'hélium. Le noyau émetteur n'ayant plus que 92 protons, le plutonium est devenu uranium, sous la forme de l'uranium 240.
En se désintégrant, le noyau « père » donne un noyau « fils » qui peut à son tour être radioactif. De proche en proche on aboutit in fine à un nucléide stable.
La radioactivité est un phénomène naturel qui affecte surtout les gros noyaux (uranium, radium, polonium…), mais pas uniquement. La désintégration du carbone 14 obéissant à une loi connue, la présence de cet isotope permet la datation des fossiles. La radioactivité artificielle consiste à modifier un noyau lourd en le bombardant avec un projectile, qui peut être une particule, de façon à produire un nouveau noyau qui soit radioactif.

4.2. Production et utilisations énergétiques des éléments transuraniens
Les transuraniens sont des éléments radioactifs. On les obtient artificiellement et leur durée de vie peut être très brève. Parmi ceux déjà produits, celui qui a le plus grand numéro atomique est l'élément 116, qui a été obtenu en 2000 et dénommé Livermorium (Lv) en 2012. Ses 176 neutrons le rendent proche d'un îlot de stabilité, prévu par la théorie, qui serait atteint avec 184 neutrons.

La fission nucléaire consiste à casser des noyaux lourds, d'uranium par exemple, dans le but de produire une grande quantité d'énergie, que ce soit de façon brutale (bombe atomique) ou de façon contrôlée (électronucléaire) ; dans cette réaction, l'uranium disparaît en donnant deux autres éléments.
Pour en savoir plus, voir l'article centrale nucléaire.

La fusion nucléaire vise au même but, mais par l'opération inverse : un noyau de deutérium (ou hydrogène 2) et un de tritium (ou hydrogène 3) fusionnent pour donner un atome d'hélium. Cette réaction est provoquée lors de l'explosion d'une bombe thermonucléaire (ou bombe H) ; mais c'est elle aussi qui assure naturellement la production énergétique du Soleil. La réaction de fusion contrôlée constitue un enjeu énergétique, économique et environnemental de premier plan, c’est pourquoi elle est au cœur du projet ITER (International Thermonuclear Experimental Reactor), dont l’objectif est la construction d’un prototype de réacteur à fusion thermonucléaire contrôlée permettant de valider cette option comme source d’électricité. Dans le cas de la fission comme dans celui de la fusion, le dégagement d'énergie est corrélatif d'une diminution de la masse totale, conformément à la théorie de la relativité.

BIOLOGIE
Dans tous les organismes vivants, on admet l'existence constante de 27 corps simples : 11 non-métaux (carbone, hydrogène, oxygène, azote, soufre, phosphore, chlore, fluor, brome, iode, bore), 2 semi-métaux (silicium, arsenic) et 14 métaux (calcium, sodium, potassium, magnésium, fer, zinc, cuivre, nickel, cobalt, manganèse, aluminium, plomb, titane, étain). Les 11 éléments les plus abondants sont dits plastiques. Les autres sont des oligoéléments.


DOCUMENT   larousse.fr    LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 ] - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales /confidentialité

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon