|
|
|
|
|
|
LE VERRE |
|
|
|
|
|
Le verre
- par Jacques Livage dans mensuel n°379 daté octobre 2004 à la page 89
Vive le désordre! Telle pourrait être la devise des maîtres verriers. C'est en effet l'absence d'organisation spatiale des atomes qui le composent qui donne au verre ses propriétés. De savants mélanges chimiques permettent aujourd'hui de l'utiliser dans une multitude d'applications: vitres, flacons, bouteilles ou fibres optiques.
Qu'est-ce que le verre?
Le verre est un matériau transparent et cassant, qui devient pâteux lorsqu'on le chauffe à quelques centaines de degrés. Dans la vie courante, il se présente sous les formes les plus variées: vitrages, bouteilles, vaisselle, fibres ou lentilles optiques. En fait, on devrait plutôt parler «des» verres, car la composition chimique du matériau est variable, et adaptée à chaque utilisation. Le point commun de tous ces matériaux réside dans le désordre structural des atomes qui les composent. C'est lui qui confère aux verres leurs propriétés originales: transparence, fusion pâteuse, cassure conchoïdale*… Dans un verre, contrairement aux cristaux, les atomes ne sont pas disposés régulièrement. Comme dans le liquide obtenu après fusion, ils ne présentent aucune périodicité. Un verre est un solide désordonné, que l'on qualifie aussi d'amorphe.
Le verre ordinaire, est-ce seulement du sable fondu?
Le verre peut être obtenu par fusion d'un sable de silice tel le «sable de Fontainebleau». La silice est en effet le composé indispensable pour faire du verre. C'est le «formateur de verre». Mais sa température de fusion très élevée, environ 1750 °C, rend la fabrication particulièrement difficile et onéreuse avec de la silice pure. On ajoute donc des «fondants», tels que la soude, la potasse ou la chaux, qui se combinent à la silice et abaissent sa température de fusion. Par exemple, avec 20% d'oxyde de sodium, la silice fond dès 800°C, et l'on peut alors couler le verre à 1000°C.
D'autres additifs, que l'on appelle «modi-ficateurs», permettent d'optimiser les propriétés du verre en fonction de l'appli-cation envisagée. Le calcium ou l'alumine renforcent son inertie chimique. Le plomb augmente son indice optique et lui donne un éclat tel qu'il devient «cristal». Les verres spéciaux comme le «Pyrex», utilisé pour fabriquer de la vaisselle, sont obtenus en ajoutant du bore qui diminue le coefficient de dilatation du matériau, évitant qu'il ne se brise lorsqu'on le chauffe. On ajoute aussi du bore dans les verres qui servent au confinement des déchets nucléaires afin de renforcer leur résistance vis-à-vis de la lixiviation* due aux eaux de ruissellement qui dissolvent lentement la surface du verre.
Quel est l'intérêt du recyclage?
Non seulement on économise de la -matière première, mais aussi de l'énergie. Le verre de récupération fond en -effet à beaucoup plus basse température que la silice, même mise en présence de fondant, puisque la combinaison des deux constituants est déjà réalisée. C'est la raison pour laquelle le recyclage du verre s'est considérablement développé au cours des dernières décennies.Actuellement, en France, on recycle plus de deux millions de tonnes de verre par an. Le verre d'emballage provient à 60 % du verre de récupération le calcin, et une bouteille ordinaire peut en contenir jusqu'à 80 %!
Peut-on faire du verre sans silice?
Oui, car d'autres oxydes donnent spontanément un verre lorsqu'on les refroidit rapidement à partir de l'état liquide une opération nommée trempe. Cependant ils sont rares, et se limitent pratiquement aux oxydes de bore B2O3, de germanium GeO2 et de phosphore P2O5. Par ailleurs, tous les verres ne sont pas des oxydes. Au cours des dernières décennies on a vu apparaître d'autres verres minéraux. Les verres de chalcogénures, à base de soufre, de sélénium ou de tellure, sont en général noirs, ce qui ne les empêche pas d'être transparents aux longueurs d'onde infrarouges. Ils sont utilisés pour réaliser des optiques infrarouges permettant de voir la nuit. Des verres fluorés, découverts en 1975, sont remar-quablement transparents dans le visible et dans l'ultraviolet, et peuvent être utilisés dans les télécommunications optiques.
La possibilité d'obtenir un verre augmente considérablement si l'on réalise des trempes ultrarapides, en refroidissant à des vitesses de plusi-eurs millions de degrés par seconde! Le verre obtenu peut être décrit comme un «liquide figé». C'est ainsi que l'on a élaboré des verres métalliques par «hypertrempe» d'alliages nickel-phosphore. Simple curiosité de laboratoire lors de leur découverte en 1960, ils présentent des propriétés mécaniques renforcées, liées à l'absence de joints de grains*. Des verres métalliques à base de zirconium, de titane ou de cuivre ont trouvé aujourd'hui des appli-cations originales, notamment des clubs de golf! N'oublions pas non plus l'importance des verres organiques qui ont envahi notre vie quotidienne. Ils sont constitués de polymères tels que le polymétha-crylate de méthyle Plexiglas, les polycarbonates, le polyéthylène ou les polyéthylènetéréphtalates PET.
Qui a découvert le verre?
Le verre est connu depuis près de 5000 ans. Dans son Histoire naturelle, Pline l'Ancien relate que le verre aurait été découvert par des marins égyptiens lors d'une halte sur une plage de Phénicie, à l'embouchure du fleuve Belus aujourd'hui Nahr Halou, au Liban. Ne trouvant pas de galets, ils disposèrent autour du feu des blocs de natron, un carbonate de sodium utilisé pour la momification. Quelle ne fut pas leur surprise lorsqu'ils virent s'écouler un liquide visqueux qui, en refroidissant, se figeait en une masse vitreuse! Le natron aurait en l'occurrence servi de fondant.
Cette histoire n'est sans doute qu'une légende. Il est en effet peu probable qu'un feu à ciel ouvert permette d'atteindre une température suffisante pour fondre la silice! Les premiers verres ont sans doute été obtenus en Mésopotamie comme scories de métallurgie. Ces verres étaient de mauvaise qualité. Très hétérogènes, ils n'étaient pas transpa-rents mais pouvaient être colorés par des sels de cuivre le «bleu égyptien» et ont tout d'abord servi d'objets décoratifs, perles ou statuettes, pour remplacer des pierres semi-précieuses telles que le lapis-lazuli.
L'usage du verre s'est étendu, à partir de 1500 av. J.-C., pour réaliser des objets utilitaires coupes, vases, flacons… par moulage autour d'un noyau de sable ou d'argile. Le verre est alors devenu un matériau usuel, particulièrement présent en Égypte où l'on a retrouvé des ateliers de fabrication d'objets en verre.
Quelle est la différence avec les céramiques?
Les céramiques ont souvent des compositions chimiques proches des verres. Mais elles sont formées de petits cristaux assemblés les uns aux autres par chauffage à haute température. Cette opération que l'on appelle «frittage» conduit à un matériau polycristallin, et non pas amorphe comme le verre. Chaque petit grain cristallin diffuse la lumière, et le matériau n'est donc pas transparent. Autre différence entre le verre et la céramique, les cristaux qui forment cette dernière fondent tous à la même température. On passe donc brusquement du solide au liquide. Au contraire, dans un verre, les liaisons entre atomes cèdent progressivement au cours du chauffage conduisant à une «fusion pâteuse» qui permet la mise en forme par soufflage.
En existe-t-il dans la nature?
Des verres naturels se forment lors d'éruptions volcaniques, lorsque la lave fondue se refroidit au contact de l'air. L'obsidienne en est un exemple bien connu. Cette roche noire, brillante et coupante que l'on peut tailler ou polir, a été utilisée dès la préhistoire pour la fabrication d'outils. Les civilisations précolombiennes, en particulier, en ont aussi fait des bijoux et même des miroirs. D'autres verres naturels, plus rares, sont issus du choc engendré par la chute de certaines météorites, «tectites», ou se forment lorsqu'un éclair frappe un sol sablonneux, «fulgurites». Enfin, à proxi-mité des roches radioactives, on trouve des «métamictes», dans lesquelles le désordre a été créé par irradiation et ne provient pas du refroidissement rapide d'une roche en fusion.
Peut-on en fabriquer sans chauffer?
Depuis des centaines de millions d'années, des organismes vivants ont développé des stratégies permettant d'élaborer des verres de silice dans des conditions plus «douces» que celles qui règnent dans les volcans ou dans les fours verriers. L'exemple des diatomées est particulièrement intéressant. Ces micro-algues unicellulaires, que l'on trouve dans le plancton, sécrètent une coque de silice, la frustule, qui les protège tout en laissant passer la lumière nécessaire à la photosynthèse. Ce squelette externe, qui agit comme les vitres d'une serre, est synthétisé par la cellule à partir de la silice dissoute dans l'eau de mer. Le cas n'est pas unique: bien d'autres organismes, tels que les éponges ou les radiolaires, fabriquent de la silice dans les mêmes conditions. La production annuelle de silice par ces micro-organismes dépasse actuellement le milliard de tonnes: elle est bien supérieure à celle de nos usines verrières qui, en France, traitent environ 5 millions de tonnes de verre par an. Après leur mort, les squelettes de diatomées se déposent au fond des océans et se transforment en sédiments, les diatomites, roches poreuses qui servent à réaliser des filtres industriels. C'est grâce à elles qu'Alfred Nobel a fait fortune: la dynamite, qu'il a inventée, est constituée de nitroglycérine stabilisée par imprégnation dans des terres de diatomées.
Les chimistes savent-ils imiter les diatomées?
Pas encore. Depuis une vingtaine d'années, ils ont développé des métho-des de synthèse, connues sous le nom de «procédés sol-gel», pour élaborer des verres dans des conditions particulièrement douces, mais quand même pas à la température ambiante. Pour cela, on construit le réseau de silice par polymérisation de précurseurs solubles, ici l'acide silicique, Si OH 4, de la même façon que l'on fabrique un polymère organique à partir de monomères moléculaires. On obtient ainsi un gel de silice, que l'on densifie ensuite par chauffage à quelques centaines de degrés, bien au-dessous de la température de fusion de la silice. Ces procédés sont maintenant développés industriellement pour déposer des revêtements à la surface des vitrages modernes. Le dépôt sol-gel s'effectue par simple trempage ou pulvérisation à l'air. Il est donc plus simple à mettre en œuvre que d'autres processus, tels le «dépôt en phase vapeur» ou la «pulvérisation cathodique» qui nécessitent des températures plus élevées ou l'établissement du vide. Ce procédé de chimie douce présente aussi l'avantage d'être compatible avec la présence de molécules plus fragiles, organiques ou biologiques. Il permet d'élaborer des verres hybrides organo-minéraux totalement originaux, qui couvrent toute la gamme allant du polymère au verre. À l'exemple des diatomées, on a même réussi à maintenir vivants des micro-organismes tels que des bactéries, au sein de cages de verre [1]!
Est-il toujours transparent?
La transparence du verre nécessite que le matériau soit homogène et ne comporte aucune inclusion telle que des bulles ou des microcristaux. Pendant des siècles on n'a su faire que des «pâtes de verre » opaques. Il fallut attendre le IIIe siècle av. J.-C. pour obtenir des températures suffisantes pour réaliser des opérations d'affinage qui éliminent les bulles d'air et donnent enfin un matériau homogène et transparent. Les secrets de la transparence ont ensuite été jalou-sement gardés dans des lieux isolés. C'est ainsi qu'au XIIIe siècle, les verriers de Venise furent regroupés sur l'île de Murano. Ils ne devaient pas la quitter sous peine de mort! La transparence du verre a atteint son apogée au XXe siècle avec la réalisation des fibres optiques pour les télécommunications.
Aujourd'hui, paradoxalement, les fabricants de vitrages cherchent plutôt à contrôler la transparence du verre afin d'ajouter une plus-value à ce matériau devenu très courant. Pour cela, on -dépo-se à la surface du verre un film mince d'environ un micromètre d'épaisseur de composition différente, qui module ses propriétés optiques. Le vitrage peut ainsi réfléchir la lumière pour donner un aspect métallisé ou au contraire éviter les reflets pour ne pas gêner la vision. Il peut aussi contrôler les échanges de chaleur avec l'extérieur, en réfléchissant le rayonnement infrarouge tout en laissant passer la lumière visible. On trouve aussi de plus en plus de vitrages «intelligents », dont la transparence varie en fonction d'un stimulus optique photochromisme ou électrique électrochromisme.
Comment fait-on du verre incassable?
« Cassant comme du verre » ou «fragile comme du verre »: la popularité de ces expressions ne doit rien au hasard.Le verre est un matériau fragile, qui se brise lors d'un choc un peu violent. En fait, le verre se casse lorsqu'on l'étire mais pas quand on le comprime. Un éclat se produit à l'endroit du choc, mais le verre ne se casse que si la fissure se propage dans tout le matériau.
Pour éviter cela, il faut créer des forces de compression qui en maintiennent les bords. On y parvient par trempe thermique, en soufflant de l'air froid sur une pièce de verre recuite à 650 °C. Le verre, dilaté au chauffage, se fige plus rapidement en surface donnant une couche moins dense que le cœur, ce qui engendre des forces de -compression superficielles. Un verre ainsi trempé peut être cinq fois plus résistant qu'un verre ordinaire. De plus, lorsqu'il se brise, il donne de multiples petits éclats peu coupants, d'où le nom de «verre sécurit».
On peut aussi réaliser une «trempe chimique» en plongeant un verre sodique dans un sel de potassium fondu. Le remplacement superficiel des ions sodium par des ions potassium, plus gros, engendre là aussi des forces de compression à la surface du verre. Une autre solution encore consiste à réaliser un verre feuilleté constitué de couches successives de verre et d'un polymère organique, le butyrate de polyvinyle, ou de résine organique. Les feuilles plastique limitent la propagation des fissures et, en cas de bris, maintiennent la cohésion du vitrage. On peut même insérer des fils métalliques très fins entre les feuillets de façon à intégrer le vitrage dans un système d'alarme ou de chauffage. L'application la plus importante du vitrage feuilleté est le pare-brise automobile.
Comment fabrique-t-on une vitre?
Rien de plus simple que de façonner du verre. En regardant un souffleur de verre, on constate comme ce matériau est flexible et peut adopter les formes les plus compliquées. Alors, quoi de plus facile que de réaliser un «verre plat» pour faire une vitre ou un miroir? Il suffit de couler le verre fondu sur une surface plane et, le cas échéant, de l'écraser à l'aide d'une plaque de bois humide. C'est sans doute ainsi qu'étaient faits les petits fragments de verre plat que l'on a retrouvés dans les ruines de Pompéi, détruite au Ier siècle de notre ère. Cependant, les surfaces ainsi obtenues étaient petites. Étrangement, la technique du soufflage du verre, découverte lors des dernières décennies avant l'ère chrétienne, a connu un développement beaucoup plus important, comme en témoignent les nombreux vases que l'on retrouve dans les fouilles archéologiques. Et c'est en fait à partir de ces «verres creux » que pendant des siècles on fabriqua les vitrages. Mais comment transformer une surface courbe en un plan? Deux méthodes ont été mises au point concurremment au XIVe siècle. La méthode «bohémienne» consistait à souffler un «manchon» cylindrique que l'on découpait ensuite selon une génératrice avant de le dérouler. Dans la méthode «normande», on soufflait une sphère que l'on faisait tourner rapidement autour de la canne de façon à l'aplatir comme une galette. On obtenait alors un verre en «couronne » reconnaissable à son renflement central.
Ces procédés peuvent paraître compliqués. Ils ont pourtant été utilisés jusqu'au XIXe siècle. Évidemment il n'était pas possible d'obtenir de grandes surfaces, d'où la taille très réduite des vitrages des fenêtres médiévales ou la fragmentation des vitraux des cathédrales. Il fallut attendre la fin du XVIIe siècle, pour qu'un verrier français ait l'idée de couler le verre fondu sur une plaque métallique. Ce procédé de «coulée sur table» est à l'origine de la Manufacture royale des glaces fondée par Colbert à Saint-Gobain, dans l'Aisne, en 1665. Malheureusement, le verre ainsi coulé n'est pas lisse, il faut le polir, par des opérations de «doucissage» longues et coûteuses.
La véritable révo-lution technologique pour fabriquer le verre plat est très récente. Elle date de 1952, lorsqu'un jeune ingénieur de 30 ans, Alastair Pilkington, eut l'idée de couler le verre directement sur un bain d'étain fondu, créant ainsi une inter-face parfaitement plane entre deux liquides. La feuille de verre obtenue est remarquablement lisse, et il n'est plus besoin de la polir. Ce procédé, connu sous le nom de «verre flotté» float glass en anglais est maintenant utilisé par tous les fabricants de vitrages. La production de «verre plat» en France est aujourd'hui de l'ordre du million de tonnes par an.
Par Jacques Livage
DOCUMENT larecherche.fr LIEN |
|
|
|
|
|
|
LE DIAMANT |
|
|
|
|
|
diamant
(bas latin diamas, -antis, croisé avec adamas, -antis, aimant)
Diamants
Consulter aussi dans le dictionnaire : diamant
Pierre précieuse constituée de carbone pur cristallisé, très dur mais cassant, généralement incolore et transparent, utilisé soit en joaillerie, soit dans l'industrie.
Origine
Le diamant, variété cristallisée de carbone pur, s'est formé au cours de l'ère primaire, dans des cheminées volcaniques, sous la double action de pressions très élevées (plus de 100 t/cm2) et de températures supérieures à 5 000 °C. Sa dureté exceptionnelle lui a permis de traverser les siècles, noyé dans les laves bleues de la kimberlite ou enfoui parmi les sables alluviaux d'où on l'extrait aujourd'hui.
Caractéristiques
La valeur et l'identité d'un diamant sont déterminées par quatre caractéristiques : sa masse (exprimée en carats, le carat valant 0,2 g ; la valeur d'un diamant s'exprime « au carat » ; toutefois, plus il est gros, plus son prix au carat est élevé, car les pierres de plus de un carat sont les plus rares), sa couleur (les diamants les plus recherchés sont ceux qui ne possèdent aucune trace de couleur), sa pureté (une pierre est dite pure lorsqu'un œil exercé n'y décèle, à l'examen à l'aide d'une loupe grossissant 10 fois, aucune inclusion ni aucune particularité de cristallisation) et sa taille.
Diamant taillé
Le brillant, l'éclat, le jeu de lumière d'un diamant dépendent de la finesse de sa taille. Le diamant taillé fournit de très beaux effets de lumière (feux) en raison des valeurs élevées de son indice de réfraction (2,42 contre 1,76 pour le saphir ou 1,57 pour l'émeraude) et de son pouvoir dispersif. On le taille en rose (depuis le xvie s.), en brillant (depuis le xviie s.), en poire, en marquise, en ovale, etc. De nos jours, la plupart des tailles sont de 57 facettes, parfois à degrés (taille en émeraude, en baguette…).
Certains diamants sont célèbres. Le Régent (musée du Louvre), qui fut acheté en 1717 par le duc d'Orléans, est considéré comme le plus pur d'entre eux ; sa masse est de 137 carats (27,4 g). Le Cullinan (Tour de Londres), qui fut trouvé en 1905 au Transvaal, est le plus gros du monde ; sa masse brute, avant la taille, était de 3 106 carats (621,2 g).
Utilisations
Outre son utilisation dans la joaillerie et la bijouterie, le diamant trouve de plus en plus d'applications dans l'industrie, depuis que la fabrication de pierres de synthèse (inaugurée aux États-Unis en 1953) rend ce matériau moins coûteux.
Apprécié depuis longtemps pour sa dureté, le diamant sert notamment à fabriquer des outils de coupe (miroiterie, usinage) ou des têtes de forage (industries pétrolière et minière). Il est aussi recherché aujourd'hui pour ses autres qualités (résistance à l'échauffement, très bonne conduction de la chaleur, transparence). Ainsi, dans le secteur de l'armement, le diamant sert à fabriquer des coiffes de missiles : il résiste bien à l'échauffement de la tête du missile dans l'air tout en restant transparent à l'infrarouge, à l'ultraviolet et, dans une moindre mesure, aux rayons X et aux hyperfréquences.
Sa très bonne conductibilité thermique fait aussi du diamant un outil de choix pour les machines de découpe par laser. Quant à sa résistance aux rayonnements, bien supérieure à celle du silicium, elle intéresse tout à la fois l'armée, l'industrie nucléaire, l'astronomie et la médecine nucléaire. Pour l'avenir, l'industrie des composants électroniques fonde de grands espoirs sur l'utilisation du diamant comme semi-conducteur.
Production
La production mondiale est de l'ordre de 161 millions de carats par an, partagée entre les diamants pour la joaillerie, 90 millions de carats et les diamants industriels 71 millions de carats.
Pour les diamants de joaillerie, le Botswana vient en tête avec 32 millions de carats, devant la Russie 22 millions de carats suivie du Canada 12 millions de carats. L'Afrique du Sud vient au 6éme rang avec une production de 5,2 millions de carats. Anvers, les Émirats arabes unis, l'Inde et Tel Aviv travaillent les diamants bruts tandis que le marché des pierres polies et montées, tenu pour moitié par les États-Unis, voit la part de la Chine s'accroîtreà un rythme soutenu.
La République démocratique du Congo vient en tête pour la production des diamants industriels (22 millions de carats) devant la Russie et l'Australie (respectivement 15 et 14 millions de carats).
La production mondiale de diamants synthétiques est de l'ordre de 4 550 millions de carats par an, la Chine, avec 4 000 millions de carats venant loin devant les États-Unis (261 millions de carats) et la Russie (80 millions de carats).
DOCUMENT larousse.fr LIEN |
|
|
|
|
|
|
LA FUSION PAR LASER |
|
|
|
|
|
La fusion par laser a le vent en poupe
un mythe pour le xxie siècle: la fusion nucléaire - par Denis Pesme dans mensuel n°299 daté juin 1997 à la page 67 (3391 mots) | Gratuit
Faire imploser avec des lasers ou des particules accélérées une minuscule capsule remplie de deutérium et de tritium, telle est l'idée à la base de la fusion par confinement inertiel. Le procédé étant directement hérité de celui de la bombe H, les travaux ont été longtemps soumis au secret militaire. A l'initiative des Américains, le voile commence à se lever. Deux gros projets destinés à entretenir le stock d'armes nucléaires, le NIF aux États-Unis et le Laser Mégajoule en France, devraient doper la recherche civile.
Le projet de la filière dite du confinement inertiel consiste non pas vraiment à confiner mais à faire imploser violemment le mélange deutérium-tritium D-T par l'action d'un rayonnement intense. Sous l'effet de sa propre inertie, la densité et la tempéra-ture du mélange D-T atteignent, durant quelques milliardièmes de seconde, les valeurs requises pour que s'amorcent les réactions de fusion.
Le principe inertiel est voisin de celui à l'oeuvre dans la bombe dite H, mise au point par les Américains en 1952 en 1968 par la FranceI. Dans une bombe H, l'explosion d'une bombe A déclenche un rayonnement X qui entraîne la réaction de fusion. La difficulté pour produire de l'énergie est d'engendrer la réaction à petite échelle et de façon contrôlée.
L'idée de base est d'utiliser la lumière laser comme allumette. Les propriétés des rayons laser - cohérence, longueur d'onde bien définie, brièveté d'émission - permettent de focaliser l'énergie lumineuse dans des volumes très petits et de porter la matière à des températures et des pressions très élevées. Le mélange D-T est enfermé dans une minuscule capsule de moins d'un millimètre de diamètre, un « microballon », qu'on irradie ensuite au moyen de puissantes impulsions laser. Ce principe fut exposé pour la première fois publiquement en 1972 par des physiciens américains du laboratoire de Lawrence Livermore1. A cette époque, il était fondé sur le schéma dit de l'attaque directe, selon lequel le microballon est irradié uniformément par de nombreux faisceaux laser.
Les recherches, y compris en France, ont rapidement révélé une propriété remarquable des plasmas denses et chauds ainsi créés : ils émettent naturellement dans le domaine des rayons X et, si la longueur d'onde du laser et l'élément irradié sont bien choisis, l'efficacité de conversion en rayonnement X de l'énergie laser incidente peut dépasser 70 %. Cette propriété a ouvert la voie à un second schéma, l'« attaque indirecte ». Selon ce concept, les faisceaux laser sont dirigés non sur le microballon, mais vers l'intérieur d'une cavité où on les enferme. En frappant les parois internes, la quasi- totalité de leur énergie se transforme en un rayonnement X qui provoque l'implosion du microballon fig. 1. Le critère de Lawson qui précise les conditions nécessaires à l'ignition thermonucléaire est, initialement, formulé en termes de densité, température et durée de confinement du combustible voir p. 60. Dans le cas du confinement inertiel, pour un mélange D-T et une température de 10 keV soit une centaine de millions de degrés, on montre que le critère de Lawson se ramène à la condition rR > 0,2 g/cm2, où r est la densité du combustible en g/cm3 et R le rayon du microballon, en centimètre. Cette inégalité n'est cependant pas suffisante pour produire efficacement de l'énergie : les calculs montrent que pour obtenir un gain rapport entre l'énergie libérée et l'énergie investie dans la source d'au moins 10, rR doit dépasser 3 g/cm2.
A ce stade, on pourrait penser qu'il suffirait d'utiliser des cibles de taille assez grande pour que les inégalités précédentes soient satisfaites. Ainsi, sachant que la densité du mélange D-T vaut 0,2 g/cm3, une capsule de rayon 1 cm permettrait a priori d'atteindre le critère de Lawson. Cependant, la source de rayonnement qui aurait à chauffer à 10 keV une si grosse cible devrait fournir une énergie de l'ordre de 1 000 mégajoules en un temps très court : irréalisable, car cette valeur est environ mille fois plus élevée que celle délivrée par les instruments les plus performants. C'est pourquoi il est nécessaire de faire intervenir deux ingrédients supplémentaires essentiels, la compression de la cible et la formation d'un point chaud.
Des bilans assez simples montrent en effet qu'en comprimant fortement la cible l'énergie à fournir initialement peut rester raisonnable quelques mégajoules. Les taux de compression requis sont compris entre 1 000 et 10 000 fois la densité du mélange D-T solide. Quant à la formation d'un point chaud, l'idée est de ne porter à la température d'ignition qu'une petite partie du combustible quelques pour-cent.
Par ailleurs, l'énergie nécessaire pour chauffer le mélange D-T à la tempéra-ture d'ignition doit être déposée très rapidement, en une dizaine de nanosecondes 1 ns = 1 milliardième de seconde. Les seules sources capables de délivrer des énergies de l'ordre du mégajoule sur des durées aussi brèves sont les rayons laser, ou bien les faisceaux de particules accélérées ions lourds en particulier.
Comment réaliser l'implosion du mélange D-T ? En attaque directe, le microballon est illuminé directement par les faisceaux laser. L'intérêt de ce schéma réside dans l'efficacité élevée du transfert d'énergie au microballon. En contrepartie, les contraintes sur les lasers sont sévères : pour assurer une excellente uniformité de l'irradiation les défauts d'uniformité ne doivent pas dépasser quelques pour-cent, un grand nombre de faisceaux sont nécessaires, de très bonne qualité optique, et leur énergie doit être contrôlée de façon précise.
En attaque indirecte, le microballon est placé à l'intérieur d'une cavité mesurant quelques millimètres et constituée d'un matériau de numéro atomique élevé or, tungstène, etc. : la longueur d'onde X obtenue est d'autant plus courte que l'élément irradié est lourd. Les faisceaux laser irradient la paroi interne de cette cavité, y créant un plasma chaud qui rayonne intensément dans le domaine X. Par une succession de processus d'absorption et de réémissions, ce rayonnement s'uniformise et provoque l'implosion de la capsule. L'intérêt de l'attaque indirecte réside donc dans l'uniformité de l'irradiation du microballon, ce qui assure une meilleure stabilité hydrodynamique de son implosion.
Voyons à présent comment se déroule l'implosion proprement dite, que l'attaque soit directe ou indirecte. Les microballons ont un rayon de l'ordre du millimètre et sont constitués d'une coquille solide contenant un mélange D-T gazeux. La coquille est elle-même composée de deux parties. Sa partie externe, dénommée ablateur, est faite d'un matériau léger, genre plastique, dopé par un matériau lourd de forte opacité ; sa partie interne est du combustible D-T froid, à l'état solide. Sous l'effet du rayonnement intense laser ou rayons X, la couche externe de la coquille se vaporise en moins d'une picoseconde un millième de milliardième de seconde, se transformant en un plasma de plusieurs dizaines de millions de degrés. Une partie de l'énergie absorbée est convertie en énergie cinétique correspondant à la détente centrifuge du plasma. En réaction à cette détente, il s'ensuit un mouvement centripète du reste de la cible, d'où sa compression.
On obtient de cette façon des densités de mélange D-T de plusieurs centaines de grammes par cm3. L'ablateur sert donc de piston pour comprimer le microballon. Autre intérêt : il empêche les rayons X de pénétrer au centre de la cible, ce qui y induirait un « préchauffage ». Celui-ci, en limitant la compression, interdirait la formation finale d'un point chaud. Pour former un point chaud central, la méthode conventionnelle consiste à ajuster l'intensité du rayonnement en fonction du temps - au cours des quelques nanosecondes que dure l'impulsion - de manière à produire une suite continue de chocs qui parviennent au même moment au centre de la cible. Comme la vitesse de propagation de ces ondes de choc augmente avec l'intensité du rayonnement, il faut que cette intensité s'accroisse au cours du temps de façon à ce que les dernières ondes de choc rattrapent les premières.
Un nouveau concept, encore très prospectif, a été proposé en 1993 par les physiciens de Livermore pour créer le point chaud2. Il consiste à utiliser la capacité des impulsions laser ultra-intenses de pénétrer dans un plasma très dense ce dernier serait opaque aux impulsions « classi- ques », et d'accélérer ses électrons à des vitesses proches de celle de la lumière. Ces électrons très énergétiques sont ensuite capables de chauffer le plasma très dense qui les entoure. Ainsi, en focalisant une impulsion laser à très haute intensité sur un plasma préalablement comprimé à l'aide d'un rayonnement classique de forte énergie de l'ordre du mégajoule, on a l'espoir de former un petit point chaud. C'est le concept dit de l'allumeur rapide.
Quelle que soit la technique, le microballon comporte à la fin de la compression un point central très chaud et peu dense sa température devant atteindre au moins 10 keV pour rR de l'ordre de 0,3 g/cm2, entouré du combustible D-T froid et dense température < 1 keV, rR Å 3 g/cm2. L'ignition thermonucléaire initiale s'effectue dans le point chaud, et les particules a les noyaux 4He qui en émergent déposent leur énergie dans le combusti-ble froid comprimé. Lorsque toutes les valeurs requises pour la température et le produit rR seront atteintes, une onde de combustion thermonucléaire auto-entretenue sera alors engendrée, qui brûlera progressivement la totalité du D-T fig. 2. Deux catégories de mécanismes interviennent dans les expériences : les mécanismes d'interaction rayonnement-matière , qui déterminent l'efficacité et la qualité du transfert de l'énergie des faisceaux laser vers le microballon, et les mécanismes de nature hydrodynamique , dont dépend le déroulement de l'implosion du microballon. Les problèmes liés à ces deux types de mécanismes ne se posent pas de la même façon dans les schémas d'attaque indirecte et d'attaque directe. La déclassification récente des recherches sur la fusion inertielle permet de mesurer la qualité des résultats obtenus en attaque indirecte3. On sait maintenant que la conversion de l'énergie des faisceaux laser en rayonnement X est très efficace 70 à 80 %, qu'on a un bon contrôle de la symétrie de ce rayonnement X autour du microballon, et qu'il induit une pression d'ablation et une vitesse centripète de la coquille conformes aux prédictions théoriques. Reste un problème clef : le contrôle de l'interaction des faisceaux laser avec le plasma qu'ils créent par irradiation des parois internes de la cavité. En effet, cette interaction peut donner naissance à de néfastes instabilités dites paramétriques, lesquelles sont dues à un couplage résonnant entre le rayonnement laser et les ondes électrostatiques qui se propagent librement dans le plasma. Elles peuvent réduire l'absorption de la lumière laser, nuire à sa bonne uniformité, et produire des particules très rapides qui préchauffent le combustible froid et réduisent donc sa compression.
Les mécanismes hydrodynamiques sont eux aussi bien compris en attaque indirecte. L'enjeu essentiel est de limiter les instabilités qui peuvent se développer au cours de l'implosion. Elles sont de même nature que l'instabilité dite de Rayleigh-Taylor, qui se produit lorsqu'un fluide surmonte un autre fluide plus léger : la moindre perturbation renverse le système, le corps le plus dense ayant tendance à se retrouver en bas. Dans l'implosion, c'est l'accélération ou la décélération de la coquille qui joue le rôle de la gravité. On trouve ainsi que des instabilités de type Rayleigh-Taylor peuvent naître à partir des défauts initiaux du microballon, conduisant à la pollution du mélange fusible par le matériau de l'ablateur et, de là, à la perte de la symétrie sphérique ou à l'impossibilité de former un point chaud.
Dans le schéma d'attaque directe, les résultats concernant les mécanismes d'interaction laser-matière sont connus depuis longtemps, car ils n'étaient pas classifiés. Ici, l'énergie du rayonnement laser est déposée dans le plasma qui entoure le microballon et qui se détend dans le vide. Ce qui est donc en jeu, c'est la physique de l'interaction entre le laser et le plasma chaud qui entoure le microballon températures de plusieurs keV. Les objectifs recherchés sont d'une part de rendre maximale l'absorption du rayonnement laser, et d'autre part que l'énergie soit absorbée par le plasma dans son ensemble, et non concentrée dans une sous-population de ses constituants électrons en particulier.
Un premier résultat important a été la démonstration en 1979 par le LULI Laboratoire pour l'utilisation des lasers intenses, à Palaiseau, de l'amélioration du couplage rayonnement/cible grâce à l'emploi de rayonnements de courtes longueurs d'onde4. Celles-ci 0,53 mm, 0,35 mm, 0,26 mm, obtenues par doublement, triplement et quadruplement de la fréquence fondamentale 1,06 mm en longueur d'onde des lasers à verre dopé au néodyme*, assurent un excellent taux d'absorption de l'onde laser de l'ordre de 90 %, diminuent les instabilités paramétriques, et procurent des vitesses et pressions d'ablation très élevées. Ce résultat a conduit à écarter les lasers à CO2* longueur d'onde de 10,6 mm, et toutes les grandes installations laser utilisent désormais soit la conversion de fréquence avec des lasers à verre dopé au néodyme, soit des lasers KrF* ou à iode*, de faible longueur d'onde.
Les instabilités paramétriques demeurent toutefois l'un des problèmes clefs en attaque directe. En effet, même si l'emploi de courtes longueurs d'onde réduit considérablement leur développement, il est encore difficile d'extrapoler le niveau de ces instabilités dans le cas des plasmas de grande taille quelques millimètres, contre à peine 1 mm actuellement des futures expériences d'ignition et de combustion. Une des pistes étudiées pour lutter contre ces instabilités est de réduire la cohérence du laser - ce qu'on appelle le lissage optique.
L'attaque directe souffre aussi des instabilités hydrodynamiques de type Rayleigh-Taylor, qui peuvent se développer plus facilement qu'en attaque indirecte. Les défauts d'uniformité de l'illumination du microballon par les faisceaux laser, au même titre que les défauts d'homogénéité dans la coquille, servent de germe à la croissance de ces instabilités. On estime que, pour limiter leur développement, la non-uniformité du dépôt d'énergie doit rester inférieure à 1 %. En attaque directe, une telle exigence ne peut être satisfaite qu'en employant un grand nombre de faisceaux, lissés optiquement, avec un contrôle précis de l'énergie de chacun d'eux en fonction du temps.
En résumé, chacun des schémas a ses avantages et ses inconvénients. L'attaque directe a une haute efficacité de transfert de l'énergie des faisceaux laser vers le microballon, mais les difficultés évoquées ci-dessus exigent une excellente qualité d'illumination. L'attaque indirecte est plus robuste vis-à-vis des instabilités, au prix d'une plus faible efficacité du transfert de l'énergie. Au total, les résultats obtenus dans les deux schémas sont similaires et encourageants, puisque les taux de compression par rapport à la densité du solide 0,2 g/cm3 dès à présent atteints sont, en attaque directe, 600 au Gekko XII d'Osaka, et en attaque indirecte 100-200 avec l'installation Nova à Livermore et avec la machine Phébus à Limeil.
Quelles sont les perspectives ? Plusieurs laboratoires développent des projets de lasers impulsionnels de grande puissance destinés à marquer un progrès décisif vers la fusion par confinement inertiel, soit en validant des techniques, soit en faisant la démonstration de l'allumage et de la combustion du mélange deutérium-tritium. Les deux projets les plus importants sont le NIF aux Etats-Unis et le LMJ en France. Ils privilégient l'un et l'autre l'attaque indirecte. Ces deux projets liés aux activités de défense sont très similaires, le LMJ ayant toutefois, grâce à ses 240 faisceaux, une marge de manoeuvre légèrement supérieure à celle du NIF 192 faisceaux. Mais le LMJ ne sera en principe achevé que sept ans après le NIF américain voir l'encadré « Les grands projets ».
Pour spécifier les performances de ces installations, les scientifiques s'appuient sur les expériences d'implosion effectuées sur les équipements existants ainsi que sur les simulations numériques. Les Américains se réfèrent également à leur programme classifié Centurion-Halite mené sur le site du Nevada par les laboratoires de Livermore et de Los Alamos ; il a consisté à tester le schéma d'attaque indirecte en faisant imploser des cibles à l'aide du rayonnement X délivré par un engin nucléaire.
Des incertitudes scientifiques persistent cependant. Dans un diagramme puissance-énergie, le domaine où l'allumage et la combustion du D-T sont accessibles est borné par la limite de fonctionnement du laser, et par les deux limitations d'ordre physique dont nous avons parlé précédemment, les instabilités paramétriques et les instabilités hydrodynamiques.
Bien que ces deux types de mécanismes soient étudiés en profondeur avec les installations actuelles, leur comportement dans les conditions de l'ignition dimensions des cibles, durées des impulsions laser n'est extrapolable qu'avec de larges incertitudes. C'est pourquoi le dimensionnement de la chaîne laser a été conçu pour disposer d'une assez grande marge de manoeuvre. Au total, on estime que le laser devra être en mesure de délivrer de l'ordre de 1,8 mégajoule en 16 nanosecondes environ.
L'attaque directe reste une option très étudiée, en particulier aux Etats-Unis avec l'installation Omega-Upgrade de l'université de Rochester. Ce projet a débuté en 1989, le laser a été achevé en 1995 et les premières expériences ont commencé il y a quelques mois. Entre attaques directe et indirecte, les jeux ne sont donc pas encore faits.
Tous les efforts ne seront pas monopolisés par les grands projets. Etant donné la complexité de la physique des plasmas chauds, des recherches plus fondamentales ou plus prospectives, impliquant l'ensemble des spécialistes des plasmas chauds, sont encouragées parallèlement. Un exemple est toute la physique relative à l'allumeur rapide, évoqué plus haut, dans lequel on utilise une impulsion laser ultra-intense. Dans tous les cas de figure, la réalisation d'un laser fournissant l'énergie requise représente une succession de défis. Le seul candidat aujourd'hui est le laser à verre dopé au néodyme. Une architecture classique fondée sur l'amplification en ligne, comportant une série d'amplificateurs de plus en plus grands, ne peut être retenue à cause de son faible rendement. De nouvelles solutions ont été proposées pour les projets NIF et LMJ, comme la technique du multipassage où le rayon laser repasse plusieurs fois dans chaque amplificateur. Principales difficultés : la tenue des composants optiques à des flux d'énergie aussi élevés ; le développement d'effets optiques non linéaires qui peuvent altérer la propagation de l'onde et réduire l'énergie délivrée ; le lissage optique nécessaire pour irradier uniformément la cible ; enfin la conversion de fréquence pour obtenir un rayonnement de longueur d'onde 0,35 µm, valeur pour laquelle l'absorption du plasma est optimale. Mais aucun de ces problèmes n'est aujourd'hui considéré comme rédhibitoire.
L'intérêt militaire de ces projets est clair : compte tenu du traité interdisant les essais nucléaires, il s'agit de procéder à des simulations destinées à entretenir un savoir-faire. La production d'énergie civile, elle, est un objectif à long ou très long terme. Il est encore trop tôt pour en avoir une image précise, bien que de nombreuses études y aient été consacrées. Disons simplement que l'idée générale pour un futur réacteur à fusion est de reproduire des architectures similaires à celles du LMJ et du NIF, du moins pour la chambre d'implosion. Les lasers seront peut-être remplacés par des faisceaux d'ions, de meilleur rendement énergétique.
L'énergie libérée par la fusion devra être récupérée sous forme de chaleur par les enceintes, chaleur qui servira à produire de l'électricité par des moyens classiques. A un taux d'une dizaine d'implosions par seconde, l'énergie thermonucléaire dégagée devrait en principe suffire pour produire 1 gigawatt d'électricité, ce qui correspond à la puissance d'une centrale nucléaire d'aujourd'hui.
Pour les laboratoires civils, la filière de la fusion par confinement inertiel offre un avantage : il est possible d'étudier la physique de l'interaction rayonnement-plasma et de l'implosion indépendamment de la technologie des sources de rayonnement. En effet, la physique de l'interaction rayonnement-matière et de l'implosion dépend peu de la source du rayonnement, que ce dernier soit celui des faisceaux laser proprement dits ou bien celui produit par conversion de l'énergie délivrée par des faisceaux laser ou par des faisceaux d'ions accélérés. Une bonne stratégie consisterait donc à mener un programme de recherches sur les sources de rayonnement pour les futurs réacteurs, et à poursuivre simultanément les études de physique à l'aide des lasers. Ces instruments sont en effet les mieux adaptés à l'heure actuelle pour délivrer des énergies de l'ordre du mégajoule en une dizaine de nanosecondes. Pour un réacteur, les sources de rayonnement devraient avoir des caractéristiques semblables, mais avec un taux de répétition de l'ordre de 10 hertz. Les faisceaux d'ions lourds peuvent constituer une telle source potentielle, s'ils démontrent toutefois qu'ils peuvent être focalisés dans de petits volumes. Par ailleurs, les lasers pompés par diodes, caractérisés eux aussi par des rendements et des taux de conversion élevés, progressent constamment. Il est donc encore difficile de dire lequel des deux types de faisceaux sera le mieux placé pour les futurs réacteurs.
Par Denis Pesme
DOCUMENT larecherche.fr LIEN |
|
|
|
|
|
|
NEUTRINOS - MÉTAMORPHOSE |
|
|
|
|
|
Paris, 15 juin 2011
Des neutrinos en flagrant délit de métamorphose
Pour la première fois, les physiciens de l'expérience T2K au Japon, parmi lesquels ceux du CNRS (1) et du CEA/Irfu, annoncent avoir très probablement détecté une transformation de neutrinos muons en neutrinos électrons. L'observation - probable à plus de 99% - de ce phénomène constituerait une découverte majeure pour la compréhension de la physique des particules élémentaires et ouvrirait la voie à de nouvelles études sur l'asymétrie entre la matière et l'antimatière.
Les neutrinos existent sous trois formes ou « saveurs » : les neutrinos électrons, muons et tau. L'expérience T2K, située au Japon, étudie le mécanisme d'oscillation de ces particules, c'est-à-dire la faculté qu'elles ont à se transformer en une autre saveur dans leurs déplacements. Son principe est d'observer les oscillations des neutrinos sur une distance de 295 km, entre les sites de Tokai, où les neutrinos muons sont produits grâce à l'accélérateur de particules de JPARC (2) sur la côte est du Japon, et le détecteur Super-Kamiokande, une cuve d'eau cylindrique de 40 mètres de diamètre et 40 mètres de hauteur située à 1 000 mètres sous terre, près de la côte ouest (d'où son nom T2K, qui signifie « de Tokai à Kamiokande »).
Les analyses des données collectées entre la mise en service de l'expérience en janvier 2010 et mars 2011 (l'expérience a été arrêtée avec le séisme du 11 mars) montrent que durant cette période, le détecteur Super-Kamiokande a enregistré un total de 88 neutrinos, parmi lesquels 6 neutrinos électrons qui proviendraient de la métamorphose de neutrinos muons en neutrinos électrons. Les 82 neutrinos restants seraient essentiellement des neutrinos muons n'ayant subi aucune transformation entre leur point de production et leur détection. Des mesures utilisant un GPS certifient que les neutrinos identifiés par le détecteur Super-Kamiokande ont bel et bien été produits sur la côte est du Japon. Les physiciens estiment ainsi que les résultats obtenus correspondent à une probabilité de 99,3% de découverte de l'apparition des neutrinos électrons.
L'expérience T2K redémarrera dès la fin de cette année. Bien que situés dans une zone sismique proche de l'épicentre du tremblement de terre du 11 mars 2011, le laboratoire JPARC et les détecteurs proches de T2K n'ont subi heureusement que des dégâts minimes. Le prochain objectif de T2K est de confirmer avec davantage de données l'apparition des neutrinos électrons et, mieux encore, de mesurer le dernier « angle de mélange », un paramètre du modèle standard qui ouvrirait la voie aux études de l'asymétrie entre la matière et l'antimatière dans notre Univers.
La collaboration T2K regroupe plus de 500 physiciens de 62 institutions réparties dans 12 pays (Japon, pays européens et États-Unis). Les équipes du CNRS et du CEA/Irfu ont mis au point certains instruments de mesure utilisés dans les détecteurs proches (situés à 280 mètres du point de production des neutrinos et nécessaires à contrôler l'expérience) et participé à la calibration du détecteur Super-Kamiokande. Elles ont également contribué à l'analyse des données.
DOCUMENT cnrs LIEN |
|
|
|
|
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 ] Précédente - Suivante |
|
|
|
|
|
|