|
|
|
|
|
|
BIG BANG |
|
|
|
|
|
3 - De l'autre côté du Big Bang
dossier - par Francesca Vidotto, Aurélien Barrau dans mensuel n°458 daté décembre 2011 à la page 46 (1334 mots) | Gratuit
Appliquée à l'Univers dans son ensemble, la gravité quantique à boucles transforme notre représentation du cosmos et de son histoire. Cette nouvelle cosmologie ouvre la porte sur l'autre côté du Big Bang.
Résoudre le problème le plus crucial du modèle standard de la cosmologie, à savoir le Big Bang lui-même ! C'est sur cette promesse que la cosmologie quantique à boucles a pris son envol, il y a une dizaine d'années. Ses fondateurs, Martin Bojowald d'abord, puis Abhay Ashtekar, tous deux aujourd'hui à l'université PennState, aux États-Unis, s'intéressaient alors aux conséquences d'une théorie quantique de la gravitation, la gravité quantique à boucles, quand on l'appliquait à l'Univers dans son ensemble. Ils venaient de démontrer que cette théorie, qui révolutionnait notre conception de l'espace-temps, offrait également une tout autre vision de l'histoire de l'Univers [1] .
Bien souvent aujourd'hui, « matière noire » et « énergie noire » - qui constituent l'essentiel du contenu de l'Univers mais dont la nature est inconnue - sont évoquées, à juste titre, comme les deux grandes énigmes de l'astrophysique contemporaine. Ces deux mystères ont eu tendance à occulter le troisième, peut-être le plus fondamental et le plus difficile à résoudre : celui de la singularité primordiale, plus connue sous le nom de Big Bang. Cette singularité où, par définition, les grandeurs physiques tendent vers l'infini est une prédiction inévitable de la relativité générale. Mais quel crédit lui apporter dans la mesure où la singularité montre justement que la relativité ne s'applique plus ! Elle témoigne de l'effondrement de la théorie qui cesse d'être prédictive et doit être revue ou raffinée. Aussi délicat à appréhender au niveau métaphysique qu'au niveau mathématique, le Big Bang, en tant qu'instant originel, constitue la pierre d'achoppement la plus aiguë de notre description de l'histoire cosmique. Notre grand récit des origines se fonde en effet sur l'évocation d'une circonstance incohérente et finalement incompatible avec la théorie qui la génère.
Aux très hautes densités
Lorsque, en 1999, Martin Bojowald commence à analyser les implications cosmologiques de la gravitation quantique à boucles, cette situation change drastiquement puisqu'il montre que cette singularité primordiale du Big Bang disparaît. Pour comprendre comment la cosmologie quantique à boucles se débarrasse ainsi du Big Bang, il faut revenir au modèle standard et remonter le fil du temps de quelque 13,7 milliards d'années jusqu'aux premiers instants de l'Univers dans la vision usuelle. Celui-ci est alors extrêmement dense. Quand cette densité atteint la valeur dite de Planck, 1090 kilogrammes par centimètre cube, la gravitation devient tellement attractive que l'Univers s'effondre en un point : le Big Bang est inexorable. Mais cela, dans le cadre de la relativité générale...
Or, Martin Bojowald montre que la structure granulaire de l'espace-temps à petite échelle, qu'implique la gravitation quantique à boucles, modifie le comportement cosmologique à ces densités très élevées : les effets quantiques engendrent une telle répulsion qu'ils contrebalancent l'attraction classique et permettent d'éviter le Big Bang. Ils jouent ici un rôle comparable à celui qu'ils tiennent dans l'atome d'hydrogène où ils empêchent l'électron de s'effondrer sur le proton. Ces effets diminuent ensuite très rapidement, tant et si bien que la théorie d'Einstein décrit parfaitement l'Univers actuel.
Or, si le Big Bang s'évanouit, cela signifie qu'il n'est donc plus l'instant primitif et originel mais qu'il devient un simple goulet d'étranglement. Ce qu'on nommait Big Bang ne désignerait donc plus qu'un instant de densité maximale - gigantesque mais finie - en amont et en aval duquel l'espace serait classique et décrit par la relativité. L'Univers serait ainsi éternel, ayant subi une phase de contraction avant l'actuelle expansion. Ce rebond peut avoir été unique ou s'être produit plusieurs fois, peut-être une infinité de fois, suivant un scénario d'Univers cyclique qui n'est pas sans faire écho à certaines cosmogonies anciennes. La gravité quantique à boucles, appliquée à l'Univers, prédit donc un « Big Bounce » - grand rebond - en lieu et place du Big Bang. Cela transfigure notre écriture de l'histoire cosmologique mais résout également le problème mathématique central du modèle usuel : la théorie est devenue régulière et prédictive, elle évite la singularité initiale.
En 2010, le groupe d'Ashtekar et le nôtre ont montré que la cosmologie quantique à boucles allait plus loin encore : elle prédit de façon assez générique une phase inflationnaire [2] . L'inflation est une augmentation considérable de la taille de l'Univers dans ses premiers instants. C'est elle qui permet d'expliquer l'origine des fluctuations qui ont généré les structures cosmiques. Étant presque nécessaire pour rendre compte de l'Univers tel qu'il est observé aujourd'hui, elle est devenue un paradigme dont il est difficile de s'extraire. Mais dans le modèle standard du Big Bang, elle doit être introduite « à la main », de manière assez artificielle.
Phase d'inflation
Au contraire, en cosmologie quantique à boucles, l'inflation est presque automatique, elle est une prédiction du modèle ! Pour qu'il y ait inflation, il faut qu'un « champ » physique se trouve porté dans des conditions particulières et y demeure pendant un temps important. Or, dans ce modèle, la phase de contraction qui précède le Big Bounce place naturellement le champ dans le domaine requis. Puis la phase d'expansion suivant le rebond va « figer » le champ dans cette position conduisant par là même à l'inflation !
Ainsi, la quantification des équations d'Einstein suivant les méthodes des boucles conduit presque inexorablement à l'un des phénomènes cosmologiques les plus importants et les plus difficiles à expliquer hors de ce cadre. De plus, le groupe d'Ashtekar vient d'établir que la probabilité que cette phase inflationnaire dure assez longtemps pour rendre compte des observations est extrêmement élevée [3] .
Empreintes observables ?
La cosmologie quantique à boucles offre donc une image cohérente et convaincante. Mais elle demeure évidemment spéculative. Peut-elle être confortée par des observations ? Cette question est au centre des recherches actuelles. L'échelle de Planck étant très éloignée des échelles directement accessibles, l'énergie de Planck est 1015 fois plus grande que celle du LHC, associée donc à des distances 1015 fois plus petites, il est extrêmement difficile de sonder les théories de gravitation ou cosmologie quantiques.
Heureusement, en partie grâce à l'inflation qui « étire » considérablement les longueurs et permet donc de porter à l'échelle de l'Univers des phénomènes qui se déroulaient à des échelles infimes, il n'est pas exclu que le scénario soit testable. La voie la plus prometteuse consiste à chercher de fines empreintes dans le fond diffus cosmologique, ce rayonnement fossile constituant la première lumière émise par l'Univers. Des empreintes que le satellite européen Planck, lancé il y a deux ans et demi, pourrait peut-être détecter lire « Des traces des boucles dans le ciel de Planck ? », ci-dessous. Il n'est pas évident que ces traces soient aujourd'hui encore décelables mais, au moins pour certaines valeurs des paramètres physiques, c'est une éventualité tout à fait envisageable. Les calculs montrent que, si l'inflation n'a pas duré beaucoup plus longtemps que la valeur minimale requise, des effets spécifiques devraient pouvoir être observés. Il s'agirait non seulement de conforter - ou d'invalider - le modèle mais aussi de le comparer aux prédictions de la théorie concurrente la plus importante : la théorie des cordes. La cosmologie des cordes peut aussi ouvrir, pour de tout autres raisons, la porte du pré-Big Bang. Mais elle conduit à des prédictions souvent discernables de celles de la gravité à boucles concernant le fond diffus cosmologique. Il existe donc ici une éventuelle possibilité de trancher entre les deux modèles de gravitation quantique.
La cosmologie quantique à boucles, si elle se révélait correcte, révolutionnerait notre modèle cosmologique. Elle présente un Univers éternel ayant « rebondi », une ou plusieurs fois, sans réel Big Bang. Elle prédit, de façon presque certaine, l'inflation - jusqu'alors introduite assez artificiellement - et pourrait conduire à des empreintes observables. Mais le modèle est loin d'être parfait. D'intenses efforts sont actuellement consentis pour l'améliorer à l'aide du formalisme rigoureux des « mousses de spin » lire « La gravité quantique à boucles en 5 questions », p. 38. Les débuts sont plus que prometteurs mais nous n'en sommes encore qu'aux débuts.
Par Francesca Vidotto, Aurélien Barrau
DOCUMENT larecherche.fr LIEN |
|
|
|
|
|
|
LES TROUS NOIRS 2 |
|
|
|
|
|
L'information s'en sort indemne
dossier - par Paul Davies dans mensuel n°427 daté février 2009 à la page 31 (2852 mots) | Gratuit
Un trou noir qui s'évapore efface-t-il à jamais toute l'information qu'il contient ou cette information est-elle conservée ? Ce débat a divisé les physiciens durant de nombreuses années. On pense aujourd'hui que l'information ne disparaît pas, mais on ne sait toujours pas comment la retrouver.
Il y a quelques mois, le physicien et cosmologiste Leonard Susskind, de l'université Stanford, l'un des pères de la théorie des cordes, a publié aux États-Unis un livre intitulé The Black Hole War La guerre du trou noir [1] . Sous-titrée « Ma bataille avec Stephen Hawking pour rendre le monde sûr pour la mécanique quantique »,cette publication est pour lui la proclamation de sa victoire dans la polémique qui l'a opposé durant de longues années, lui et quelques autres physiciens, au mathématicien et physicien Stephen Hawking, de l'université de Cambridge, en Angleterre. Autorité en théorie de la gravitation, et spécialiste des tout débuts de l'Univers et des trous noirs, Stephen Hawking avait publié dans les années 1970 des résultats dont l'une des conséquences était que notre Univers perdait purement et simplement des informations. C'était en contradiction flagrante avec les principes fondamentaux de la mécanique quantique, défendue par Leonard Susskind et ses collègues. Cet affrontement scientifique mêle de façon extraordinaire les mathématiques de pointe, le raisonnement abstrait, les arcanes de la physique et la conviction instinctive des physiciens.
Stephen Hawking a fini par avouer lui-même sa défaite dans cette « guerre du trou noir ». Toutefois, contrairement à ce qu'affirme Leonard Susskind, le fin mot de l'histoire n'est peut-être pas tout à fait écrit.
La pomme de discorde a trait à l'un des aspects les plus fondamentaux de la physique théorique : la nature de la causalité. Notre compréhension du rapport de cause à effet est façonnée en grande partie par la théorie de la relativité générale d'Einstein. Formulée en 1915 sous la forme d'une série d'équations, la relativité générale - comme on la désigne le plus souvent - est une théorie du temps, de l'espace et de la gravitation. Elle considère la gravitation non comme une force, au contraire de la théorie de Newton, mais comme une courbure, une distorsion de la géométrie spatio-temporelle. L'une des premières solutions des équations d'Einstein, qui a eu une portée considérable, décrit une boule sphérique de matière qui peut servir de modèle simple d'étoile. On savait depuis les années 1930, tout en étant loin de comprendre pourquoi, que si cette boule était suffisamment compacte, la causalité était soumise dans son proche voisinage à quelque chose d'extrêmement bizarre. Si, par exemple, une masse semblable à celle du Soleil était compressée en une boule de quelques kilomètres de diamètre, sa gravité serait telle que la lumière ne pourrait plus quitter sa surface. Ainsi, vu de loin, un tel objet apparaîtrait noir. La boule, incapable de résister à sa propre gravité, imploserait totalement en une fraction de seconde. Cette boule effondrée sur elle-même est ce qu'on appelle aujourd'hui un « trou noir » . L'une des pierres angulaires de la théorie de la relativité étant le principe selon lequel aucun objet ou influence physique ne peut se déplacer plus vite que la lumière, si la lumière ne peut s'échapper d'un trou noir, alors rien d'autre ne peut s'en échapper ! Il ne peut notamment y avoir aucun transfert d'information de la région interne du trou noir vers l'extérieur. On qualifie donc pour cette raison la surface d'un trou noir d'« horizon des événements ». Autrement dit, les événements survenant à l'intérieur de cet horizon ne peuvent exercer aucune influence sur les événements extérieurs.
Des effets observables
Dans les années 1960, il devint évident que les trous noirs étaient plus qu'une simple curiosité théorique. Des observations astronomiques révélèrent plusieurs façons dont les trous noirs pouvaient effectivement se former, la plus probable étant l'implosion d'une étoile massive ayant épuisé son combustible [fig. 1] . Les astrophysiciens entreprirent alors de vérifier si les étranges propriétés des trous noirs pouvaient produire des effets observables. Au cours des décennies suivantes, satellites et télescopes terrestres accumulèrent une masse d'indices tendant à indiquer que les trous noirs étaient une réalité qu'il convenait de prendre au sérieux.
Stephen Hawking fut l'un des pionniers de la physique des trous noirs. En collaboration avec le physicien et mathématicien anglais Roger Penrose, il démontra plusieurs théorèmes généraux essentiels sur la façon dont se forme l'horizon des événements et sur ce qu'il advient de l'objet qui s'est effondré pour former un trou noir.
Mais c'est en 1975 que Hawking annonça un nouveau résultat absolument surprenant [2] . La quasi-totalité des recherches menées jusqu'alors sur les trous noirs ignorait la mécanique quantique qui, avec la relativité générale, constitue l'une des plus grandes avancées scientifiques du XXe siècle. L'une des hypothèses fondamentales de la mécanique quantique est qu'en présence d'une source d'énergie adéquate des particules de matière baptisées « quanta » peuvent apparaître, y compris dans un espace vide. La « matière », ici, désigne aussi bien les particules de lumière - les photons - que leurs équivalents gravitationnels, que l'on appelle gravitons.
À l'aide d'un élégant argument mathématique, Stephen Hawking fut en mesure de démontrer qu'en implosant une étoile crée dans le vide environnant un courant de particules qui rayonne en un flux régulier longtemps après la disparition de l'étoile. Or, comme ce « rayonnement de Hawking » emporte de l'énergie, pour compenser, quelque chose d'autre doit perdre de l'énergie. Ce quelque chose ne peut être que la masse du trou noir avec son équation E = mc2, Einstein a démontré depuis longtemps que masse et énergie sont équivalentes. Si le trou noir perd de sa masse, sa taille se réduit de manière constante suivant un long processus d'« évaporation » qui se poursuit jusqu'à ce que le trou noir lui-même ait disparu lire « L'évaporation d'un trou noir », p. 35. Mais surtout Stephen Hawking calcula que le rayonnement émis possède une caractéristique particulière - un spectre thermique -, ce qui signifie qu'il constitue une forme de chaleur rayonnante dotée d'une température spécifique qui dépend de la masse du trou noir. La théorie de Stephen Hawking établissait donc un lien étroit et mystérieux entre les trous noirs, la physique quantique et les lois de la thermodynamique, un lien qui, trois décennies plus tard, suscite encore la perplexité des physiciens.
Cette théorie montrait que les trous noirs ne sont pas vraiment noirs mais qu'ils irradient de la chaleur et s'évaporent peu à peu. L'annonce de ce résultat fit sensation et propulsa Stephen Hawking au rang de célébrité internationale. Mais à peine l'encre de son article séchée, le physicien réalisa que ses conclusions posaient une redoutable énigme. Si une étoile disparaît dans un trou noir, et que le trou noir disparaît à son tour, qu'advient-il de ce qui à l'origine composait l'étoile ? La réponse qui vient aussitôt à l'esprit - à savoir que tous ces composants ressortent du trou noir avec le rayonnement de Hawking - pose un problème. La masse d'une étoile est principalement composée de protons et de neutrons. Or la température d'un trou noir de masse stellaire est si basse inférieure à 1 microkelvin que le rayonnement émis l'est principalement sous forme de photons de basse énergie. Ce n'est que lorsque le trou se sera contracté à des dimensions subatomiques qu'il deviendra suffisamment chaud pour commencer à émettre des neutrons et des protons. Mais à ce moment-là, la quasi-totalité de la masse aura déjà rayonné, et la masse restante ne sera tout simplement plus suffisante pour que le trou noir « régurgite » les ingrédients de l'étoile originelle.
Matière anéantie
Un tel anéantissement de la matière absorbée par le trou noir pose un problème encore plus épineux, puisque le processus d'évaporation paraît détruire totalement l'information - non seulement l'information concernant le type de particule, mais aussi celle concernant le lieu où elle se trouve ou se trouvait, et la façon dont elle se déplace. En d'autres termes, les caractéristiques précises de la matière engloutie sont irrémédiablement perdues. Hawking prenait donc le parti d'affirmer que cette information était détruite, ce qui revenait tout simplement à dire que l'Univers ne conservait pas cette information.
Pour comprendre cette position, il est important de savoir que, jusqu'alors, tous les travaux de Stephen Hawking s'étaient déroulés dans le cadre de la relativité générale. Une bonne partie de ses recherches avec Roger Penrose concernaient l'étude des singularités spatio-temporelles. Celles-ci désignent des frontières ou des limites à l'espace et au temps qui apparaissent par exemple à la suite d'un effondrement gravitationnel. Imaginons une boule de matière parfaitement sphérique se contractant jusqu'à un rayon zéro. La densité de la matière devient infinie ; il en va de même pour le champ gravitationnel, et par conséquent pour la courbure spatio-temporelle. Le point de courbure infinie - la singularité - marque la fin de l'espace et du temps, et la limite au-delà de laquelle la théorie devient inopérante. En relativité générale, l'information est nécessairement détruite en rencontrant la singularité. Selon les travaux menés par Stephen Hawking et Roger Penrose, tous les trous noirs y compris ceux dont la matière implosée n'est pas une boule parfaitement sphérique recèlent une singularité. Par conséquent il était possible de recourir à un mécanisme naturel pour résoudre l'énigme de l'information du trou noir : toute information pénétrant dans un trou noir est absorbée par la singularité et définitivement effacée. Lorsque le trou noir s'évapore, la singularité elle-même disparaît de l'Univers, emportant l'information avec elle.
Physiciens dissidents
De nombreux physiciens, pourtant, furent loin d'être satisfaits de cette théorie. Ceux en particulier qui travaillaient plus sur la physique des particules que sur la relativité générale considéraient les lois de la mécanique quantique comme absolues ; or la mécanique quantique établit de manière catégorique que l'information ne peut être détruite. Elle peut être brouillée jusqu'à devenir indéchiffrable, et donc inutilisable, mais un super-être divin doté d'une vision totale de l'Univers devrait en principe être capable de rendre compte du moindre fragment d'information qu'il recèle.
Ces physiciens dissidents, notamment Leonard Susskind et Gerard't Hooft, de l'université d'Utrecht, affirmaient que si la théorie de la mécanique quantique était correctement appliquée au champ gravitationnel, on devrait pouvoir déterminer la façon dont est préservée l'information concernant l'étoile. Malheureusement, il n'existe pas à ce jour de théorie universellement admise qui combinerait de façon rigoureuse mécanique quantique et gravitation. La théorie qui suscite le plus d'espoir à cet égard est la théorie des cordes, selon laquelle toutes les particules de matière correspondent fondamentalement aux vibrations de cordelettes infinitésimales. Mais la théorie des cordes reste invérifiable. S'attaquer directement au problème de l'information des trous noirs reste pour l'instant irréaliste. Et les motifs de désaccord sont donc très nombreux.
En 1997, John Preskill, un physicien du California Institute of Technology, fit avec Stephen Hawking le pari selon lequel on finirait par démontrer que l'information était conservée au terme du processus d'évaporation. Peu à peu, emmenés par Leonard Susskind et Gerard't Hooft, les scientifiques se rallièrent en nombre croissant à la position de John Preskill. C'était pour l'essentiel une question d'intuition, car rares étaient les résultats rigoureux venant étayer l'hypothèse de la conservation de l'information.
Un calcul, pourtant, finit par faire pencher la balance de façon décisive. Curtis Callan et Juan Maldacena de l'université de Princeton réussirent à utiliser la théorie des cordes pour calculer le rythme d'évaporation d'une catégorie spéciale de trous noirs, celle où le trou possède une charge électrique si forte que sa force électrique et sa force gravitationnelle sont quasi équivalentes [3] . Leur méthode, qui utilisait la mécanique quantique pure, montrait que dans ce cas particulier le trou noir s'évaporait bien, comme le prévoyait Stephen Hawking. Mais elle montrait aussi qu'en dépit de cette évaporation on pouvait tout de même retrouver l'information.
Pour Leonard Susskind, ce calcul remarquable a porté le coup de grâce à l'hypothèse de Stephen Hawking, et il est vrai qu'à l'orée du millénaire celui-ci commença à apparaître de plus en plus isolé. En 2004, il finit par déclarer qu'il avait changé d'avis sur le paradoxe de l'information et honora son pari avec Preskill en lui offrant... une encyclopédie du base-ball : Total Baseball: The Ultimate Baseball Encyclopedia.
La question est-elle réglée pour autant ? À mon avis, non. Depuis le début, il était clair que la théorie de Stephen Hawking décrivant l'évaporation d'un trou noir ne fonctionnait plus dès que celui-ci, en se contractant, passait au-dessous d'une certaine taille. On estime généralement que cette taille limite est inférieure d'environ vingt ordres de grandeur à celle d'un noyau atomique ce qu'on appelle la longueur de Planck, soit 10-33 centimètre. À plus grande échelle, il est permis de traiter le champ gravitationnel résiduel d'un trou noir de façon classique, c'est-à-dire en traitant ses aspects quantiques comme des perturbations faibles. Mais à la longueur de Planck, les effets quantiques seraient considérables. La singularité prédite par la relativité générale s'en trouverait profondément affectée - même si personne ne sait en quoi. La théorie des cordes n'est pas encore en mesure de résoudre ce problème, pas plus que d'autres théories concurrentes concernant la gravité quantique. Une des possibilités serait toutefois que la singularité se verrait remplacée par un ou plusieurs tunnels ou « trous de vers » reliant notre espace-temps à d'autres espaces-temps. Si cette idée était avérée, alors l'information pourrait franchir le tunnel - et serait donc perdue pour notre Univers - pour réapparaître dans un autre univers. Globalement, l'information serait donc conservée, même si elle était apparemment perdue pour tel univers particulier. Il semble toutefois que nous soyons loin de pouvoir résoudre le problème par une démonstration de portée générale. Le calcul de Curtis Callan et Juan Maldacena concernant un cas particulier est intéressant, mais en physique théorique les solutions particulières peuvent générer des réponses particulières non caractéristiques. Personne ne sait comment appliquer la théorie des cordes à un trou noir générique.
Le problème pourrait-il être réglé en faisant appel à un principe fondamental qui passerait outre les difficultés techniques spécifiques ? En 1970, Jacob Bekenstein, qui travaille aujourd'hui à l'université de Tel-Aviv, utilisa la mécanique quantique pour calculer la quantité maximale d'information que pourrait absorber un trou noir. Dans une boule de matière ordinaire, la quantité totale de l'information est tout simplement proportionnelle à la quantité de matière, et donc au volume de la boule. Or Jacob Bekenstein découvrit que dans le cas d'un trou noir, ce rapport était très différent : le contenu en information est proportionnel à la surface du trou noir. Ce résultat inattendu et énigmatique, que confirmera Stephen Hawking dans son célèbre article de 1975 sur le rayonnement des trous noirs, rappelle un peu l'exemple de l'hologramme, dans lequel une image à trois dimensions est encodée sur une surface bidimensionnelle. Leonard Susskind suggère de prendre le rapport surface/information comme point de départ et d'en faire un principe cosmique qu'il baptise « principe holographique ». Dans sa forme générale, le principe holographique établit que l'information présente dans une région donnée de l'espace est entièrement contenue dans l'information présente sur une surface bidimensionnelle entourant cette région. Si le principe holographique est correct, le fait qu'un trou noir se forme puis disparaisse ne modifie en rien le contenu informationnel à l'intérieur de la région délimitée par la surface bidimensionnelle. La quantité totale d'information reste inchangée. Malheureusement, les preuves confirmant la validité du principe holographique restent extrêmement rares.
Connaissances inaccessibles
Les physiciens reconnaissent que l'incertitude quantique, découverte par Werner Heisenberg, constitue dans la nature une source fondamentale de connaissance inaccessible. Si la conviction originelle de Hawking venait à s'avérer - et il est manifestement trop tôt pour l'invalider définitivement -, cela signifierait que l'Univers recèle une seconde source de connaissance inaccessible : l'effacement de l'information par les trous noirs. Einstein détestait la mécanique quantique en raison de son élément d'incertitude. Il a écrit une fois que Dieu ne jouait pas aux dés avec l'Univers. Après sa découverte du rayonnement des trous noirs, Stephen Hawking a paraphrasé Einstein en déclarant : « Non seulement Dieu joue aux dés, mais il les lance parfois à un endroit où on ne peut les voir. » En réalité, Stephen Hawking a sous-estimé les immenses conséquences de l'effacement de l'information. Les dés sont peut-être un jeu de hasard, mais au moins la probabilité se conforme à des règles mathématiques précises ; un Univers quantique recèle peut-être une part d'incertitude, mais il n'est pas dépourvu de lois. L'effacement de l'information, en revanche, constituerait une rupture beaucoup plus radicale, car un tel phénomène n'obéirait à aucune loi connue. Stephen Hawking aurait dû dire qu'en général Dieu joue aux dés sans tricher, mais qu'il lui arrive parfois de jeter les dés à la poubelle. S'il en est ainsi, il n'en résulte rien de moins qu'une anarchie cosmique.
EN DEUX MOTS En 1975, Stephen Hawking, mathématicien et physicien à l'université de Cambridge, découvre que les trous noirs ne sont pas si noirs... En tenant compte d'effets quantiques, il montre qu'ils émettent un certain rayonnement thermique, certes faible, mais qui les conduit à s'évaporer au fil du temps. Une partie de l'information qu'ils contiennent pourrait-elle disparaître complètement de l'Univers ? La question n'a été tranchée qu'en 2004. Mais à la croisée des deux grandes théories de la physique, relativité générale et mécanique quantique, le problème n'est toujours pas complètement résolu.
Par Paul Davies
DOCUMENT larecherche.fr LIEN |
|
|
|
|
|
|
LA FORMATION DES ÉTOILES |
|
|
|
|
|
La formation des étoiles
back to basic - dans mensuel n°319 daté avril 1999 à la page 84 (2996 mots) | Gratuit
Les étoiles ne brillent qu'un temps. Certaines s'éteignent à jamais et d'autres les remplacent. Dans le froid secret de sombres cocons de poussière, quatre ou cinq étoiles nouvelles se forment ainsi chaque année dans la Voie lactée. Mais quel long chemin ont-elles dû parcourir avant que ne jaillisse la lumière !
A l'instar de notre propre Soleil, les étoiles ne sont de prime abord que de grosses boules de gaz très chaud. Pendant le plus clair de leur existence, l'énergie qu'elles rayonnent provient des réactions de fusion des noyaux d'hydrogène qui se produisent dans leur coeur. La température d'une étoile atteint ainsi couramment plusieurs milliers de degrés à sa surface et dépasse la dizaine de millions de degrés dans ses régions centrales. Ainsi chauffé le gaz qui la compose se présente à l'état de plasma. Autrement dit, il est ionisé : les électrons qui, dans un gaz plus froid, sont normalement accrochés autour des noyaux des atomes disposent ici de suffisamment d'énergie pour briser leurs chaînes. Electrons et noyaux vivent leur propre vie. Une vie d'ailleurs très agitée puisque haute température est synonyme pour tout ce petit monde de vitesses élevées, et aussi de collisions multiples.
A l'échelle macroscopique, ce sauve-qui-peut général se traduira par une pression excessivement élevée. Dans les bombes thermonucléaires, dont le principe de production d'énergie est le même, ces circonstances extrêmes de température et de pression sont justement celles qui expliquent l'explosion. Ce n'est pas le cas avec les étoiles. La raison en est l'intervention d'une force qui contre avec une parfaite et rassurante précision les effets expansifs de la pression. Il s'agit de la gravitation. Le gaz que renferme une étoile représente une certaine masse et donc pèse sur lui-même. Il agit dans le sens de l'effondrement de la masse gazeuse et parvient ainsi à s'opposer aux effets de la pression. De ce point de vue, une étoile devra donc être considérée non seulement comme une grosse boule de gaz très chaud, mais également - et c'est tout aussi important dans sa définition - comme un corps en équilibre stable. Lorsque les astronomes évoquent la formation des étoiles, c'est l'ensemble des processus menant à l'apparition d'un tel équilibre qu'ils envisagent.
Premier constat, le matériau utilisé dans la fabrication d'une étoile est le plus courant de l'Univers, puisqu'il s'agit pour l'essentiel de l'hydrogène qui rassemble 90 % des atomes produits à l'issue du big bang. Ce gaz n'est pourtant pas disponible partout. Ainsi connaît-on des galaxies qui en sont pratiquement dépourvues. Ce sont de très grosses galaxies de forme elliptique dans lesquelles on ne détecte que de très vieilles étoiles, relativement froides rouges. Ici, la matière première a été épuisée depuis longtemps. Explication possible : ces galaxies elliptiques géantes seraient nées dans un passé reculé de la fusion de galaxies plus petites ; lors de ces collisions, une partie du gaz recelé par chacune aurait été chassée, et l'autre partie aurait été transformée massivement en étoiles dans un délai très court.
Un autre type de galaxies est cependant plus fréquent : il s'agit des galaxies spirales. Ce sont, comme notre Galaxie, la Voie lactée, des systèmes contenant souvent quelques centaines de milliards d'étoiles essentiellement dispersées sur un disque très plat. La répartition particulière des très lumineuses étoiles bleues dessine sur ce disque les bras spiraux caractéristiques. Ici, en revanche, le gaz est abondant. Dans notre Galaxie, sa quantité totale équivaut à peu près à 15 % de la masse des étoiles. On le rencontre à proximité du plan équatorial du disque galactique, sous la forme d'une multitude de nuages très dilués, mais gigantesques. Chacun rassemble suffisamment de matière pour former des dizaines de milliers d'étoiles.
Tous ces nuages possèdent pratiquement la même composition : disons, 76 % d'hydrogène, 21 % d'hélium, le reste étant constitué de l'ensemble de tous les autres éléments chimiques connus. C'est justement la proportion que l'on rencontre aussi dans les jeunes étoiles et donc un bel argument en apparence pour voir dans le gaz de ces nuages la matière première dont sont faites les étoiles. En réalité, seuls certains de ces nuages sont susceptibles d'enclencher un processus conduisant à la formation stellaire : ce sont les plus froids et les plus denses d'entre eux ou les moins dilués, si l'on préfère !. On y rencontre de nombreuses molécules et même des poussières. Leur température ne dépasse guère les quelques dizaines de degrés au-dessus du zéro absolu et ils rassemblent quelque chose comme un milliard de particules par mètre cube. Pour comparaison, l'air que nous respirons contient autour de 25 milliards de milliards de milliards de molécules par mètre cube... Force est d'abord de constater que les nuages interstellaires montrent peu d'empressement à donner naissance à des étoiles. Après tout, si notre Galaxie, vieille de dix milliards d'années, contient encore des nuages de gaz, c'est bien parce que ceux-ci montrent quelque réticence à changer quoi que ce soit à leur condition. Bon an mal an, la Voie lactée ne parvient en fait à transformer en étoiles qu'une fraction de gaz équivalente à quatre ou cinq fois la masse du Soleil. Pourquoi si peu ? D'une part, ces nuages pèsent sur eux-mêmes de leur propre poids et connaissent une tendance à l'effondrement. Mais, aussi froids et dilués soient-ils, les particules qui les composent sont animées d'une petite agitation à l'origine d'une pression suffisante pour contrer les effets centripètes de la gravitation. Bref, tout comme les étoiles, les nuages se trouvent apparemment dans une situation d'équilibre. A ceci près, pourtant, que les étoiles possèdent leur propre source d'énergie et disposent aussi de mécanismes régulateurs en mesure de maintenir l'équilibre une fois celui-ci atteint. Or, rien de tel n'existe dans le cas des nuages. Ainsi, si rien ne vient les perturber, ils n'ont certes aucune raison d'évoluer en quoi que ce soit. Mais il suffit qu'on les secoue un peu - ce qui se produit de temps à autre - pour que leur destin bascule...
C'est d'ailleurs bien ce que l'on constate quand on envisage des galaxies en collision : leurs nuages de gaz se cognent et donc se compriment suffisamment pour enclencher le processus qui mènera à leur destruction, et à un fulgurant jaillissement de nouvelles étoiles. Dans le cas des galaxies spirales, la situation est cependant un peu plus compliquée. Un premier déclencheur semble ici être l'existence de perturbations gravitationnelles. Une théorie, dite des ondes de densité, prévoit en particulier que le champ de gravitation d'une galaxie comme la Voie lactée doit être parcouru par une telle perturbation en forme de spirale. Elle aurait pour effet de ralentir, puis d'accélérer de nouveau, les nuages qui la traversent au cours de leur périple orbital autour de la Galaxie. Ainsi peut-on comprendre pourquoi on observe effectivement le long de ces zones de ralentissement que sont les bras une accumulation de gaz, accompagnée d'une forte activité de formation stellaire : il y a tout simplement embouteillage et, dès lors, prétexte à déstabilisation des nuages ! Les régions les plus denses des nuages froids se révèlent alors les plus vulnérables. Un excès de gaz concentré à l'intérieur d'un certain volume va en effet très vite se traduire par un excès de poids. La pression n'est plus suffisante alors pour contrer l'effondrement. La chute est inéluctable. Il se forme çà et là à l'intérieur des gros nuages de petits noyaux où le gaz devient de plus en plus concentré. Les poussières des nuages entraînées, elles aussi, dans l'aventure finissent par être assez serrées pour rendre opaques les cocons qui commencent à se former et desquels jaillira finalement la lumière d'étoiles nouvelles.
Pourquoi les étoiles tournent-elles sur elles-mêmes ?
La question pourrait aussi être : pourquoi les étoiles tournent-elles si lentement ? Il faut, par exemple, 26 jours au Soleil pour accomplir un tour sur lui-même. Et, curieusement, la réponse ajoute encore un motif pour les étoiles de naître par bouffées... Explication : les fragments de nuages interstellaires appelés à se transformer en étoiles ont toutes les chances d'être animés d'un mouvement de rotation sur eux-mêmes. Un gaz, ce n'est jamais immobile et figé, par définition. Or, lors de la contraction, cette rotation va nécessairement s'accélérer du fait d'une impérieuse loi de la physique : le principe de la conservation du moment angulaire*. Celui-ci énonce simplement que le moment angulaire d'un système isolé c'est-à-dire qui n'échange ni matière ni énergie avec l'extérieur doit rester constant au cours du temps. Si le rayon du nuage diminue, la constance du moment angulaire dont il est porteur n'est possible que si dans le même temps la vitesse de rotation augmente. Exactement ce que l'on observe aussi avec un patineur sur glace qui tourne plus vite s'il replie les bras, et ralentit s'il les déploie de nouveau ! La conséquence ici de cette accélération va être l'apparition d'une force centrifuge considérable. Les coeurs denses tendent à s'étaler pour former un disque épais.
La force centrifuge a aussi un effet pervers : dans les régions internes du disque, dont la rotation finit par être très rapide, la force centrifuge devient en principe suffisamment importante pour contrer la gravitation et donc bloquer l'effondrement du gaz. Si aucun autre mécanisme n'intervenait, la contraction des portions de nuages aboutirait à la formation d'un anneau de gaz en rotation. Mais en aucune façon à une étoile. Le processus de formation stellaire est sauvé en partie grâce à l'intervention du champ magnétique piégé dans le fragment de nuage en effondrement et qui ralentit sa rotation. Mais c'est surtout la fragmentation de la masse gazeuse qui fournit la clé des événements qui vont suivre.
Quand l'anneau de gaz issu de l'effondrement tourne suffisamment vite, il éclate en effet littéralement. Chacun des fragments emporte sa part de moment angulaire, nécessairement plus faible que le moment angulaire initial. Il peut donc devenir à son tour un noyau de condensation et poursuivre l'effondrement. Si la force centrifuge finit par se révéler trop importante, une nouvelle fragmentation pourra encore avoir lieu. Et ainsi de suite jusqu'à ce que le moment angulaire des fragments résultants ne constitue plus un obstacle à leur condensation en étoile. Au total, les fragmentations successives aboutissent à la naissance de petits groupes d'étoiles se partageant entre elles le moment angulaire initial. La rotation d'une étoile et sa relative lenteur apparaît ainsi au total comme le souvenir de tous ces événements.
Pourquoi les étoiles naissent-elles en groupes ?
Le franchissement des bras spiraux par de nombreux nuages, eux-mêmes perlés de nombreux coeurs denses, semble ici fournir un début de réponse. En réalité, cette traversée déstabilisante lance une véritable machine infernale. Dès qu'une première génération d'étoiles est formée, d'autres mécanismes plus efficaces prennent le relais. Les étoiles bleues y joueront le premier rôle. Ces astres très massifs doivent en effet pour assurer leur équilibre produire et libérer d'énormes quantités d'énergie. Cela explique que ces étoiles soient très chaudes et de couleur bleue en surface. Mais surtout cela signifie qu'elles consomment leurs réserves de combustible à un taux accéléré. Leur vie est donc courte. Elles vivent et meurent pratiquement sur le lieu même de leur naissance. C'est-à-dire à proximité des nuages froids dont elles sont issues. Or ces astres obèses sont tout au long de leur existence à l'origine d'un puissant vent stellaire*. Quand celui-ci frappe les nuages froids du voisinage, il se crée quelque chose de comparable au bang des avions supersoniques : une onde de choc. Celle-ci bousculera la masse gazeuse et lui fournira une excellente raison pour engager de nouveaux processus d'effondrement ! Mais ce n'est pas tout. Les étoiles dont la masse dépasse environ quatre ou cinq fois la masse du Soleil terminent en effet leur carrière par une explosion en supernova*. Là encore, on peut être assuré que l'onde de choc qui s'ensuivra aura des effets dévastateurs sur les nuages qu'elle vient gifler. On assistera ainsi un peu plus loin à de nouvelles naissances, à quelques nouvelles existences éphémères d'étoiles massives, et donc à de nouvelles explosions, à de nouvelles ondes de chocs, et à de nouveaux effondrements jusqu'à épuisement total du gaz disponible...
Une telle propagation des naissances stellaires de proche en proche rappelle la progression d'un feu de forêt. La formation des étoiles correspond à un phénomène à la fois collectif et contagieux. On comprend ainsi que les étoiles jeunes se retrouvent systématiquement en compagnie d'autres étoiles jeunes. Elles forment ce que les astronomes appellent des amas ouverts et des associations.
Quand une étoile allume-t-elle son moteur nucléaire ?
Au dernier stade de la fragmentation, la portion de nuage concernée prend encore - et toujours du fait de la force centrifuge - la forme d'un disque épais. Mais désormais la rotation est insuffisante pour bloquer l'afflux de gaz qui tombe en torrents au centre pour former une proto-étoile, c'est-à-dire un embryon d'étoile. Densité et température s'y élèvent dans des proportions inédites. Le même type d'échauffement s'observe aussi quand on comprime l'air dans une pompe de bicyclette. Dans l'intervalle, le disque a aussi son heure de gloire. Dans son cas, ce sont les frictions entre ses régions internes en rotation rapide et ses régions externes en rotation plus lente qui conduisent temporairement à son échauffement. Mais peu à peu la proto-étoile, en grossissant, vide pratiquement de sa substance le disque. Peut-être aussi des planètes auront-elles aussi eu le temps de s'y former par l'accumulation de poussière et de gaz en noyaux de plus en plus gros. Toujours est-il qu'à partir d'un certain moment disons après quelques millions d'années le disque ne sera plus constitué que de gaz très dilué. Mais déjà après seulement une centaine de milliers d'années, l'enveloppe protostellaire sera devenue transparente. Et dès cet instant, les astronomes auront pu découvrir en son centre, libéré de sa gangue de poussières, un astre qui brille intensément : une étoile !
A la vérité, l'étoile en question est bien déjà, à ce stade de l'histoire, une grosse boule de gaz chaud. Mais son point d'équilibre n'est pas encore atteint. Le gaz qui la compose continue de se contracter. Et c'est cette contraction qui reste encore la seule responsable de la production d'énergie. Cette toute première et balbutiante étape de l'histoire d'une étoile correspond à ce que les astronomes appellent la phase T Tauri. Une T Tauri est un objet encore terriblement instable. Il connaît des sautes d'humeur, des variations soudaines d'éclat. Peu à peu, le compromis entre la gravitation et le niveau de compression du gaz susceptible d'en contrer l'action sera cependant trouvé. C'est à ce moment-là que dans les profondeurs de l'étoile une nouvelle source d'énergie prend le relais du phénomène d'échauffement par compression du gaz : la fusion thermonucléaire des noyaux d'hydrogène. Elle s'amorce quand la température au coeur de l'astre dépasse les dix millions de degrés. Les protons qui forment les noyaux des atomes d'hydrogène ne peuvent plus éviter de se cogner férocement les uns aux autres. Porteurs d'une charge électrique positive, ceux-ci se repoussent normalement. Mais ici les collisions sont tellement violentes, que les particules parviennent à franchir la barrière répulsive et à s'assembler. Une série de réactions en chaîne se met en route. Pendant 90 % de l'existence des étoiles, ces réactions concerneront leur constituant majoritaire : l'hydrogène dont les noyaux fusionnent avec un important dégagement de chaleur pour donner naissance à des noyaux d'hélium.
Pourquoi les étoiles ne deviennent-elles pas indéfiniment grosses ?
La raison la plus évidente est bien sûr que la quantité de matière des fragments de nuage est limitée... Mais d'autres mécanismes interviennent comme en témoigne l'existence de deux longs jets jaillissant des cocons de poussière opaques, au-dessus des pôles d'étoiles en formation. Ces structures longues de plusieurs années-lumière, appelées objets de Herbig-HaroI, traduisent l'éjection de gaz sur des périodes de plusieurs dizaines de milliers d'années. Ils représentent pour les proto-étoiles un moyen de se délester d'un surplus de gaz. Leur aspect suggère que ce gaz porté à haute température est chassé et canalisé vers l'espace interstellaire par un champ magnétique.
La lumière de l'étoile joue aussi un rôle. La pression à l'intérieur d'une étoile possède en effet deux composantes. L'une, comme pour un gaz ordinaire, est engendrée par l'agitation thermique des particules. L'autre, connue sous le nom de pression de radiation, doit être directement rattachée à l'action de photons de haute énergie ultraviolets sur la matière. A leur manière, ils poussent eux aussi à l'expansion. Or, pour des étoiles d'une masse se situant au-delà d'une centaine de masses solaires, la pression de radiation se révèle trop élevée pour qu'aucune solution de compromis avec la gravitation ne soit plus possible. Si au cours des dernières étapes du gaz reste encore disponible, il sera soufflé par la lumière et se dispersera simplement dans l'espace avant que le seuil fatidique d'une centaine de masses solaires ne soit atteint.
Une naine brune, est-ce aussi une étoile ?
Les astronomes parlent de naines brunesII pour désigner des astres moins massifs et moins chauds que les étoiles ordinaires, mais nés au cours de processus identiques. De tels objets se forment lorsque la masse rassemblée au terme de l'effondrement d'un fragment de nuage est inférieure à 7 % ou 8 % de la masse du Soleil. Avec une quantité de matière aussi faible, la compression de la boule de gaz sous l'effet de son poids se révèle insuffisante pour enclencher les réactions de fusion de l'hydrogène. On a affaire à une étoile avortée, en somme. Si sa masse dépasse les 0,12 % de la masse du Soleil soit environ douze fois la masse de Jupiter, elle se montrera tout au plus capable de démarrer pendant une brève période la combustion de son deutérium. Mais cet isotope lourd de l'hydrogène dont les noyaux, composés d'un proton et d'un neutron, peuvent fusionner à plus basse température que les protons seuls est très rare. Cet épisode de la vie d'une naine brune ne représentera donc qu'un feu de paille. Ainsi, pour l'essentiel, les naines brunes sont-elles des corps froids qui se contentent de rayonner la chaleur accumulée au cours de leur phase de contraction. Du fait de leur petite masse et de leur température basse, ces astres ressemblent beaucoup à nos planètes géantes. Il n'est pas exclu que certaines supposées planètes extrasolaires récemment découvertes ne soient en fait des naines brunesIII.
DOCUMENT larecherche.fr LIEN |
|
|
|
|
|
|
ANTIMATIÈRE |
|
|
|
|
|
Retrouvera-t-on l'antimatière ?
et aussi - par Jean Orloff dans mensuel n°402 daté novembre 2006 à la page 31 (2919 mots) | Gratuit
Comment la matière a-t-elle pris le pas sur l'antimatière dans l'Univers primordial ? Cela fait cinquante ans que les physiciens se posent la question. Ils sont aujourd'hui convaincus que les propriétés des neutrinos permettront enfin de répondre.
La montagne du Gran Sasso, dans les environs de Rome, abrite le plus grand laboratoire souterrain de physique des particules. À 1 400 mètres de profondeur, se trouve un gigantesque détecteur, pesant près de 2 000 tonnes. Depuis septembre 2006, il enregistre la présence de particules appelées « neutrinos », émises sur 732 kilomètres, à travers la croûte terrestre, par les installations du laboratoire européen de physique des hautes énergies, le CERN, près de Genève.
Baptisée « Opera » pour « Oscillation Project with Emulsion-tRacking Apparatus », l'expérience vise à mieux comprendre le comportement de ces particules, parmi les plus nombreuses dans l'Univers. Leur étude est particulièrement difficile car elles interagissent très peu avec la matière. Si peu que les neutrinos sont souvent dénommés « particules fantômes ». À ce jour, leurs propriétés constituent néanmoins la piste la plus crédible pour résoudre un problème fondamental en cosmologie. Le Big Bang aurait créé autant de matière que d'antimatière. Or, l'antimatière est quasi absente de notre Univers. Comment la matière a-t-elle pris le pas sur l'antimatière ? Une question qui revient à se demander pourquoi, aujourd'hui, existe-t-il quelque chose plutôt que rien...
L'origine du concept d'antimatière remonte à la fin des années 1920. Paul Dirac, de l'université de Cambridge, réussit alors à concilier la mécanique quantique et la théorie de la relativité restreinte [1] . Or, appliquées à l'électron, les équations de Dirac ont deux solutions : l'une correspondant à une énergie positive, l'autre négative. D'un point de vue physique, avance le physicien britannique, la seconde correspondrait à des particules possédant une énergie positive, mais une charge électrique opposée à celle de l'électron. En somme, des « antiélectrons ».
Les moqueries de Niels Bohr
La communauté scientifique est plutôt dubitative. L'interprétation de Dirac suscite même les moqueries de Niels Bohr, l'un des « pères » de la mécanique quantique. Qui ne dureront pas ! Car en 1932 Carl Anderson constate que les rayons cosmiques produisent des électrons, mais aussi des particules de même masse et de charge opposée, très vite identifiées aux antiélectrons de Dirac [2] . Par ailleurs, électrons et antiélectrons s'annihilent en se rencontrant, ce qui entraîne l'émission d'au moins une paire de photons.
Opération de symétrie
Dans les années 1950, les expériences d'Emilio Segrè, d'Owen Chamberlain et de Bruce Cork permettent de généraliser l'existence de l'antimatière. Au laboratoire Lawrence, à Berkeley, en Californie, ils découvrent l'antiproton puis l'antineutron, antiparticules du proton et du neutron qui constituent les noyaux atomiques [3] . Les équations de Dirac étant valables pour toutes les particules de matière, ces résultats confortent l'idée que l'inversion de la charge appelée « conjugaison de charge », et notée « C » pourrait être une symétrie caractéristique de notre Univers. Il serait alors impossible de distinguer un monde d'un « antimonde » sans les mettre en contact, ce qui entraînerait leur annihilation.
Pas de risque de ce genre dans l'Univers actuel, où l'antimatière n'est présente qu'en infime quantité. Sur Terre, elle est produite dans les accélérateurs de particules, et le petit nombre d'antiparticules venant de l'espace s'annihile rapidement dans l'atmosphère. Mais les théories cosmologiques avancent qu'il n'en a pas toujours été ainsi.
Remontons, en effet, dans le passé de notre Univers en expansion. Cela revient à faire subir à celui-ci une compression qui élève sa température. Lorsque l'on remonte le temps, donc, l'énergie des particules augmente progressivement, entraînant des collisions de plus en plus violentes. Ces collisions commencent par supprimer l'effet de la force gravitationnelle, qui lie les atomes des planètes à ceux des étoiles. Puis, à environ 1 400 kelvins, elles brisent le lien électromagnétique entre les électrons et les protons. À une dizaine de milliards de kelvins, elles détruisent les liens entre les protons et les neutrons dans les noyaux. À deux mille milliards de kelvins, les quarks, constituants élémentaires des protons et des neutrons, sont à leur tour libérés. Au-delà, l'énergie des collisions entre les quarks est telle qu'elle entraîne une production de plus en plus nombreuse de paires de quarks et d'antiquarks, leurs équivalents d'antimatière.
Ces conditions sont celles de l'Univers primordial, qui aurait alors contenu autant d'antimatière que de matière... avec toutefois un léger excès pour la dernière : sinon, matière et antimatière se seraient totalement annihilées, laissant place, aujourd'hui, à un morne gaz de photons. On chiffre cet excédent par le « nombre baryonique net » les baryons sont une famille de particules lourdes, dont les neutrons et les protons sont les principaux représentants. Il est déterminé en « pesant » la quantité de matière présente actuellement dans l'Univers. Les calculs montrent que dans l'Univers primordial, pour un milliard d'antiquarks, il devait y avoir un milliard de quarks plus un. Pas deux, ni trois quarks de plus, sans quoi il y aurait deux ou trois fois trop de matière survivante aujourd'hui.
Quels mécanismes ont permis d'ajuster cette infime, mais indispensable asymétrie ? Au milieu des années 1950, Tsung-Dao Lee, de l'université Columbia, et Chen Ning Yang, de l'Institut des études avancées de Princeton, apportent un premier élément de réponse. Pour eux, la force faible, interaction fondamentale de la physique, violerait la symétrie de « parité » notée « P », opération qui consiste à inverser l'un des axes des coordonnées de l'espace. Cette hypothèse rencontre un intérêt mitigé chez les physiciens : pour quelle raison l'Univers ne serait-il pas identique à son image dans un miroir ?
Pour répondre, Lee convainc sa collègue Chien-Shiung Wu de réaliser une expérience. En analysant la désintégration d'un noyau de cobalt, dont l'interaction faible est responsable, elle montre, en 1957, que des électrons sont émis préférentiellement dans une direction de l'espace : en l'occurrence, la direction opposée à celle du « spin » du noyau, propriété quantique apparentée à la rotation des particules sur elles-mêmes [4] . L'interprétation qui en découle est que, contrairement aux autres forces - la gravitation, les interactions fortes et électromagnétiques -, la force faible est insensible aux particules qui avancent dans une direction opposée à celle de leur spin. Dans ce cas, on dit que ces particules possèdent une « hélicité » positive, ou « droite » ; sinon, l'hélicité est négative, ou « gauche », et les particules interagissent avec la force faible. Les physiciens se rassurent un temps en montrant que la symétrie qui doit être respectée n'est pas celle de C ou de P mais de leur produit « CP », opération consistant à inverser la charge et les coordonnées spatiales. La force faible permettrait de faire la différence entre notre monde et son « antimonde » conjugué par C, mais pas avec son antimonde conjugué par CP, qui transforme des particules « gauches » en antiparticules « droites ».
Les quarks oscillent
Mais en 1964 nouveau rebondissement. Au laboratoire de Brook-haven, près de New York, une équipe internationale observe une violation de CP lors de la désintégration d'une particule exotique appelée « méson K » [5] . Celle-ci peut exister sous deux états physiques. Si la symétrie CP est respectée, le premier état se désintègre rapidement en deux particules, et le deuxième se désintègre beaucoup plus lentement en trois particules. Or, dans un faisceau de mésons K, les physiciens continuent d'observer des processus de désintégration en deux particules après le temps de vie du premier état. Leur nombre est infime, mais preuve est faite que les lois de la nature font la différence entre matière et antimatière.
Dans le sillage de cette découverte, les recherches se multiplient afin de comprendre les mécanismes permettant à la matière de prédominer. Les théoriciens se mobilisent, tel le Soviétique et futur Prix Nobel de la paix Andreï Sakharov. En 1967, il présente un modèle réunissant trois conditions nécessaires à l'apparition d'un univers dominé par la matière : une période de violent déséquilibre thermodynamique ; une interaction modifiant le nombre baryonique ; enfin,la violation de CP, dont l'origine demeure mystérieuse.
La compréhension de cette violation progresse parallèlement aux connaissances sur les quarks. En 1973, en effet, les Japonais Makoto Kobayashi et Toshihide Maskawa montrent qu'une nouvelle théorie appelée aujourd'hui « Modèle standard de la physique des particules », qui décrit les particules élémentaires et les forces régissant leurs interactions, permet la violation de CP [6] . Pour cela, il faut qu'il existe au moins trois familles de quarks, chacune comprenant deux types de quarks de charge différente. Ceux-ci interagissent via la force faible, mais entre deux interactions ils peuvent se transformer, ou « osciller », d'une famille à l'autre. Cette violation ne s'exprime que dans des processus combinant oscillations et interactions, comme lors de la désintégration des mésons K.
Quatre ans plus tard, leurs travaux sont couronnés de succès avec la découverte, au Fermilab, près de Chicago, d'un représentant de la troisième famille de quarks, le quark « bottom ». Commence alors la traque de la violation de CP dans d'autres systèmes, notamment au sein de particules contenant le quark bottom. Stimulés par les travaux de Sakharov, les théoriciens planchent pour leur part sur un mécanisme modifiant le nombre baryonique. Vers le milieu des années 1980, Vadim Kuzmin, Valery Rubakov et Mikhail Shaposhnikov, de l'Institut de recherches nucléaires de Moscou, montrent que, pour des températures supérieures à un million de milliards de kelvins, des processus dits « anomaux » * peuvent transformer des quarks d'hélicité gauche en d'autres particules appelées « leptons », qui ne rentrent pas dans le décompte du nombre baryonique net [7] .
Forts de ces succès, certains physiciens pensent que l'énigme de l'antimatière est en passe d'être résolue! D'un point de vue qualitatif, le Modèle standard réunit en effet les éléments nécessaires à l'apparition d'une asymétrie. En 1992, Mikhail Shaposhnikov propose un modèle quantitatif, et montre que la désactivation des processus anomaux impose une limite supérieure à la masse du « boson de Higgs », chaînon manquant du Modèle standard sans lequel les particules n'auraient pas de masse [8] . Mais une série de résultats douchent bientôt cet enthousiasme. Tout d'abord, la recherche du boson de Higgs repousse progressivement sa masse au-delà de la limite définie par Shaposhnikov. En outre, la violation de CP observée dans les particules constituées de quarks n'explique pas l'asymétrie entre matière et antimatière. En 1993, Belèn Gavela, Pilar Hernandez, Olivier Pène et moi-même en avons déterminé la raison : à très hautes températures, les interactions fortes détruisent la cohérence quantique nécessaire à l'oscillation des quarks, ce qui limite les effets de la violation de CP à une quantité dix milliards de fois inférieure à celle de l'asymétrie originelle [9] .
Celle-ci était un trop petit nombre pour correspondre, naturellement, aux caractéristiques de l'Univers primordial, mais elle est encore trop grande pour s'expliquer dynamiquement dans le Modèle standard. Un ingrédient doit y être ajouté pour obtenir une asymétrie suffisante. Pour cela, le neutrino est le meilleur candidat, et les découvertes récentes sur ses propriétés mettront rapidement les physiciens sur cette nouvelle piste.
L'existence de cette particule a été proposée en 1930 par le physicien autrichien Wolfgang Pauli, afin d'expliquer la disparition d'énergie lors de la désintégration du neutron lire « La carte d'identité des neutrinos », p. 35. L'hypothèse d'un « invisible » porteur d'énergie est alors théoriquement satisfaisante, mais, par essence, très difficile à vérifier. Plus précisément, l'Américain Hans Bethe montre en 1934 que la probabilité d'interaction d'un neutrino avec la matière doit être extrêmement faible : des milliards de milliards de fois mois importante que celle de l'électron.
La détection des neutrinos constitue ainsi une gageure lire « Détecter l'insaisissable », p. 36. Il faudra d'ailleurs attendre plus d'une vingtaine d'années pour qu'un neutrino soit détecté par Clyde Cowan et Frederick Reines, près du réacteur nucléaire de Savannah River, aux États-Unis [10] . Trois types seront par la suite identifiés : le neutrino de l'« électron », du « muon » et du « tau », ainsi dénommés car toujours émis avec les particules des leptons chargés portant ces noms.
Au sein du Modèle standard, les neutrinos n'ont pas de masse. Cette caractéristique répond à un principe d'économie, car elle simplifie les équations de Dirac sur les propriétés des neutrinos et des antineutrinos. En outre, depuis 1958, les mesures de l'hélicité des neutrinos montrent invariablement que celle-ci vaut - 1/2. Or, le signe de l'hélicité devrait varier si les neutrinos étaient massifs. Dans un Modèle standard « minimal », le neutrino n'a ainsi pas de masse. Il est néanmoins possible qu'elle soit si faible que ses effets sur les mesures d'hélicité deviennent négligeables.
Fusion nucléaire
Il faudra toute la persévérance d'expérimentateurs comme Raymond Davis pour faire évoluer les idées sur la masse des neutrinos. En 1968, ce dernier dirige la construction d'une cuve remplie de 600 tonnes d'un solvant riche en chlore. Ce faisant, il espère détecter les neutrinos électroniques émis par le Soleil lors des réactions de fusion. En traversant la cuve, ces neutrinos transforment quelques atomes de chlore en argon. La cuve est placée sous 2 300 mètres de roches, dans la mine de Homestake, aux États-Unis, afin que les rayons cosmiques ne biaisent pas les mesures. Celles-ci n'en seront pas moins surprenantes. En effet, seul un tiers des neutrinos prévus est détecté. La prédiction de ce nombre, qui est fondée sur une estimation des réactions de fusion, est-elle trop importante ? L'extraction des atomes d'argon est-elle incomplète ? C'est ce que les physiciens objectent à Davis qui, loin de se décourager, n'aura de cesse d'améliorer son dispositif au cours des trente années suivantes.
Entre-temps, l'idée que les neutrinos puissent, comme les quarks, évoluer au cours du temps en oscillant d'une famile à l'autre fait son chemin. Lors de son trajet entre le coeur du Soleil et la Terre, une fraction des neutrinos électroniques pourraient alors se transformer en neutrinos muoniques par exemple. L'oscillation expliquerait ainsi le déficit de neutrinos électroniques dans l'expérience de Davis, qui ne détecte pas les neutrinos muoniques.
L'idée que les neutrinos oscillent avait des conséquences importantes. En premier lieu, elle impliquerait que les neutrinos aient une masse, contrairement à ce que suggère le Modèle standard « minimal ». Car la mécanique quantique permet l'oscillation de particules seulement si elles sont massives. Mais l'oscillation des neutrinos ouvre également de nouvelles perspectives pour le problème de l'asymétrie entre matière et antimatière ! Pour trois familles de neutrinos, en effet, une violation de CP est possible, similaire, en principe, à celle qui se produit pour les quarks. Toutefois, parce que les neutrinos ne sont sensibles qu'à l'interaction faible, cette violation se manifesterait de façon beaucoup plus importante
à haute température : en effet, l'interaction forte
ne pourrait pas détruire la cohérence quantique
d'un mélange de neutrinos.
Pour ces raisons, l'annonce, en 1998, de la confirmation des résultats de Davis connaît un fort retentissement [11] . En utilisant une cuve remplie de 50 000 tonnes d'eau, les physiciens de l'expérience « SuperKamiokande », installée au Japon, montrent que le flux de neutrinos produit dans l'atmosphère par les rayons cosmiques est lui aussi plus faible que prévu. La précision des détecteurs n'apporte pas toutes les garanties, mais les physiciens soutenant l'hypothèse de neutrinos dépourvus de masse se retrouvent sur la défensive. Cette expérience ouvre également la voie à des tests plus poussés concernant le phénomène d'oscillation des neutrinos, ainsi qu'à son paramétrage. Par exemple, les physiciens prévoient que la longueur d'oscillation doit être proportionnelle à l'énergie des neutrinos, et inversement proportionnelle à la différence du carré de leurs masses.
Sources contrôlées
En pratique, ces tests consistent
à s'affranchir des incertitudes du modèle solaire tel le
profil de température, en étudiant des sources de neutrinos contrôlées par les physiciens. À cette fin, les réacteurs des centrales nucléaires sont particulièrement intéressants : ils émettent des antineutrinos électroniques, et l'énergie totale des réactions qui s'y déroulent est bien caractérisée.
En 2004, le détecteur « KamLAND » a ainsi observé un déficit d'antineutrinos émis par l'ensemble des centrales japonaises. Ce résultat a par ailleurs permis de préciser la différence des carrés des masses pour l'oscillation des neutrinos solaires.
Les accélérateurs de particules représentent une source encore mieux contrôlable. Ils émettent des faisceaux de neutrinos en direction des détecteurs, dont le lieu est choisi selon les longueurs d'oscillation. Tel est le cas du détecteur « Minos », qui enregistre la présence de neutrinos muoniques émis 735 kilomètres plus loin au Fermilab. En juillet 2006, les premiers résultats ont montré qu'une fraction de ces neutrinos disparaissaient au cours
de leur trajet.
Pour apporter une preuve définitive du phénomène d'oscillation, et franchir un pas important dans sa compréhension,
il reste à établir un rapport direct entre la disparition d'un type de neutrinos et l'apparition d'un autre. Le détecteur Opera est conçu pour cela. Depuis septembre 2006, il détecte les neutrinos tauiques issus de l'oscillation des neutrinos muoniques envoyés depuis le CERN. Plusieurs années seront nécessaires pour identifier les rares neutrinos tauiques provenant de l'oscillation. L'étude de la violation de CP dans les neutrinos pourra ensuite se faire. La confirmation de ce phénomène suggérerait fortement que le problème de l'asymétrie entre matière et antimatière a enfin trouvé une réponse satisfaisante.
EN DEUX MOTS Contrairement à ce que les physiciens pensaient depuis les années 1930, les « neutrinos », particules produites au coeur des étoiles, ont bel et bien une masse ! Celle-ci est infime, mais suffisante pour qu'ils se transforment d'un type à un autre au cours du temps. Ce phénomène permettrait à une interaction fondamentale de la physique de différencier les neutrinos de leurs équivalents d'antimatière, et ce faisant d'expliquer pourquoi notre Univers est constitué de matière plutôt que d'antimatière.
Par Jean Orloff
DOCUMENT larecherche.fr LIEN |
|
|
|
|
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 ] Précédente - Suivante |
|
|
|
|
|
|