ecole de musique piano
     
menu
 
 
 
 
 
 

PHYSIQUE

 

Texte de la 208e conférence de l’Université de tous les savoirs donnée le 26 juillet 2000.
La connaissance physique a-t-elle des limites ?
par Jean-Marc Lévy-Leblond
Il n’est pas indifférent que dans ce cycle de conférences sur “tous les savoirs”, la question des limites de la connaissance n’ait été posée qu’à la physique. C’est sans doute son statut implicite de science modèle qui lui vaut cet honneur. C’est aussi que, depuis le début du XXe siècle, la physique s’est à elle-même posé la question. « L’homme devrait garder son humilité devant la nature puisque la précision avec laquelle il peut l’observer rencontre des limitations intrinsèques. » Ainsi l’Encyclopædia Britannica conclut-elle son article sur le “principe d’incertitude” de Heisenberg. De fait, la révolution quantique a donné lieu à d’abondantes exégèses sur ce thème : l’impossibilité de mesurer à la fois la position et la vitesse des corpuscules signalerait une limite absolue de nos connaissances. La Nature elle-même refuserait de se laisser dévoiler, et notre science la plus avancée buterait ainsi sur des frontières infranchissables. L’impossibilité de dépasser la vitesse de la lumière, mise en évidence par Einstein, a été interprétée dans la même veine : nous ne pouvons savoir ce qui s’est passé sur le Soleil durant les huit dernières minutes, faute qu’aucun signal ne puisse nous en prévenir. Mais avec un recul de quelques décennies, cette conception résignée, traduite par des vocables qui paraissent aujourd’hui pour le moins inadaptés (relativité, incertitudes), a perdu sa pertinence. Loin d’imposer des bornes à notre savoir, ces découvertes ont au contraire permis à notre compréhension de considérables progrès, en réorientant nos conceptualisations et nos interrogations. Elles ont montré l’inadéquation au réel de nos formulations antérieures. Si certaines questions (« Que se passait-il sur le Soleil il y a deux minutes ? », « Où est l’électron et à quelle vitesse va-t-il ? ») n’admettent pas de réponses, c’est qu’elles sont dépourvues de pertinence. De même, la question « Qu’y a-t-il sur la Terre à 30 000 kilomètres au Sud de Paris ? » est-elle rendue caduque par la rotondité de la Terre et la connaissance de sa circonférence (40 000 kilomètres) ; dira-t-on pour autant que cette découverte impose une limitation à la géographie ? Les mutations théoriques de la physique du XXe siècle n’ont nullement découvert des limites intrinsèques à notre connaissance scientifique, mais, bien au contraire, lui ont ouvert de nouveaux espaces. En témoigne l’approfondissement considérable de notre maîtrise, intellectuelle mais aussi matérielle, du monde quantique. Reste que la persistance des interprétations négatives et des métaphores abusives (voir un récent article du Monde sur la « politique quantique de Jacques Chirac » !) montre bien cependant une limitation effective de nos connaissances – nous y reviendrons.
Au cours des dernières décennies, le défaitisme a plutôt cédé la place à un triomphalisme naïf, selon lequel la physique ne rencontrerait aucun obstacle et serait en mesure d’accéder à une connaissance complète de l’univers : le réel obéirait à un petit nombre de lois fondamentales, que nous serions sur le point de découvrir ; c’est le fantasme de la “théorie ultime” ou d’une “théorie du Tout”. La connaissance physique rencontrerait alors, effectivement, ses limites : finie par essence, elle toucherait bientôt à ses bornes, et s’épuiserait dans son succès. Une première réserve devant cette perspective, pourtant entretenue par des physiciens réputés, est suscitée par sa répétitivité : déjà Newton pensait avoir découvert une théorie universelle de la gravitation, capable d’expliquer l’ensemble des phénomènes physiques ; le développement de l’électromagnétisme a fait litière de cette prétention. À la fin du XIXe siècle, un aussi grand esprit que Lord Kelvin considérait que la physique était (presque) terminée – juste avant que l’on ne découvre les interactions nucléaires… Que la physique depuis plus d’un demi-siècle n’ait mis en évidence aucune nouveauté radicale, ne l’autorise en rien à proclamer la clôture du registre des forces essentielles à l’œuvre dans la nature. Mais surtout, l’autosatisfaction des physiciens fondamentalistes repose sur une vision bien pauvre de la réalité : la multiplicité des formes concrètes d’organisation de la matière, la richesse de comportement des innombrables objets de la nature, rend toujours plus large le hiatus entre les explications générales et la compréhension détaillée des faits. Un nombre croissant de phénomènes matériels, récemment découverts (la supraconductivité à haute température) ou connus depuis longtemps (la flottabilité de la glace) restent mal compris, bien que la théorie quantique abstraite qui les sous-tend soit connue. S’il y a une leçon à retenir du XXe siècle, c’est bien la faillite de tout réductionnisme naïf, selon lequel la connaissance théorique remonte nécessairement des principes à leurs manifestations. Une (très éventuelle) “théorie du Tout” ne serait certainement pas une théorie de tout… Le programme qui consiste à « remplacer du visible compliqué par de l’invisible simple » (selon les mots de Francis Perrin) ne saurait prétendre à l’universalité : l’invisible aussi peut être compliqué et, tel le vivant, ne guère se plier aux méthodes éprouvées de la physique – expérimentations dûment reproductibles, formalisation mathématique sophistiquée. C’est dire a fortiori que la physique rencontre effectivement des limites : celles des domaines où elle doit céder la place aux autres sciences. La scientificité ne peut se figer en critères généraux. Malgré ses prétentions à régir l’ensemble de nos connaissances scientifiques, ni son ancienneté, ni sa précision n’évitent à la physique de devoir reconnaître l’autonomie et la souveraineté des autres disciplines.
Mais on ne peut s’en tenir à un point de vue exclusivement épistémologique qui considèrerait la question des limites de la connaissance sous l’angle d’une confrontation abstraite entre la nature et l’esprit. Cet esprit est celui d’humains vivant en des sociétés particulières qui fournissent le cadre où se déroule le processus de connaissance, détermination qui à la fois permet et contraint la recherche de savoir. Il y eut des temps où ce conditionnement était essentiellement idéologique, comme le montre le rôle du christianisme dans la révolution scientifique du XVIIe siècle, rôle à la fois négatif (le procès de Galilée !) et positif (l’idée même du “Grand livre de la Nature”, liée au poids culturel des Écritures). Aujourd’hui prime l’économie. Le succès pratique de la physique au XXe siècle (électronique, nucléaire, etc.) tend à l’assujettir à des programmes à court terme, au détriment de projets plus spéculatifs. En même temps, l’industrie fécondée par la science reflue en son propre sein, conduisant à la “Big Science” dont le gigantisme semble atteindre ses bornes. La proportion des ressources sociales consacrées à la recherche fondamentale plafonne depuis quelques années, pour la première fois en quatre siècles de science moderne. L’abandon par les États-Unis, voici dix ans, de la construction d’un accélérateur de particules géant (SSC), signale ce changement d’ère. Les hésitations du politique devant les projets d’instrumentation scientifique à grande échelle (voir le récent conflit autour du projet de synchrotron “Soleil”) sont désormais la règle, ce qui ne saurait surprendre au vu de leurs budgets, couramment chiffrés en milliards de francs. Autant dire que la connaissance physique, dans certains de ses secteurs traditionnellement les plus prestigieux atteint les limites du socialement acceptable : la recherche du boson de Higgs, aussi excitante soit-elle pour l’esprit (de qui ?), présente un rapport coût/intérêt assez élevé pour que soit justifié son examen critique par la collectivité. Comme pour d’autres projets scientifiques, un ajournement de quelques décennies ne constituerait peut-être pas un retard majeur dans le développement de l’humanité. Après tout, d’autres entreprises humaines atteintes de gigantisme ont connu un coup d’arrêt au plus fort de leur développement. Les pyramides du Haut-empire égyptien et les cathédrales de l’Europe gothique ont laissé la place à des projets plus modestes – mais non moins féconds. Le redéploiement, historiquement bien tardif d’ailleurs, d’une physique à notre échelle (turbulence, matière molle) pointe dans cette direction. Mais on peut comprendre l’amertume des chercheurs devant les difficultés de leurs desseins désintéressés les plus ambitieux, alors que, en même temps, c’est un développement débridé que connaît la poursuite du savoir lorsqu’elle se confond avec celle du profit. Les mêmes phénomènes affectent (plus rapidement et plus vivement encore) les autres sciences, celles de la vie tout particulièrement. Mais la relative ancienneté de la physique permet d’étudier son cas avec quelque lucidité – privilège d’une ancienne aristocratie sur une jeune bourgeoisie.
Pour autant, cette domination et cette limitation de la science par l’économie et la politique n’est pas sans rapports avec ses problèmes épistémiques. Car, s’il est légitime de s’interroger sur les limites de la connaissance, encore faut-il savoir quel sens attribuer au mot “connaissance”. La polysémie de ce terme l’écartèle entre une signification réduite, celle d’un savoir factuel et particulier (la connaissance de la valeur de la vitesse de la lumière, ou la connaissance des éléments du tableau de Mendeleïev), et une signification large, celle d’une compréhension profonde et générique (la connaissance du rôle structurel de la vitesse-limite pour l’espace-temps, ou le rapport entre le tableau de Mendeleïev et la théorie quantique de l’atome). Force est de reconnaître que la physique moderne a accumulé un retard considérable quant à la maîtrise intellectuelle de ses propres découvertes. Bien des pseudo-paradoxes et des formulations insatisfaisantes continuent à la hanter, faute d’une refonte conceptuelle menée à bien ; le plus difficile à comprendre quant aux remarquables développements récents sur la notion de “non-séparabilité” quantique, par exemple, est encore leur considérable délai historique. La sophistication de nos formalismes a grandement crû beaucoup plus vite que notre capacité à en maîtriser le sens non ; déjà Maxwell s’écriait, il y a plus d’un siècle, que « nos équations semblent plus intelligentes que nous ! ». C’est là le contrecoup de la technicisation de la science, et de la division du travail qui s’y accentue, sans parler de la pression productiviste de son organisation sociale. Il est probable que ce déficit de notre connaissance – au sens le plus noble et le plus ambitieux du terme – handicape fortement les possibilités pour la science physique de dépasser certaines de ses difficultés actuelles. Mais si cette limitation a de sérieux effets au sein de la communauté scientifique, elle en a de bien plus graves encore dans la société en général. Comment développer une véritable acculturation de la science si ses praticiens eux-mêmes sont en manque aigu à cet égard ? Et, faute d’une reconquête intellectuelle, peut-on espérer que la science puisse devenir l’objet du débat démocratique dont la nécessité se fait chaque jour plus vive ? Ainsi, l’analyse des limites de la connaissance scientifique exige-t-elle d’abord la reconnaissance des limites de la science.
Bibliographie : Jean-Marc Lévy-Leblond, Aux contraires (l’exercice de la pensée et la pratique de la science), Gallimard, 1996 ; Impasciences, Bayard, 2000.

 
 
 
 

LA CHIMIE QUANTIQUE

 

Texte de la 233e conférence de l'Université de tous les savoirs donnée le 20 août 2000.


Entre physique et chimie, une discipline métisse : la chimie quantique
par Jean-Paul Malrieu


La Chimie Quantique est installée entre deux sciences majeures, à la charnière entre la Physique, plus particulièrement la Physique Moléculaire et la Physique du Solide, et la Chimie. Elle fait partie de ce qu'en France on appelle la Chimie-Physique, où le tiret signifie le rapprochement de deux substantifs, tandis que les Anglo-saxons distinguent Chemical Physics et Physical Chemistry, selon la pondération des intérêts et les outils mis en oeuvre. La Chimie quantique n'est qu'une partie de la Chimie-Physique. Il existe en effet une Chimie-Physique qui s'intéresse aux propriétés macroscopiques de la matière, et qui mobilise essentiellement des représentations classiques. La Chimie quantique peut être vue comme une discipline qui s'intéresse d'abord à des propriétés et des phénomènes qui concernent l'univers des molécules, à des échelles microscopiques, celles de la molécule ou de l'atome, et qui ne peuvent être compris qu'à l'aide de la Physique Quantique. Il s'agit des propriétés des assemblées d'électrons que les atomes partagent pour construire les édifices moléculaires, et des propriétés caractérisant le mouvement des noyaux dans la molécule.
Quelques questions élémentaires caractérisent ce domaine :
- Comment, par quelles forces, tiennent ces édifices à longue durée de vie que sont les molécules ? Quels sont les différents types de liaisons chimiques entre les atomes, quelle est leur nature, leur solidité ?
- Comment les molécules répondent-elles à la lumière, à quelles longueurs d'onde répondent-elles, que se passe-t-il quand elles absorbent un ou plusieurs photons ?
- Quelles interactions existe-t-il entre des molécules, quels compromis passent-elles, quels édifices d'édifices peuvent-elles construire dans les liquides, les membranes, les organisations supra-moléculaires dont vous parlait J. M. Lehn ?
- En quoi consiste la réaction chimique qui, de la rencontre de A avec B, construit la molécule AB, ou de celle entre AB et CD nous donne les molécules AC et BD ? Par quels chemins, à quelles conditions, doit passer le super-système des deux molécules qui entrent en collision ou s'approchent pour que se négocie le nouvel assemblage, produit de la réaction chimique ?
Mais à ces questions il peut être apporté deux types de réponses, les unes théoriques, par la Chimie quantique, et d'autres expérimentales, qui mobilisent les ressources très diversifiées des spectroscopies. La Chimie-Physique microscopique expérimentale est difficilement discernable de la Physique moléculaire, si ce n'est par des frontières qui tiennent plus de la tradition que de la raison. Elle interpelle très subtilement, en augmentant sans cesse la résolution temporelle ou énergétique de ses interpellations, ou en croisant ces interpellations, les objets sur lesquels travaillent les Chimistes Quanticiens. Ceux-là mobilisent les postulats et les théorèmes de la Physique Quantique, énoncés dès les années vingt du vingtième siècle, pour interpréter et/ou prédire, par des voies purement abstraites ou numériques, les propriétés des molécules. La Chimie Quantique est donc une discipline théorique, bien qu'on puisse la dire, j'y reviendrai, plus calculatoire que théorique.
Une scansion temporelle
D'abord un peu d'histoire sur les étapes par lesquelles est passée cette discipline, qui nous permettra d'en mieux cerner les enjeux.
Au début se trouvent d'une part un corpus théorique, celui de la Mécanique Quantique, avec ses concepts fondamentaux, ses équations maîtresses, ses théorèmes, ses méthodes rigoureuses et ses approximations raisonnées, et d'autre part un legs, la somme des informations préliminaires et des expériences préalables apportées par la Physique Atomique, qui a joué un rôle essentiel dans la naissance de la Mécanique Quantique, et qui concerne les entités à partir desquelles se construisent les molécules.
Je n'écrirai pas d'équation, pas même l'équation maîtresse qui fixe les états stationnaires d'un système quantique, l'équation de Schrödinger, je procéderai par images et par métaphores abusives, forcément abusives. Je dois par exemple dire que les électrons sont des particules chargées indiscernables, mais qu'ils ont une caractéristique, leur spin, qui ne peut prendre que deux valeurs et qu'on peut voir comme un sexe, si on veut une analogie facile.
Le legs de la Physique Atomique
La Physique Atomique lègue d'abord une bonne simplification, en nous disant, avec Born et Oppenheimer, que les noyaux, qui sont aussi des particules quantiques, ont une masse tellement plus lourde que les électrons qu'on peut considérer leurs mouvements comme lents par rapport à ceux des électrons, ceux-ci adaptant instantanément leur répartition à la position des noyaux. Cette approximation, dans laquelle se placent 99,9 % des travaux, découple les problèmes électronique et nucléaire et nous laisse avec une population homogène d'électrons, se déplaçant dans le champ électrique attractif exercé sur eux par les noyaux. Autre leçon, qualitative, l'idée que l'état du système résulte d'une sorte de compromis entre trois composantes de l'énergie, l'attraction nucléaire d'une part, qui est négative (stabilisante), et grande quand les électrons orbitent très près des noyaux, ensuite la répulsion entre électrons, particules de même charge, qui les fait se fuir, et enfin l'énergie cinétique, positive, qui n'est faible que si les électrons se promènent tranquillement dans de vastes espaces. Le compromis se joue donc entre des forces qui confinent les électrons près des noyaux et d'autres qui tendent à les éloigner, à les faire se mouvoir sur de plus vastes orbites.
La Physique Atomique introduit très tôt une vision hiérarchisée des populations d'électrons dans l'atome, un modèle en couches et sous-couches. Ces couches caractérisent des niveaux d'énergie et des extensions spatiales, il y a des couches internes d'énergie très profonde, dont les électrons orbitent près du noyau, et des couches externes, dites de valence, d'énergies plus hautes et dont les électrons orbitent plus loin du noyau. Alors que les premières ne participeront pas aux liaisons chimiques, se contenteront en quelque sorte de s'y adapter par de petites modifications, ce seront les secondes qui participeront à la construction des liaisons entre atomes.
Les sous-couches peuvent être vues comme caractérisant des formes d'orbites des électrons, dans une image classique. C'est pourquoi on les appelle orbitales. Je les appellerai boîtes, ici atomiques. Disons qu'elles ont une forme et une extension spatiale, qui caractérisent par leur volume le domaine où l'électron qui l'occupe aime à se promener et par leur forme, le type de trajectoire qu'il y adopte. On a donc des boîtes sphériques, les orbitales e type « s », des boîtes allongées selon un axe avec deux lobes, de signes différents, les orbitales « p », etc.
Bref une petite zoologie de base que la Chimie quantique va manipuler. Cette construction du modèle atomique, dans laquelle les électrons vont remplir gentiment, deux par deux de spins opposés, les couches et sous-couches d'énergies les plus basses, rationalise le tableau périodique de Mendeleïev, proposé cinquante ans plus tôt. C'est aussi à la Physique Atomique que la Chimie Quantique devra un certain nombre de ses outils, par exemple l'approximation dite de « champ moyen », et la conscience des difficultés du problème à N-corps, dont je reparlerai plus en détail.
Premier temps, comprendre la liaison chimique (les années trente)
Dès les années trente les quanticiens cherchent à comprendre la nature des différentes liaisons chimiques que postulaient les chimistes depuis presque cent ans. Ils appliquent donc, moyennant force simplifications, leurs outils à la compréhension des molécules les plus élémentaires, la molécule H2+, à un seul électron, et la molécule H2, à deux électrons. L'idée clef est la suivante : à ne pas rester dans la boîte de l'atome dans lequel il est arrivé, et à se mouvoir près de l'autre noyau, un électron peut gagner en énergie cinétique puisqu'il orbite dans un volume plus large sans perdre en énergie potentielle, la liaison est liée à une délocalisation des électrons dans la liaison chimique. Cela va sans problème s'il n'y a qu'un électron dans la liaison ; s'ils sont deux, il faut qu'ils soient de sexes opposés, pour que l'électron de spin « up » apporté par l'atome A puisse aller se promener dans la boîte apportée par l'atome B, occupée par un électron de spin « down » et réciproquement.
On a donc un modèle, dit de la Liaison de Valence (Valence-Bond), qui manipule les boîtes atomiques de valence des atomes et construit des liaisons à 2 électrons de spins opposés, se déplaçant entre les deux boîtes apportées à la liaison par les deux atomes partenaires.
Une solution alternative consiste à déchirer la frontière entre les deux boîtes atomiques, à faire une seule boîte plus grande sur la liaison et à y mettre les deux électrons, c'est une orbitale moléculaire de liaison. Les électrons qui n'entrent pas dans des paires de liaison restent dans des boîtes atoniques, un peu déformées par les liaisons engagées, qu'on appelle « paires libres ».
Si les deux atomes sont de nature différente, les électrons peuvent préférer orbiter plutôt, voire seulement près de l'un d'eux, on aura alors une liaison partiellement ionique, comme dans LiH, ou très ionique comme dans NaCl.
En tout cas la théorie quantique naissante vient rationaliser d'emblée le jeu de Lego moléculaire avec lequel les chimistes jouaient et pensaient depuis plus d'un demi-siècle, en écrivant leurs formules chimiques avec des lettres, les atomes, et des traits, les liaisons, supposées porter deux électrons. Cette conciliation de la Chimie constructiviste intuitive avec la théorie abstraite qui venait de naître est un événement épistémologique majeur trop occulté dans l'enseignement.
Un autre domaine de la chimie, la chimie organométallique, va bénéficier très vite de la Physique atomique ; on comprendra en effet comment les ions métalliques, qui sont entourés de ligands moléculaires ou d'ions non métalliques, sont perturbés par cet environnement, des sous couches cessent d'avoir la même énergie, les plus basses acceptent les électrons qui sont sur le métal, et la spectroscopie de celui-ci est très différente de ce qu'elle était sans les ligands. C'est la théorie du Champ Cristallin, complétée ensuite par la prise en compte des délocalisations qui peuvent intervenir entre les orbitales et les électrons des ligands et du métal, pour devenir théorie du Champ des Ligands, un instrument conceptuel de base incontournable dans ce domaine, dépassant le modèle classique intuitif des paires électroniques de liaison.
Cette période voit aussi s'établir la compréhension du mouvement des noyaux, mouvements de rotation et de vibration, donnant lieu à des spectroscopies spécifiques, riches d'informations.
Dernier apport de cette époque pionnière, la compréhension de ce qui se passe entre les molécules quand elles s'approchent sans faire une réaction chimique, les forces qui les attirent, dont certaines sont d'ordre électrostatique mais d'autres, les forces dites de dispersion, ne peuvent être comprises que dans le cadre de la théorie quantique, et les forces qui les repoussent, elles aussi d'origine quantique.
Ainsi s'est immédiatement construite une théorisation qualitative, interprétative, qui a mis de l'ordre dans des variétés d'édifices d'apparence disparate et fourni de nouveaux concepts, ce qui était énorme. Jusque là pas d'ordinateur, des simplifications drastiques mais raisonnées permettant la rationalisation.
L'ère de la délocalisation électronique (les années 45-60)
Tout ne pouvait coller aussi simplement avec le petit Lego des chimistes. S'il en avait été ainsi, la Mécanique Quantique n'aurait servi qu'à justifier une vision classique dans laquelle des noyaux sont liés par des ressorts de longueurs et rigidités différentes. Une Mécanique Moléculaire de type classique sera de fait développée après les années soixante-dix pour l'étude des conformations de grosses molécules, en particulier les biomolécules.
Deux types de problèmes vont donner à l'approche quantique un rôle irremplaçable. Le premier concerne les molécules où certains électrons ne forment pas des paires assignables à un couple d'atomes, ce sont les hydrocarbures conjugués, les polyènes le benzène, le naphtalène, leurs innombrables analogues, molécules dont les atomes sont dans un plan, dans lequel s'engagent des liaisons bien locales, porteuses de deux électrons, mais dont une partie des électrons se déplace dans des bottes atomiques orientées perpendiculairement au plan de la molécule. Le second problème concernait la réponse de toutes les molécules, même les plus compatibles avec le Lego moléculaire, à la lumière, en particulier l'émission d'électrons (spectroscopie photo-électronique). Si vous considérez par exemple la famille des hydrocarbures saturés, méthane, éthane, propane, etc. vous avez la série la plus compatible avec le jeu de Lego moléculaire, l'énergie est très bien donnée par des additions d'énergies de liaisons, caractéristiques de la liaison CC et de la liaison CH respectivement. Et pourtant vous ne comprendrez rien à l'évolution des potentiels d'ionisation (énergie nécessaire à l'arrachement d'un électron) dans cette série, ni à leur dépendance à la structure moléculaire, à ses branchements.
Là s'ouvre le règne de la délocalisation électronique et s'installe une représentation en terme d'orbitales moléculaires délocalisées, aujourd'hui largement enseignée aux chimistes. Dans cette représentation les atomes apportent à l'édifice moléculaire leurs électrons de valence et les boîtes correspondantes, sans préjugé de partenariat, et les électrons vont se promener dans l'ensemble de ces boîtes atomiques. Mais plutôt que de considérer une théorie Valence-Bond généralisée, ce qui est possible mais ne conduit qu'à un traitement numérique, difficile et sans concept, on va construire à partir des boîtes atoniques des boîtes ou orbitales moléculaires, qui s'étendent sur l'ensemble du squelette moléculaire mais qui jouent sur les signes qu'on affecte aux bottes atomiques dans les boîtes moléculaires. Par exemple si on considère un ensemble de quatre atomes alignés apportant chacun un électron et une boîte, on peut prendre quatre combinaisons totalement distinctes (on dit orthogonales), qui seront respectivement ++++, ++--, +--+ et +-+-. Si l'on calcule l'énergie d'un électron posé dans une de ces orbitales moléculaires on verra qu'elle dépend fortement de ces jeux sur les signes, plus il y a de changements de signes, plus l'énergie est élevée. Si on veut donc affecter la population électronique à cet ensemble d'orbitales moléculaires, on mettra deux électrons, toujours de spins opposés, dans les orbitales d'énergie les plus basses. Nous avons ainsi une vision de la population électronique selon laquelle les électrons vont encore par paires mais occupent des sortes d'appartements étendus sur l'ensemble de l'espace moléculaire, d'altitude énergétique différente, qui présentent de plus en plus de changements de signes, de cloisons si vous restez dans cette image immobilière, quand on monte dans les étages (en énergie). Quand on a mis tous les électrons ainsi dans les étages les plus bas, restent des appartements vides de haute énergie. Ioniser une molécule c'est arracher un électron d'un des niveaux occupés, ce qui coûte une énergie donnée, quantifiée, caractérisant ce niveau, et exciter une molécule c'est envoyer un électron d'un niveau occupé à un niveau vide, ce qui implique à nouveau une énergie déterminée.
En fait le jeu selon lequel on combine les orbitales atomiques pour construire les orbitales moléculaires ne manipule pas que les signes, il est plus quantitatif, réglé par l'opérateur quantique associé à l'énergie, le Hamiltonien. Une forme très simplifiée de celui-ci, pratiquement topologique (l'Hamiltonien de Hückel), a permis à la fois des calculs numériques sur les calculateurs mécaniques de l'époque, et de très jolies analyses algébriques. De 1945 à 1960 ce modèle, populaire aussi en Physique du Solide, multiplie les succès. La Chimie Quantique aura néanmoins ses martyrs dans l'URSS de Staline, où les chimistes quanticiens sont envoyés au Goulag comme apôtres d'une idéologie bourgeoise indéterministe. Si l'on songe que les Physiciens soviétiques donnent à cette même période et à ce même pouvoir, à partir des mêmes outils conceptuels, les armes de la fission et de la fusion nucléaires, on mesurera que la Chimie Quantique n'est pas encore une technique très prédictive.
L'ère du comput (1960-75)
L'informatique va permettre à la discipline de se prendre au sérieux, elle va revenir de formes très simplifiées de l'Hamiltonien à son expression exacte. Certes on n'obtiendra pas les solutions exactes de l'équation maîtresse, on travaillera dans le cadre de deux approximations :
- La première, encore indépassée aujourd'hui sauf cas exceptionnels, consiste à travailler dans un espace vectoriel fini, c'est-à-dire avec un nombre fini de boîtes atomiques. Mais on en prendra un nombre de plus en plus grand, afin de donner plus de degrés de liberté dans la distribution spatiale et la forme des orbitales moléculaires.
- La seconde, provisoire, consiste à remplir les niveaux électroniques les plus bas avec deux électrons et à minimiser l'énergie totale. Dans cette approximation les électrons se meuvent dans un champ moyen, créé par les noyaux et les autres électrons.
Cette étape de la discipline bouleverse son visage, sa pratique et son impact. On veut reproduire l'expérience de façon quantitative, la dimension technique explose, il faut calculer, stocker et gérer des dizaines de milliers d'intégrales, penser stratégie computationnelle, taille-mémoire, rapidité des algorithmes. Un autre profil de compétence apparaît, passablement technique, proche de l'informatique dont il faut connaître les outils en rapide évolution. La discipline se fait numériste, elle perd en charme ce qu'elle gagne en précision. Mais elle vit avec exaltation la course à la prédictivité quantitative.
L'ère de la rigueur : le défi de la corrélation électronique (1975-90)
Heureusement pour l'intelligence de la discipline, la recherche de la solution exacte de l'équation maîtresse est une tâche plus que difficile, impossible. L'approximation qui consiste à poser les paires d'électrons dans des orbitales optimisées est grossière. Dans la réalité, ou dans la solution exacte, les électrons ne se déplacent pas dans un champ moyen fixe. Si deux électrons vont à la rencontre l'un de l'autre ils infléchiront leur trajectoire pour diminuer leur répulsion, leurs mouvements seront corrélés et non plus indépendants. Ce problème de la corrélation entre électrons s'appelle « problème à N-corps quantique », il a exigé dans diverses disciplines de beaux efforts conceptuels et méthodologiques. Notons que sur ce terrain la Chimie Quantique s'est trouvée plus proche de la Physique Nucléaire que de la Physique du Solide, qui manipule pourtant elle aussi des électrons dans le champ de noyaux.
Ce problème de la corrélation a deux aspects, formel et physique. L'aspect formel concerne la distribution des électrons dans les boîtes mises à leur disposition, qu'elles soient locales (atomiques) ou étalées sur l'espace moléculaire. U nombre possible de ces distributions de n électrons dans p boîtes, même sous contrainte de ne pas mettre plus de deux électrons par boîte, est trop grand et certaines distributions sont très défavorables. De très jolis formalismes ont été conçus, qui essayent de combiner rigueur formelle et praticabilité. Certains outils, très généraux, peuvent être exportés de la Chimie Quantique vers d'autres champs.
L'aspect physique concerne l'évitement des électrons dans l'espace. Si 2 électrons ont même spin, la probabilité de les trouver dans un même point de l'espace est nulle, c'est une autre version de l'homophobie à l'Suvre dans la constitution des couples d'électrons, qu'on visualise par le « trou de Fermi ». Les électrons de spins opposés font meilleur ménage, on peut en trouver deux au même endroit, mais ils préfèrent garder quelque distance, du fait de leur répulsion électrostatique, et c'est une propriété très subtile de la fonction d'onde exacte que de présenter en tout point cette singularité qu'on appelle « trou de Coulomb ». Il est impossible de rendre compte de cette propriété en tout point de l'espace physique à l'aide d'un ensemble fini d'orbitales. Heureusement cet effet d'évitement à courte portée ou de dernière seconde n'a pas des effets énergétiques cruciaux et les calculs effectués avec un nombre fini d'orbitales, par exemple en donnant 10 orbitales, judicieusement choisies, par électron, donnent des énergies suffisamment correctes pour la précision souhaitée par les chimistes. Néanmoins les méthodologistes s'efforcent de calculer l'effet du trou de Coulomb, avec un succès convaincant.
L'ère de l'efficience simulatrice (1990- ?)
Aujourd'hui donc les chimistes quanticiens sont capables de calculer de façon très précise les énergies et les géométries de molécules de moins de dix atomes dans leur état fondamental, sans introduire d'autre information empirique que la forme analytique des orbitales atomiques utilisées. C'est ce qu'on appelle la méthodologie ab initio, pour l'opposer aux simplifications semi-empiriques utilisées auparavant. Cette approche est aujourd'hui battue en brèche, parce qu'une alternative beaucoup moins coûteuse a été proposée.
Les calculs ab initié nécessitent en effet un temps de calcul qui croît comme une puissance du nombre N d'électrons, la puissance quatrième dans la méthode de champ moyen, une puissance sixième ou septième si on traite la corrélation entre électrons. L'étude de grosses molécules qui intéressent les expérimentateurs, les biochimistes, les inventeurs de matériaux nouveaux, les spécialistes de la catalyse, semblait impossible. Ce coût prohibitif tient en principe à ce que la fonction d'onde manipule les trois coordonnées des N électrons et travaille dans un espace de dimension 3N.
Or un théorème, dû à Hohenberg et Kohn, établit qu'il doit exister une correspondance biunivoque entre la densité électronique dans l'espace physique, de dimension 3, et la fonction d'onde, donc l'énergie. Correspondance qu'on ne connaît que dans le cas idéal du gaz homogène d'électrons. D'où le rêve d'un formalisme qui travaillerait avec la seule densité électronique. Partant donc du cas idéal et de quelques sophistications destinées à tenir compte de l'inhomogénéité de densité, une « théorie fonctionnelle de la densité » (DFT) a été proposée, beaucoup plus économique que les méthodes principielles que j'ai décrites plus haut. Les fonctionnelles utilisées aujourd'hui ont des formes complexes, elles introduisent de nombreux paramètres, et donnent des résultats comparables à ceux des meilleurs calculs ab initio, à bien moindre coût. Bien sûr les valeurs données à ces paramètres ne découlent pas des principes, elles ont été ajustées par essais et erreurs sur un ensemble d'expériences numériques. Si bien que la méthode DFT est encore à ce jour une méthode semi-empirique. J'ai même soutenu qu'on pouvait à la limite lui donner le statut de réseau neuronal, c'est-à-dire d'une machine apprentissante. Si un réseau neuronal, câblé à partir d'un ensemble d'expériences, ne donne pas une réponse satisfaisante dans un cas nouveau, on doit incorporer ce cas à l'ensemble d'apprentissage et réviser les câblages. C'est un peu ce que font les praticiens de la DFT à ce jour, bien que des recherches théoriques fondamentales soient aussi menées pour produire des fonctionnelles formellement fondées. Le rapport qualité des résultats obtenus/coût des calculs est en tout cas très attractif et balaie les scrupules éventuels d'une majorité d'utilisateurs. Et il n'y a pas lieu de faire la fine bouche si ce que l'on demande c'est une réponse très probable à une question précise concernant un système particulier.
Quelques beaux succès d'une discipline austère
Les succès de la Chimie Quantique sont d'ordres différents.
Elle donne d'abord une représentation qualitative de la population électronique. Elle est à la fois un traité des passions, une anthropologie et une sociologie. Elle dit les attirances et les exclusions, elle catégorise les liens, leur nature, elle pense les hiérarchies énergétiques, les partages, les complicités, les lois de la parenté et les compromis économiques. La théorie des orbitales moléculaires est désormais largement enseignée aux chimistes, ce qui leur a demandé de louables efforts, car on n'entre pas facilement dans le paradigme quantique. A ce stade, et dans la mesure où elle est manipulable analytiquement, ou avec les mains, la chimie quantique est parfois très esthétique. En particulier quand elle traite des électrons délocalisés des molécules conjuguées, le culmen dans ce domaine étant sans doute atteint par la formulation des règles qui gouvernent la stéréo-spécificité des réactions électrocycliques, question qu'on peut formuler ainsi : quand une molécule en forme de ruban se referme par ses deux extrémités, se ferme-t-elle en cylindre ou comme un ruban de Moebius ? Ces règles rationalisées par une démonstration simple ont valu à Woodward et Hoffmann un prix Nobel mérité. Ce qu'on peut par contre regretter c'est que l'approche des orbitales moléculaires délocalisées soit aussi hégémonique dans l'enseignement et que les approches alternatives en termes d'orbitales de liaisons, parfaitement équivalentes aux précédentes pour la description de l'état fondamental de la quasi-totalité des molécules, ne soient pas enseignées, alors qu'elles valident la représentation intuitive qu'utilisent les chimistes dans la vie quotidienne.
Un usage qualitatif spectaculaire concerne les édifices magnétiques, ceux où quelques électrons restent seuls dans leur boîte, la question étant de savoir si les électrons célibataires préfèrent avoir le même sexe ou des sexes opposés. Là les effets quantiques sont déterminants. Je voudrais saluer ici la façon dont des chimistes extrêmement créatifs, comme Olivier Kahn, mort prématurément cet hiver, ou Michel Verdaguer, savent mobiliser une vision théorique simple dans leur design de composés nouveaux aux propriétés remarquables. Ceux là font mentir la fatalité qui divise expérimentateurs et théoriciens. Pour les théoriciens « purs » comme moi la rencontre de ces partenaires et des beaux problèmes qu'ils nous soumettent est un plaisir stimulant.
Semi-quantitatives sont les informations qui concernent la spectroscopie. La symétrie des états impliqués dans les excitations, l'intensité des absorptions de photons, l'ordre énergétique des états de la molécule, leurs natures parfois qualitativement différentes, autant de questions dont les réponses exigent la maîtrise de concepts quantiques et la manipulation des fonctions d'onde.
Puis viennent les succès quantitatifs, la spectaculaire précision des calculs les plus rigoureux, effectués sur des molécules de taille moyenne, vérifiables par confrontation avec les informations expérimentales. Les géométries d'équilibre, les longueurs des liaisons, les angles qu'elles forment entre elles, les énergies de dissociation, nécessaires à la rupture des liaisons, sont, sauf rares exceptions, reproduits au pour cent près. Longtemps les théoriciens ne se donnaient pour objectif que de reproduire aussi bien que possible les résultats de l'expérience, et à une époque ils prêtaient le flanc à l'ironie, quand par exemple ils s'échinaient à reproduire avec un ou deux ans de retard l'orientation du moment dipolaire de la misérable molécule CO, que les expérimentateurs révisaient périodiquement. Cette époque est bien révolue. La Chimie Quantique affirme et prédit. Elle a permis d'identifier des composés instables, présents dans l'espace interstellaire, responsables de raies en spectroscopie hertzienne, apparaissant dans des forêts de raies. Ces composés y existent du fait de l'extrême vide qui y règne, qui rend très rares les collisions qui les détruiraient, comme elles le font en laboratoire. Nous sommes capables de déterminer des architectures élusives, de calculer les intermédiaires très instables de réactions chimiques. Tout composé stable correspond à une conformation du squelette moléculaire, et s'en écarter, déplacer les noyaux, coûte de l'énergie. Une configuration d'équilibre est comme un lac entre des montagnes. Passer d'une configuration d'équilibre à une autre, donc faire une réaction chimique, c'est passer d'un lac à un autre, ou d'un lac à une vallée. La route doit franchir une crête, au mieux passer par un col. Et les chimistes quanticiens sont capables de dire la position du col, c'est-à-dire la position relative des noyaux, et son altitude. Ils peuvent même dire si la route qui y mène est directe ou tortueuse.
Ils peuvent aussi désormais explorer, avant les expérimentateurs et à bien moindre coût, des chimies utopiques susceptibles d'être réalisées. Par exemple : la Chimie la plus pratiquée est celle des atomes légers, l'hydrogène, le carbone, l'azote et l'oxygène, et leurs analogues de la seconde ligne longue du tableau périodique. Que se passe-t-il si l'on remplace le carbone par un atome lourd, ayant le même nombre d'électrons externes, comme le germanium ou l'étain ? Conséquence indirecte de la relativité, ces atomes sont plus réticents que le carbone à engager leurs 4 électrons externes dans des liaisons, ils hésitent à se comporter comme le plomb, qui préfère n'en engager que deux, et ils construisent une chimie très versatile, avec des liaisons d'un type nouveau, à un seul ou à trois électrons, ce que l'expérience confirme peu à peu.
Autre utopie : des édifices assez stables mais qui pourraient stocker beaucoup d'énergie, libérable par dissociation. Par exemple le cube N8 peut exister, il serait stable à température ordinaire, mais sa dissociation en quatre molécules N2 dégagerait une énergie considérable. Les chemins de sa synthèse sont par contre ardus, car c'est un lac de montagne encore inaccessible, pour reprendre ma métaphore géographique.
Autre domaine où la Chimie Quantique s'est avérée utile, celui des petits agrégats d'atomes. Si vous considérez par exemple l'élément Sodium, vous trouverez à un extrême le cristal de sodium, métal où les électrons sont très délocalisés, et à l'autre extrême la molécule diatomique Na2, avec une liaison plutôt covalente. Entre ces deux extrêmes, dans des édifices à 4, 10 ou 100 atomes, que se passe-t-il ? Comment se passe la transition vers le métal et son organisation ? Pour les petits agrégats au moins la Chimie Quantique apporte des réponses sûres ; pour les plus gros d'autres modèles, plus proches du gaz d'électrons, apportent les informations les plus pertinentes.
Autre forme de la matière, les liquides moléculaires. Là, les molécules glissent, tournent et vibrent les unes par rapport aux autres. On est ici dans un univers dynamique. Comprendre les propriétés d'un liquide exige de bien connaître les interactions entre deux molécules, dont on peut ensuite faire un potentiel à deux corps, à utiliser dans une mécanique statistique classique pour déterminer les propriétés macroscopiques du liquide. Parfois les termes à deux corps ne suffisent pas, des effets non additifs à trois, quatre ou six corps sont non négligeables. À cet égard l'eau est particulièrement difficile à traiter. Mais on en sait désormais assez par les simulations temporelles sur la dynamique de l'eau pour savoir la labilité extrême des associations intermoléculaires locales et vous ne trouverez pas un chimiste quanticien pour parier un kopek sur la supposée « mémoire de l'eau » de Benvéniste.
Perspectives et paris
P. G. de Gennes disait récemment de la Chimie Quantique qu'il faudrait, je cite, « en hâter l'agonie ». On doit ajouter qu'il la jetait dans une fosse commune en bonne compagnie, avec la Physique du Solide et la Physique Nucléaire. Mort du Quantique ? Non, notre discipline, comme, et je dirai avec, la Physique du Solide, a du pain sur la planche et de belles ambitions.
Sur le plan conceptuel et méthodologique, le traitement des états excités est l'enjeu de gros efforts, parce que la définition d'une description d'ordre zéro, sur laquelle s'appuyer pour élaborer la fonction d'onde est difficile.
Sur le plan de la puissance et de la capacité à s'attaquer au traitement de grandes molécules une percée remarquable est en cours. Elle consiste à concevoir des algorithmes dont le temps d'exécution croisse linéairement avec la taille du système traité. Cette offensive s'appuie sur une remarque de bon sens : pour la quasi-totalité des molécules, et pour autant qu'on s'intéresse à leur état fondamental, il n'y pas d'effet physique à longue portée, il est toujours possible de construire soit la densité soit la fonction d'onde à partir de briques locales d'extension finie, en interaction avec un nombre fini de briques voisines. Il s'agit là d'un retour aux descriptions localisées que les visions mettant l'accent sur la délocalisation avaient refoulées. L'idée s'applique à tous les Hamiltoniens et Scuselia dans un article récent rapportait un calcul concernant un footballène géant de 8 640 atomes de carbone, dont la géométrie avait été optimisée. Mais l'idée est pertinente aussi dans le cadre des méthodes ab initio dont certains pensaient il y a 5 ans que la révolution pragmatique de la DFT allait les envoyer au Musée des Arts et Métiers sinon aux poubelles de l'Histoire. Mais la corrélation électronique, si difficile à traiter correctement, est à courte portée. Il est possible de déterminer directement des orbitales moléculaires locales et d'effectuer dans cette base des calculs élaborés de la corrélation électronique avec des temps de calcul qui ne croissent que proportionnellement au nombre des atomes. Le match qui oppose rigueur et efficacité pragmatique n'est pas définitivement joué. Ces approches ouvrent d'ailleurs la voie au traitement des solides périodiques par les techniques ab initié.
Autre perspective d'avenir, apporter à la physique des matériaux des connaissances cruciales sur la nature et l'amplitude des interactions locales, qui commandent les propriétés collectives de ces matériaux. Pour comprendre quand un empilement d'unités composées de deux donneurs plus un accepteur devient conducteur, il faut connaître les interactions entre les donneurs, leur dépendance aux changements de géométrie, la structure chimique est cruciale, ainsi que ces données que sont les énergies et les formes des orbitales moléculaires en jeu, leur position spatiale relative. De même pour les édifices magnétiques, les composés à magnétorésistance colossale ou les supraconducteurs à haute température critique, leurs propriétés spectaculaires ne peuvent être comprises qu'à l'aide non du Hamiltonien exact, trop compliqué, mais d'Hamiltoniens modèles réduisant le nombre des électrons impliqués et simplifiant leurs interactions. Mais telle ou telle simplification n'est elle pas abusive ? Et quelle est la valeur de telle interaction ? Comment change-t-elle dans les déformations du réseau ? Autant de questions auxquelles l'expérience ne peut en général pas apporter de réponse univoque, et qui relèvent potentiellement des compétences de la Chimie Quantique. Je suis persuadé qu'il y a là un avenir très fructueux pour notre discipline. Lorsqu'il en est ainsi, lorsque nous apportons de telles informations à la Physique, la Chimie Quantique, science de transfert, science hybride, n'est plus seulement la passerelle par laquelle une science plus scientifique, la Physique, déverse sur une science moins noble, inférieure, le bienfait de ses connaissances. Par cette passerelle passent en sens inverse des connaissances indispensables à la Physique.
Encore faut-il savoir ce dont on est capable. Dès le début des années 80 les Chimistes quanticiens se sont engouffrés en masse vers un problème d'envergure et d'une grande importance économique, la catalyse hétérogène, processus par lequel une réaction chimique impossible en phase gazeuse ou liquide devient possible à la surface d'un métal. Mais cette question est celle de toutes les difficultés, car il s'agit d'un métal de transition, déjà difficile à traiter théoriquement, de sa surface, encore plus difficile, voire d'un défaut sur cette surface, et d'une réaction chimique sur celle-ci ! Les années hommes et les années computers englouties dans ce problème prématuré n'ont pas apporté de lumières convaincantes.
Par contre l'assistance théorique au design moléculaire, à la conception de nouvelles architectures, doit prendre son essor. Il faut des théoriciens imaginatifs qui conçoivent et mettent à l'épreuve de leurs calculs des composés doués par exemple de bistabilité, donc susceptibles de stocker de l'information à l'échelle de la molécule, ce qui représenterait un bond prodigieux dans la compacité du stockage. Et l'utopie d'une électronique moléculaire, avec ses fils, ses diodes, ses commutateurs, est déjà en marche, sous l'impulsion d'esprits hardis.
Questions impertinentes
Pour terminer et prendre un peu de champ je voudrais poser quelques questions qui débordent le cadre d'un exposé scientifique usuel, fut-il adressé à des non-spécialistes.
D'abord pourquoi des Chimistes Quanticiens ? La division Expérience/Théorie ne prend pas en Physique la forme institutionnelle qu'elle a prise en Chimie, où existent des laboratoires de Chimie Quantique. La réponse à cette question est à la fois pratique et culturelle. La distance est plus grande entre l'inactivité du chimiste de synthèse et celle du chimiste quanticien qu'entre celle du physicien expérimentateur, qui manipule des spectroscopies compliquées, déjà prises dans le paradigme quantique, et son collègue théoricien. A quoi s'ajoute le fait que la plupart des chimistes n'ont ni le goût ni les bases qui leur permettent de s'approprier des concepts abstraits et des outils formels non-intuitifs. Mais ce fossé est peut-être imputable en partie au faible effort de transmission de leur savoir par les théoriciens.
Quelque chose est cependant en train de changer. Des logiciels sont désormais disponibles, moyennant finances, que des chimistes non-spécialistes peuvent utiliser comme des bottes noires ou un autre type de spectromètre. Ils n'ont besoin que de recettes simples concernant la saisie de leur problème et la lecture des résultats. Cette révolution changera peut-être les rapports théorie/expérience. Elle pourrait en tout cas amener à reconsidérer le mode d'enseignement de la Chimie Quantique, qui suit jusqu'à ce jour les voies ardues de la déduction et laisse dans les premiers lacets de la route, entre formalismes obscurs et exercices dérisoires, des étudiants démotivés. Peut-être faudrait-il mettre cet enseignement cul par dessus tête, et convaincre d'abord les étudiants, grâce à l'usage de ces boîtes noires performantes, de la pertinence et de l'efficience de la Chimie Quantique, pour accrocher leur curiosité et les faire remonter, par les chemins du doute, vers le contenu des formalismes utilisés.
La théorie est-elle dirigée par une logique interne ou par une demande, une sorte d'effet de marché ? J'ai en effet mentionné ces codes boîtes noires, produits et vendus par des sociétés privées réunissant théoriciens et informaticiens. La Chimie quantique, complexée de sa longue inutilité, a voulu faire ses preuves et certains ont cru nécessaire ou rentable de créer ces petites sociétés privées de quelques dizaines de personnes. Il s'agissait moins d'un marché déjà là que d'une anticipation sur une demande potentielle, celle des compagnies industrielles chimiques, pharmaceutiques et biochimiques. Il est certain que la cible escomptée, celle des « grosses molécules », a infléchi la pratique de la discipline, accentué la conversion rapide de l'approche ab initio à la DFT. J. Pople fut un des participants actifs à la conception de la méthodologie ab initio en même temps qu'il fondait la première de ces sociétés privées. En Juillet 91 il ferraillait durement contre W. Kohn et la DFT, avant de se convertir en six mois à cette nouvelle approche, évidemment plus prometteuse pour le marché. Bien lui en a pris puisqu'il a partagé avec Kohn voici deux ans le prix Nobel de Chimie.
La Chimie Quantique est-elle une science ou une technique ? Il est certain que cette discipline mobilise beaucoup de technologie. Dans la mesure où elle fonctionne largement, certains diraient exclusivement, à l'aide d'ordinateurs, l'attention aux ressources informatiques et leur évolution est essentielle. Je vois effectivement deux périls à une technicisation excessive de la discipline.
Le premier péril, c'est le culte du nombre, qui à la limite peut devenir dangereux pour la théorie elle-même. Lévy-Leblond a dit avec raison que la simulation numérique n'est pas de la théorie. La simulation peut être basée sur la mise en comput de la théorie, laquelle est faite de concepts, de lois et de déductions. Le calcul ne déduit pas, il s'effectue sans la participation de notre logique. Si elle dérive vers le réseau neuronal efficace, la simulation peut perdre le contact avec la théorie. Ne pourrait-elle alors tuer la théorie ?
L'autre péril est celui de la perte de séduction. À n'exalter que l'efficience, la puissance, on pose un idéal très besogneux, un profil d'informaticien appliqué, figure dont on peut craindre qu'elle n'attire pas les esprits les plus créatifs. Et de fait l'informatique capte, c'est une esclave asservissante. Mes jeunes collègues passent l'essentiel de leur temps devant leur écran, où ils lisent le verdict de leurs dernière tentative et lancent la suivante. Ils n'ont plus le temps, ou le laissent à des privilégiés-négriers de mon genre, de ces batailles logiques avec la structure d'un problème formel, ou de ces longues recherches du « passage du Nord-Ouest » qui caractérisent la théorie.
Même l'exploitation des résultats numériques souffre du numérisme. Vous travaillez sur un composé bizarre, hypothétique, et vos calculs confirment son existence donnent son énergie, sa structure, ses fréquences vibrationnelles. Mais ces résultats appelleraient d'autres analyses plus qualitatives : où sont les électrons, quelles liaisons chimiques tiennent cet édifice, s'agit-il d'un prototype nouveau, d'une pièce nouvelle à ajouter au Lego moléculaire des chimistes ? En campant dans le pré étroit du positivisme numérique, en affichant une telle répugnance au qualitatif, à la traduction imagée, en s'enfermant dans le puritanisme du fait, non seulement on manque à une des fonctions du théoricien, sa fonction langagière, de fournisseuse d'une représentation du monde, mais on se prive du plaisir esthétique.
Quelle place tient en effet l'esthétique dans cette science ?
Présentée souvent comme austère, cette discipline réserve pourtant de grands plaisirs. D'abord par le jeu de ses trois langages, la jonglerie des traductions entre le langage Valence-Bond (en terme de bottes atomiques), celui des orbitales moléculaires de liaison, et celui des orbitales moléculaires délocalisées. Un effet physique peut être obscur dans une représentation et devenir limpide dans une autre.
Le plaisir du dévoilement ensuite. La Chimie, à la différence de la Physique, ne fonctionne pas par formulation de lois, elle est connaissance du spécifique. Mais elle connaît des « effets » assez universels, qu'on prend plaisir à identifier et comprendre.
Pour le théoricien formaliste, le plaisir est celui des défis logiques, qui sont branchés sur des problèmes universaux, dépassant le cadre étroit de la discipline. Il est aussi un plaisir d'ingénieur de concevoir une approche nouvelle, plus élégante et/ou plus rigoureuse que celles déjà disponibles.
Pour l'imaginatif c'est le bonheur des inventions d'architectures, le double plaisir de concevoir des utopies chimiques et de pouvoir en vérifier très vite la cohérence.
La Chimie quantique, science hybride entre Physique et Chimie, science inconfortable qui fait des siens des chauves-souris, physiciens abscons aux yeux des chimistes, pauvres chimistes aux yeux des physiciens ? Elle est autre chose qu'une passerelle ou une science de transfert,' elle a produit une culture spécifique dans la tension où elle vit entre les trois pôles qui la stimulent et la déchirent :
- La fonction interprétative, de compréhension, de fournisseuse de représentations,
- le souci de grande rigueur formelle, en particulier de manipuler l'Hamiltonien exact,
- et le souci acharné de la précision de ses prédictions.
Je suis persuadé que cette science, métisse donc, mais originale, a un bel avenir et dispose de suffisamment de ressources et d'assez d'énigmes devant elle pour attirer de jeunes esprits exigeants.

 

VIDEO                 CANAL  U                 LIEN

 

(si la video n'est pas accéssible,tapez le titre dans le moteur de recherche de CANAL U.)

 
 
 
 

LA VIE DANS L'UNIVERS

 

LA VIE : ORIGINE ET DISTRIBUTION POSSIBLE DANS L'UNIVERS


Il y a environ 4 milliards d'années, se développèrent dans l'eau terrestre des structures capables de se reproduire et d'évoluer. L'omniprésence de la cellule dans tous les systèmes vivants suggère un ancêtre commun de type cellulaire. Dans la mesure où la formation des ARN/ADN porteurs de la mémoire cellulaire apparaît comme peu probable dans l'eau de la Terre primitive, on peut penser que la vie primitive émergea de structures plus simples que la cellule et l'ARN. La simplicité de ces structures suggère qu'elles ont de réelles chances d'apparaître et de se développer chaque fois que sont réunies les conditions qui ont contribué à l'apparition de la vie terrestre : eau liquide, atmosphère, micrométéorites et/ou sources hydrothermales sous-marines. Ces conditions existaient vraisemblablement sur Mars il y a 4 milliards d'années et existent peut-être encore aujourd'hui sous la calotte glaciaire d'Europe, l'une des lunes de Jupiter. Les 83 molécules organiques détectées dans le milieu interstellaire par radioastronomie et la découverte d'une vingtaine de planètes extrasolaires permettent d'envisager la présence de vie au-delà du système solaire.

 

VIDEO                 CANAL  U                 LIEN


(si la video n'est pas accéssible,tapez le titre dans le moteur de recherche de CANAL U.)

 
 
 
 

EFFETS DU SOLEIL SUR L'ENVIRONNEMENT

 

LE SOLEIL ET SES EFFETS SUR NOTRE ENVIRONNEMENT TERRESTRE


Conférence de l'Institut d'Astrophysique de Paris présentée par Guillaume Aulanier, astronome à l'Observatoire de Paris-Meudon, au Laboratoire d'Études Spatiales et d'instrumentation en Astrophysique-LESIA, le 7 mai 2013.


Depuis le lancement de SOHO en 1995, dans l'attente de Solar Orbiter et avec les satellites actuels Hinode et SDO, les physiciens solaires du monde entier vivent un âge d'or, et profitent d'une moisson de données d'observation en qualité et en quantité sans précédent. Depuis que l'on peut les combiner avec des modèles théoriques pertinents pour la formation des taches solaires, le déclenchement des éruptions et la propagation des éjections de masse coronales, ces données permettent de comprendre l'origine magnétique, et électrique, des perturbations les plus énergétiques de l'héliosphère qui ont un impact dans l'environnement spatial de la Terre, et même parfois au sol. On suivra l'histoire des champs magnétiques solaires, illustrée avec les données spectaculaires des dernières missions spatiales, et ce depuis leur amplification au sein de notre étoile jusqu'à leur propagation dans l'héliosphère. Puis on verra de quelles façons ces champs magnétiques se manifestent au niveau du Soleil lui-même, et comment et pourquoi ils affectent la Terre. On terminera par une discussion sur les capacités qu'a le Soleil à produire, ou pas, les super-éruptions observées sur certaines étoiles, qui on récemment suscité quelques craintes parmi le public.

 

VIDEO              CANAL  U             LIEN


(si la video n'est pas accéssible,tapez le titre dans le moteur de recherche de CANAL U.)

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 ] Précédente - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales /confidentialité

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon