ecole de musique piano
     
menu
 
 
 
 
 
 

PARTICULES ÉLÉMENTAIRES

 

 

 

 

 

 

 

PARTICULES  ÉLÉMENTAIRES

 

PLAN
            PARTICULES ÉLÉMENTAIRES
                *         PHYSIQUE
                *         1. Vers l'infiniment petit
                *         2. Les moyens d'étude
                *         2.1. Les accélérateurs de particules
                *         2.2. Les détecteurs de particules
                *         3. Physique des particules et cosmologie
                *         4. Le modèle standard
                *         4.1. Quarks et leptons
                *         4.2. Création et destruction de particules
                *         4.3. Les quatre forces fondamentales
                *         4.3.1. L'interaction électromagnétique
                *         4.3.2. L’interaction forte
                *         4.3.3. L’interaction faible
                *         4.3.4. L’interaction gravitationnelle
                *         4.4. Points forts et points faibles du modèle standard
                *         4.5. Vers la « théorie du tout » ?

particules élémentaires

Cet article fait partie du dossier consacré à la matière.
Constituant fondamental de la matière apparaissant, dans l'état actuel des connaissances, comme indivisible.

PHYSIQUE
1. Vers l'infiniment petit
De tout temps les scientifiques ont sondé la structure de la matière pour trouver unité et simplicité dans un monde qui nous frappe par sa diversité et sa complexité apparentes. N'est-il pas remarquable de découvrir que tous les objets qui nous entourent ne sont que les multiples assemblages, parfois fort complexes, d'un petit nombre de constituants fondamentaux, qui nous apparaissent aujourd'hui comme les particules élémentaires du monde ? N'est-il pas remarquable que toutes les forces que nous voyons en jeu dans la nature ne soient que les différentes manifestations d'un tout petit nombre de mécanismes fondamentaux prenant une forme particulièrement simple au niveau des particules élémentaires ?

L'atome est tout petit (environ 10–10 m). Un gramme de matière contient près d'un million de milliards de milliards d'atomes (1024). Cependant, grâce aux instruments dont ils disposent, les physiciens peuvent maintenant décrire et comprendre la structure intime des atomes.


La physique des particules se pratique auprès de grands accélérateurs. Elle requiert de plus en plus d'importantes collaborations internationales, nécessaires pour réaliser et exploiter ces machines extrêmement coûteuses ainsi que les détecteurs qui permettent d'analyser les événements observés. Ces collaborations sont des milieux particulièrement favorables à l'éclosion de nouvelles technologies. C'est comme cela qu'est né le World Wide Web au Cern de Genève (→  Internet).


La physique des particules s'efforce de découvrir les constituants fondamentaux de la matière et de comprendre leurs interactions, c'est-à-dire la façon dont ces constituants se lient entre eux pour réaliser les structures souvent très complexes et variées que nous observons dans le monde qui nous entoure.

Dans les années 1980, le pouvoir de résolution des instruments les plus performants pour étudier la structure intime de la matière atteignait le millionième de milliardième de mètre (10–15 m), autrement dit la dimension du proton et du neutron, les constituants du noyau atomique. Ce dernier est beaucoup plus petit que l'atome, car les nucléons y sont tassés les uns contre les autres. L'atome a un rayon 100 000 fois plus grand et son volume est rempli par le mouvement incessant des électrons qui entourent le noyau.=
Aujourd'hui, le pouvoir de résolution atteint le milliardième de milliardième de mètre (10–18 m), ce qui permet de sonder l’intérieur des nucléons. En effet, les protons et les neutrons sont constitués de particules appelées quarks, qui etcomptent désormais parmi les constituants fondamentaux de la matière. Il y a 18 types de quarks, qui se distinguent par leur « saveur » et leur « couleur ». Il s'agit là de nouveaux concepts pour lesquels on a préféré ces appellations imagées aux racines grecques en faveur auparavant. L'électron est aussi l'un des constituants fondamentaux de la matière. Il fait partie d'un ensemble de six particules élémentaires appelées leptons.

Les forces présentes dans la nature résultent des symétries entre quarks et entre leptons. Tout cela est résumé par le modèle standard des particules élémentaires et des interactions fondamentales. C’est une théorie quantique des champs, autrement dit une théorie à la fois quantique et relativiste. Or, maintenir la causalité dans un monde quantique et relativiste implique l'existence d'antimatière, dont la prédiction et l'observation ont constitué un grand succès. À chaque particule correspond une antiparticule de même masse mais de charge opposée. Toutefois, si le modèle standard permet de décrire l'ensemble des particules élémentaires de la matière et les interactions fondamentales qui s'exercent entre elles, il n’inclut toujours pas l'interaction gravitationnelle. Ainsi, le modèle standard n'est pas la théorie ultime de la physique.

2. Les moyens d'étude

Pour atteindre la résolution qui est nécessaire pour plonger à l'intérieur du noyau, puis à l'intérieur des nucléons, il faut des rayons gamma de très faible longueur d'onde, autrement dit de très haute énergie. On peut les obtenir par rayonnement de particules chargées, comme l'électron ou le proton, quand ils sont accélérés à des vitesses proches de celle de la lumière (3 × 108 km.s-1). On peut cependant opérer plus directement en utilisant le fait que l'électron et le proton se comportent comme des ondes aussi bien que comme des particules. Cela traduit la description quantique qu'il faut adopter au niveau des particules. La longueur d'onde associée à une particule de très haute énergie est inversement proportionnelle à son énergie : électrons et protons de hautes énergies sont donc aussi des sondes qui se comportent comme de la lumière de très petite longueur d'onde. Ce sont eux qui permettent d'observer la structure fine de la matière, avec un pouvoir de résolution d'autant meilleur que leur énergie est plus élevée.

2.1. Les accélérateurs de particules

En étudiant les résultats de collisions à très hautes énergies, on peut explorer la structure intime de la matière, reconnaître les particules élémentaires et étudier leurs propriétés. Le pouvoir de résolution est déterminé par la puissance des accélérateurs.

Le principe de l'observation reste le même que celui utilisé avec la lumière visible, en aidant l'œil avec un instrument d'optique. Un accélérateur communique une grande énergie aux particules qu'il accélère. Les plus performants sont des collisionneurs, où des faisceaux de particules sont simultanément accélérés dans des directions opposées et amenés en collisions frontales dans des zones où l'on dispose les détecteurs. Les produits des collisions étudiées sont analysés par les détecteurs qui rassemblent les données permettant de déterminer la nature et les propriétés des particules issues de la collision. Ces collisions de haute énergie engendrent en général un véritable feu d'artifice de particules nouvelles. Une partie de l'énergie de collision se transforme en matière et en antimatière.

On exprime les énergies de collision en électronvolts (eV). L'électronvolt est l'énergie acquise par un électron sous une différence de potentiel de un volt. C'est en gros l'énergie par électron fournie par une pile électrique, car c'est aussi l'ordre de grandeur de la variation d'énergie par électron impliquée dans une réaction chimique typique (1 eV = 1,6 × 10-19 J). Vers 1960, les accélérateurs permettaient d'obtenir des énergies de collision de l'ordre d'une centaine de millions d'électronvolts (100 MeV). On pouvait ainsi descendre jusqu'à 10–15 m. Aujourd'hui, les énergies de collision atteintes dépassent le millier de milliards d'électronvolts (1 000 GeV, soient 1 TeV). Le collisionneur de Fermilab, près de Chicago, aux États-Unis, permet d'atteindre des énergies de collision de 2 TeV entre proton et antiproton.

       

Mais la machine la plus puissante du monde est désormais le LHC (Large Hadron Collider), grand collisionneur de hadrons de 27 km de circonférence mis en service en septembre 2008 au Cern, près de Genève. Il a atteint une énergie de collision de 8 TeV en juillet 2012, qui a permis de découvrir une particule qui présente toutes les caractéristiques du fameux boson de Higgs. Le LHC devrait fonctionner à 7  TeV par faisceau à partir de 2015, soit une énergie de collision de 14 TeV qui permettra de confirmer définitivement la découverte du boson de Higgs et d’aller encore plus loin dans l’exploration de l’infiniment petit.
Analyser et comprendre la structure intime de la matière, c'est donc aussi comprendre la physique des hautes énergies. C'est savoir décrire et prédire ce qui se passe au cours de telles collisions.

2.2. Les détecteurs de particules
Comment parvient-on à observer les particules malgré leur taille extrêmement réduite ? On ne voit en réalité que des effets secondaires liés à leur présence et l'on déduit de l'observation de ces phénomènes le passage et les propriétés d'une ou plusieurs particules. En utilisant plusieurs phénomènes secondaires et en courbant les trajectoires des particules dans des champs magnétiques, d'autant plus facilement que les particules ont moins d'énergie, on peut connaître la nature et les propriétés des particules qui traversent un détecteur.

Les détecteurs de particules modernes (comme les détecteurs Atlas ou CMS du LHC) sont composés de couches de sous-détecteurs, chacun étant spécialisé dans un type de particules ou de propriétés. Il existe trois grands types de sous-détecteurs :
• les trajectographes, qui permettent de suivre la trajectoire des particules chargées électriquement ;
• les calorimètres, qui arrêtent une particule et en absorbent l'énergie, ce qui permet de mesurer l’énergie de la particule ;
• les identificateurs de particules, qui permettent d’identifier le type de la particule par détection du rayonnement émis par les particules chargées.
Les détecteurs sont toujours soumis à un champ magnétique, qui courbe la trajectoire des particules. À partir de la courbure de la trajectoire, les physiciens peuvent calculer l’impulsion de la particule, ce qui les aide à l’identifier. Les particules à impulsion élevée se déplacent quasiment en ligne droite, alors que celles à impulsion plus faible décrivent de petites spirales.

3. Physique des particules et cosmologie

Selon le modèle du big bang, l'Univers tel que nous l'observons est né, semble-t-il, d'une sorte de grande explosion, le « big bang », qui s'est produite il y a environ 15 milliards d'années. L'Univers est en expansion et les galaxies semblent se fuir les unes les autres avec des vitesses proportionnelles à leurs distances respectives. Sa densité et sa température n'ont cessé de décroître depuis le big bang ; aujourd'hui, elles sont toutes deux très faibles : la densité moyenne correspond à un atome par mètre cube et la température moyenne est de l'ordre 3 K (soit –270 °C).
La relativité générale nous permet de suivre l'évolution de l'Univers et de retrouver les conditions proches de celles qui ont dû exister aux premiers instants de l’Univers à partir des données actuelles. Mais le modèle se heurte à une limite, une singularité, appelée « mur de Planck », qui correspond à l’instant 10-43 s après le big bang : il est impossible de connaître ce qui s’est passé avant cet instant car les lois de la physique que nous connaissons ne sont plus applicables, la densité et la température de l’Univers étant alors infinies. Or, en physique, des quantités infinies n’ont plus grand sens… Néanmoins, de cet instant jusqu’à nos jours, le modèle permet de décrire l’évolution de l’Univers – composé cependant à 96 % de matière et d’énergie noires inconnues !
Comme la température est proportionnelle à l'énergie moyenne par particule, au début de l'Univers, ses constituants avaient des énergies colossales et, du fait de la densité extrêmement forte, ils étaient en collision constante les uns avec les autres.
La physique qui prévalait à cette époque est donc la physique des hautes énergies que l'on explore à l'aide des accélérateurs : comprendre la structure intime de la matière, c'est aussi pouvoir décrire et comprendre ce qui se passait au début de l'Univers.
Vers 1970, les spécialistes maîtrisaient la physique à des énergies de l'ordre de 100 MeV, correspondant à la température de l'Univers quand il était âgé d'un dixième de millième de seconde (10-4 s). Aujourd'hui, les progrès réalisés permettent de comprendre la physique au niveau de 1 TeV, et, donc, les phénomènes qui se déroulaient dans l'Univers un centième de milliardième de seconde après le big bang (10-11 s). Ainsi, le facteur dix mille gagné dans les énergies par particule (ou les températures) en passant de 100 MeV à 1 TeV a permis de reculer d'un facteur dix millions dans l'histoire des premiers instants de l'Univers. C'est dire combien la physique des particules et la cosmologie sont intimement liées.

4. Le modèle standard

Le modèle standard de la physique des particules est la théorie de référence qui décrit les constituants élémentaires de la matière et les interactions fondamentales auxquelles ils participent.
La description de la structure de la matière fait appel à deux familles de particules élémentaires : les quarks et les leptons. À chaque constituant de la matière est associée son antiparticule, une particule de même masse et de charge opposée (par exemple, l’antiparticule de l’électron est le positon).

4.1. Quarks et leptons
Les quarks, découverts dans les années 1960, sont les constituants des nucléons (protons et neutrons), les particules constitutives des noyaux atomiques. Ils participent à toutes les interactions. Il en existe six espèces différentes. Pour décrire leurs propriétés, on a choisi d'utiliser des noms imagés, faute d'analogie avec quoi que ce soit de connu. Ainsi, la caractéristique qui, en dehors de la charge électrique, permet de distinguer les quarks est appelée « saveur ». Les six saveurs, caractéristiques des six espèces de quarks, sont dénommées : up (u), down (d), strange (s), charm (c), bottom (b) et top (t). Par ailleurs, chaque saveur peut exister en trois variétés, qui portent les noms de « couleurs » : rouge, vert et bleu. De même que la masse permet à une particule de réagir à la gravitation et la charge électrique à la force électromagnétique, la couleur rend les quarks sensibles à l'interaction nucléaire forte, responsable de leurs associations et de la cohésion des noyaux atomiques. Cette force ne se manifeste pas au niveau macroscopique : les trois couleurs se compensent mutuellement pour former la matière globalement « incolore ».
Une autre particularité des quarks est leur confinement : il est impossible de les obtenir individuellement à l'état libre. La famille des leptons rassemble les particules insensibles à la force nucléaire forte : l'électron ; deux particules analogues à l’électron, mais plus lourdes et instables, le muon et le tauon (ou tau) ; et trois particules électriquement neutres associées aux trois précédentes, les neutrinos électronique, muonique et tauique.
Les quarks et les leptons se présentent en doublets. Il existe un doublet de quarks (u et d) auquel fait pendant un doublet de leptons (neutrino et électron). L'électron a une charge électrique (prise par convention égale à –1), contrairement au neutrino. Il y a aussi une différence d'une unité entre la charge du quark d (–1/3) et celle du quark u (+2/3). Deux quarks u et un quark d forment un proton (charge globale +1). Deux quarks d et un quark u forment un neutron (charge globale nulle). Les protons et les neutrons sont à la base de tous les noyaux atomiques. En ajoutant suffisamment d'électrons pour compenser la charge électrique du noyau, on obtient les atomes.
L'électron, le quark u et le quark d sont les constituants exclusifs de la matière ordinaire.

4.2. Création et destruction de particules
Au cours de certains processus de désintégration radioactive, un quark d peut se transformer en quark u, mais simultanément un neutrino se transforme en électron, ou un électron est créé avec un antineutrino. La charge globale est conservée.
Dans un proton, les trois quarks ont des couleurs différentes et le proton est globalement « incolore ». C'est aussi le cas d'une multitude de particules instables qui apparaissent dans les collisions de protons quand une partie de l'énergie de collision se transforme en matière et antimatière : ces particules sont des hadrons, qui peuvent être soit des baryons – formés de trois quarks, soit des mésons – formés d'un quark et d'un antiquark. Les antiquarks ont des couleurs opposées à celles des quarks qui leur correspondent.
Quand l'énergie devient matière, il se crée autant de quarks que d'antiquarks et autant de leptons que d'antileptons. La même règle s'applique lors de l'annihilation de la matière et de l'antimatière en énergie.

Les collisions de haute énergie entre quarks ou leptons font apparaître d'autres quarks et d'autres leptons. La nature répète ainsi deux fois la famille initiale en présentant deux doublets supplémentaires de quarks, auxquels sont associés deux nouveaux doublets de leptons. Le deuxième doublet renferme le quark strange (s) et le quark charm (c), le troisième le quark bottom (b) et le quark top (t). Ce dernier a longtemps échappé aux investigations par sa masse très élevée, de l'ordre de 180 fois supérieure à celle du proton. Il a été finalement découvert au Fermilab, près de Chicago (États-Unis), en 1995, après que sa masse eut été prédite à partir de résultats obtenus à l'aide du LEP (Large Electron Positron collider) du Cern, près de Genève (Suisse). Les quarks c et b sont aussi beaucoup plus lourds que les quarks u et d, mais néanmoins nettement plus légers que le quark t.
De même, le muon et son neutrino ainsi que le tauon et son neutrino constituent les deux autres doublets de leptons associés aux deux doublets précédents de quarks. Le muon est environ 200 fois plus lourd que l'électron et le tauon près de 3 000 fois plus lourd. Ces quarks et ces leptons lourds sont instables et très éphémères à l'échelle humaine. Ils se désintègrent en se transformant en quarks ou en leptons de masse inférieure. Toutefois, la manifestation des forces entre quarks et leptons ne demande que des temps extrêmement faibles par rapport à la durée de vie de ces particules. À leur échelle, les quarks et les leptons sont donc tous aussi stables les uns que les autres et peuvent tous être considérés comme des constituants fondamentaux de la matière. Si la constitution de la matière stable de l'Univers ne fait appel qu'à la première famille de ces particules, les forces qui permettent de construire la matière à partir des éléments de la première famille font, elles, appel à la présence de tous les quarks et de tous les leptons.

4.3. Les quatre forces fondamentales
Si l'on a découvert une assez grande diversité de particules, toutes les forces présentes dans la nature se ramènent en revanche à un nombre très restreint d'interactions fondamentales. D'après la mécanique quantique, pour qu'il y ait une interaction, il faut qu'au moins une particule élémentaire, un boson, soit émise, absorbée ou échangée.
Interactions auxquelles sont soumises les particules fondamentales

4.3.1. L'interaction électromagnétique
Considérons l'interaction entre deux charges électriques. Dans la description usuelle du phénomène, on dit qu'une particule chargée crée un champ électrique qui remplit tout l'espace tout en décroissant comme l'inverse du carré de la distance à la charge. Une autre particule chargée est sensible à ce champ. Cela crée une force entre les deux particules. Si ces dernières se déplacent à une certaine vitesse, il faut introduire aussi le champ magnétique. On parle donc globalement de l'interaction électromagnétique (→  électromagnétisme). En physique quantique, ce champ présente également une forme corpusculaire : c'est une superposition de photons. Le processus fondamental de l'interaction électromagnétique correspond à l'émission d'un photon par un électron et à son absorption par un autre électron. Il implique la charge mais ne la modifie pas, puisque le photon échangé n'a pas de charge. C'est la base de l'électrodynamique quantique, qui permet de calculer tous les phénomènes mettant en jeu des échanges de photons au cours desquels peuvent aussi apparaître des paires électron-positon.

4.3.2. L’interaction forte
L'interaction forte repose sur la « couleur » des quarks. Le processus fondamental est très semblable à celui rencontré en électrodynamique. Deux quarks exercent une force l'un sur l'autre, et elle est associée à l'échange d'un gluon. Le gluon distingue la couleur mais peut aussi la changer car il porte lui-même de la couleur. Ce processus est à la base de la chromodynamique quantique, qui permet de calculer les phénomènes associés à l'échange de gluons, capables de se transformer en paires de quarks et d'antiquarks. Contrairement à l’interaction électromagnétique qui porte à l’infini, l’interaction forte ne s’exerce qu’à des distances très courtes, à quelques diamètres de noyaux

4.3.3. L’interaction faible
L'interaction électromagnétique et l'interaction forte ne peuvent pas changer la « saveur ». Mais il existe une autre interaction fondamentale qui peut le faire : c'est l'interaction faible. Elle existe sous deux formes. L'une peut changer la « saveur » et la charge et correspond à l'échange d'un boson W. L'autre peut agir sans changer la « saveur » ni la charge et correspond à l'échange d'un boson Z. Les neutrinos, qui n'ont ni charge ni « couleur », ne sont sensibles qu'à l'interaction faible. L’interaction faible (également appelée force nucléaire faible), qui permet de transformer un neutron en proton ou inversement – donc de changer la composition d'un noyau –, est ainsi responsable de certains phénomènes de la radioactivité, en particulier la radioactivité bêta.
L'interaction électromagnétique et les deux formes de l'interaction faible ne sont en fait que trois aspects d'un mécanisme unique : l'interaction électrofaible. En effet, en comprenant leur mode d'action, on s'est aperçu qu'on ne pouvait pas avoir l'une sans avoir les deux autres.
Mais il a fallu du temps pour parvenir à cette découverte car, si le photon a une masse nulle, les bosons W et Z sont très lourds, atteignant chacun près de cent fois la masse du proton, dont l'énergie de masse est proche de 1 GeV. Ce sont ces grandes masses échangées qui minimisent les effets de l'interaction et lui valent le qualificatif de faible. Ce n'est qu'au cours de collisions où l'énergie est comparable à l'énergie de masse du boson W ou du boson Z que la présence de ces masses élevées devient moins importante et que les interactions électromagnétiques et faibles peuvent montrer au grand jour leur étroite parenté.
4.3.4. L’interaction gravitationnelle

C'est une force universelle, en ce sens qu'elle est subie par toutes les particules connues. Elle est de loin la plus faible des forces, elle est toujours attractive et, de plus, elle a une portée infinie. C'est grâce à ces deux dernières caractéristiques qu'elle est détectable macroscopiquement : l'addition des forces gravitationnelles qui s'exercent entre les particules de notre corps et la Terre, par exemple, produit une force appelée poids.
→ gravitation.
Au niveau des particules élémentaires, cette force devient importante seulement lorsque des énergies considérables entrent en jeu. Dans un noyau atomique, par exemple, la force d'attraction gravitationnelle entre deux protons est 1036 fois plus faible que celle de la répulsion électrostatique. C'est à partir d'une énergie de 1019 GeV (1 GeV est l'énergie cinétique qu'acquiert un électron quand il est accéléré par une différence de potentiel de 1 000 millions de volts) qu'elle devient comparable à l'interaction électromagnétique.
Ainsi, malgré le grand nombre d'acteurs en présence, les thèmes de base de leurs jeux sont donc très peu nombreux et très semblables. C'est à ce niveau que se rencontrent l'unité et la simplicité. Qui plus est, on sait aujourd'hui déduire l'existence et les propriétés des forces fondamentales des symétries que les quarks et les leptons manifestent entre eux. La présence des forces est une conséquence du fait que ces particules sont nombreuses, mais qu'on peut dans une large mesure les mettre les unes à la place des autres sans modifier la description du monde : les quarks et les leptons sont groupés en doublets de « saveur » et les quarks en triplets de « couleur ». La compréhension de la nature profonde des forces est l'un des grands succès de la physique contemporaine. C'est le domaine des théories de jauge. L'existence et la propriété des forces sont impliquées par les symétries.

4.4. Points forts et points faibles du modèle standard
Le modèle standard consiste en un ensemble d'algorithmes, appelé développement perturbatif, permettant de calculer, par approximations successives, à l'aide d'un nombre fini et fixé de paramètres déterminés expérimentalement, les probabilités des réactions des leptons et des quarks, du photon et des bosons intermédiaires en interactions électromagnétique et faible, et les probabilités des réactions des quarks et des gluons en interaction forte à grand transfert d'énergie. Ce modèle a passé avec succès tous les tests expérimentaux auxquels il a été soumis et il a permis d'anticiper de très nombreuses découvertes expérimentales décisives : les réactions d'interaction faible à courants neutres en 1973, le quark charm en 1975, le gluon en 1979, les bosons intermédiaires de l'interaction faible (bosons W+, W– et Z0) en 1983, et le quark top en 1995. Toutes ses prédictions ont été confirmées par l'expérience et ce jusqu’à la très probable découverte en 2012 du boson de Higgs, la fameuse particule permettant d’expliquer l’origine de la masse de toutes les autres particules.

La chasse au boson de Higgs


Le boson de Higgs (ou de Brout-Englert-Higgs) est la particule élémentaire dont l'existence, postulée indépendamment par Robert Brout, François Englert et Peter Higgs dans les années 1960, permet d’expliquer l’origine de la masse de toutes les autres particules. En effet, les particules n’acquièrent une masse qu’en interagissant avec un champ de force invisible (appelé champ de Higgs) par l’intermédiaire du boson de Higgs. Plus les particules interagissent avec ce champ et plus elles deviennent lourdes. Au contraire, les particules qui n’interagissent pas avec ce champ ne possèdent aucune masse (comme le photon).

Pour mettre au jour le boson de Higgs, on provoque des milliards de chocs entre protons qui se déplacent quasiment à la vitesse de la lumière et on analyse les gerbes de particules produites. La découverte de ce boson, très probablement détecté dans le LHC du Cern en 2012, validerait ainsi le modèle standard de la physique des particules. Il faudra attendre 2015 et la remise en service du LHC dont les faisceaux de particules atteindront l’énergie nominale de 7 TeV par faisceau pour conclure définitivement sur la découverte du fameux boson.

Le modèle standard comporte cependant des points faibles.En particulier, il est en échec face au traitement quantique de la gravitation.Par ailleurs, il ne fournit pas d'explication à la propriété fondamentale du confinement qui interdit aux quarks de se propager à l'état libre hors des particules dont ils sont les constituants, etc. Ce modèle doit être considéré comme une théorie susceptible d'être améliorée et approfondie, voire remplacée dans l'avenir par une théorie radicalement nouvelle.

4.5. Vers la « théorie du tout » ?
Le modèle standard permet de décrire avec précision la structure de la matière avec une résolution de 10–18 m et d'évoquer ce qui se passait au début de l'Univers, dès 10–10 seconde après le big bang.
On pense aujourd'hui que l'interaction forte et l'interaction électrofaible ne sont que deux aspects d'un phénomène unique. Ce dernier ne devrait cependant se manifester ouvertement qu'à de très grandes énergies, que l'on situe vers 1016 GeV. On verra sans doute alors apparaître au grand jour d'autres mécanismes transformant les quarks en leptons et mettant en jeu l'échange de particules, encore hypothétiques, dont la masse est de l'ordre de 1016 GeV. Ce n'est que pour des énergies de collision dépassant largement ce seuil que les différents modes d'interaction devraient apparaître sur un pied d'égalité, dévoilant ainsi explicitement leur grande unité.
De telles énergies sont encore hors de notre portée et le resteront pour longtemps. Mais c'était celles qui prévalaient théoriquement 10–38 seconde seulement après le big bang. C'est à ce moment que les quarks et les leptons sont apparus, figés pour toujours dans leur état de quark ou de lepton avec un très léger excès, déjà mentionné, de quarks par rapport aux antiquarks et de leptons par rapport aux antileptons. On explique ainsi pourquoi l'Univers contient autant de protons que d'électrons, en étant globalement neutre. C'est le domaine de la théorie de Grande Unification, encore très spéculative. Aux énergies qui nous sont accessibles, la gravitation qui s'exerce entre des particules individuelles reste tout à fait négligeable en regard des autres forces fondamentales. Mais, à des énergies de l'ordre de 1019 GeV, elle devient aussi importante qu'elles, car ses effets croissent avec l'énergie. On pense même pouvoir l'associer aux autres modes d'interaction actuels dans le cadre d'une théorie unique. Celle-ci incorporerait une formulation quantique de la gravitation qui manque encore aujourd'hui mais dont la théorie des supercordes donne déjà un aperçu. La mise au point de cette « théorie du tout » constitue l'un des grands sujets de recherche actuels de la physique. L'Univers n'était âgé que de 10–43 seconde quand l'énergie y était de l'ordre de 1019 GeV. C'est à ce moment que le temps et l'espace prirent la forme que nous leur connaissons. Nous manquons encore de concepts plus profonds pour remonter au-delà.

 

  DOCUMENT   larousse.fr    LIEN

 
 
 
 

ÉLÉMENT

 


 

 

 

 

 

PLAN
            *         ÉLÉMENT
            *         CHIMIE
            *         1. Historique de la notion d'élément
            *         1.1. Les conceptions anciennes
            *         1.2. Du xviie s. à Mendeleïev
            *         1.3. La conception moderne
            *         2. La dénomination des éléments
            *         3. La classification périodique des éléments
            *         3.1. Une case, un élément
            *         3.2. Lignes et colonnes
            *         4. Les éléments radioactifs et leurs transmutations
            *         4.1. Radioactivité et stabilité des éléments
            *         4.2. Production et utilisations énergétiques des éléments transuraniens
    *         BIOLOGIE

élément

Cet article fait partie du dossier consacré à la matière.


Entité chimique fondamentale commune aux diverses variétés d'un même corps simple ainsi qu'aux combinaisons de ce corps simple avec d'autres corps.

CHIMIE
1. Historique de la notion d'élément
1.1. Les conceptions anciennes
Il est aisé de constater que les corps sont faits de matières différentes, le bois, le fer, etc. Une fois acquis qu'une matière peut être constituée de plusieurs substances – le bronze est obtenu par le mélange du cuivre et de l'étain –, il était naturel de s'interroger sur la composition de toute matière. La diversité des propriétés des substances oriente vers l'idée qu'elles sont constituées, selon différentes combinaisons, d'un petit nombre de substances élémentaires. Ce sont les qualités de ces éléments qui expliqueraient celles des matières composées.

De là naquit, parmi différentes théories, celle des quatre éléments, attribuée à Empédocle d'Agrigente (ve s. avant J.-C.), qui a joui d'une grande faveur jusqu'au xviiie s. : la terre, le feu, l'air et l'eau sont les noms couramment donnés à ces éléments. Aristote (ive s. avant J.-C.) perfectionna cette conception en leur attribuant des qualités, comme le chaud et l'humide. La quintessence était un cinquième élément, plus subtil, exemple parmi d'autres de ce qu'une spéculation sans frein n'a pas manqué de produire. L'alchimie, dans sa visée de connaissance et de maîtrise de la matière, y participa largement.

1.2. Du xviie s. à Mendeleïev

Au xviie s. la chimie, encore peu distincte de l'alchimie, commença à devenir plus scientifique : la connaissance devenait celle de la société des savants, et non plus le secret de quelques uns ; et l'usage de l'expérimentation commençait à relever d'une attitude plus méthodique. On en observe un effet dans la nouvelle définition des éléments que proposa Robert Boyle (1627-1691) : on doit désigner par ce mot les matières qui, à l'expérience, résistent à toute tentative de décomposition. Cette nouvelle conception allait s'imposer petit à petit contre l'ancienne, jusqu'à triompher à l'époque de Lavoisier. Cette notion expérimentale d'élément avait comme faiblesse d'être relative aux possibilités techniques d'analyse du moment. Tel corps qui a résisté à toutes les tentatives de décomposition peut, analysé selon une méthode nouvelle, révéler une structure composée.

Au cours du xixe s., les chimistes identifièrent quelques dizaines d'éléments. La quête chimique étant devenue attentive à la mesure des quantités, des « poids » notamment, des rapports simples apparurent dans les résultats, et la théorie atomique fut remise en chantier pour les expliquer. On associa aux éléments divers types d'atomes, différant les uns des autres, pour le moins, par leurs masses. En les classant par « poids atomique » croissant, Dimitri Mendeleïev (1834-1907) observa que certaines propriétés revenaient périodiquement. Il put ainsi classer les 63 éléments connus en un tableau rectangulaire. Certaines cases restant vides, Mendeleïev put prédire l'existence des éléments correspondants ainsi que leurs propriétés, et l'expérience lui donna bientôt raison.

1.3. La conception moderne

Au début du xxe s., lorsque l'on a commencé à connaître la structure de l'atome – un noyau autour duquel gravitent des électrons –, il est devenu possible de redéfinir la notion d'élément. On appelle ainsi, depuis, un type d'atome : il est caractérisé par son numéro atomique Z, qui est le nombre des protons présents dans son noyau. C'est aussi celui des électrons, tant qu'il n'y a pas ionisation.

Pour un même numéro atomique, le nombre des neutrons peut subir quelques variations : par exemple, le chlore (Z = 17) en a 20 dans un cas sur quatre et 18 dans les trois autres. Comme le chlore, tout élément peut donc présenter des isotopes, dont les propriétés chimiques sont semblables puisqu'elles sont liées, pour l'essentiel, à la structure électronique.
Un élément n'est pas nécessairement un corps, en ce sens que l'on ne le trouve pas toujours tel quel dans la nature. Dans les conditions ordinaires, par exemple, il n'y a pas de gaz dont les corpuscules seraient les atomes d'oxygène (O). Celui que l'on désigne traditionnellement par ce nom est appelé dioxygène par les chimistes ; ses molécules sont faites de deux atomes (O2). L'ozone (O3), quoique constitué du même élément O, est un autre corps simple.

2. La dénomination des éléments
Chaque élément est donc exprimé par un symbole et un numéro d'ordre, le numéro atomique (symbole Z).
Le premier élément a pour symbole H et pour numéro atomique Z = 1. On l'appelle hydrogène. Le deuxième a pour symbole He et pour numéro atomique Z = 2. On l'appelle hélium. Et ainsi de suite.
Les noms des éléments sont d'origine très variée : inconnue pour certains, qui sont en usage depuis la nuit des temps, elle est pour d'autres liée aux circonstances de leur découverte ou aux caractéristiques de l'élément. L'hydrogène doit son nom au fait qu'il « engendre l'eau » (par combustion), le phosphore au fait qu'il « apporte la lumière », le chlore à sa couleur d'un « vert jaunâtre » : les trois noms ont été construits sur les racines grecques correspondantes. Les chimistes ont aussi créé des noms à partir de mots d'origine latine : rubidium signifie « rouge » ; l'iridium a été baptisé par référence à la variété des couleurs obtenues par sa dissolution dans les acides…
L'hélium a été découvert dans le spectre de la lumière solaire : son nom vient du mot grec désignant le Soleil. Le hafnium a été ainsi nommé par Coster et Hevesy en 1923 : ce nom, qui vient de Hafnia (ancienne appellation latine de Copenhague) a été définitivement adopté, après des dénominations très variées (norium en 1845, jargonium en 1869, nigrium puis celtium en 1911) dues aux longues vicissitudes qui ont accompagné sa découverte.
Le rhénium (Rhin) a été nommé ainsi par ses inventeurs, trois Allemands travaillant dans le laboratoire Nernst en 1925. En 1830, Nils Sefström appela vanadium un élément qu'il venait de découvrir, en l'honneur de la déesse scandinave de l'Amour, Vanadis.

Plus récemment, les noms de mendélévium, nobélium et lawrencium ont été donnés aux éléments 101, 102 et 103 en hommage à leurs découvreurs. À partir de l'élément 104, la communauté scientifique internationale a décidé d'attribuer désormais à tout élément un nom systématique, construit avec le suffixe « -ium » sur les racines des trois mots latins signifiant les trois chiffres de son numéro atomique, conformément au tableau suivant, et un symbole construit avec les initiales des trois racines concernées. Par exemple :
104 – unnilquadium – Unq
105 – unnilpentium – Unp
118 – ununoctium – Uuo
Mais ces noms systématiques sont ensuite remplacés par des noms moins « anonymes », après la confirmation de la découverte des éléments correspondants et entente entre leurs découvreurs et la communauté scientifique internationale. Ainsi, l'Union internationale de chimie pure et appliquée (IUPAC) a finalement attribué le nom de rutherfordium à l’élément 104, dubnium au 105, seaborgium au 106, bohrium au 107, hassium au 108, meitnerium au 109, darmstadtium au 110, roentgenium au 111, copernicium au 112, flérovium au 114 et livermorium au 116. Ces deux derniers éléments font directement référence au lieu de leur découverte : le Lawrence Livermore National Laboratory (États-Unis) et le Flerov Laboratory of Nuclear Reactions (Russie). En 2016, les éléments 113, 115, 117 et 18 ont été officiellement baptisés respectivement nihonium (Nh, de nihon, Japon), moscovium (Mc, de Moscou, capitale russe), tennessine (Ts, de Tennesse, État américain) et oganesson (Og, du n. de Y. Oganessian, physicien nucléaire russe).

3. La classification périodique des éléments
3.1. Une case, un élément

La classification périodique des éléments se présente sous la forme d'un tableau qui recense tous les éléments connus. Chacun d'entre eux y occupe une case et est désigné par son symbole, accompagné de deux nombres. Le plus petit, toujours entier, est le numéro atomique Z (correspondant au nombre de protons) ; il augmente d'unité en unité, à partir de 1.
L'autre est la masse molaire atomique M, appelée aussi masse molaire ou masse atomique. Cette dernière appellation reprend et corrige l'ancienne expression de « poids » atomique. Elle a cependant l'inconvénient de paraître désigner la masse de l'atome considéré, ce qui n'est pas le cas. Cette grandeur est la masse d'une mole de l'atome en question, autrement dit la masse de 6,02 × 1023 atomes de l'élément considéré (6,02 × 1023 étant le nombre d’Avogadro) ; elle s'exprime en grammes par mole (g.mol−1).
Pour en savoir plus, voir l'article mole.
La valeur de cette masse est souvent proche d'un entier, au point que les tableaux simplifiés donnent presque exclusivement des entiers. Ainsi l'hélium, de numéro atomique 2, a-t-il pour masse molaire 4,0026 g.mol−1, ce que l'on arrondit à 4. Cet entier A, le nombre de masse, correspond en fait au nombre de nucléons, c'est-à-dire le nombre de protons et de neutrons composant le noyau atomique. Puisque Z = 2, l'atome d'hélium comporte deux électrons ainsi que deux protons. Puisque A = 4, le nombre des neutrons est N = A − Z = 2.
Les masses molaires éloignées d'une valeur entière sont liées à la présence non négligeable d'un isotope. Ainsi, dans le cas du chlore (Z = 17), l'isotope 35 (18 neutrons) se rencontrant trois fois plus que l'isotope 37 (20 neutrons), on prend 35,5 comme masse molaire moyenne de l'élément chlore. En conséquence, la masse molaire moléculaire du dichlore (Cl2) a pour valeur 71.

3.2. Lignes et colonnes
Les différentes lignes du tableau périodique correspondent au remplissage des différentes couches électroniques des atomes. La première couche, la plus proche du noyau, ne peut recevoir que deux électrons. C'est pourquoi la première ligne ne comporte que deux cases : H et He. La deuxième couche peut recevoir huit électrons : dans la deuxième ligne, le numéro atomique va de 3 à 10 ; etc.
Chaque colonne, par conséquent, correspond à la façon dont est occupée la dernière couche électronique de chaque atome. Dans la première colonne figurent les éléments pour lesquels la couche la plus externe comporte un unique électron. L'hydrogène (H), en tête, n'en a qu'un en tout ; le lithium (Li), en dessous, en a 3 (= 2 + 1) ; le sodium (Na, pour natrium), sur la troisième ligne, possède 11 électrons (= 2 + 8 + 1) etc.
C'est ce nombre des électrons de la couche externe (également appelée couche de valence) qui détermine les propriétés chimiques des corps, expliquant que les différents éléments d'une même colonne présentent des propriétés commune. La première colonne est celle des métaux alcalins (lithium, sodium, etc.) ; la dernière colonne est celle des gaz rares, ou inertes (hélium, néon, argon, etc.), l'avant-dernière étant celle des halogènes (fluor, chlore, etc.).
Le principe de remplissage des lignes du tableau qui vient d'être esquissé n'est pas respecté partout. Les irrégularités de sa constitution tiennent au fait que le remplissage des couches électroniques suit, dans certains domaines, des règles un peu plus compliquées. On notera, en particulier, la famille des actinides, où figure l'uranium (U), de numéro atomique 92. Tous les éléments qui viennent après sont les transuraniens : ils n'existent pas dans la nature, ils ont été produits artificiellement.

4. Les éléments radioactifs et leurs transmutations
La physique nucléaire, contrairement à la chimie, prend en compte des réactions dans lesquelles des noyaux atomiques se transforment. On peut donc y voir de véritables transmutations d'éléments.
Le concept de nucléide (ou nuclide) qui a cours dans cette branche de la physique n'est autre que celui de type de noyau, défini par les nombres Z et A. Autrement dit, le cortège électronique n'est pas pris en considération.

4.1. Radioactivité et stabilité des éléments
Le phénomène de la radioactivité peut prendre différentes formes. Des noyaux de plutonium 244, par exemple (94 protons et 150 neutrons), émettent une particule, constituée de deux protons et de deux neutrons. Cette dernière est donc en fait un atome d'hélium complètement ionisé He2+ ou, si l'on préfère, un noyau d'hélium. Le noyau émetteur n'ayant plus que 92 protons, le plutonium est devenu uranium, sous la forme de l'uranium 240.
En se désintégrant, le noyau « père » donne un noyau « fils » qui peut à son tour être radioactif. De proche en proche on aboutit in fine à un nucléide stable.
La radioactivité est un phénomène naturel qui affecte surtout les gros noyaux (uranium, radium, polonium…), mais pas uniquement. La désintégration du carbone 14 obéissant à une loi connue, la présence de cet isotope permet la datation des fossiles. La radioactivité artificielle consiste à modifier un noyau lourd en le bombardant avec un projectile, qui peut être une particule, de façon à produire un nouveau noyau qui soit radioactif.

4.2. Production et utilisations énergétiques des éléments transuraniens
Les transuraniens sont des éléments radioactifs. On les obtient artificiellement et leur durée de vie peut être très brève. Parmi ceux déjà produits, celui qui a le plus grand numéro atomique est l'élément 116, qui a été obtenu en 2000 et dénommé Livermorium (Lv) en 2012. Ses 176 neutrons le rendent proche d'un îlot de stabilité, prévu par la théorie, qui serait atteint avec 184 neutrons.

La fission nucléaire consiste à casser des noyaux lourds, d'uranium par exemple, dans le but de produire une grande quantité d'énergie, que ce soit de façon brutale (bombe atomique) ou de façon contrôlée (électronucléaire) ; dans cette réaction, l'uranium disparaît en donnant deux autres éléments.
Pour en savoir plus, voir l'article centrale nucléaire.

La fusion nucléaire vise au même but, mais par l'opération inverse : un noyau de deutérium (ou hydrogène 2) et un de tritium (ou hydrogène 3) fusionnent pour donner un atome d'hélium. Cette réaction est provoquée lors de l'explosion d'une bombe thermonucléaire (ou bombe H) ; mais c'est elle aussi qui assure naturellement la production énergétique du Soleil. La réaction de fusion contrôlée constitue un enjeu énergétique, économique et environnemental de premier plan, c’est pourquoi elle est au cœur du projet ITER (International Thermonuclear Experimental Reactor), dont l’objectif est la construction d’un prototype de réacteur à fusion thermonucléaire contrôlée permettant de valider cette option comme source d’électricité. Dans le cas de la fission comme dans celui de la fusion, le dégagement d'énergie est corrélatif d'une diminution de la masse totale, conformément à la théorie de la relativité.

BIOLOGIE
Dans tous les organismes vivants, on admet l'existence constante de 27 corps simples : 11 non-métaux (carbone, hydrogène, oxygène, azote, soufre, phosphore, chlore, fluor, brome, iode, bore), 2 semi-métaux (silicium, arsenic) et 14 métaux (calcium, sodium, potassium, magnésium, fer, zinc, cuivre, nickel, cobalt, manganèse, aluminium, plomb, titane, étain). Les 11 éléments les plus abondants sont dits plastiques. Les autres sont des oligoéléments.


DOCUMENT   larousse.fr    LIEN

 
 
 
 

LA CHIMIE DES SOLS

 

 

 

 

 

 

 

LA CHIMIE DES SOLS


Le sol est un milieu essentiel pour de nombreux êtres vivants, il constitue un véritable réacteur biologique dont les principaux processus concernent la transformation de la matière organique. Du fait des pratiques culturales modernes, le taux de matière organique des sols tend à diminuer. La matière organique joue pourtant un rôle considérable sur les propriétés chimiques et physiques des sols par exemple la perméabilité, la stabilité structurale, la capacité de rétention et de circulation de l'eau. Le problème actuel grave de l'érosion des sols est pour une grande part une conséquence de teneurs insuffisantes en carbone organique. Mieux connaître les processus de fonctionnement des sols pour mieux les utiliser et les préserver impose de bien connaître leur matière organique et les réactions de transformation qui l'affectent. Dans les sols, les formes les plus intéressantes de matière organique sont les lipides et les substances humiques dont la structure moléculaire est encore largement inconnue et la définition peu précise. Le carbone organique des sols est d'origine végétale ou microbienne. L'activité biologique transforme une partie du carbone végétal ou microbien - par un processus naturel appelé humification - en composés de type " humique ", plus stables que les formes initiales et qui correspondent probablement à des formes transitoires de " stockage " de carbone organique dans les sols. Ces processus ne sont que partiellement connus. À terme, une partie du carbone organique-déchet " propre " pourrait être facilement recyclée, à un coût réduit économiquement acceptable, pour corriger les pratiques actuelles et ainsi compenser les déficits en carbone. Des résultats particulièrement intéressants ont déjà été obtenus. À l'inverse, certains sols carencés à activité biologique réduite, où la matière organique tend à s'accumuler, peuvent être facilement améliorés en compensant les carences et en favorisant ainsi le turn-over de la matière organique.

Texte de la 234ème conférence de l’Université de tous les savoirs donnée le 21 août 2000.La chimie des solspar André Amblès Le sol est un milieu essentiel pour de nombreux êtres vivants, il constitue un véritable réacteur biologique dont les principaux processus concernent la transformation de la matière organique. Il joue également, hélas, un rôle d'interface dans tous les phénomènes de pollution de notre environnement. La matière organique qu’il contient reste encore mal connue des hommes, les travaux significatifs concernant sa structure n’ayant débuté qu’il y a environ vingt cinq ans. Les recherches menées dans le domaine ont un intérêt fondamental certain, mais également un intérêt appliqué. En effet, l’accroissement de la population mondiale, le développement des activités humaines influencent de plus en plus le fonctionnement et les propriétés des sols. Pour des intérêts purement économiques, les pays industrialisés ont favorisé le développement de l’agriculture intensive, la réduction de la diversité des pratiques culturales et l’abus de la monoculture. Les engrais minéraux sont de plus en plus utilisés au détriments des fumures ou composts organiques. En conséquence, le taux de matière organique diminue. La matière organique constitue pourtant le substrat indispensable au développement de la vie biologique des sols, elle conditionne en fait leurs propriétés chimiques, physiques et biologiques. Le problème actuel grave de l'érosion des sols (érosion éolienne ou due au ruissellement des eaux) est pour une grande part une conséquence de teneurs insuffisantes en carbone organique. La matière organique constitue le substrat indispensable au développement de la vie biologique, car elle est la source majeure de carbone et d’énergie pour les micro-organismes. Comme nous le verrons, elle conditionne les propriétés chimiques (stocks de carbone, d’azote et de phosphore) et physiques (perméabilité, capacité de rétention et de circulation de l’eau, stabilité structurale). Il est donc indispensable de mieux connaître les processus de fonctionnement des sols pour mieux les utiliser et les préserver. En conséquence, il importe d’étudier la matière organique qu’ils contiennent. La matière organique des sols Origine de la matière organique des sols Au départ la photosynthèse des végétaux supérieurs ou inférieurs permet de transformer le carbone minéral, le gaz carbonique ou CO2, en carbone organique (Fig. 1). Les végétaux synthétisent ainsi leurs constituants, tissus divers, lignine, subérine etc. En milieu aquatique ou marin, le carbone minéral utilisable est sous forme carbonate (CO32-) ou hydrogénocarbonate (HCO3-) en équilibre avec CO2. Il faut noter que les végétaux sont incapables d’utiliser ou de transformer leurs déchets ou leurs débris organiques. Ce sont des autotrophes qui puisent dans le monde minéral ce qui leur faut pour réaliser la synthèse des molécules nécessaires à leur fonctionnement. Le nécessaire recyclage des matières premières implique l’existence d’hétérotrophes qui peuvent utiliser la matière organique déjà élaborée comme matière première et comme source d’énergie (Fig. 1). C’est la notion de chaîne alimentaire, les végétaux sont des producteurs, interviennent ensuite les consommateurs et les décomposeurs. La respiration des divers acteurs y compris les micro-organismes du sol réinjecte du gaz carbonique dans l’atmosphère. Dans le processus de décomposition des résidus animaux ou végétaux, une partie du carbone est assimilée dans les tissus microbiens, une autre part est transformée en humus stable. La décomposition des restes végétaux et animaux est une somme de processus biologiques qui permet par la minéralisation ou la respiration de réinjecter du carbone dans l’atmosphère sous forme de CO2. L’azote disponible est transformé en ions nitrate (NO3-) ou ammonium (NH4+), le soufre et le phosphore en ions sulfate (SO42-) et phosphate (PO43-) ou formes équivalentes assimilables par les plantes. Teneurs des sols en carbone organique La teneur en matière organique des sols varie fortement selon la nature des sols. Elle peut représenter de 5 à 6% du poids de sol sec pour une prairie (15 premiers centimètres) et moins de 1% pour les sols sableux. La teneur peut atteindre 10% pour des sols pauvres mal drainés (et 80 % ou plus dans les tourbières). Les sols tropicaux présentent des concentrations faibles, les conditions de température et d’humidité font que le turn-over de la matière organique est (trop) élevé. Les teneurs de carbone (C) et d’azote organique (N) varient généralement parallèlement (rapport C/N de 10 à 12 en moyenne). Il est intéressant de comparer les quantités de carbone présent dans les sols et dans d’autres réservoirs de la surface de la planète Terre. On peut constater qu’en surface la quantité de carbone organique (30 à 50 x 1014 kg) est supérieure à la somme des autres réservoirs (CO2 : 7 x 1014 kg; biomasse : 4,8 x 1014 kg; eaux douces : 2,5 x 1014 kg; C marin : 5 à 8 x 1014 kg. Un grand nombre de facteurs conditionnent la teneur en matière organique des sols. Parmi ces facteurs, on peut distinguer le climat qui conditionne la nature des plantes, la productivité végétale, l’activité microbienne. Les climats humides favorisent les forêts. Si l’humidité est suffisante la production végétale est accrue. Les sols de prairie renferment de grandes quantités d’humus dont la formation est importante dans la rhizosphère Si la température augmente, le taux d’humus décroît car il y a augmentation de l’activité microbienne. Ainsi, sous nos climats tempérés une litière sous forêt met une année pour se décomposer. Il n’y a pratiquement pas de litière sous climat tropical (conditions favorables à la biodégradation). Devenir du carbone organique dans les sols De nombreuses études ont tenté de préciser le devenir du carbone organique dans le sol en utilisant des substrats marqués au carbone 14. En se basant sur la seule cinétique, on peut distinguer trois catégories principales de matière organique : les résidus végétaux (ou la fumure apportée) et la biomasse associée qui se transforment en quelques années, les métabolites microbiens ou cellulaires et produits de transformation qui se "stabilisent" dans les sols et ont un turn-over de 5 à 25 ans et les fractions dites résistantes (devenue résistante ou originelle résistante) qui a un turn-over de 250 à 2500 ans. On arrive donc à la notion d’humus – ou de composés humiques – plus stables que les débris végétaux originels vis à vis de l’activité des micro-organismes du sol. Le processus est appelé humification. Cet humus n’est pas inerte dans les sols actifs, il se décompose peu à peu et correspond donc à un stock de carbone organique dans les sols. Agents responsables de la transformation du carbone organique dans les sols La décomposition et la transformation de la matière organique dans les sols sont assurées par un certain nombre d’organismes ou de micro-organismes. Tout d’abord les vers de terre et divers animaux du sol réduisent la taille des débris végétaux frais. Les vers de terre jouent un rôle très important, ils excrètent de la matière organique fine étroitement associée à la matière minérale (constituant ainsi une sorte de pré-humus; les termites produisent un matériau voisin des termites pour la construction des termitières). Il y a ensuite attaque microbienne (bactéries, champignons etc.). Les substances organiques les plus facilement décomposables (sucres…) sont tout d’abord utilisées. Le carbone est en partie métabolisé – il sert d’énergie – en partie utilisé pour la synthèse cellulaire (de 10 à 20% selon le sol et les conditions climatiques) – il sert donc de matière première - une autre partie est transformée peu à peu en humus. A côté des vers de terre et autres animaux du sol, en nombre très variable, les agents assurant la transformation de la matière organique sont les bactéries (1 milliard par gramme de sol, voire davantage), les actinomycètes[1] (plusieurs centaines de millions par gramme de sol), les champignons (de 10 à 20 millions par gramme de sol), les algues et les protozoaires. Âge moyen du carbone organique. Notion de temps de résidence Il est bien sûr tentant de déterminer un âge moyen de la matière organique dans un sol donné, c’est la notion de temps de résidence. Ceci est difficile, les âges absolus ne peuvent être déterminés, il y a en effet décomposition continuelle de l’humus ancien et synthèse parallèle d’humus nouveau. On ne peut déterminer qu’un âge moyen. Les diverses études conduites sur ce point montrent une très forte variabilité, de 250 à 1900 ans pour des horizons de surface. Le temps de résidence moyen augmente avec la profondeur. A titre d’exemple, pour un sol du Canada, le temps résidence moyen est de 8400 ans en profondeur, à comparer à 550 ans pour le niveau de surface. Le temps de résidence varie également selon la nature de la matière organique, l’humine étant généralement plus résistante que les lipides (ces catégories seront définies dans la suite de l’exposé). Ainsi dans un sol de prairie du Dakota, l’humine a un temps moyen de 1150 ans, alors que le temps moyen pour la matière organique totale est de 870 ans : ceci indique la très grande diversité, l’hétérogénéité de la matière organique. Les fraction de matière organique associées aux argiles ont généralement des temps de résidence élevés, par exemple 8000 ans. La matière organique adsorbée, ou incluse dans les feuillets de l’argile est protégée de l’activité biologique. Rôle de la matière organique dans les sols Propriétés chimiques La matière organique représente le stock de carbone, phosphore (P), azote (N) et soufre (S) présent dans le sol. Comme nous l’avons vu, ce stock est nécessaire pour toutes les formes de vie présentes sur (végétaux) et dans (microorganismes divers) le sol. Pour l’azote (N), le phosphore (P) et le soufre (S), il y a équilibre entre les formes minérales et organiques. Les processus qui interviennent sont la minéralisation et l’immobilisation (notion de stock). Minéralisation : P organique ¾® P minéral, soit phosphate (PO43-) S organique ¾® S minéral, soit sulfate (SO42-) N organique ¾® N minéral, soit nitrate (NO3-) Immobilisation : phosphate ¾® P organique sulfate ¾® S organique nitrate ¾® N organique Ces équilibres sont régis par de nombreux paramètres, de plus chaque élément majeur conditionne l’équilibre minéralisation – immobilisation de l’élément voisin (notion de rapport carbone/azote (C/N), carbone/phosphore (C/P), carbone/soufre (C/S) etc.]. Rappelons que seules les formes minérales peuvent être assimilées par les végétaux. Propriétés biologiques La matière organique est, comme nous l’avons vu source de carbone et d’énergie pour les micro-organismes lors de la synthèse de leur tissu par exemple. Il faut cependant noter que certaines molécules organiques peuvent jouer un rôle néfaste, par exemple certains terpènes naturels sous forêt de pin, ou des molécules issues de l’industrie chimique : rôle inhibiteur sur la germination des graines et sur la croissance des végétaux, toxicité envers la microflore; en conséquence la matière organique s’accumule trop, on arrive à la notion d’auto-intoxication dans les systèmes naturels pauvres. Propriétés physiques La matière organique est un facteur prépondérant pour la stabilité structurale du sol, elle joue le rôle de liant entre les particules, permettant la formation d’agrégats. Les principales interactions sont les associations minéraux-minéraux, minéraux-argile, argile-argile. Elle permet en outre une meilleure aération du sol (paramètre important pour l’activité biologique) et sa présence en quantité suffisante est un facteur important pour la capacité de rétention en eau du sol (importante pour les végétaux) et la circulation de l’eau dans le sol. On comprend alors mieux pourquoi les pratiques culturales modernes – agriculture intensive, monoculture, utilisation massive d’engrais minéraux azote, phosphore, potassium (N, P, K) au détriment de fumures ou composts organiques, désherbage systématique, déboisement et arasement des haies – ont des conséquences si néfastes sur les propriétés des sols. Les exportations de carbone dues aux récoltes ne sont plus compensées, en conséquence le taux de matière organique diminue. Ainsi, l’érosion des sols est devenue un problème préoccupant même en France. Il y a ainsi érosion éolienne et érosion mécanique sous l’effet des pluies; l’eau pénètre mal ou peu dans le sols et entraîne les particules de sol. Le problème est aggravé par la suppression de protections physiques (bois, haies, herbe qui de plus produisent du carbone organique à proximité de la zone de culture) et certaines pratiques comme le labour dans le sens de la pente. A titre d’exemple, le problème a été signalé récemment dans la presse nationale pour les vignes des coteaux du Sancerrois, aggravé par le désherbage systématique pratiqué aujourd’hui. Etude qualitative de la matière organique des sols Les formes persistantes (stables) de matière organique dans les sols sont les lipides et les substances humiques : acides fulviques, acides humiques et humine. Il est admis que les autres formes telles les protéines, les sucres… sont très rapidement décomposées et utilisées. Ces fractions sont obtenues en appliquant le protocole suivant (Fig. 2): - Les lipides dits libres correspondent à la fraction soluble dans un solvant organique, ils sont donc directement extraits par un solvant organique à partir de l’échantillon de sol. - Les lipides dits associés sont extraits après destruction des colloïdes organo-minéraux (argiles etc.) par un traitement acide chlorhydrique/acide fluorhydrique. - Les acides fulviques et humiques sont extraits en milieu basique (solution de soude). Ils ne sont donc pas solubles dans un solvant organique. En milieu acide, les acides humiques précipitent et sont donc séparés des acides fulviques qui restent solubles. - Le résidu final, associée à la matière minérale restante correspond à l’humine. Ainsi donc en résumé, les quatre grandes classes de MO sont les lipides solubles dans les solvants organiques usuels, les acides fulviques solubles en milieu aqueux à toute valeur de pH, les acides humiques solubles en milieu aqueux alcalin et l’humine totalement insoluble. Il est important de signaler que ces catégories ne correspondent pas à des classes précises de composés organiques, mais ne sont, dans l’état actuel des connaissances, définies que sur la base d’un protocole analytique (d’extraction). C’est une difficulté, une imprécision qui gène actuellement beaucoup les scientifiques. Les proportions de ces fractions organiques varient beaucoup d’un sol à un autre, les substances humiques sont particulièrement abondantes dans les sols tourbeux et les tourbes. Les substances humiques contiennent de 40 à 60% de carbone, 30 à 50% d’oxygène avec très peu d’azote de phosphore et de soufre. Les acides fulviques contiennent plus d’oxygène que les acides humiques. Acides humiques et humine ont des compositions proches, la totale insolubilité de l’humine est probablement due à une plus grande complexité structurale et à l’association avec la matière minérale, argile, métaux etc. Les lipides ont des structures plus simples et une gamme de poids moléculaire plus faible que les substances humiques. Pour celles-ci, le poids moléculaire varie de quelques centaines à plusieurs centaines de milliers d’unités de masse atomique. Quelques poids moléculaires sont donnés à titre de comparaison : eau : 18, gaz carbonique : 44, acide acétique (présent dans le vinaigre) : 60, cholestérol : 386, acide oléique [acide gras insaturé en C18 (possédant 18 atomes de carbone) présent dans les huiles alimentaires] : 282. Le poids moléculaire augmente dans le sens : acides fulviques → acides humiques → humine Les acides fulviques et humiques présents dans les eaux possèdent des poids moléculaires inférieurs à ceux présents dans le sol. Ainsi, ils peuvent circuler en phase aqueuse et sont donc des vecteurs importants, grâce à leurs propriétés complexantes, de propagation des pollutions, par exemple vers les nappes phréatiques à partir de la surface. Les lipides, plus hydrophobes, sont beaucoup moins mobiles ou mobilisables en phase aqueuse, mais ils migrent cependant, un certain nombre de classes contenant un groupe fonctionnel hydrophile (acide gras, alcool…). Mes lipides Les fractions de lipides "libres" ou "associés" contiennent, à un grand nombre de familles qui peuvent être séparées puis analysées principalement par des techniques de chromatographie en phase gazeuse capillaire, en phase liquide couplées à la spectrométrie de masse (ils sont appelés lipides simples). Ce n’est pas le cas des lipides complexes ou macromoléculaires qui ne peuvent être analysés directement (vide infra). Dans les familles qui contiennent un grand nombre de molécules, certains composés peuvent être spécifiques d’une origine donnée, on les appelle marqueurs. Les hydrocarbures (constitués uniquement de carbone et d’hydrogène) majeurs dans les sols possèdent un nombre impair d’atomes de carbone, majoritairement 29 et 31 atomes de carbone (C29, C31). Ils proviennent des tissus de protection des végétaux supérieurs. Pour les végétaux inférieurs tels les algues les hydrocarbures sont courts (C17). Les acides gras (acides monocarboxyliques) constituent une classe intéressante (Fig.3). Ils sont linéaires, majoritairement à nombre pair d’atomes de carbone, de C10 à C36. Ils sont saturés ou insaturés, une double liaison carbone-carbone remplaçant deux atomes d’hydrogène (acide oléique). Les courts

 

 VIDEO     canal U       LIEN

 
 
 
 

CHIMIE DU ET POUR LE VIVANT

 

 

 

 

 

 

 

Transcription1 de la 620e conférence de l’Université de tous les savoirs donnée le 27 juin
2006 revue par l’auteur.
Daniel Mansuy : « La chimie du et pour le vivant : la recherche face aux enjeux du début du
XXIeme siècle »

Résumé
La compréhension des mécanismes associés à la vie, au niveau moléculaire et cellulaire
aussi bien qu'au niveau des organismes, des populations et des écosystèmes, et la mise au point
de composés ou de méthodes pour les réguler, sont des enjeux de recherche majeurs pour le début
du 21ème siècle.
Les retombées attendues concernent aussi bien la santé humaine et animale (médicaments,
vaccins, matériaux biocompatibles pour prothèse, diagnostic) que l'agroalimentaire, les
biotechnologies ou l'environnement. Le développement spectaculaire des sciences du vivant au
cours de ces 20 dernières années, avec, en particulier, le décryptage des séquences de très
nombreux génomes, a ouvert la voie.
Les chimistes ont un rôle très important à jouer dans ce contexte du post-génome. Ils ont
tout d'abord à faire progresser de façon considérable notre connaissance de la chimie du vivant,
en découvrant les nouveaux schémas de biosynthèse et les nouveaux médiateurs qui dépendent
des gènes "orphelins" (dont on ne connaît pas la fonction à l'heure actuelle). Ils se doivent aussi
d'élaborer de nouvelles méthodes et de construire de nouveaux objets (molécules, matériaux …)
pour permettre ou faciliter la compréhension du vivant et pour intervenir sur certains
dysfonctionnements du vivant (chimie pour le vivant). Ces recherches devraient aussi conduire à
des retombées en chimie au sens large, avec des applications en dehors du vivant, l'observation
de la biodiversité devenant alors une source d'inspiration pour la création d'une chimiodiversité
beaucoup plus large (nouvelles molécules, nouveaux catalyseurs, nouveaux matériaux …)
(chimie d'après le vivant). Ces différents rôles des chimistes seront illustrés dans chaque cas à
l'aide de résultats récents.
Introduction
Le but de cet exposé est d’illustrer les différents rôles qu’un chimiste joue et jouera dans
les années à venir à l’interface avec la biologie. L’exposé s’articule autour de 4 parties :
- la chimie du vivant
- la chimie pour le vivant
- la chimie d’après le vivant
- la chimie par-delà le vivant
Le début du XXIème siècle devrait être une période prolifique pour la recherche en chimie
à l’interface avec la biologie. Les enjeux scientifiques majeurs des 15 années à venir sont définis,
d’une part, par l’émergence de domaines qui relèvent essentiellement de la recherche
1 Transcription Julie Voignier
fondamentale. Ils dépendent, d’autre part, de demandes sociétales fortes, qui concernent
principalement :
- le vivant : peut-on améliorer de façon notable la santé humaine et la santé animale ? Pourra-t-on
intervenir sur le problème du vieillissement ? Comprendra-t-on à terme en détail comment
fonctionne le cerveau ?
- l’énergie et l’environnement : comment faire face à l’épuisement des sources d’énergie à base
de carbone fossile ? comment passer au développement durable ? comment faire face à la
pollution et aux changements climatiques ?
ENJEUX SCIENTIFIQUES MAJEURS du DEBUT
du 21ème SIECLE
Secteurs majeurs à développer, identifiés par le CNRS
(contrat d’objectifs du CNRS, 2002)
• Le vivant et ses enjeux sociaux
• Information, communication et connaissance
• Environnement, énergie et développement durable
• Nanosciences, nanotechnologies et matériaux
• Astroparticules : du noyau à l’Univers
VIVANT ENERGIE ENVIRONNEMENT
Cerveau
Santé
Vieillissement

Développement durable
Pollution
Nouvelles énergies
Les chimistes ont un rôle très important à jouer dans tous ces domaines.
GENOME TRANSCRIPTOME PROTEOME METABOLOME PHYSIOME
Schémas métaboliques
nouveaux médiateurs
nouvelles réactions
nouveaux catalyseurs
nouveaux schémas de biosynthèse
CHIMIE du VIVANT
La chimie du vivant

La fin du XXème siècle a vu des avancées considérables dans notre connaissance du
fonctionnement du Vivant, avec le décryptage de l’ensemble des gènes (génomes) et des
protéines (protéomes) qui sont à la base du fonctionnement de tout être vivant. Quand on
considère les génomes et les protéomes décrits jusqu’à maintenant, on est frappé de constater que
ces génomes et protéomes comportent 30 à 40% d’éléments (gènes ou protéines) inconnus, c’est
à dire, dont on ne connaît pas la fonction. Ceci signifie que près de la moitié de nos schémas de
fonctionnement, avec tous les processus métaboliques, les médiateurs et les processus de
régulation que cela implique, reste à découvrir. Dans les années à venir, la recherche devrait donc
permettre d’écrire une part importante du grand livre de la Chimie du Vivant.
L’exemple de l’oxyde nitrique, NO
􀀿 Avant 1970 : NO seulement connu comme un gaz polluant et un très
bon ligand des métaux de transition
􀀿 Début 1970s : NO se fixe sur la guanylate cyclase et l’active (F. MURAD)
􀀿 Début 1980s : Découverte de l’EDRF (Endothélium-Derived Relaxing factor)
par R. FURCHGOTT
􀀿 1987 : NO est l’EDRF (L. IGNARRO et al.)
􀀿 1998 : Prix Nobel attribué à FURCHGOTT, MURAD et IGNARRO
􀀿 1990 - 2006 : Découverte des rôle multiples de NO dans la plupart des
organismes vivants
􀀿 1987 - 1990 : Découverte des rôles majeurs de NO dans les :
CARDIOVASCULAIRE
SYSTÈMES NERVEUX (CENTRAL et PERIPHERIQUE)
IMMUNITAIRE
Figure 3 : découverte des rôles biologiques de NO, une révolution
dans les sciences de la vie
Pour l’instant, une seule voie de biosynthèse de NO a été découverte chez les mammifères
(figure 4). Cette voie fait intervenir un de nos acides aminés essentiels, l’arginine, ainsi qu’une
hémoprotéine (en rouge sur la figure ;l’hème est représenté par un ovale, c’est un cofacteur) qui
fait partie de la famille des monooxygénases (enzymes capables d’oxyder un substrat en lui
transférant un atome d’oxygène de l’oxygène moléculaire). Ainsi, la NO-synthase utilise
l’oxygène afin d’oxyder la fonction guanidine de l’arginine pour former la citrulline avec
relargage de NO.

RNH NH2 • SYSTEME IMMUNITAIRE : NO cytotoxique pour
les tumeurs, les bactéries, les pa rasites…
• VASODILATATION (EDRF)
Effets hypotenseurs et antithrombotiques
• NEUROTRANSMISSION : Second messager du glutamate,
messager rétrograde de la mémoire
Figure 4 : schéma de biosynthèse et cibles majeures de NO
La cible majeure de NO est une autre hémoprotéine, la guanylate cyclase, en vert sur la
figure. Quand NO se fixe sur le fer de la guanylate cyclase, il active la protéine qui se met alors à
jouer son rôle catalytique : la transformation du GTP en GMP cyclique, médiateur très important
de la signalisation cellulaire. C’est de cette façon que NO agit au niveau du système
cardiovasculaire, puisque ce processus est à la base de ses effets vasodilatateurs, mais aussi de ses
effets hypotenseurs et antithrombotiques.
Cette petite molécule joue aussi un rôle au niveau du système nerveux central, de la
neurotransmission : c’est le second messager du glutamate, mais c’est aussi un messager très
important dans les processus d’apprentissage et de mémorisation.
NO joue aussi un rôle clé au niveau du système immunitaire ; il est un élément majeur de
notre défense vis à vis des organismes invasifs Nous savons depuis très longtemps que pour se
défendre, les cellules immunocompétentes que sont les lymphocytes ou les macrophages
fabriquent toute une série d’agents cytotoxiques qui proviennent de l’oxygène moléculaire (le
radical anion superoxyde, l’eau oxygénée et ClO- qui est produit par réaction de l’eau oxygénée
avec Cl- au sein même des cellules immunocompétentes). Mais ce n’est qu’à la fin du XXème
siècle qu’il a été découvert que NO était un autre agent cytotoxique produit par ces mêmes
cellules pour détruire des bactéries par exemple. NO agit par lui-même et au niveau du produit
qu’il forme avec le radical anion superoxyde pour former le peroxynitrite. Le peroxynitrite est
peut-être l’agent le plus destructeur qu’on puisse former au niveau cellulaire et qui fait partie de
notre bagage d’agents cytotoxiques.
BENEFIQUES DELETERES
(Roles physiologiques) (sur- ou sous- production de NO)
Vasorelaxant (EDRF) Choc Septique
Hypotenseur, Antithrombotique (hypotension)
Erection
Fonction rénale
Second messager du glutamate Migraine
Médiation de la plasticité Maladies neuro-dégénératives
synaptique (NO = messager (Alzheimer, Parkinson…)
rétrograde de la memoire)
Motilité gastrique
Gastroprotection
Défense contre les bactéries, Nécrose tissulaire
virus, parasites, tumeurs Carcinogénése
CARDIOVASCULAIRE
NERVEUX
IMMUNITAIRE
SYSTEME
Figure 5 : effets biologiques de NO
Comment à lieu cette production régulée du médiateur NO au niveau cellulaire ?

Citrulline Oxyde
Nitrique
Figure 6 : étapes de la biosynthèse de NO par les NO-synthases
La NO-synthase catalyse l’oxydation de la L-arginine par l’oxygène moléculaire, avec
consommation d’une molécule de NADPH (figure 6). Ceci aboutit à l’hydroxylation de la partie
guanidine pour former la N-hydroxyarginine. Celle-ci est aussi oxydée par la NO-synthase avec
de nouveau consommation d’oxygène moléculaire, mais cette fois un seul électron est mis en jeu
(0,5 NADPH) : cela donne lieu à un clivage oxydant de la liaison double C=N, avec formation de
citrulline et de NO.
Mais comment ces enzymes s’y prennent-elles pour réaliser la synthèse sélective et
hautement régulée de NO, sans formation des autres oxydes d’azote.
Au sein du site actif composé d’un hème (la protoporphyrine IX de Fe(III)), se trouve un
autre petit cofacteur appelé tétrahydrobioptérine qui est capable de transférer un électron de
manière régulée à l’hème.

Figure 7 : disposition des cofacteurs et du substrat au niveau du site actif des NO-synthases et 1ère étape du
mécanisme
Les trois acteurs majeurs de la biosynthèse de NO (figure 7) sont positionnés par la
protéine de manière adéquate, à bonne distance d’interaction les uns des autres. Le motif
guanidine de l’arginine se trouve juste au-dessus de l’hème (en rouge). La tétrahydrobioptérine
est représentée en vert (nommée BH4). Entre ces trois acteurs, un réseau de liaisons hydrogènes
est formé, ce qui leur permet de communiquer entre eux. C’est un échange extrêmement
sophistiqué d’électrons et de protons qui aboutit à la formation sélective de NO dans des
concentrations bien déterminées.
La première réaction (figure 7) est un transfert d’électron entre la tétrahydrobioptérine et
l’hème, facilité par la déprotonation partielle du NH en position de 3 de BH4 (due à la liaison
hydrogène formée avec le carboxylate de l’hème) : il y a donc transfert d’électron et de proton de
BH4 à l’hème (la déprotonation de la tétrahydrobioptérine la rend négative, elle est donc plus apte
à transférer un électron).

Figure 10 : Formation de la N-hydroxyarginine
Ainsi, par des investigations de type chimique, spectroscopique et biochimique, il est
possible d’arriver à comprendre cette sophistication de la nature pour la biosynthèse hautement
contrôlée de ce médiateur biologique très important qu’est NO.
La chimie pour le vivant
Un autre rôle du chimiste dans la recherche post-génomique est de créer de nouveaux
objets ou de nouveaux outils qui peuvent être soit des molécules, soit des matériaux susceptibles
de servir à l’étude de la chaîne du vivant, ou qui peuvent participer à la contrôler (Figure 11).
Dans le but d’étudier cette chaine, les chimistes ont participé à la fabrication des puces à
ARN ou des puces à ADN, participent maintenant à l’élaboration des puces à protéome et
participeront à celle des puces à métabolome. Mais ils ont également contribué à la détermination
de la structure à l’échelle atomique des assemblages protéiques ou nucléoprotéiques, en utilisant
des techniques diverses comme la diffraction des rayons X, la résonance magnétique nucléaire
(RMN) et la spectrométrie de masse. Ils participent aussi à la mise au point de molécules pour le
diagnostic médical.
Dans le but de contrôler certains processus du vivant, le rôle des chimistes est de mettre
au point des molécules qui vont permettre d’intervenir sur certaines réactions : c’est le domaine
des médicaments, des composés utilisés en santé animale et dans le domaine phytosanitaire, et
des biomatériaux. Les 2 exemples qui suivent illustrent divers rôles des chimistes dans la
recherche de médicaments.
GENOME TRANSCRIPTOME PROTEOME METABOLOME PHYSIOME
Médicaments, diagnostic, biomatériaux,
secteur agro-alimentaire…
Structure des assemblages
protéiques Puces à ADN ou ARN (RX, RMN, FEG, masse…)
OUTILS (molécules, matériaux) d’ETUDE et de CONTRÔLE du VIVANT
CHIMIE pour le VIVANT
La mise au point d’un nouveau médicament nécessite environ 10 ans, et les premières
étapes font intervenir la synthèse organique, la pharmacologie et la toxicologie (figure 12). Ces
étapes conduisent à la mise au point d’un produit actif. Pour que ce dernier puisse devenir un
candidat médicament, il faut l’étudier in vivo, et en particulier comprendre en détail son devenir à
partir du moment où il a été introduit dans un organisme vivant, c’est à dire son métabolisme, sa
pharmacocinétique. C’est seulement à l’issue de l’ensemble de ces études que la décision de le
tester chez l’homme sera prise.
SYNTHESE
PHARMACOLOGIE
TOXICOLOGIE
Produit
actif
METABOLISME
PHARMACOCINETIQUE
DECISION
ETUDES
CLINIQUES
Figure 12 : les premières étapes de la recherche d’un nouveau médicament
Le chimiste joue un rôle très important dans la détermination du métabolisme du
médicament dans l’organisme. Dans ce contexte, il est important de savoir comment les
organismes vivants s’y sont pris pour s’adapter à des substances chimiques tout le temps
nouvelles apparaissant dans leur environnement : comment ont-ils pu, après les avoir absorbées,
les éliminer de façon suffisamment efficace ? En comparant l’ensemble des processus utilisés par
les organismes aérobies pour biotransformer les molécules exogènes (encore appelées
xénobiotiques), il est frappant de constater que la réponse est quasiment la même d’un organisme
à un autre (figure 13).
PHARMACOGENETIQUE
RH ROH ROR’ ELIMINATION
conjugation
[R+] EFFETS TOXIQUES
SECONDAIRES
P450s
R’H
(2ème médicament)
INTERACTIONS
MEDICAMENTEUSES PREVISIONS
TOXICOLOGIQUES
Vitesse d’élimination
BIODISPONIBILITE
IMPORTANCE de la CONNAISSANCE du METABOLISME des
MEDICAMENTS chez l’HOMME dans la RECHERCHE de
NOUVELLES MOLECULES ACTIVES
Figure 13
Le xénobiotique qui peut être un médicament (RH sur la figure 13) est tout d’abord
fonctionnalisé, car la plupart des molécules de notre environnement sont relativement
hydrophobes, peu fonctionnelles, donc ne peuvent pas passer la barrière rénale telles quelles. La
fonctionnalisation est effectuée par des monooxygénases qui utilisent une hémoprotéine appelée
cytochrome P450. Une fois le métabolite primaire devenu plus fonctionnel (ROH), toute une
série d’enzymes de conjugaison vont le transformer en quelque chose d’encore plus hydrosoluble
(ROR’) qui peut alors être éliminé par les reins.
L’action de ces enzymes de fonctionnalisation des médicaments a au moins 4
conséquences importantes en pharmacologie et en toxicologie :
1) c’est souvent la première étape de métabolisme du médicament qui détermine sa vitesse
d’élimination, c’est l’étape lente du processus global ; c’est elle qui va déterminer en partie la
biodisponibilité du médicament.
2) Nous ne sommes pas égaux en ce qui concerne notre capacité à métaboliser les médicaments,
parce que ces enzymes de phase 1 font l’objet de ce qu’on appelle un polymorphisme génétique :
un certain nombre d’entre nous possède certaines de ces enzymes sous une forme mutée, très peu
active, donc incapable de métaboliser les médicaments de la même manière que la forme non
mutée. Ceci constitue donc un problème de pharmacogénétique qu’il faut appréhender le plus tôt
possible.
3) Il est très souvent question d’effets secondaires toxiques des médicaments. Il est maintenant
connu que, dans beaucoup de cas, les médicaments RH ne sont pas toxiques par eux-mêmes, mais
le deviennent au sein de la cellule, après avoir été transformés par ces enzymes très puissamment
oxydantes : de temps en temps, elles oxydent le xénobiotique en quelque chose d’électrophile (de
type R+) qui réagit alors de façon covalente avec les nucléophiles cellulaires aux alentours (avec
les protéines ou les acides nucléiques) : c’est souvent le démarrage d’un effet toxique secondaire.
4) Les enzymes qui sont capables de traiter n’importe quel xénobiotique et de l’éliminer sont très
sensibles aux xénobiotiques. Ainsi, si un deuxième médicament (R’H) est donné en association
avec RH, il va très souvent jouer le rôle d’inhibiteur ou d’inducteur pour les enzymes qui
métabolisent le premier médicament. Ceci est souvent le point de départ de la survenue de toute
une série d’interactions médicamenteuses qui ont conduit au retrait de certains médicaments.
Passons maintenant aux exemples.
1er exemple : l’acide tiénilique
L’acide tiénilique (figure 14) est un diurétique uricosurique mis sur le marché dans les
années 80 et qui avait passé sans aucun problème toutes les barrières de la toxicologie animale :
aucun effet toxique direct n’avait été observé chez les animaux. Mais après quelques années de sa
mise sur le marché, un certain nombre d’hépatites de type immunoallergique, avec une incidence
faible (un patient sur 10 000 environ), ont été observées ; ceci a conduit au retrait du médicament
après quelques années. Le laboratoire ayant mis cette molécule sur le marché a essayé de
comprendre d’où venaient ces hépatites.
APPARITION
d’ANTICORPS
ANTI-RETICULUM
(ANTI-LKM2) chez
les PATIENTS

HEPATITES de type
IMMUNOALLERGIQUE
(1 cas sur 10 000)
ACIDE TIENILIQUE
PAS de
TOXICITE DIRECTE
Figure 14 : le cas de l’acide tiénilique
Durant ces investigations, la 1ère étape a été d’essayer de comprendre le devenir du
médicament dans l’organisme, en particulier au niveau du foie (figure 13).
APPARITION d’ANTICORPS
ANTI-LKM2(ANTI-2C9)
Dans le SERUM
DESTRUCTION AUTOIMMUNE
de
l’HEPATOCYTE
ACTIVATION de
l’HEPATOCYTE
METABOLITE
REACTIF
P450 2C9
ALKYLÉ
P450 2C9 sur la
MEMBRANE de
l’HEPATOCYTE

Figure 15 : devenir de l’acide tiénilique dans l’organisme
Le médicament est majoritairement métabolisé dans le foie humain par un cytochrome
P450, le cytochrome P450 2C9. L’oxydation a lieu au niveau du noyau thiophène (noyau soufré)
de l’acide tiénilique : la preuve de cette affirmation est donnée par la nature du métabolite majeur
retrouvé dans les urines (en haut à droite sur la figure 15). Au cours de l’oxydation, un métabolite
réactif électrophile est formé. Il est capable d’établir un lien covalent avec le cytochrome P450
2C9 qui a servi à le former : cela donne lieu à la formation d’une protéine alkylée,
potentiellement antigénique, qui apparaît sur la membrane de l’hépatocyte. Cette protéine est
reconnue par le système immunitaire qui déclenche alors à son encontre la synthèse d’anticorps
anti-LKM2 (dirigés contre le cytochrome P450 2C9 qui métabolise le médicament). Si le
médicament est administré une seconde fois, toute cette chaîne se reproduit, mais cette fois nous
retrouvons au niveau de la membrane de l’hépatocyte à la fois l’antigène (la protéine alkylée) et
les anticorps : un complexe immun se forme (association antigène-anticorps). La présence de ce
dernier active l’hépatocyte et déclenche sa destruction par les macrophages. C’est ce qui est
vraisemblablement à la base de cette destruction auto-immune, qui conduit à terme à une
hépatite, quelquefois fulminante.
Les chimistes se sont posé la question suivante : quelle est la structure de ce métabolite
réactif ? Ceci est important pour comprendre ce qui se passe, mais surtout pour ne pas reproduire
la même chose avec un autre médicament. Ils ont utilisé des systèmes recombinants et ont étudié
en particulier la transformation de l’acide tiénilique par le cytochrome P450 2C9 (figure 16).

Figure 16 : inactivation suicide du cytochrome P450 2C9 par l’acide tiénilique
Le métabolite réactif dérive d’un transfert d’atome d’oxygène du fer vers le soufre du
médicament : une espèce hautement réactive est formée (impossible à isoler, très électrophile,
appelée sulfoxyde de thiophène). La molécule a perdu une partie de son aromaticité et est
d’autant plus réactive qu’elle possède deux groupements électroattracteurs (CO et SO, à gauche
sur la figure 16). Le carbone en position 5 du noyau thiophène est donc rendu très électrophile :
ce métabolite va réagir avec tout nucléophile qu’il va rencontrer dans son environnement, c’est-àdire
dans le site actif.
Dans 11 cycles catalytiques sur 12, il trouve une molécule d’eau : le métabolite 5-
hydroxylé est formé, on le retrouve dans l’urine (en haut à droite sur la figure 16).
Dans 1 cas sur 12, il trouve un nucléophile de la protéine (une sérine) : un lien covalent
avec la protéine est alors formé, ce qui a 2 conséquences :
- le cytochrome P450 2C9 est inactivé (catalytiquement) car un métabolite encombrant est fixé au
niveau du site actif : c’est pour cela que l’on dit que l’acide tiénilique est un substrat suicide de
l’enzyme.
- une protéine alkylée est formée, elle devient l’antigène au démarrage du processus de ces
hépatites de type auto-immune.
2ème exemple : le TAO
Ceci est un exemple concernant les interactions médicamenteuses (figure 17), qui fait
intervenir un antibiotique très en vogue dans les années 70, le TAO.
Lorsque le TAO est associé à la série de médicaments en vert sur la figure 17, leur
métabolisme est inhibé, ce qui engendre une augmentation de leur taux plasmatique. Quelquefois,
l’augmentation est suffisante pour qu’apparaissent des effets toxiques secondaires.
+ CARBAMAZEPINE −
+ THEOPHYLLINE " " + −
+ DIHYDROERGOTAMINE " " −
+ Me - PREDNISOLONE +
TAO
6 +
MEDICAMENT EFFET Conséquences
pharmacologiques
Vitesse d’élimination du
médicament
Vitesse d’élimination du
médicament
Figure 17 : interactions médicamenteuses impliquant le TAO
Prenons l’exemple de l’association TAO-dihydroergotamine (dérivé de l’ergot de seigle,
très utilisé comme vasodilatateur cérébral). Si la dihydroergotamine est très bien dosée, elle ne
conduit à aucun effet toxique. Mais si sa dose dépasse un certain seuil, apparaissent les effets
secondaires classiques de ces dérivés de l’ergot de seigle (l’ergotisme) qui ont conduit dans
certains cas à la mort des patients. Comment tout ceci peut-il être traduit en termes moléculaires ?

(4 cycles catalytiques)
Figure 18 : Inactivation des cytochromes P450 par le TAO.
Le TAO est un antibiotique appartenant à la famille des macrolides qui comporte deux
subtituants osidiques (figure 18), dont l’un est aminé (fonction N-diméthylamino). Au cours de 4
cycles catalytiques successifs par le cytochrome P450, la fonction N-diméthylamino subit deux
N-demethylations successives, puis une N-hydroxylation suivie d’une oxydation conduisant à un
métabolite de type nitrosoalcane. Le groupe N=O de ce nitrosoalcane est un excellent ligand des
métaux de transition, en particulier du Fe(II) du cytochrome P450 sur lequel il se fixe de façon
quasi-irréversible, ce qui conduit à une inhibition très forte de cette enzyme.
La compréhension de ce mécanisme au niveau moléculaire nous a permis de mettre au
point un test pour vérifier si des complexes de ce type se forment à partir d’autres antibiotiques :
des rats sont traités par l’antibiotique et leur foie est récupéré. La partie des hépatocytes riches en
cytochromes P450 (microsomes) est alors étudiée en utilisant la spectroscopie UV-Visible (car
l’hème du cytochrome P450 est un chromophore) : si le complexe est formé, il apparaît une
bande caractéristique à 455 nm.
Ces études ont permis de savoir si d’autres macrolides du type du TAO pourraient être
susceptibles d’engendrer des interactions médicamenteuses.
La chimie d’après le vivant, ou chimie biomimétique
Lorsque le fonctionnement du vivant au niveau moléculaire est connu, est-il possible de
l’imiter ? Il est intéressant d’imiter certaines classes de composants biologiques : c’est le cas des
enzymes, car elles sont très hautement sélectives, et possèdent une grande activité catalytique.
Pour reproduire ces propriétés, on essaye de mettre au point des catalyseurs biomimétiques.
Par exemple, est-il possible de synthétiser des catalyseurs purement chimiques qui
reproduisent les réactions catalysées par les enzymes vues précédemment (comme le cytochrome
P450) ? Ces catalyseurs seraient-ils donc capables d’hydroxyler des molécules très peu réactives
chimiquement par elles-mêmes, comme des alcanes ?

Third generation metalloporphyrin :
Fe(TDCPCl8P)Cl
Heptane Heptanols (80%)
> 1000 turnover.min-1
Fe(TDCPCl8P)Cl
PhIO
Les chimistes sont partis de l’hème (porphyrine de fer). Mais l’hème est très rapidement
dégradé dans un milieu chimique oxydant : il a donc fallu modifier l’environnement direct du
cycle tétrapyrrolique par synthèse pour le rendre plus résistant vis à vis de dégradations
oxydantes (figure 19).
Figure 19 : un exemple d’hydroxylaion biomimétique
Sur la figure 19, nous pouvons voir que jusqu’à 16 groupements Cl ont été introduits à la
périphérie de la porphyrine. En utilisant ce catalyseur en présence d’un donneur d’atome
d’oxygène, une réaction chimique très difficile peut être réalisée : l’hydroxylation de l’heptane en
heptanol avec 80% de rendement, et avec des vitesses de l’ordre de 1000 turnovers/minute.
Peut-on utiliser ces catalyseurs biomimétiques pour oxyder des médicaments et pour
préparer des métabolites oxydés de médicaments ? La réponse est oui.
La figure ci-dessous (figure 20) présente le cas d’un anti-inflammatoire non-stéroïdien, le
diclofenac, dont les métabolites majoritaires chez l’homme sont les 5-hydroxy- et 4’-hydroxydiclofenac

Figure 20 : métabolisme du diclofénac chez l’homme. Figure 21
Quand le diclofenac est soumis à un donneur d’atome d’oxygène (hydroperoxyde de
tertiobutyle par exemple) et à un catalyseur biomimétique, une porphyrine de fer, sa position 5 est
oxydée de manière sélective pour donner le 5-hydroxydiclofenac avec un rendement de 90% (en
bas à droite sur la figure 21).
Ces catalyseurs biomimétiques sont à l’heure actuelle utilisés par les industries
pharmaceutiques pour préparer les métabolites d’hydroxylation des médicaments, pour tester leur
activité pharmacologique, pour étudier leur toxicité et éventuellement pour breveter le plus vite
possible ces métabolites.
La chimie par-delà le vivant
Cette partie reprend les termes utilisés par J.-M. Lehn lors d’un rapport sur la prospective
à l’interface chimie-biologie remis au ministère en 2005, qui commence par une citation de
Berthelot, datant de 1860 mais toujours d’actualité : « la chimie crée son objet, cette faculté
créatrice semblable à celle de l’art lui-même, la distingue essentiellement des sciences naturelles
et historiques ».
Dans cette chimie par-delà le vivant, ce qu’il s’agit de faire, c’est de transcender les
limites du monde moléculaire élaboré par le vivant, soit en s’en inspirant (ce sont les systèmes
bio-inspirés), soit en changeant complètement les objets grâce aux 100 éléments de la
classification périodique (par rapport aux quelques 20 éléments dont le vivant se sert). Cela
constitue une multiplication considérable de potentialité pour créer de nouveaux objets.
Le point clé est de comprendre, puis de maîtriser, l’autoorganisation de la matière, non
seulement pour comprendre l’apparition de la vie (c’est la chimie prébiotique) et de la pensée
(chimie du cerveau), mais aussi pour créer d’autres modes d’organisation (chimie métabiotique).

 

 VIDEO       CANAL  U         LIEN


 VIDEO  DE  LA  CONFÉRENCE            LIEN

 
 
   Fichier à télécharger : CHIMIE 4
 
Page : [ 1 2 3 4 5 6 7 8 9 10 ] Précédente - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales /confidentialité

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon