|
|
|
|
 |
|
LA MODÉLISATION DES MOLÉCULES DE LA VIE |
|
|
|
|
|
Texte de la 614e conférence de l'Université de tous les savoirs donnée le 21 juin 2006
Richard Lavery : « La modélisation des molécules de la vie »
Le besoin de modèles
Depuis toujours les scientifiques, comme les ingénieurs, les architectes et même les enfants, ont eu besoin de construire des modèles pour les aider à comprendre le monde complexe qui nous entoure. Néanmoins, les modèles dont je vais parler ici ont dû attendre la fin du dix-neuvième siècle pour voir le jour. La raison principale pour cela est que nous allons parler du monde des atomes et leurs assemblages pour former des molécules et des macromolécules. Même si l'existence des atomes a été postulée par le philosophe grec Démocrite [1], 400 ans avant notre ère, il a fallu attendre les années 1900 pour accumuler suffisamment d'évidence en faveur de l'existence des atomes pour convaincre le monde scientifique. A ce sujet, il est remarquable de noter que les chimistes, qui avaient utilisé les formules pour décrire la constitution des molécules depuis le début du dix-neuvième siècle (par exemple, H2O, deux "parts" d'hydrogène pour une "part" d'oxygène), ont été parmi les plus difficiles à convaincre que "part" pouvait se traduire par atome et ceci malgré les travaux de leurs illustres prédécesseurs, notamment Lavoisier et Dalton, en faveur de la théorie atomique [1].
C'est donc aux alentours de 1900 que les premiers modèles représentant le nombre et l'organisation spatiale des atomes au sein des molécules ont vu le jour. Ces modèles comme vous pouvez le voir dans l'illustration, ressemblent beaucoup aux modèles que l'on trouve dans les salles de cours et les laboratoires aujourd'hui. Il y a naturellement différents types de représentation pour satisfaire les besoins des utilisateurs. Certaines emploient des sphères tronquées pour illustrer l'espace occupé par chaque atome (modèles Corey-Pauling-Kolton ou CPK des années '50), tandis que d'autres se concentrent sur la conformation des liaisons qui sont représentées par des fils métalliques (modèles Dreiding des années 60).
De tels modèles fonctionnent bien pour des molécules composées de quelques dizaines d'atomes, mais posent des problèmes pour construire des macromolécules formées de milliers, voir de dizaines de milliers d'atomes. Cette difficulté se fait ressentir au début des années soixante quand les premières structures des protéines ont été obtenues par les cristallographes à Cambridge. A partir de ce moment, il a fallu chercher d'autres moyens de modélisation plus rapides à mettre en place, moins chers, et plus maniables. C'est l'ordinateur et le passage aux modèles virtuels qui a fourni la réponse. Mais avant de parler de ces développements il y un exemple remarquable de modélisation "classique" qui mérite discussion.
L'ADN - un exemple phare du vingtième siècle
L'histoire de l'ADN (acide désoxyribonucléique) commence en 1869 quand Friedrich Miescher isole une substance de noyaux des cellules humaines qu'il dénomme "nucléine". Il s'agit en fait d'un mélange complexe de protéines et d'ADN. Il faut attendre le travail des chimistes du vingtième siècle et notamment les efforts de Phoebus Levene à l'Institut Rockefeller à New York pour connaître la structure chimique de la molécule qui se révèle être de longues chaînes composées d'une alternance de phosphates et de sucres. Sur chaque sucre est accrochée une base. Quatre bases sont identifiées : adénine (A), cytosine (C), guanine (G) et thymine (T). En formulant l'hypothèse que ces quatre bases se répètent de façon régulière le long de la chaîne d'ADN (par exemple, ACGT-ACGT-ACGT-.....) Levene relègue l'ADN à la famille de polymères jouant probablement un rôle structural au sein de la cellule. Mais, Levene se trompe et comme Oswald Avery, un autre scientifique de l'Institut Rockefeller, montre en 1944, l'ADN a le pouvoir de transformer des bactéries. L'ADN porte donc le message génétique et une course est lancée pour trouver sa structure et comprendre son fonctionnement. Plusieurs informations sont connues. Chargaff démontre que les bases sont présentes dans des rapports fixes de telle façon que le rapport de concentrations [A]/[G] est égale au rapport [T]/[C]. Astbury et ensuite Rosalind Franklin obtiennent des clichées de diffraction des rayons X à partir des fibres d'ADN et démontrent que la molécule possède une structure hélicoïdale.
Linus Pauling, un des plus grands chimistes du vingtième siècle propose une structure qui ne peut pas être correcte puisqu'il met les bases à l'extérieur et les phosphates en contact au centre de la structure sans tenir compte du fait qu'ils sont chargés négativement et ne peuvent pas se rapprocher ainsi [2].
La solution est trouvée à Cambridge par un jeune biologiste américain James Watson et le physicien anglais Francis Crick. Leur collègue Jerry Donohue explique que la formule normalement employée pour les bases n'est probablement pas correcte. Ce changement est la clé. Watson, jouant avec des modèles des bases, voit qu'il peut les assembler par paire : A avec T, G avec C. Les deux paires ont exactement la même forme et elles peuvent être placées, non pas à l'extérieur de la structure hélicoïdale, mais au centre.
Il crée ainsi la fameuse double hélice qui est devenue une des icônes de notre époque [3]. La construction du modèle, guidée par les informations expérimentales, donne un résultat si simple et si beau qu'il est accepté immédiatement. La double hélice est non seulement compatible avec les données expérimentales, mais suggère également comment l'information génétique passe d'une cellule à une autre. En effet, il suffit de séparer les deux chaînes et de fabriquer de nouvelles doubles hélices en copiant l'information: A dans le premier chaîne donne son complément T, T dans le deuxième chaîne donne son complément A. Il est probable que nous ne verrons jamais plus un modèle moléculaire qui aura un tel impact.
L'arrivée des ordinateurs
Pour aller plus loin avec la modélisation des molécules de la vie, il a fallu une autre étape clé - l'arrivée des ordinateurs. L'envie de calculer plus vite et avec plus de précision a inspiré les ingénieurs depuis longtemps. Qu'il s'agit d'obtenir les tables logarithmiques sans erreur, d'effectuer des calculs de balistique, ou de comprendre une réaction de fission nucléaire, les capacités de calcul humaines sont rapidement dépassées. Quelques pionniers du dix-neuvième siècle comme Charles Babbage ont tenté de résoudre les problèmes à l'aide d'une machine [4]. Plus précisément, une machine "universelle" capable d'effectuer différents types de calcul en suivant une suite d'instructions. Des ingénieurs comme Jacquard travaillant pour l'industrie de soie à Lyon, ont fourni le moyen d'écrire de tels programmes sur des ensembles de cartes perforées. Les plans de Babbage ont été bon (la Musée des Sciences de Londres vient de construire et de faire marcher des éléments de l'ordinateur de Babbage, et notamment son imprimante) mais en 1850 il n'avait ni les bons matériaux ni des outils de fabrication suffisamment précis. Les ordinateurs ont réellement vu le jour pendant la deuxième guerre mondiale quant les calculs rapides sont devenus indispensables pour casser des codes et pour faire avancer le projet Manhattan vers la production de la bombe atomique.
La disponibilité des ordinateurs pour des travaux non militaires date des années soixante. Les chimistes et biologistes n'ont pas attendu pour profiter de leurs possibilités, non seulement pour effectuer des calculs, mais aussi pour créer une nouvelle façon de visualiser des molécules, d'abord par des images fixes imprimées sur papier et ensuite par des images animées grâce au couplage entre l'ordinateur et l'écran cathodique. Dès 1966, Cyrus Levinthal à MIT a mis au point un système capable de représenter la structure d'une protéine et de la manipuler dans l'espace [5]. Depuis, les moyens de visualisation ont progressé de façon remarquable et même un ordinateur familial permet de se plonger dans le monde fascinant des macromolécules biologiques à travers des représentations toujours plus belles. Je vous encourage d'ailleurs de se procurer un des logiciels de visualisation gratuits tels que VMD [6] et d'entreprendre votre propre voyage au sein des protéines et des acides nucléiques (dont les structures sont librement accessibles dans la banque RSCB). Les coordonnées de VMD et du RCSB sont indiquées dans la liste des sites internet ci-dessous.
En parallèle, avec le développement du graphisme, les logiciels permettant de modéliser mathématiquement le comportement des molécules ont vu le jour, initialement pour satisfaire les besoins de la spectroscopie en interprétant les spectres en termes de vibrations moléculaires et ensuite pour modéliser la structure, la dynamique et les interactions des molécules dans leur environnement biologique, c'est à dire, entourées de l'eau et d'ions et soumises aux effets de l'excitation thermique. Le développement de tels logiciels continue aujourd'hui en ciblant des représentations moléculaires toujours plus près de la réalité et la capacité de modéliser des systèmes toujours plus grands et plus complexes.
Les molécules
Qu'est qu'il faut pour créer une molécule virtuelle au sein de l'ordinateur ? Peut-on modéliser la dynamique d'une molécule, le processus d'assemblage d'un complexe multi-moléculaire ou le fonctionnement d'un enzyme ? Pour commencer à répondre à ces questions, il faut se rappeler que les molécules, même les macromolécules de la vie, sont très petites. Leur taille se mesure en dizaines de nanomètres (un nanomètre est un mille milliardième d'un mètre, 10-9 m) et il faut, par exemple, empiler 30,000 protéines pour atteindre l'épaisseur d'une feuille de papier ! A ces dimensions, c'est la mécanique quantique qui règne; les électrons forment un nuage de densité électronique autour des noyaux atomiques, et obéissent à la fameuse équation de Schrödinger. Dans ce monde quantique toute la chimie est possible, les électrons et les noyaux peuvent être perturbés par des interactions avec la lumière, d'autres rayonnements ou d'autres molécules et les électrons peuvent s'échanger entre différentes molécules en formant et en brisant des liaisons chimiques. Néanmoins, les calculs associés sont complexes et, malgré le progrès remarquable de la chimie quantique, ils sont encore prohibitifs pour la plupart des systèmes macromoléculaires.
Dans ce cas, si on accepte de se limiter aux études de la structure, la dynamique conformationnelle et les interactions physiques des macromolécules nous pouvons retourner vers la mécanique classique de Newton. Dans ce monde les atomes deviennent des billes (avec des tailles et des charges électrostatiques qui dépendent de leurs identités chimiques et de la molécule à la quelle ils appartiennent) et les liaisons chimiques deviennent des ressorts.
D'autres termes simples représentent la déformation des angles de valence, la rotation des angles dièdres et l'équilibre entre l'attractivité des atomes à longue portée et leur répulsion à courte portée. On crée ainsi un "champ de force" qui permet de calculer l'énergie d'un système moléculaire, d'optimiser sa structure en minimisant cette énergie ou encore de suivre sa dynamique à une température donnée (en intégrant l'équation de Newton Force = Masse x Accélération dans le temps). Quelques décennies de recherche ont permis de raffiner de champs de force suffisamment pour obtenir des résultats en bon accord avec l'expérience. Combinés avec la puissance croissant des ordinateurs, ils sont devenus un moyen efficace pour étudier le comportement des macromolécules biologiques. Nous retournerons vers la double hélice de l'ADN pour montrer un exemple.
Le physicien sonde l'ADN
Dans notre domaine, un des développements les plus excitants de ces dernières années a été la possibilité de manipuler directement une seule molécule [7]. L'ADN est un bon candidat pour de telles expériences puisque, malgré un diamètre de seulement deux nanomètres, sa longueur peut atteindre des centimètres. L'envie de manipuler une seule molécule résulte de l'observation que l'évaporation d'une gouttelette d'eau pouvait étirer l'ADN bien au delà de sa longueur naturelle [8]. Par la modification chimique des extrémités de la molécule (un sort de "scotch" moléculaire), il était ensuite possible d'attraper une molécule d'ADN et de la fixer sur une extrémité à une surface et sur l'autre à une microbille en polystyrène. En tirant sur la microbille il est devenu possible de suivre l'extension de la molécule et de mesurer les forces exercées. Les résultats ont été surprenants puisqu'il s'avère que l'ADN ne se comporte pas comme un ressort simple. Au delà d'une certaine force (environ 70 picoNewtons), la molécule est capable de presque doubler sa longueur sans que la force exercée augmente [9]. L'explication structurale de ce phénomène est venue de la modélisation. En étirant la double hélice dans le monde virtuel de l'ordinateur, nous avons constaté qu'il y a en fait deux chemins d'étirement, soit en déroulant la double hélice, soit en diminuant son diamètre par l'inclinaison des paires de bases. En réalité il est probable que ces deux chemins participent à former la structure étirée qui porte désormais le nom d'ADN-S (stretched DNA) [9, 10].
Par la suite, l'emploi d'une microbille magnétique a permis de contrôler à la fois l'étirement et l'enroulement de la molécule [11]. A nouveau les résultats ont été surprenants. En diminuant le nombre de tours de la double hélice on arrive à séparer les deux brins, mais en augmentant le nombre de tours on a constaté que la molécule s'allonge et qu'on pouvait atteindre une rotation de presque 160° entre les paires de bases successives (contre seulement 34° dans la conformation usuelle de l'ADN). La modélisation de se phénomène a permis de postuler une nouvelle forme de la double hélice qui se ressemble étrangement à la structure incorrecte proposée par Linus Pauling avant le succès de Watson et Crick. Cette structure, qui est maintenant appelé ADN-P (P pour Pauling) se distingue par la position des bases, qui sont à l'extérieure de la structure, tandis que les brins phosphodiesters sont entrelacés au centre [12].
Ces expériences et la modélisation qui a suivi ont montré la complexité de la mécanique de l'ADN. Elles ont aussi servi de base pour une nouvelle domaine scientifique, la physique des molécules uniques, qui continue de fournir des informations sur une gamme de systèmes biologiques (complexes protéine-ADN, la chromatine, les moteurs moléculaires, le fonctionnement des virus, ...) qui sont difficilement accessibles par d'autres types d'expérience.
Partir des ponts pour arriver aux protéines
Pour continuer sur le thème de la mécanique des macromolécules, j'aimerais parler un peu des protéines. Les protéines ont des structures plus complexes que l'ADN. D'abord, elles sont formées de polymères (polypeptides) composés de 20 types de sous unités différentes (les acides aminés), plutôt que seulement quatre types pour l'ADN (les nucléotides portant les bases A, C, G et T). Ensuite, dans la plupart des cas, le repliement de la chaîne des acides aminés conduit à des structures compactes et globulaires.
Cette complexité illustre l'importance de la structure des protéines, mais la structure seule n'est pas suffisante pour tout comprendre. On peut raisonnablement assumer que leurs propriétés mécaniques sont également importantes compte tenu des travaux accomplis par des protéines. Ainsi, plusieurs protéines appartiennent à la catégorie des enzymes et sont capables de catalyser des réactions chimiques avec une spécificité remarquable, d'autres jouent un rôle structural au sein de nos cellules et d'autres encore fonctionnent en tant que moteurs miniatures. Toutes ces taches nécessitent non seulement des structures particulières, mais aussi des propriétés mécaniques appropriées.
Nous avons tenté de mettre au point des techniques de modélisation pour étudier ces propriétés [13]. Plus précisément, à partir des fluctuations spatiales des acides aminés lors d'une simulation dynamique, nous avons pu calculer des constants de force correspondant à la difficulté de déplacer un résidu donné par rapport au reste de la structure [14]. Pour accélérer les calculs nous avons utilisé un modèle protéique plus simple comportant seulement quelques points pour chaque acide aminé (plutôt qu'une dizaine d'atomes) et nous avons également remplacé le champ de force classique avec de simples ressorts entre tous les résidus proches. Ainsi modélisée, la protéine ressemble à un objet élastique où la densité de ressorts reflète le repliement de la chaîne polypeptidique.
Compte tenu de la simplicité de notre modèle, nous étions surpris de voir que les propriétés mécaniques des différents résidus pouvaient varier de façon importante au sein d'une seule protéine. La figure montre se résultat à travers le "spectre" de constantes de force pour les acides aminés d'une péroxidase. Cette protéine contient un groupement heme qui joue un rôle central en catalysant la cassure d'une liaison péroxide, R-O-O-R', pour former deux alcools, R-OH et R'-OH, par l'addition de deux atomes d'hydrogène et de deux électrons. Un petit nombre de résidus sont particulièrement difficiles à déplacer et ont des constantes de force très élevées. Il s'avère que ces résidus sont exactement ceux qui maintiennent le groupement heme en place et sont donc des résidus clés pour le fonctionnement de la protéine.
Après l'étude d'environ 100 protéines, nous avons pu démontrer que les résidus ayant un rôle fonctionnel ont presque toujours des propriétés mécaniques exceptionnelles. Ils sont, dans l'ensemble, tenus de façon beaucoup plus rigide au sein de leurs structures protéiques que les autres résidus. Nous pouvons conclure que cette propriété est importante pour l'activité protéique et que l'évolution a choisi le repliement complexe de chaque protéine non seulement pour placer les résidus clés au bon endroit, mais aussi pour assurer qu'ils y restent.
L'avenir de la modélisation en biologie
Il est toujours dangereux de parler de l'avenir. Néanmoins, dans le domaine de la modélisation on peut faire deux prédictions concernant les développements possibles et souhaitables sans prendre trop de risques.
Premièrement, les ordinateurs vont continuer à progresser en puissance comme en capacité de stockage. Depuis les années quarante jusqu'à nos jours la puissance des processeurs a doublé environ tous les 18 mois. En même temps, les mémoires ont changé de quelques octets à des kilooctets, puis des mégaoctets, des gigaoctets et maintenant des téraoctets. Aujourd'hui certaines voitures ont plus de puissance de calcul que les capsules Apollo des années soixante-dix ! Au delà de la puissance des processeurs individuels, il est aussi devenu courrant d'assembler de dizaines, des centaines, voir des milliers de processeurs pour multiplier la puissance disponible. De telles machines sont traditionnellement construites dans les bâtiments des centres de calculs, mais il est aussi possible de créer une machine virtuelle composé d'ordinateurs indépendants. Les efforts de projets tels que "Screensaver Lifesaver". Ce projet cible la conception de nouveaux médicaments contre le cancer grâce aux calculs effectués par un logiciel de sauvegarde d'écran installé volontairement par des particuliers sur leurs propres PC (voir la liste des sites internet ci-dessous). Les résultats de Lifesaver montrent la puissance de cette approche puisque les calculs effectués ont largement dépassé la puissance des gros centres de calcul conventionnels avec plus de 450,000 heures de calcul sur un total de 3.5 millions de PC à travers le monde.
Deuxièmement, malgré la puissance de calcul qui sera disponible, elle sera toujours insuffisante pour modéliser toute la complexité des systèmes vivants. Aujourd'hui nos efforts portent sur une meilleure compréhension de la structure et de la dynamique de macromolécules individuelles, sur les interactions macromolécule-ligand ou sur les interactions entre deux macromolécules. En revanche, au sein de la cellule, chaque macromolécule se trouve en contact avec des dizaines d'autres dans un milieu hétérogène et dense qui, de surcroît, évolue dans le temps. La plupart de complexes qui se forment dans ce milieu impliquent de multiples macromolécules. Un nombre très important de petites molécules entre et sort des cellules et voyage entre les différents compartiments cellulaires pour passer des messages chimiques, tandis qu'un système de fibres et de moteurs se charge de déplacer des objets moléculaires plus encombrants et participe dans les mouvements et les interactions de la cellule. Finalement, les cellules sont protégées et partitionnées par des membranes lipidiques comportant une gamme impressionnante de canaux et de récepteurs qui se chargent de la communication avec le monde extracellulaire. Par comparaison, nos efforts de modélisation semblent un peu timides. Comprendre la complexité des systèmes vivants au niveau moléculaire nécessitera non seulement toute la puissance informatique disponible, mais aussi toute la créativité des chercheurs pour mettre au point de nouveaux modèles et de nouveaux algorithmes de modélisation.
Remerciements
La recherche aujourd'hui implique plus des équipes que des individus. Je souhaite remercier mes collègues qui ont contribué aux travaux présentés ici. Notamment, pour la modélisation des acides nucléiques et leur manipulation, Anne Lebrun et Krystyna Zakrzewska, et nos collègues de l'Ecole Normale Supérieure de Paris, Jean-François Allemand, David Bensimon, Didier Chatenay et Vincent Croquette, et pour l'étude de la mécanique des protéines, Fabien Cailliez, Isabelle Navizet, et Sophie Sacquin-Mora. Je remercie également les autres membres du Laboratoire de Biochimie Théorique à Paris avec qui j'ai eu le plaisir de travailler et le CNRS qui a fourni les moyens d'accomplir ce travail.
VIDEO CANAL U LIEN
(si la video n'est pas accéssible,tapez le titre dans le moteur de recherche de CANAL U.) |
|
|
|
|
 |
|
CERVEAU , CHANCE ET CHAOS |
|
|
|
|
|
CERVEAU, CHANCE ET CHAOS
Les neurosciences vivent une période nouvelle et particulièrement fructueuse dans leurs rapports avec la physique et les mathématiques. En neurobiologie, ainsi que dans d'autres corpus du savoir, a dominé jusqu'ici une conception causale héritée de la mécanique de Newton selon laquelle le fonctionnement du cerveau obéirait aux seules lois du déterminisme classique. La notion de « câblage » anatomique et celle d'arc réflexe illustrent bien ce schéma traditionnel du tout ou rien qui a conduit a trop souvent exclure du champ de notre réflexion, la variabilité et le caractère imprévisible, pourtant évidents, de nombre de faits expérimentaux. Nous montrerons à l'aide de quelques exemples que cette situation se modifie rapidement et que les « interfaces » entre les différentes disciplines souvent invoquées en vain dans le passé, deviennent une réalité. Un matériel expérimental privilégié a été celui d'un neurone qui commende la réaction de fuite chez les poissons. Véritable « cerveau dans le cerveau », il permet d'étudier tous les mécanismes de la communication neuronale qui ont été identifiés chez toutes les espèces, y compris les Primates. À son niveau, la transmission de la communication entre les neurones est loin d'être garantie, elle obéit au contraire aux lois du hasard : comme si chaque synapse jouait aux dés le fait qu'elle relaie ou non un message après chaque influx. Ce caractère probabiliste confère à la communication nerveuse et par conséquent aux comportements qu'elle sous-tend, une « liberté » dont la valeur adaptative est fondamentale. Elle intervient de plus dans certains processus de mémorisation et d'apprentissage. L'étude de phénomènes électriques communs également à tous les neurones, à l'aide de la dynamique non linéaire mise au point par les physiciens, a d'autre part suggéré que l'apparence stochastique de ces processus cache en fait un ordre sous-jacent, celui du chaos déterministe. Le terme « déterministe » signifiant que la dynamique en cause obéit bien à des lois mais, que l'évolution des phénomènes concernés est imprévisible du fait de leur sensibilité à toute perturbation. Cette découverte qui remet en cause bien des idées reçues, offre des perspectives inattendues pour qui veut comprendre la nature des états internes du cerveau ou encore dans une perspective thérapeutique de certaines affections neurologiques.
VIDEO CANAL U LIEN
(si la video n'est pas accéssible,tapez le titre dans le moteur de recherche de CANAL U.) |
|
|
|
|
 |
|
LES BIOMATÉRIAUX |
|
|
|
|
|
LES BIOMATÉRIAUX
Les biomatériaux représentent une des grandes avancées thérapeutiques de ces quarante dernières années. Définis comme des matériaux travaillant sous contrainte biologique, voués au remplacement d'une fonction ou d'un organe, ils sont présents dans de très nombreuses stratégies thérapeutiques. Selon la définition de Chester (1981), il s'agit de tout matériau non vivant utilisé dans un dispositif médical et visant à remplacer ou traiter un tissu, organe ou une fonction avec une durée de contact supérieure à trois semaines. On estime à environ 3,2 millions les personnes qui en France sont porteuses d'un biomatériau. Ces derniers posent des problèmes scientifiques qui représenteront la substance centrale de cet exposé, mais posent aussi des problèmes économiques, éthiques, réglementaires et industriels qui ne sauraient être passés sous silence sans avoir une approche par trop réductrice. Il y a souvent confusion entre biomatériau et bio matériel. Il est en fait habituel de confondre ces deux notions même si au sens strict il ne faudrait parler que de biomatériau, c'est à dire une partie constituante du bio matériel. Élément primordial de certaines stratégies thérapeutiques, les biomatériaux partagent avec le médicament les exigences de sécurité, fiabilité, reproductibilité. D'utilisation plus récente, ils n'ont cependant pas atteint les mêmes niveaux d'exigence et pourtant la responsabilité est immense puisque si un traitement médicamenteux peut être interrompu à tout moment, un biomatériau une fois implanté ne pourra être retiré que lors d'une nouvelle intervention chirurgicale.
VIDEO CANAL U LIEN
(si la video n'est pas accéssible,tapez le titre dans le moteur de recherche de CANAL U.) |
|
|
|
|
 |
|
DÉVELOPPEMENT ET ÉVOLUTION DU SYSTÈME NERVEUX |
|
|
|
|
|
Le développement et l'évolution du système nerveux.
Notre propos traitera d'embryologie, pas d'embryologie humaine bien que certains aspects du développement des autres espèces soient aussi valables pour celui de l'Homme. Nous avons, en effet, beaucoup à partager avec les autres animaux, voire avec les champignons et les plantes.
S'il fallait donner une définition de l'embryologie elle serait relativement simple. L'embryologie est l'ensemble des processus qui mènent de l'oeuf, à partir du moment où le spermatozoïde et l'ovule l'ont formé, à l'organisme adulte ou imago. Ainsi sous le terme d'embryologie, deux processus se confondent ou se superposent :
- fabriquer l'imago c'est-à-dire faire un individu dont la forme est représentative de l'espèce ;
- fabriquer un individu particulier qui diffère des autres membres de son espèce.
Ces deux processus sont inscrits l'un dans l'autre et, selon l'espèces ou l'embranchement – la place occupée dans l'histoire de l'évolution - ils n'ont pas forcément la même importance. Fondamentalement l'embryologie est question de formes et question de temps. À partir d'un oeuf se construit un individu dont la forme, l'imago, est spécifique de l'espèce. Un oeuf c'est une cellule alors qu'un individu c'est plusieurs milliards de cellules. Il y a donc une immense prolifération du nombre de cellules à partir de l'oeuf. Par ailleurs, un individu est constitué de plusieurs types de tissus, musculaire, nerveux, hépatique. Ces tissus se forment à partir de trois feuillets embryonnaires : le mésoderme donnera les muscles et les os, l'ectoderme le système nerveux et la peau, l'endoderme le tube digestif, les poumons et les glandes annexes du tube digestif comme le foie, le pancréas, la thyroïde.
Les résultats sur la première étape de formation du tissu nerveux - l'induction neurale - ont été initialement obtenus chez le crapaud Xénope mais ils sont également vrais pour le poulet, et dans les grandes lignes pour la souris et l'Homme. Au départ, à partir de la cellule initiale, une phase de prolifération mène au stade de la morula, puis de la blastula qui précède la gastrulation et l'induction neurale. La blastula est une sorte de boule creuse avec des cellules à la surface. Le système nerveux va se développer à partir de la surface extérieure dorsale de cette boule. Au cours de la gastrulation cet ectoderme dorsal est induit à devenir de l'ectoderme neural c'est-à-dire à former du système nerveux.
L'induction neurale a été découverte dans les années 1930-40 par Mangold et Spemann à la suite d'expériences dans lesquelles ils greffaient des morceaux d'embryon de Triton blanc dans un embryon de Triton noir, histoire de distinguer tissu receveur et tissu donneur. En prenant une région particulière du Triton blanc et en la greffant dans la région ventrale d'un oeuf de Triton noir, ils se sont rendus compte qu'ils dorsalisaient la région ventrale de ce dernier. Au lieu d'avoir un Triton normalement constitué ils ont obtenu un Triton à deux dos dans lequel il n'y avait pas de partie ventrale. Ils avaient induit la formation d'un deuxième système nerveux central.
À la suite de ces expériences, de nombreux chercheurs ont cherché à identifier la nature moléculaire de ces inducteurs neuraux présents dans cette petite région inductrice et mésodermique qui mise au contact de la région ventrale modifie destin embryonnaire. Cette recherche des inducteurs neuraux qui dure depuis plus de 60 ans n'est - à ce jour - toujours pas totalement aboutie. Dans la suite du développement, le triton s'allonge et à la surface dorsale se constitue une plaque neurale. Cette plaque neurale ne va donner naissance au tube neural qu'après avoir été internalisée par l'embryon.
Dans le développement du système nerveux, comme dans le développement en général, l'information positionnelle joue un rôle très important. On peut voir le système nerveux comme une plaque, une feuille sur laquelle on peut tracer un quadrillage. Une fois qu'elle s'est refermée en tube, la plaque reste quadrillée. Il y a une orientation dorso-ventrale et une orientation antéro-postérieure. Si chacun de ces carrés était défini par l'expression d'une catégorie de gènes, d'un algorithme génétique, on serait capable de définir la position de n'importe quelle cellule à partir de la connaissance des gènes qu'elle exprime. Considérer le système nerveux comme un plan et considérer ce problème de l'information positionnelle comme le problème d'un quadrillage du plan peut aider à comprendre énormément de questions qui sont posées sur la construction du système nerveux.
L'information positionnelle signifie qu'une cellule dans une région donnée, quand le tube neural s'est fermé et différencié, donnera naissance à un type de cellules bien déterminé par exemple spécifique du cortex frontal ou du bas de la moelle épinière. Pourtant, au départ, au moment où la plaque neurale se forme, les cellules sont extrêmement semblables. Beaucoup plus tard, les réseaux neuronaux seront construits. Les neurones sont amenés à envoyer un axone, un prolongement, vers une autre région pour former une synapse, un contact neuronal. La navigation du cône de croissance, la tête chercheuse du neurone, doit être précise. Le cône de croissance doit être capable, dans l'espace tridimensionnel du système nerveux, de retrouver une cible parfois très éloignée. Le quadrillage de l'information positionnelle est fondamental pour que le cône de croissance connaisse sa position et sache où il doit se diriger et quand il doit s'arrêter, c'est-à-dire pour construire un système nerveux fonctionnel.
Nous allons maintenant faire une parenthèse sur le concept d'information positionnelle et ce qu'on appelle les gènes de développement. Les gènes sont d'importance variable. Ainsi les gènes qui contrôlent la forme et la couleur des poils, la couleur des yeux, sont importants d'un point de vue esthétique mais ne sont pas fondamentaux pour ce qui est du développement de l'embryon. Par contre, il existe des classes de gènes dits de développement, qui - eux – sont essentiels pour ce qui est de la forme de l'embryon et de son développement.
La découverte de gènes dont les mutations modifiaient la forme a constitué une avancée considérable dans la compréhension de comment se construit un organisme. La grande percée a eu lieu chez la mouche du vinaigre, Drosophile, chez laquelle des généticiens du début du siècle, surtout l'école de Morgan, ont démontré que certaines mutations pouvaient transformer un organe en un autre, par exemple l'oeil en aile (mutation ophtalmoptera). Ces mutations monstrueuses suggérèrent que les gènes mutés étaient responsables du développement morphogénétique de ces petits amas de cellules embryonnaires qu'on appelle des disques imaginaux à l'origine des différents organes de la mouche. Ces gènes ont été clonés chez la mouche. Ils ont été appelés homéogènes parce que leur
mutation entraîne la transformation de l'organe d'un segment de la mouche en l'organe homologue d'un autre segment (l'aile en oeil ou l'antenne en patte, par exemple). L'existence de ces gènes lie le développement à l'évolution. En effet la compréhension de la transformation d'un organe en un autre permet de comprendre comment se sont formés des monstres au cour de l'évolution. Il est probable que beaucoup de processus de création de nouvelles espèces (les monstres qui ont réussi) sont liés à des modifications du nombre, du lieu d'expression et surtout du temps d'expression de ces gènes qui influent sur le développement morphologique des animaux et des plantes. Ces gènes homéotiques codent pour des facteurs de transcription c'est-à-dire des protéines qui restent dans le noyau des cellules et qui régulent l'expression d'autres gènes. Ce sont des gènes architectes qui contiennent le plan de la mouche et décident de la position des différents organes. Ils régulent d'autres gènes qui, eux, fabriquent réellement les organes. Ces gènes de développement sont au centre de réseaux génétiques. Une des grandes difficultés de la biologie du développement aujourd'hui est de comprendre quels sont les gènes dont l'activité est régulée par les gènes de développement, lesquels sont maintenant pratiquement tous identifiés dans le règne animal.
Chez la mouche, ces gènes de développement sont disposés le long d'un chromosome. Une chose tout à fait étonnante est que les gènes "en avant" du chromosome, en 3', sont exprimés dans les régions les plus antérieures de l'animal et que les gènes en 5', "en arrière" du chromosome, sont exprimés dans les régions les plus postérieures. D'une certaine façon la mouche est représentée sur le chromosome par la disposition des gènes de ce complexe homéotique. Quand le génome passe de la génération x à la génération x+ 1, le plan de l'animal, de l'imago, qu'il va falloir construire est transmis.
Ces facteurs de transcription, produits de ces gènes de développement - gènes du complexe HOM - se fixent à l'ADN car ils doivent réguler l'expression d'autres gènes. Ils se fixent par une petite séquence d'environ 60 acides aminés, appelée l'homéodomaine et codée par l'homéoboîte. Tous ces gènes chez la mouche ont pratiquement la même homéoboîte. Ils constituent donc une famille. Grâce à cette signature de l'homéoboîte cette même famille a été retrouvée chez la souris et chez l'Homme. Chez les vertébrés, ces gènes sont disposés non pas sur un mais sur quatre chromosomes et les gènes de ces quatre complexes HOM/Hox ont à peu près les mêmes propriétés que ceux de la mouche. Ils sont exprimés à l'avant de l'embryon quand ils sont en 3' du chromosome et à l'arrière des axes embryonnaires quand ils sont en 5' du chromosome. En analysant les gènes de mouche et de souris il a été observé que le remplacement d'un gène de mouche par un gène placé à la même position sur un des quatre chromosomes de la souris, permet de réparer la mouche. Cette complémentation marque une homologie à travers l'évolution ou encore une orthologie. À partir de la constatation de ces orthologies, on peut tirer la conclusion qu'il existe un ancêtre commun aux arthropodes et aux vertébrés. Cet ancêtre aurait vécu il y a 600 millions d'années, soit avant l'explosion du précambrien. L'évolution a alors suivi deux voies différentes l'une vers l'embranchement des arthropodes, l'autre vers celui des vertébrés. Deux duplications chromosomiques ont probablement permis la formation des quatre complexes qui sont la signature des vertébrés.
Les gènes que nous venons de décrire n'influent pas directement sur le système nerveux antérieur. Les chercheurs qui s'intéressent au cerveau ont donc utilisé une stratégie très proche en cherchant des gènes s'exprimant dans les ganglions céphaliques de la mouche. Ils ont trouvé à nouveau des gènes de la même famille, codant pour des facteurs de transcription, par exemple orthodenticle ou otd. Ayant découvert ces gènes ils ont regardé si des gènes homologues existaient dans le cerveau de la souris et en ont trouvé. Par exemple otx 1 et otx 2 qui sont assez proches de otd, s'expriment aussi dans les régions antérieures du cortex de la souris et de l'Homme et sont capables de complémenter otd. La suppression, chez la mouche, du gène otd entraîne la perte des structures céphaliques antérieures et, pour certains allèles de otd, des ocelles (trois "yeux" dorsaux). Son remplacement par otx 1 ou otx 2 de souris ou d'Homme restitue à la mouche sa morphologie normale. A l'homologie de structure et de site d'expression dans les régions antérieures du système nerveux, s'ajoute donc la
complémentation fonctionnelle. Ceci suggère très fortement que les régions antérieures existaient chez l'ancêtre commun et peut être même avant. Ainsi l'idée très développée que la céphalisation est un processus tardif de l'évolution est une idée fausse. La génétique du développement nous démontre qu'en fait la tête était là depuis le départ, au moins depuis le moment où nous nous sommes séparés de nos lointains cousins les arthropodes. Pourquoi avons-nous deux gènes otx 1 et otx 2 ? La génétique de la souris est suffisamment évoluée pour qu'on puisse retirer ou ajouter un gène à n'importe quel moment du développement. On parle de perte ou gain de fonction. La délétion de otx 2 donne une souris sans tête, c'est-à-dire sans système nerveux antérieur. C'est létal. Celle de otx 1 laisse un cerveau presque normal mais aminci du côté temporal et la souris fait des crises d'épilepsie. Surtout, elle perd le canal latéral semi-circulaire de l'oreille interne, structure qui au cours de l'évolution apparaît avec la transition des poissons sans machoires (agnathes) aux gnathostomes. Si on remplace otx 2 par otx 1 la souris commence à faire son système nerveux
mais elle ne le maintient pas. Si on remplace otx 1 par otx 2 on restitue presque toutes les fonctions de otx 1 sauf le développement du canal latéral semi-circulaire de l'oreille interne. Cela suggère qu'au départ il y avait uniquement otx 2 (orthologue de otd). Une duplication de otx 2 a rendu possible la formation de son paralogue otx 1 dont l'évolution a apporté des gains de fonction associés au passage des agnathes aux gnathostomes. L'étude des gènes de développement permet donc non seulement de comprendre le développement des organismes mais aussi l'évolution des espèces. Une nouvelle discipline est née "l'évodévo" ou développement/évolution. Il existe une très grande quantité de gènes exprimés dans les régions antéro-postérieures et dorso-ventrales du système nerveux de telle sorte que si on prend un système nerveux aplati sur lequel on trace un quadrillage, chaque région peut être définie par une combinatoire d'expression de gènes de développement. C'est en fonction de cette information positionnelle que les cellules vont donner naissance aux différents organes.
L'étape suivante dans la formation du système nerveux après la formation du tube neural à partir de la plaque neurale qui s'est refermée, c'est de le faire grossir. À partir d'une ou deux rangées de cellules il faut construire, par exemple, un cortex de 2 m2 chez Homo sapiens. Les différentes zones de cette surface ne sont pas homogènes, elles ne sont pas dévolues aux mêmes fonctions : il existe des aires olfactives, des aires associatives, des aires auditives, des aires visuelles, etc. Au cours de l'évolution la surface du cortex a augmenté et s'est régionalisée. Plis et circonvolutions permettent de tout empaqueter dans la boîte crânienne. L'augmentation générale de surface et celle ds surfaces dévolues aux fonctions spécifiques ont probablement varié à la suite de mutations de gènes de développement régulant prolifération et survie cellulaire dans des régions particulières. Par exemple, les surfaces allouées aux fonctions dites cognitives, associatives, ou permettant la maîtrise du langage, ont augmenté chez Homo sapiens plus que chez nos cousins les primates. Après la régionalisation du système nerveux, la deuxième période de ce développement permet donc la multiplication des cellules, l'organisation du cortex en six couches, la formation de toutes les structures cérébrales, la navigation axonale, la formation des synapses. Les mécanismes d'orientation d'une cellule migrante ou du cône de croissance d'un axone d'une cellule nerveuse ne sont pas encore connus même si nous savons qu'ils ont partie liée avec la lecture de l'information positionnelle, donc l'expression des gènes de développement.
Nous allons maintenant passer à des aspects un peu plus généraux. Nous avons vu tout à l'heure que nous avions au niveau chromosomique quatre représentations du corps, ce qu'on appelle des homonculus génétiques ou représentations génomiques du plan du corps. Ce plan du corps est marqué par la localisation de ces gènes de développement le long des chromosomes et par leur domaine d'expression spatio-temporel. Le cerveau est lui-même l'objet d'une construction génétique soumise à une régulation épigénétique. Par exemple, il existe dans le cortex sensoriel - sous la forme de réseaux neuronaux - une représentation du corps (donc à caractère génétique car reproduisant l'imago), mais cette représentation est déformée épigénétiquement car les régions les plus innervées sur le plan sensoriel mobilisent le plus grand nombre de neurones. La stimulation sensorielle "anime et déforme" un ensemble de neurones qui sont, pas exemple, "la main dans le cerveau".
Les réseaux neuronaux sont construits en fonction, à la fois d'une contrainte génétique, il s'agit d'un homonculus spécifique de l'espèce, et d'un environnement sensoriel. Si on coupe les afférences sensorielles, on perd le développement correct des représentations du corps au niveau du cortex. Si, chez la souris, à la naissance, on ôte les vibrisses (récepteurs sensoriels sur le museau), ils ne seront pas représentés dans le cortex, le membre sera absent. L'usage et l'influence de l'environnement sur tous les systèmes sensoriels modifient donc pour chaque individu la construction de ses représentations au niveau du système nerveux central. C'est ce qu'on appelle l'épigenèse, processus par lequel bien qu'appartenant à une même espèce, tous les individus sont différents. Le cerveau est capable d'engrammer une histoire individuelle, affective, sensorielle, une histoire de nos stimulations par le milieu. Plus nous sommes stimulés, plus nous développons des constructions épigénétiques variées. C'est vrai chez l'enfant, chez l'adolescent mais aussi chez l'adulte. En effet, une des grandes innovations des vertébrés est d'avoir gardé un système nerveux embryonnaire chez l'adulte. Ainsi, l'épigenèse se construit-elle à partir des nouveaux neurones, des arborisations neuritiques qui se
déforment, des synapses qui se font et se défont. Elle est un processus d'adaptation qui se
poursuit toute la vie. Le fait d'être du côté des arthropodes ou de celui des vertébrés a des conséquences fondamentales sur les stratégies d'adaptation. Nous partageons beaucoup avec les mouches, avec les vers et toute les études sur ces organismes sont extraordinairement importantes pour comprendre comment fonctionne et comment se construit le système nerveux des vertébrés.
Mais les logiques de nos stratégies adaptatives sont très différentes. Dans l'embranchement des arthropodes, notre grand concurrent au niveau de l'évolution, l'adaptation se fait de façon presque purement génétique. Il y a très peu d'individuation. La construction de l'individu n'est jamais très éloignée de celle de son génome. Chez les vertébrés, et encore plus chez nous parce que nous avons des systèmes de communication qui sont très riches de sens, le langage en particulier, l'adaptation ne se fait pas au niveau de la sélection de clones, elle se fait au niveau de la variabilité de l'individu, de son évolution.
L'adaptation se fait par individuation
Le système nerveux d'un individu au temps t et au temps t+δt n'est pas le même, il a évolué. L'intensité des synapses, leur nombre, le nombre de cellules, l'organisation des réseaux auront varié. Cette variation de structure biologique correspond à une évolution de l'objet, une adaptation à son milieu, une réponse à son histoire. Il y a donc de la plasticité chez l'adulte, dans certaines limites bien entendu, et cette plasticité est très certainement liée à l'expression continuée de ces même gènes de développement qui sont responsables non seulement de l'évolution, non seulement de la mise en place des grandes structures cérébrales (cortex, cervelet, moelle épinière), mais aussi de la plasticité permanente du système morphologique y compris à l'âge adulte.
La plasticité implique que de nombreuses cellules naissent, se différencient et meurent. Il existe des cellules souches dans la peau, le foie, le système hématopoïétique/immunitaire mais aussi dans le système nerveux central. Les premières ont été trouvées dans le bulbe olfactif : les interneurones du bulbe olfactif se reproduisent environ une fois par mois à partir de la zone sous-ventriculaire qui est une structure corticale située à l'avant du cerveau dont les cellules migrent pour aller envahir le bulbe. Ces cellules souches prolifèrent, migrent, se différencient comme des neurones normaux au cour du développement embryonnaire. Puis des cellules souches ont été repérées dans l'hippocampe, une structure à l'arrière du cortex qui est d'une grande importance pour la mémoire spatiale. Dans nombre de maladies neurodégénératives il y a perte de cellules au niveau de l'hippocampe. Très récemment des cellules souches ont été trouvées dans le cortex associatif du macaque. C'est une des régions la plus importante pour la mémorisation, la construction de souvenirs, pour la pensée d'une certaine façon. Le développement embryonnaire se poursuit donc sous une forme silencieuse chez l'adulte par la génération de nouvelles cellules souches qui vont migrer, se différencier et s'insérer dans des nouveaux réseaux neuronaux de la naissance à la mort. C'est une des bases de notre capacité à apprendre, de notre force d'adaptation, au niveau individuel, face aux défis qui nous sont apportés par les modifications de l'environnement physique et affectif. La question du vieillissement est donc à reposer. Pour certains, le vieillissement est une perte de fonctions à partir d'un âge idéal, une sorte de gain d'entropie catastrophique. Il peut être vu, aussi,
comme l'accumulation d'accidents du développement chez l'adulte. La biologie du développement pourrait donc nous donner des clés pour comprendre ce qu'est le vieillissement chez l'animal adulte et ce que sont de nombreuses maladies neurodégénératives comme la maladie d'Alzheimer.
En conclusion, revenons sur ce que ces résultats rapportés de façon extrêmement schématiques nous disent sur ce qu'on appelle "pensée". Il existe beaucoup de confusions sur le terme de "pensée". La pensée n'est pas une substance, elle n'est pas un mécanisme. Pour un biologiste, la pensée est le rapport adaptatif que tout corps vivant entretient avec son milieu. Les arthropodes, les invertébrés, ont une pensée qui est très génétique : leur rapport au milieu est fixé, très proche de leur génome. C'est une contrainte mais c'est peut-être aussi un succès parce qu'ils se développent de façon clonale. Des mutations favorables peuvent être reproduites très vite. La connaissance que nous avons des arthropodes, dans un certain sens soutiennent les thèses sociobiologiques. Si on veut bien admettre que la pensée est le rapport adaptatif à son milieu, alors, tous les êtres, animaux et plantes, pensent. Chez les vertébrés et au plus haut point chez Homo sapiens, le milieu modifie la structure. Nos gènes font que nous sommes Homo sapiens mais ils nous donnent une très grande liberté par rapport au milieu. L'évolution a sélectionné une stratégie de développement qui fait que
chaque individu peut se modifier au cours de sa vie, qu'il bénéficie d'une très grande liberté épigénétique. C'est une des bases du succès et de l'adaptation de l'espèce humaine, encore que, sans vouloir être pessimiste, après 200 000 ans d'existence à peine, nous ne savons pas vers quoi mènera ce perfectionnement extraordinaire des mécanismes épigénétiques. Enfin, nous pouvons nous adapter par individuation mais aussi par l'invention d'artefacts comme la culture qui est, avec la mémoire génétique et la mémoire individuelle, la troisième et dernière forme de mémoire à laquelle nous pouvons nous référer pour penser le vivant.
VIDEO CANAL U LIEN
(si la video n'est pas accéssible,tapez le titre dans le moteur de recherche de CANAL U.) |
|
|
|
|
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 ] Précédente - Suivante |
|
|
|
|
|
|