ecole de musique piano
     
menu
 
 
 
 
 
 

DE LA CELLULE RECTALE AU NEURONE

 

Paris, 14 août 2014


De la cellule rectale au neurone : les clés de la transdifférenciation

Comment une cellule spécialisée peut-elle changer d'identité ? Une équipe de l'Institut de génétique et de biologie moléculaire et cellulaire (CNRS/Inserm/Université de Strasbourg) s'est intéressée à un exemple naturel et 100% efficace de ce phénomène, appelé transdifférenciation. Ce processus, par lequel certaines cellules perdent leurs caractéristiques et acquièrent une nouvelle identité, pourrait être plus généralement impliqué dans la régénération de tissus ou d'organes chez les vertébrés, et constitue une piste prometteuse pour la médecine régénérative. Cette étude identifie le rôle d'acteurs épigénétiques dans cette conversion, souligne le caractère dynamique du processus et met en évidence les mécanismes clé pour l'efficacité de la transdifférenciation. Ces travaux, réalisés en collaboration avec l'Institut Curie1, sont publiés le 15 août 2014 dans la revue Science.
Notre organisme est constitué de cellules ayant acquis des caractéristiques au cours du développement et remplissant une fonction précise au sein de chaque organe : on parle de cellules différenciées. En règle générale les cellules maintiennent leur spécificité jusqu'à leur mort mais il a été prouvé que certaines cellules peuvent changer d'état et acquérir de nouvelles fonctions, un phénomène rare mais retrouvé dans de nombreuses espèces dit de « transdifférenciation ».

L'équipe a étudié ce processus chez C. elegans, un petit ver transparent, où une cellule rectale se transforme naturellement en moto-neurone. Ce passage d'un type cellulaire à un autre se fait sans division cellulaire et par une succession d'étapes bien définies qui aboutissent toujours au même résultat. Les chercheurs se sont intéressés aux facteurs qui rendent le processus de conversion aussi stable.

L'équipe avait déjà élucidé le rôle de plusieurs facteurs de transcription2 dans cette transdifférenciation. Mais ces nouveaux résultats ont mis en évidence le rôle d'acteurs dits « épigénétiques », c'est-à-dire capables de moduler l'expression des gènes. Deux complexes protéiques interviennent ainsi dans le mécanisme. Ces enzymes agissent sur une histone3 et lorsqu'une mutation altère leur action, la transdifférenciation est interrompue et la cellule rectale ne se transforme plus en neurone.

Les chercheurs ont observé que les deux complexes agissent à des étapes différentes et que leur rôle peut évoluer en fonction des facteurs de transcription auxquels ils sont associés. Ces résultats soulignent l'importance du bon enchaînement des actions de chacune de ces molécules : l'aspect dynamique du mécanisme de transdifférenciation est essentiel à sa stabilité.

La part respective des facteurs génétiques et épigénétiques dans les processus biologiques est un sujet  largement débattu. Ces travaux mettent en lumière les rôles respectifs de chacun des acteurs de la transdifférenciation : l'initiation et le déroulement sont assurés par les facteurs de transcription alors que les facteurs épigénétiques servent à garantir un résultat invariable. L'étude va même plus loin, montrant que dans des conditions « normales », les facteurs épigénétiques sont accessoires (même en leur absence la conversion se déroule relativement efficacement) mais qu'ils sont indispensables en cas de stress environnemental. Ils ont donc un rôle primordial pour maximiser l'efficacité du mécanisme et assurer sa stabilité face aux variations extérieures.

La transdifférenciation est un phénomène encore mal connu. Il pourrait être impliqué dans la régénération d'organes observée chez certains organismes, comme le triton capable de reconstruire le cristallin de son œil après une blessure. Ces résultats apportent de nouvelles clés pour comprendre comment contrôler ce processus et pourraient déboucher sur des thérapies prometteuses, notamment dans le domaine de la médecine régénérative.


DOCUMENT             CNRS               LIEN

 
 
 
 

DES LIPIDES AU SERVICE DU CERVEAU

 


Paris, 7 août 2014


Des lipides au service du cerveau


Consommer des huiles riches en acides gras polyinsaturés, notamment en « oméga 3 », est bénéfique pour notre santé. Mais les mécanismes expliquant ces effets sont mal connus. Des chercheurs de l'Institut de pharmacologie moléculaire et cellulaire (CNRS/Université Nice Sophia Antipolis), de l'unité Compartimentation et dynamique cellulaires (CNRS/Institut Curie/UPMC), de l'Inserm et de l'université de Poitiers1 se sont intéressés à l'effet de lipides portant des chaînes polyinsaturées lorsqu'ils sont intégrés dans les membranes de cellules. Leur étude montre que la présence de ces lipides les rend plus malléables et ainsi beaucoup plus sensibles à l'action de protéines qui les déforment et les découpent. Ces résultats, publiés le 8 août 2014 dans la revue Science, offrent une piste pour expliquer l'extraordinaire efficacité de l'endocytose2 dans les cellules neuronales.
La consommation d'acides gras polyinsaturés (comme les acides gras « oméga 3 ») est bénéfique pour la santé. Ces effets vont de la différentiation neuronale à la protection contre l'ischémie cérébrale3. Les mécanismes moléculaires responsables de leurs effets sont cependant assez mal compris. Les chercheurs se sont donc penchés sur le rôle de ces acides gras dans le fonctionnement de la membrane des cellules.
Pour assurer le bon fonctionnement d'une cellule, sa membrane doit pouvoir se déformer et se découper pour former des petites vésicules. Ce phénomène est appelé « endocytose ». De manière générale ces vésicules permettent aux cellules d'encapsuler des molécules et de les transporter. Au niveau des neurones, ces vésicules dites synaptiques vont jouer le rôle de courroie de transmission à la synapse pour le message nerveux. Elles sont formées à l'intérieur de la cellule, puis se déplacent vers son extrémité et fusionnent avec sa membrane, afin de transmettre les neurotransmetteurs  qu'elles contiennent. Elles sont ensuite reformées en moins d'un dixième de seconde : c'est le recyclage synaptique.
Dans ces travaux à paraître dans Science, les chercheurs montrent que des membranes cellulaires ou artificielles riches en lipides polyinsaturés sont beaucoup plus sensibles à l'action de deux protéines, la dynamine et l'endophiline qui déforment et découpent les membranes. D'autres mesures de l'étude et des simulations suggèrent que ces lipides rendent aussi les membranes plus malléables. En facilitant les étapes de déformation et de scission nécessaires à l'endocytose, la présence des lipides polyinsaturés pourrait expliquer la rapidité du recyclage des vésicules synaptiques. L'abondance de ces lipides dans le cerveau pourrait ainsi représenter un avantage majeur pour les fonctions cognitives.
Ces travaux lèvent partiellement le voile sur le mode d'action des « omégas 3 ». Quand on sait que notre organisme ne sait pas les synthétiser et que seule une nourriture adaptée (riche en poisson gras etc.) nous en fournit, il semble important de poursuivre ces travaux pour comprendre le lien entre les fonctions que ces lipides assurent au niveau de la membrane neuronale et leurs effets bénéfiques pour la santé.

 

DOCUMENT               CNRS                LIEN

 
 
 
 

PLANTES ET MUSIQUE

 


Plantes et musique
Les plantes écoutent-elles de la musique ? Comment une plante peut-elle possiblement réagir à la musique? Les plantes respirent par de nombreuses bouches, que l’on appelle stomates, et on a découvert que les stomates des plantes réagissent à la musique!
D. Kroeze MSc. CANNA Research


l’université de Californie à San Diego ont découvert le mécanisme qui contrôle les stomates d’une plante. Les deux cellules qui forment le stomate sont des cellules spécialisées (cellules de garde), accordées selon la fréquence de résonance du calcium. Lorsqu’on les expose à cette fréquence, les stomates se ferment. Toutefois, si la fréquence n’est pas exactement la bonne, les cellules s’ouvriront de nouveau dans l’heure qui suit. Ceci se produit même si la concentration de calcium est suffisante pour faire fermer le stomate en temps normal. Des expériences ont démontré que les tonalités aiguës sont plus ou moins directement responsables d’une augmentation de l’échange gazeux qui dure plus d’une heure.


La musique accroît la croissance
Lorsque certaines musiques, des tonalités aiguës, ou des chants d’oiseaux font vibrer la plante, à une fréquence qui n’est pas exactement celle de la résonance du calcium, les stomates s’ouvrent après un certain temps, même si la plante les aurait normalement gardés fermés. Des tests ont démontré qu’un engrais appliqué aux feuilles de la plante aura plus d’effet sur son développement et sa croissance si ses stomates sont grands ouverts. Cela est logique : les plantes absorbent l’engrais donné aux feuilles par leurs stomates. Différentes combinaisons de fréquence et d’engrais sont offertes pour plusieurs types de récoltes.
Cette méthode n’est cependant pas à toute épreuve. Si on force les stomates à rester ouverts, la plante se verra incapable de contrôler la quantité d’eau qu’elle perd par la transpiration ; elle risque donc la déshydratation. C’est donc dire qu’exposer vos plantes à de la musique pour plus de trois heures par jour pourrait les mettre en danger..


Ne causez pas de surdose de musique
Si le volume ou la fréquence sont trop élevés, vos plantes favorites courront des risques. Certains effets de l’ouverture et de la fermeture des stomates ne peuvent encore être expliqués. L’impact négatif d’une fréquence trop haute pourrait être expliqué en utilisant une technique appelée « résonance de la coquille ».
Résonance de la coquille


Outre la résonance, qui fait ouvrir les stomates sous l’influence de la musique ou de tonalités précises, une autre technique pourrait expliquer les effets de la musique sur les plantes.
On appelle cette technique résonance de la coquille. Elle stimule ou inhibe la synthèse des protéines chez les plantes. Plusieurs tonalités ont ici un rôle à jouer. Les protéines, qui sont faites d’acides aminés, sont synthétisées selon la vibration. Chaque acide aminé devrait avoir sa propre fréquence. Chaque protéine devrait donc avoir sa propre gamme de fréquences. En théorie, la séquence correcte de tonalités devrait stimuler la création de protéines par résonance.
On étudie également l’impact de la résonance sur le corps humain. La neurostimulation électrique transcutanée est une technique qui utilise une fréquence précise pour stimuler la production de certaines substances dans le corps.
Par exemple, on croit qu’une fréquence de 10 Hz stimule la production du neurotransmetteur sérotonine (la même fréquence que les ondes alpha). Vous savez quoi ? La sérotonine est un acide aminé.


Si différentes tonalités peuvent avoir une telle influence sur les plantes, c’est parce que les hormones, comme l’auxine, l’une des substances responsables de la croissance des cellules et de la formation des fruits, sont formées de seulement deux acides aminés. Lorsque l’on permet aux plantes de vibrer suffisamment longtemps aux fréquences de ces deux acides aminés, la production d’hormones végétales désirables devrait augmenter, ce qui donnerait de plus grosses pousses.
La musique pourrait également avoir une influence sur la germination des semences. Un article publié dans le Journal of Alternative and Complementary Medicine décrit une expérience dans laquelle la musique a produit un taux de germination plus élevé (P < 0.002) et une germination plus rapide (P < 0.000002).
Il semble toutefois que les sons n’ont pas un impact significatif sur la germination. Il semble que de multiples fréquences sont en jeu et, comme la germination a trait aux hormones, il est plausible que la résonance de la coquille joue ici un rôle.


Les plantes préfèrent la musique classique...
Les plantes réagissent de façon positive à la musique classique, mais non, par exemple, au heavy metal. On peut supposer que des tonalités plus pures sont utilisées en musique classique, alors que le heavy metal utilise des effets de guitare comme la distorsion, que l’on ne peut considérer purs.

 

DOCUMENT  1                    LIEN

DOCUMENT  2                    LIEN

 
 
 
 

LA MODÉLISATION DES MOLÉCULES DE LA VIE

 

Texte de la 614e conférence de l'Université de tous les savoirs donnée le 21 juin 2006


Richard Lavery : « La modélisation des molécules de la vie »


Le besoin de modèles
 Depuis toujours les scientifiques, comme les ingénieurs, les architectes et même les enfants, ont eu besoin de construire des modèles pour les aider à comprendre le monde complexe qui nous entoure. Néanmoins, les modèles dont je vais parler ici ont dû attendre la fin du dix-neuvième siècle pour voir le jour. La raison principale pour cela est que nous allons parler du monde des atomes et leurs assemblages pour former des molécules et des macromolécules. Même si l'existence des atomes a été postulée par le philosophe grec Démocrite [1], 400 ans avant notre ère, il a fallu attendre les années 1900 pour accumuler suffisamment d'évidence en faveur de l'existence des atomes pour convaincre le monde scientifique. A ce sujet, il est remarquable de noter que les chimistes, qui avaient utilisé les formules pour décrire la constitution des molécules depuis le début du dix-neuvième siècle (par exemple, H2O, deux "parts" d'hydrogène pour une "part" d'oxygène), ont été parmi les plus difficiles à convaincre que "part" pouvait se traduire par atome et ceci malgré les travaux de leurs illustres prédécesseurs, notamment Lavoisier et Dalton, en faveur de la théorie atomique [1].
C'est donc aux alentours de 1900 que les premiers modèles représentant le nombre et l'organisation spatiale des atomes au sein des molécules ont vu le jour. Ces modèles comme vous pouvez le voir dans l'illustration, ressemblent beaucoup aux modèles que l'on trouve dans les salles de cours et les laboratoires aujourd'hui. Il y a naturellement différents types de représentation pour satisfaire les besoins des utilisateurs. Certaines emploient des sphères tronquées pour illustrer l'espace occupé par chaque atome (modèles Corey-Pauling-Kolton ou CPK des années '50), tandis que d'autres se concentrent sur la conformation des liaisons qui sont représentées par des fils métalliques (modèles Dreiding des années 60).
De tels modèles fonctionnent bien pour des molécules composées de quelques dizaines d'atomes, mais posent des problèmes pour construire des macromolécules formées de milliers, voir de dizaines de milliers d'atomes. Cette difficulté se fait ressentir au début des années soixante quand les premières structures des protéines ont été obtenues par les cristallographes à Cambridge. A partir de ce moment, il a fallu chercher d'autres moyens de modélisation plus rapides à mettre en place, moins chers, et plus maniables. C'est l'ordinateur et le passage aux modèles virtuels qui a fourni la réponse. Mais avant de parler de ces développements il y un exemple remarquable de modélisation "classique" qui mérite discussion.
L'ADN - un exemple phare du vingtième siècle
L'histoire de l'ADN (acide désoxyribonucléique) commence en 1869 quand Friedrich Miescher isole une substance de noyaux des cellules humaines qu'il dénomme "nucléine". Il s'agit en fait d'un mélange complexe de protéines et d'ADN. Il faut attendre le travail des chimistes du vingtième siècle et notamment les efforts de Phoebus Levene à l'Institut Rockefeller à New York pour connaître la structure chimique de la molécule qui se révèle être de longues chaînes composées d'une alternance de phosphates et de sucres. Sur chaque sucre est accrochée une base. Quatre bases sont identifiées : adénine (A), cytosine (C), guanine (G) et thymine (T). En formulant l'hypothèse que ces quatre bases se répètent de façon régulière le long de la chaîne d'ADN (par exemple, ACGT-ACGT-ACGT-.....) Levene relègue l'ADN à la famille de polymères jouant probablement un rôle structural au sein de la cellule. Mais, Levene se trompe et comme Oswald Avery, un autre scientifique de l'Institut Rockefeller, montre en 1944, l'ADN a le pouvoir de transformer des bactéries. L'ADN porte donc le message génétique et une course est lancée pour trouver sa structure et comprendre son fonctionnement. Plusieurs informations sont connues. Chargaff démontre que les bases sont présentes dans des rapports fixes de telle façon que le rapport de concentrations [A]/[G] est égale au rapport [T]/[C]. Astbury et ensuite Rosalind Franklin obtiennent des clichées de diffraction des rayons X à partir des fibres d'ADN et démontrent que la molécule possède une structure hélicoïdale.
Linus Pauling, un des plus grands chimistes du vingtième siècle propose une structure qui ne peut pas être correcte puisqu'il met les bases à l'extérieur et les phosphates en contact au centre de la structure sans tenir compte du fait qu'ils sont chargés négativement et ne peuvent pas se rapprocher ainsi [2].
La solution est trouvée à Cambridge par un jeune biologiste américain James Watson et le physicien anglais Francis Crick. Leur collègue Jerry Donohue explique que la formule normalement employée pour les bases n'est probablement pas correcte. Ce changement est la clé. Watson, jouant avec des modèles des bases, voit qu'il peut les assembler par paire : A avec T, G avec C. Les deux paires ont exactement la même forme et elles peuvent être placées, non pas à l'extérieur de la structure hélicoïdale, mais au centre.
Il crée ainsi la fameuse double hélice qui est devenue une des icônes de notre époque [3]. La construction du modèle, guidée par les informations expérimentales, donne un résultat si simple et si beau qu'il est accepté immédiatement. La double hélice est non seulement compatible avec les données expérimentales, mais suggère également comment l'information génétique passe d'une cellule à une autre. En effet, il suffit de séparer les deux chaînes et de fabriquer de nouvelles doubles hélices en copiant l'information: A dans le premier chaîne donne son complément T, T dans le deuxième chaîne donne son complément A. Il est probable que nous ne verrons jamais plus un modèle moléculaire qui aura un tel impact.
L'arrivée des ordinateurs
Pour aller plus loin avec la modélisation des molécules de la vie, il a fallu une autre étape clé - l'arrivée des ordinateurs. L'envie de calculer plus vite et avec plus de précision a inspiré les ingénieurs depuis longtemps. Qu'il s'agit d'obtenir les tables logarithmiques sans erreur, d'effectuer des calculs de balistique, ou de comprendre une réaction de fission nucléaire, les capacités de calcul humaines sont rapidement dépassées. Quelques pionniers du dix-neuvième siècle comme Charles Babbage ont tenté de résoudre les problèmes à l'aide d'une machine [4]. Plus précisément, une machine "universelle" capable d'effectuer différents types de calcul en suivant une suite d'instructions. Des ingénieurs comme Jacquard travaillant pour l'industrie de soie à Lyon, ont fourni le moyen d'écrire de tels programmes sur des ensembles de cartes perforées. Les plans de Babbage ont été bon (la Musée des Sciences de Londres vient de construire et de faire marcher des éléments de l'ordinateur de Babbage, et notamment son imprimante) mais en 1850 il n'avait ni les bons matériaux ni des outils de fabrication suffisamment précis. Les ordinateurs ont réellement vu le jour pendant la deuxième guerre mondiale quant les calculs rapides sont devenus indispensables pour casser des codes et pour faire avancer le projet Manhattan vers la production de la bombe atomique.
La disponibilité des ordinateurs pour des travaux non militaires date des années soixante. Les chimistes et biologistes n'ont pas attendu pour profiter de leurs possibilités, non seulement pour effectuer des calculs, mais aussi pour créer une nouvelle façon de visualiser des molécules, d'abord par des images fixes imprimées sur papier et ensuite par des images animées grâce au couplage entre l'ordinateur et l'écran cathodique. Dès 1966, Cyrus Levinthal à MIT a mis au point un système capable de représenter la structure d'une protéine et de la manipuler dans l'espace [5]. Depuis, les moyens de visualisation ont progressé de façon remarquable et même un ordinateur familial permet de se plonger dans le monde fascinant des macromolécules biologiques à travers des représentations toujours plus belles. Je vous encourage d'ailleurs de se procurer un des logiciels de visualisation gratuits tels que VMD [6] et d'entreprendre votre propre voyage au sein des protéines et des acides nucléiques (dont les structures sont librement accessibles dans la banque RSCB). Les coordonnées de VMD et du RCSB sont indiquées dans la liste des sites internet ci-dessous.
En parallèle, avec le développement du graphisme, les logiciels permettant de modéliser mathématiquement le comportement des molécules ont vu le jour, initialement pour satisfaire les besoins de la spectroscopie en interprétant les spectres en termes de vibrations moléculaires et ensuite pour modéliser la structure, la dynamique et les interactions des molécules dans leur environnement biologique, c'est à dire, entourées de l'eau et d'ions et soumises aux effets de l'excitation thermique. Le développement de tels logiciels continue aujourd'hui en ciblant des représentations moléculaires toujours plus près de la réalité et la capacité de modéliser des systèmes toujours plus grands et plus complexes.
Les molécules
Qu'est qu'il faut pour créer une molécule virtuelle au sein de l'ordinateur ? Peut-on modéliser la dynamique d'une molécule, le processus d'assemblage d'un complexe multi-moléculaire ou le fonctionnement d'un enzyme ? Pour commencer à répondre à ces questions, il faut se rappeler que les molécules, même les macromolécules de la vie, sont très petites. Leur taille se mesure en dizaines de nanomètres (un nanomètre est un mille milliardième d'un mètre, 10-9 m) et il faut, par exemple, empiler 30,000 protéines pour atteindre l'épaisseur d'une feuille de papier ! A ces dimensions, c'est la mécanique quantique qui règne; les électrons forment un nuage de densité électronique autour des noyaux atomiques, et obéissent à la fameuse équation de Schrödinger. Dans ce monde quantique toute la chimie est possible, les électrons et les noyaux peuvent être perturbés par des interactions avec la lumière, d'autres rayonnements ou d'autres molécules et les électrons peuvent s'échanger entre différentes molécules en formant et en brisant des liaisons chimiques. Néanmoins, les calculs associés sont complexes et, malgré le progrès remarquable de la chimie quantique, ils sont encore prohibitifs pour la plupart des systèmes macromoléculaires.
Dans ce cas, si on accepte de se limiter aux études de la structure, la dynamique conformationnelle et les interactions physiques des macromolécules nous pouvons retourner vers la mécanique classique de Newton. Dans ce monde les atomes deviennent des billes (avec des tailles et des charges électrostatiques qui dépendent de leurs identités chimiques et de la molécule à la quelle ils appartiennent) et les liaisons chimiques deviennent des ressorts.
D'autres termes simples représentent la déformation des angles de valence, la rotation des angles dièdres et l'équilibre entre l'attractivité des atomes à longue portée et leur répulsion à courte portée. On crée ainsi un "champ de force" qui permet de calculer l'énergie d'un système moléculaire, d'optimiser sa structure en minimisant cette énergie ou encore de suivre sa dynamique à une température donnée (en intégrant l'équation de Newton Force = Masse x Accélération dans le temps). Quelques décennies de recherche ont permis de raffiner de champs de force suffisamment pour obtenir des résultats en bon accord avec l'expérience. Combinés avec la puissance croissant des ordinateurs, ils sont devenus un moyen efficace pour étudier le comportement des macromolécules biologiques. Nous retournerons vers la double hélice de l'ADN pour montrer un exemple.
Le physicien sonde l'ADN
Dans notre domaine, un des développements les plus excitants de ces dernières années a été la possibilité de manipuler directement une seule molécule [7]. L'ADN est un bon candidat pour de telles expériences puisque, malgré un diamètre de seulement deux nanomètres, sa longueur peut atteindre des centimètres. L'envie de manipuler une seule molécule résulte de l'observation que l'évaporation d'une gouttelette d'eau pouvait étirer l'ADN bien au delà de sa longueur naturelle [8]. Par la modification chimique des extrémités de la molécule (un sort de "scotch" moléculaire), il était ensuite possible d'attraper une molécule d'ADN et de la fixer sur une extrémité à une surface et sur l'autre à une microbille en polystyrène. En tirant sur la microbille il est devenu possible de suivre l'extension de la molécule et de mesurer les forces exercées. Les résultats ont été surprenants puisqu'il s'avère que l'ADN ne se comporte pas comme un ressort simple. Au delà d'une certaine force (environ 70 picoNewtons), la molécule est capable de presque doubler sa longueur sans que la force exercée augmente [9]. L'explication structurale de ce phénomène est venue de la modélisation. En étirant la double hélice dans le monde virtuel de l'ordinateur, nous avons constaté qu'il y a en fait deux chemins d'étirement, soit en déroulant la double hélice, soit en diminuant son diamètre par l'inclinaison des paires de bases. En réalité il est probable que ces deux chemins participent à former la structure étirée qui porte désormais le nom d'ADN-S (stretched DNA) [9, 10].
Par la suite, l'emploi d'une microbille magnétique a permis de contrôler à la fois l'étirement et l'enroulement de la molécule [11]. A nouveau les résultats ont été surprenants. En diminuant le nombre de tours de la double hélice on arrive à séparer les deux brins, mais en augmentant le nombre de tours on a constaté que la molécule s'allonge et qu'on pouvait atteindre une rotation de presque 160° entre les paires de bases successives (contre seulement 34° dans la conformation usuelle de l'ADN). La modélisation de se phénomène a permis de postuler une nouvelle forme de la double hélice qui se ressemble étrangement à la structure incorrecte proposée par Linus Pauling avant le succès de Watson et Crick. Cette structure, qui est maintenant appelé ADN-P (P pour Pauling) se distingue par la position des bases, qui sont à l'extérieure de la structure, tandis que les brins phosphodiesters sont entrelacés au centre [12].
Ces expériences et la modélisation qui a suivi ont montré la complexité de la mécanique de l'ADN. Elles ont aussi servi de base pour une nouvelle domaine scientifique, la physique des molécules uniques, qui continue de fournir des informations sur une gamme de systèmes biologiques (complexes protéine-ADN, la chromatine, les moteurs moléculaires, le fonctionnement des virus, ...) qui sont difficilement accessibles par d'autres types d'expérience.
Partir des ponts pour arriver aux protéines
Pour continuer sur le thème de la mécanique des macromolécules, j'aimerais parler un peu des protéines. Les protéines ont des structures plus complexes que l'ADN. D'abord, elles sont formées de polymères (polypeptides) composés de 20 types de sous unités différentes (les acides aminés), plutôt que seulement quatre types pour l'ADN (les nucléotides portant les bases A, C, G et T). Ensuite, dans la plupart des cas, le repliement de la chaîne des acides aminés conduit à des structures compactes et globulaires.
Cette complexité illustre l'importance de la structure des protéines, mais la structure seule n'est pas suffisante pour tout comprendre. On peut raisonnablement assumer que leurs propriétés mécaniques sont également importantes compte tenu des travaux accomplis par des protéines. Ainsi, plusieurs protéines appartiennent à la catégorie des enzymes et sont capables de catalyser des réactions chimiques avec une spécificité remarquable, d'autres jouent un rôle structural au sein de nos cellules et d'autres encore fonctionnent en tant que moteurs miniatures. Toutes ces taches nécessitent non seulement des structures particulières, mais aussi des propriétés mécaniques appropriées.
Nous avons tenté de mettre au point des techniques de modélisation pour étudier ces propriétés [13]. Plus précisément, à partir des fluctuations spatiales des acides aminés lors d'une simulation dynamique, nous avons pu calculer des constants de force correspondant à la difficulté de déplacer un résidu donné par rapport au reste de la structure [14]. Pour accélérer les calculs nous avons utilisé un modèle protéique plus simple comportant seulement quelques points pour chaque acide aminé (plutôt qu'une dizaine d'atomes) et nous avons également remplacé le champ de force classique avec de simples ressorts entre tous les résidus proches. Ainsi modélisée, la protéine ressemble à un objet élastique où la densité de ressorts reflète le repliement de la chaîne polypeptidique.
Compte tenu de la simplicité de notre modèle, nous étions surpris de voir que les propriétés mécaniques des différents résidus pouvaient varier de façon importante au sein d'une seule protéine. La figure montre se résultat à travers le "spectre" de constantes de force pour les acides aminés d'une péroxidase. Cette protéine contient un groupement heme qui joue un rôle central en catalysant la cassure d'une liaison péroxide, R-O-O-R', pour former deux alcools, R-OH et R'-OH, par l'addition de deux atomes d'hydrogène et de deux électrons. Un petit nombre de résidus sont particulièrement difficiles à déplacer et ont des constantes de force très élevées. Il s'avère que ces résidus sont exactement ceux qui maintiennent le groupement heme en place et sont donc des résidus clés pour le fonctionnement de la protéine.
Après l'étude d'environ 100 protéines, nous avons pu démontrer que les résidus ayant un rôle fonctionnel ont presque toujours des propriétés mécaniques exceptionnelles. Ils sont, dans l'ensemble, tenus de façon beaucoup plus rigide au sein de leurs structures protéiques que les autres résidus. Nous pouvons conclure que cette propriété est importante pour l'activité protéique et que l'évolution a choisi le repliement complexe de chaque protéine non seulement pour placer les résidus clés au bon endroit, mais aussi pour assurer qu'ils y restent.
L'avenir de la modélisation en biologie
Il est toujours dangereux de parler de l'avenir. Néanmoins, dans le domaine de la modélisation on peut faire deux prédictions concernant les développements possibles et souhaitables sans prendre trop de risques.
Premièrement, les ordinateurs vont continuer à progresser en puissance comme en capacité de stockage. Depuis les années quarante jusqu'à nos jours la puissance des processeurs a doublé environ tous les 18 mois. En même temps, les mémoires ont changé de quelques octets à des kilooctets, puis des mégaoctets, des gigaoctets et maintenant des téraoctets. Aujourd'hui certaines voitures ont plus de puissance de calcul que les capsules Apollo des années soixante-dix ! Au delà de la puissance des processeurs individuels, il est aussi devenu courrant d'assembler de dizaines, des centaines, voir des milliers de processeurs pour multiplier la puissance disponible. De telles machines sont traditionnellement construites dans les bâtiments des centres de calculs, mais il est aussi possible de créer une machine virtuelle composé d'ordinateurs indépendants. Les efforts de projets tels que "Screensaver Lifesaver". Ce projet cible la conception de nouveaux médicaments contre le cancer grâce aux calculs effectués par un logiciel de sauvegarde d'écran installé volontairement par des particuliers sur leurs propres PC (voir la liste des sites internet ci-dessous). Les résultats de Lifesaver montrent la puissance de cette approche puisque les calculs effectués ont largement dépassé la puissance des gros centres de calcul conventionnels avec plus de 450,000 heures de calcul sur un total de 3.5 millions de PC à travers le monde.
Deuxièmement, malgré la puissance de calcul qui sera disponible, elle sera toujours insuffisante pour modéliser toute la complexité des systèmes vivants. Aujourd'hui nos efforts portent sur une meilleure compréhension de la structure et de la dynamique de macromolécules individuelles, sur les interactions macromolécule-ligand ou sur les interactions entre deux macromolécules. En revanche, au sein de la cellule, chaque macromolécule se trouve en contact avec des dizaines d'autres dans un milieu hétérogène et dense qui, de surcroît, évolue dans le temps. La plupart de complexes qui se forment dans ce milieu impliquent de multiples macromolécules. Un nombre très important de petites molécules entre et sort des cellules et voyage entre les différents compartiments cellulaires pour passer des messages chimiques, tandis qu'un système de fibres et de moteurs se charge de déplacer des objets moléculaires plus encombrants et participe dans les mouvements et les interactions de la cellule. Finalement, les cellules sont protégées et partitionnées par des membranes lipidiques comportant une gamme impressionnante de canaux et de récepteurs qui se chargent de la communication avec le monde extracellulaire. Par comparaison, nos efforts de modélisation semblent un peu timides. Comprendre la complexité des systèmes vivants au niveau moléculaire nécessitera non seulement toute la puissance informatique disponible, mais aussi toute la créativité des chercheurs pour mettre au point de nouveaux modèles et de nouveaux algorithmes de modélisation.
Remerciements
La recherche aujourd'hui implique plus des équipes que des individus. Je souhaite remercier mes collègues qui ont contribué aux travaux présentés ici. Notamment, pour la modélisation des acides nucléiques et leur manipulation, Anne Lebrun et Krystyna Zakrzewska, et nos collègues de l'Ecole Normale Supérieure de Paris, Jean-François Allemand, David Bensimon, Didier Chatenay et Vincent Croquette, et pour l'étude de la mécanique des protéines, Fabien Cailliez, Isabelle Navizet, et Sophie Sacquin-Mora. Je remercie également les autres membres du Laboratoire de Biochimie Théorique à Paris avec qui j'ai eu le plaisir de travailler et le CNRS qui a fourni les moyens d'accomplir ce travail.

 

VIDEO              CANAL  U                 LIEN

 

(si la video n'est pas accéssible,tapez le titre dans le moteur de recherche de CANAL U.)

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 ] Précédente - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales /confidentialité

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon