ecole de musique piano
     
menu
 
 
 
 
 
 

LA MÉMOIRE ÉPISODIQUE

 

Endel Tulving : « J'ai révélé la mémoire épisodique »


spécial mémoire - par Marie-Laure Théodule dans mensuel n°432 daté juillet 2009 à la page 88 (2270 mots)
Plus personne ou presque ne conteste l'existence de la mémoire épisodique, ce système neurocognitif qui permet de se souvenir de nos expériences passées. Mais Endel Tulving, premier à avancer le concept, a dû batailler ferme avant qu'il s'impose.

Pourquoi avez-vous décidé d'étudier la mémoire ?

ENDEL TULVING : Je n'ai rien décidé du tout, c'est arrivé par hasard. Lorsque je suis devenu maître de conférences au département de psychologie de l'université de Toronto en 1956, je venais de passer ma thèse sur la vision, à Harvard. Je souhaitais continuer à étudier ce sujet, mais nous n'avions ni argent ni équipement à consacrer à la recherche en psychologie expérimentale. Aussi ai-je décidé de choisir une discipline qui ne nécessite ni argent ni matériel et qui s'appelait alors « apprentissage verbal * ». Je n'avais jamais suivi un cours de cette matière. Plus tard, elle a changé de nom pour s'appeler « mémoire ». C'est ainsi qu'un jour j'ai pris conscience que j'étudiais la mémoire !

Que comprenait-on de la mémoire à cette époque ?

ENDEL TULVING : Ce qui caractérisait alors l'étude de la mémoire, c'était que l'on ne se posait aucune question scientifique vraiment intéressante. Ainsi, au lieu de se demander sur quoi portait l'apprentissage, quelle était sa nature profonde ou comment il pouvait différer de ce qu'en pense l'homme de la rue, les chercheurs faisaient comme s'ils savaient parfaitement de quoi il s'agissait. Apprendre, c'était acquérir et renforcer des associations entre des stimuli et des réponses. Et oublier correspondait à un affaiblissement de ces associations. Le travail scientifique était censé nous éclairer sur les détails de ces renforcements et de ces affaiblissements, et sur les paramètres qui les affectaient. La science a le droit de commencer par explorer des idées qui relèvent du simple bon sens, mais si elle réussit, elle finit par rejeter ce simple bon sens ou au moins par le dépasser. Or, à l'époque, il n'y avait pas grand-chose dans l'étude de la mémoire qui aille au-delà du simple bon sens.

Et je trouvais cette discipline fort ennuyeuse.

Qu'est-ce qui a fait bouger les choses ?

ENDEL TULVING : C'est la révolution des sciences cognitives. Elle a redonné une légitimité à l'étude scientifique de l'esprit. Légitimité qui avait été laminée précédemment par le béhaviorisme, parce qu'il se refusait à étudier les phénomènes mentaux. Les béhavioristes ignoraient volontairement l'usage de mots comme « se rappeler », « se souvenir ». De même, ils se refusaient à considérer que la mémoire puisse avoir un quelconque rapport avec la conscience. La révolution cognitive a apporté de nombreux changements. Impossible de les citer tous ici, donc je vais mentionner seulement l'un des plus importants : la mise en évidence que la mémoire peut être consciente ou non consciente.

Freud avait parlé en son temps de la mémoire inconsciente. S'agit-il du même concept ?

ENDEL TULVING : Pas vraiment. Freud a eu beaucoup d'idées intéressantes sur la psyché humaine mais il n'a eu aucune influence réelle sur l'étude de la mémoire. Le concept de mémoire non consciente, au sens cognitif du terme, signifie que des événements du passé peuvent avoir des conséquences sur ce que quelqu'un fait et sait aujourd'hui sans que la personne en ait elle-même conscience. Beaucoup de ces conséquences sont générées par la mémoire mais le sujet l'ignore.

Pourriez-vous illustrer cela par un exemple ?

ENDEL TULVING : Bien sûr, il en existe des milliers ! Laissez-moi prendre un exemple de la vie courante. Quand vous écoutez quelqu'un parler ou que vous lisez quelque chose, vous vous appuyez sur des connaissances que vous avez acquises dans le passé. En l'occurrence, il s'agit du langage - le sens des mots, les structures grammaticales, les règles concernant la manière de former ou de comprendre les phrases négatives ou interrogatives, etc. C'est donc votre mémoire qui vous permet de comprendre le langage. Mais en êtes-vous conscient ? Quand vous vous remémorez des mots tendres murmurés à votre oreille il y a des années, vous faites un effort de mémoire conscient mais quand vous avez entendu ces mots pour la première fois, vous n'étiez probablement pas conscient que pour les comprendre vous utilisiez aussi votre mémoire. C'est cette mémoire que l'on appelle non consciente ou encore implicite. Cette distinction entre mémoire consciente et non consciente a été très importante : elle a permis de découvrir qu'il existe plusieurs systèmes de mémoire.

Plusieurs systèmes de mémoire, que voulez-vous dire ?

ENDEL TULVING : En étudiant la mémoire lors d'une expérience en laboratoire dans les années 1960, je me suis rendu compte que, si on demandait aux sujets de se rappeler des mots liés à un événement du passé, leurs résultats étaient beaucoup moins bons que si on leur demandait juste de se rappeler des mots de manière automatique implicite par association d'idées. Cela m'a conduit à émettre, dans les années 1970, l'hypothèse qu'il existe deux systèmes de mémoire à long terme fonctionnellement distincts : la mémoire sémantique, celle des connaissances que nous avons sur le monde, et la mémoire des faits vécus personnellement que j'ai baptisée mémoire « épisodique » [1] . C'est le seul système de mémoire qui permette de revivre consciemment des expériences antérieures, donc de « voyager dans le temps ». Il n'existe, selon moi, que dans l'espèce humaine et s'accompagne d'un état de conscience particulier que j'ai qualifiée de « autonoétique » : c'est la conscience de l'époque passée à laquelle les événements se sont déroulés et du temps qui s'est écoulé depuis. Aujourd'hui, le concept de mémoire épisodique est admis, mais au départ, cette proposition a été accueillie avec beaucoup de scepticisme.

Que lui reprochait-on ?

ENDEL TULVING : Les psychologues ont assez vite accepté le terme « épisodique » mais dans un but purement descriptif pour caractériser le contenu de l'information. En revanche, l'idée qu'il puisse exister un système de mémoire à part, différent, ne plaisait pas. On la trouvait trop vague, pas assez ancrée dans la réalité, dépourvue de preuves. Surtout, elle allait à l'encontre de la vision qui prévalait à l'époque, celle d'une mémoire unitaire. Les expériences en laboratoire utilisaient un matériel réduit des listes de mots, des mesures de nombre d'éléments rappelés et se focalisaient sur la composante « quoi » ou contenu de l'information, sans jamais s'intéresser à d'autres composantes quand ? où ?, ni à l'expérience vécue. À la fin des années 1980, j'ai donc suggéré de recourir aux méthodes de la neuropsychologie et de l'imagerie cérébrale pour dépasser ces arguments mais le scepticisme perdurait. Et il a fallu encore beaucoup de temps pour que les esprits critiques admettent enfin l'existence de la mémoire épisodique.

Qu'est-ce qui a contribué à la reconnaissance de la mémoire épisodique ?

ENDEL TULVING : La découverte d'une nouvelle forme de mémoire ne peut pas se comparer à celle d'un élément chimique ou d'une orchidée, car les systèmes de mémoire n'existent pas à l'état brut dans la nature. Ils s'apparentent plus à un système circulatoire ou immunitaire qui ne peut se percevoir que par des preuves externes. Des observations sont mises bout à bout, et ensuite on échafaude des hypothèses. Ainsi, ce sont les tests cliniques très précis et les expériences réalisées avec des personnes atteintes d'amnésie qui ont contribué à faire progresser la reconnaissance de la mémoire épisodique.

De quelle manière ?

ENDEL TULVING : Dans les années 1980, j'ai observé des cas d'amnésie à l'unité des troubles de la mémoire que nous avions créée à l'université de Toronto avec mon étudiant en post-doctorat, Daniel Schacter. L'un d'eux, le patient K.C., était particulièrement intéressant. C'était un jeune homme qui avait eu une lésion cérébrale dans un accident de voiture. Il m'est apparu comme quelqu'un qui avait complètement perdu sa mémoire épisodique mais qui néanmoins possédait de bonnes connaissances générales apprises avec sa mémoire sémantique [2] . C'était un cas neurologique qui illustrait parfaitement mon hypothèse théorique forcément spéculative. Mais, en dépit de ce cas, il a fallu encore beaucoup de temps pour tester et développer l'idée qu'il existe deux systèmes de mémoire séparés et encore plus longtemps pour que tout le monde l'accepte. Aujourd'hui, K.C. est reconnu dans notre domaine comme un cas particulièrement pur montrant la dissociation entre la mémoire épisodique et sémantique : l'un de ces systèmes est absent chez lui ou plutôt inopérant et l'autre est pratiquement intact.

Pourquoi qualifiez-vous ces différentes mémoires de systèmes ?

ENDEL TULVING : Nous parlons de systèmes de mémoire pour insister sur leur grande complexité : ils résultent de l'assemblage organisé d'une multitude de mécanismes neuronaux et de processus mentaux. Tous les systèmes de mémoire sont des sous-systèmes de l'ensemble « cerveau-esprit », qui est lui-même le plus complexe de tous les systèmes que nous connaissons.

Ces systèmes sont-ils indépendants et localisés dans différentes parties du cerveau ?

ENDEL TULVING : Je ne dirais pas qu'ils sont indépendants. Ils partagent certaines caractéristiques et propriétés, tout en ayant aussi celles qui leur sont propres. Ils interagissent en servant leur « maître », l'individu dans le cerveau duquel ils résident. Quant à la localisation, personne ne croit plus aujourd'hui qu'une mémoire spécifique soit localisée ici ou là dans le cerveau, ni qu'un système de mémoire soit localisé dans une région spécifique. La plupart des spécialistes de la mémoire admettent désormais que beaucoup de régions du cerveau sont impliquées dans la mémorisation, mais pas toutes les régions du cerveau.

Pourtant, on entend souvent dire que l'hippocampe joue un rôle clé dans l'enregistrement de nouveaux souvenirs ?

ENDEL TULVING : C'est exact, et vous utilisez la bonne expression : « joue un rôle ». Il n'y a pas si longtemps, on pensait que l'hippocampe était le siège de la mémoire dans le cerveau. Le rôle de l'hippocampe a été révélé quand Brenda Milner et ses collègues de l'université de Montréal ont commencé à étudier un homme nommé H.M. dans les années 1950 lire p. 67. Maintenant, plus de cinquante ans plus tard, nous savons que l'hippocampe joue un rôle vital dans certaines formes de mémoire mais pas dans d'autres. Des travaux particulièrement intéressants ont été réalisés par Faraneh Vargha-Khadem et ses collègues à l'université de Londres [3] . Ils ont étudié des adolescents qui avaient subi des lésions à l'hippocampe peu après leur naissance. Si l'hippocampe avait réellement été le siège de la mémoire, ces enfants auraient été incapables d'apprendre ou de se rappeler la moindre chose. Or, s'ils ont effectivement des problèmes de mémoire épisodique, ils suivent cependant une scolarité quasi normale, apprennent à lire, à écrire, à compter, et tout ce qu'on apprend à l'école. Il semble donc que l'hippocampe ne soit pas nécessaire pour ce type de mémoire sémantique. Par ailleurs, nous savons que les cortex préfrontal et pariétal entre autres sont impliqués dans la mémoire sémantique et dans la mémoire épisodique mais chacun de manière différente.

Pouvez-vous préciser les rôles respectifs du cortex préfrontal et du cortex pariétal ?

ENDEL TULVING : Non, nous savons seulement que certaines parties de ces aires sont impliquées dans la mémoire épisodique, et aussi dans la mémoire sémantique. On a décrit quelques cas où l'amnésie est causée par une lésion dans le cortex préfrontal ou dans le cortex pariétal sans que l'hippocampe ne soit touché, mais on n'en sait pas plus. Les travaux réalisés avec le patient H.M. ont, pendant des années, tellement focalisé l'attention des chercheurs sur les lobes temporaux et sur l'hippocampe que l'implication de réseaux corticaux et sous-corticaux dans la mémoire n'a été étudiée et révélée que récemment. Évidemment, il n'existe pas un réseau de mémoire unique, pas plus qu'il n'existe une mémoire unique. Il existe plusieurs réseaux qui sont impliqués dans différentes mémoires épisodique, sémantique..., différentes tâches reconnaissance, rappel..., différents procédés encodage, recherche... et différentes sortes d'informations mots, visages.... Les régions pariétales et préfrontales sont des composants de tels réseaux. Cela semble complexe, mais la mémoire est très complexe, et nous sommes loin d'avoir tout compris.

Existe-t-il cependant un consensus sur la manière de classer les différents systèmes de mémoire ?

ENDEL TULVING : Certains scientifiques contestent encore l'existence d'une différence biologique entre mémoires sémantique et épisodique. Mais leur vision, que je qualifierai d'unitaire, tient aux faits qu'ils travaillent sur la mémoire animale et que les animaux n'ont pas de véritable mémoire épisodique. Leur vision est donc valable dans « leur monde ». En revanche, beaucoup de chercheurs acceptent désormais l'idée qu'il existe au moins cinq types de mémoire, ou de systèmes de mémoire chez l'homme : mémoires à court terme ou de travail, procédurale, perceptive, sémantique et épisodique. La mémoire à court terme garde des informations verbales « en ligne » durant une courte période. Les quatre autres formes sont des mémoires à long terme sur ce qui a été appris ou vécu. La mémoire procédurale porte sur la manière de faire les choses, la mémoire perceptive nous rappelle des images, des bruits, des sons, des odeurs, des touchers. Enfin, il y a la mémoire sémantique et la mémoire épisodique dont nous avons déjà parlé.

Sur quoi portent les travaux désormais ?

ENDEL TULVING : Les débats sont et seront encore nombreux, étant donné la complexité de la mémoire. Mais il me semble que la relation entre les différents systèmes de mémoire doit être au coeur des préoccupations. En effet, on peut penser que la mémoire épisodique est issue de la mémoire sémantique au cours de l'évolution. D'ailleurs, elle existe à l'état émergeant chez certains animaux comme les geais buissonniers, qui sont capables de dissimuler de la nourriture pour la retrouver ensuite [4] . Donc, je crois qu'il faut continuer à explorer la mémoire épisodique, car si elle a un long passé, elle n'a qu'une courte histoire. Or à mon sens, elle représente un tournant majeur dans l'évolution : c'est elle qui a donné à un seul être vivant, l'homme, la capacité se projeter dans le passé et aussi dans l'avenir, donc de transformer en boucle le cours linéaire du temps.

Par Marie-Laure Théodule

 

DOCUMENT       larecherche.fr       LIEN

 
 
 
 

LE SÉQUENÇAGE

 


Les fulgurants progrès du séquençage


technologie - par Marine Cygler dans mensuel n°450 daté mars 2011 à la page 64 (2064 mots)
Dix ans après le décryptage du génome humain, la biologie est entrée dans l'ère du séquençage à très haut débit, toujours plus rapide et moins coûteux. Une nouvelle révolution technologique.

T rois mots, trois mots seulement : « Le génome humain ». C'était il y a dix ans, en février 2001. Avec ces trois mots sobrement affichés en couverture, les deux revues Nature et Science annonçaient le décryptage de la séquence de notre ADN [1] . Une séquence encore « brouillon », puisqu'il restait des trous à combler. Il n'empêche : une page décisive de l'histoire de la biologie était bel et bien tournée. Une page dont l'écriture aura exigé treize ans de travail, la contribution de 3 000 personnes, et environ 2,7 milliards de dollars !

Depuis, le coût du séquençage d'un génome humain n'a cessé de diminuer. En 2007, il était descendu à un million de dollars. En 2009, à 250 000 dollars. En 2010, Stephen Quake, de l'université Stanford, a jeté un pavé dans la mare, en annonçant avoir séquencé son propre génome pour moins de 50 000 dollars. Quant à l'entreprise américaine Pacific Biosciences, elle prétend que, d'ici 2013, elle sera en mesure de fournir le séquençage d'un génome humain en un temps record - quinze minutes -, pour une somme dérisoire - moins de 100 dollars. Comment un tel bouleversement s'est-il produit ?

Pour le comprendre, il faut remonter à 1990. Cette année-là, un consortium international, composé de vingt centres de séquençage dans six pays Allemagne, Chine, États-Unis, France, Japon et Royaume-Uni, se met en place. Son objectif ? Élucider, avant 2005, la séquence du génome humain. Autrement dit, déterminer l'ordre dans lequel se succèdent les constituants élémentaires de l'ADN, les « nucléotides ». Ces derniers sont de quatre types selon qu'ils portent, sur un même squelette moléculaire, un groupement chimique différent appelé adénine A, thymine T, cytosine C ou guanine G. Les quatre « bases » de l'ADN. Le défi est titanesque : le génome humain est long de 3 milliards de bases - comme une sorte de mot immense écrit dans un alphabet à quatre lettres.

Synthèse d'ADN
À l'époque, la technologie utilisée consiste en l'automatisation d'une méthode manuelle mise au point au milieu des années 1970 par le biochimiste britannique et deux fois Prix Nobel Frederick Sanger. Cette méthode s'appuie sur deux des principales caractéristiques de la molécule d'ADN. D'une part, celle-ci est constituée de deux brins complémentaires l'un de l'autre, une base A d'un brin étant toujours appariée à une base T de l'autre brin, et une base C étant toujours appariée à une base G. D'autre part on peut, à partir d'un brin unique, synthétiser le brin complémentaire, grâce à une enzyme appelée ADN polymérase : si elle dispose des quatre nucléotides isolés, cette enzyme les fixe les uns aux autres, un à un, en regard des nucléotides du brin initial, progressant le long de ce brin à partir d'un même point de départ, dans un sens qui est toujours le même. À supposer que l'on ait fixé à ces nucléotides un marqueur permettant de les repérer, alors on peut en déduire la séquence du brin nouvellement synthétisé.

Dans la méthode initiale de Sanger, ce marqueur est du phosphore radioactif. En pratique, l'expérience consiste à réaliser, en parallèle, quatre réactions de synthèse. Pour chacune, on mélange dans un même tube le brin d'ADN « matrice » préalablement multiplié pour qu'il y en ait des milliers de copies, l'ADN polymérase, les quatre nucléotides A, T, C et G non marqués, ainsi qu'une certaine quantité d'un des quatre nucléotides marqué. « A » pour le premier tube, « T » pour le deuxième, « C » pour le troisième, et « G » pour le quatrième. Et l'ADN polymérase commence son travail de synthèse, assemblant les nucléotides un à un.

Or, il se trouve que l'incorporation d'un nucléotide marqué interrompt la synthèse en cours. Il se trouve également que la quantité de nucléotides marqués et non marqués présente dans chaque tube est telle qu'à l'issue de la réaction, on dispose dans chaque tube d'un ensemble de brins de longueur variée. Par exemple, le tube « A » contient tous les brins allant du point de départ de la synthèse à chacun des « A » situé en regard d'un des « T » du brin initial. Les brins nouvellement synthétisés sont alors séparés de leur brin matrice, puis mis à migrer en parallèle dans un gel qui les sépare selon leur longueur, au nucléotide près. On utilise ensuite un système qui permet de visualiser la position de chacun de ces brins grâce à la radioactivité émise par le nucléotide marqué. Et l'on en déduit l'ordre d'incorporation de chacun des quatre nucléotides : c'est la séquence du brin synthétisé.

Fluorescence
Il s'agit là d'une méthode fiable, mais lente et totalement inappropriée pour un séquençage à grande échelle, ne serait-ce qu'en raison de l'utilisation de radioactivité. Aussi les centres de séquençage participant au Programme génome humain ont-ils utilisé des nucléotides marqués par fluorescence - chacun émettant un signal lumineux qui lui est propre. Ils ont aussi remplacé le gel de migration par un autre système, beaucoup moins encombrant : de fins tuyaux capillaires remplis d'une substance qui sert de tamis. Les brins d'ADN obtenus dans les tubes de synthèse y sont automatiquement injectés et y migrent à une vitesse qui dépend de leur longueur. C'est à l'issue de cette migration qu'ils sont détectés, par un photomètre situé à l'extrémité des capillaires. Les données de fluorescence sont ensuite transcrites en une succession de lettres ATCG, par un logiciel adapté [fig. 1] .

Cela dit, les améliorations mécaniques ayant permis la conception de machines de séquençage automatique - ou séquenceurs - ne sont pas seules à l'origine de l'émergence du séquençage haut débit. L'informatique, elle aussi, s'est révélée décisive. Pourquoi ? Parce qu'il est absolument inconcevable de séquencer telle quelle une molécule aussi longue que l'ADN humain. Ou même l'un des 24 types de chromosomes pris séparément : ils sont tous bien plus longs que les longueurs d'environ 1 000 nucléotides séquençables automatiquement. Aussi faut-il préalablement couper l'ADN en fragments d'environ 1 000 nucléotides. Après séquençage, les différentes séquences obtenues sont remises dans l'ordre au moyen de logiciels informatiques adaptés - la puissance de calcul nécessaire étant d'autant plus grande que le génome est long.

Couper certes, mais où ? Là aussi, il y a eu des évolutions notables. Il y a vingt ans, le Consortium avait décidé d'élaborer des cartes des chromosomes, avant de commencer le séquençage proprement dit. « Nous comptions séquencer de grands fragments couvrant l'ensemble du génome, rappelle Jean Weissenbach, directeur du Génoscope d'Évry, qui a participé activement à cette première phase du Projet génome humain. Mais il nous fallait des points de repère sur les chromosomes humains qui nous permettent d'ordonner les fragments après leur séquençage. Nous n'imaginions pas nous en passer. Et pendant plus de quatre ans, nous nous sommes concentrés sur ce travail de cartographie. »

Coup de fusil
Mais voilà : en 1998, un nouveau venu, l'Américain Craig Venter, se lance dans l'aventure du séquençage du génome humain. Il vient de fonder une entreprise, Celera Genomics, dédiée à ce projet. Son choix ? Couper « à l'aveugle » l'ensemble du génome en milliers de fragments d'environ 500 nucléotides, selon une approche appelée « whole genome shotgun » , ou technique du « coup de fusil dans le génome entier ». Ces fragments sont ensuite séquencés sans que l'on sache au préalable à quel endroit du génome ils se trouvent, puis les séquences sont assemblées à l'aide de logiciels spécialement mis au point. Sûr de gagner un temps précieux grâce à ce séquençage aléatoire global qui fait l'impasse sur le long travail de cartographie, Venter n'hésite pas, en 1998, à affirmer qu'il aura séquencé l'ensemble du génome humain avant 2002. Il y parviendra effectivement - oubliant au passage de dire que pour réaliser cet assemblage, il s'appuie non seulement sur les données de séquençage de Celera Genomics, mais aussi sur celles mises gracieusement à disposition de l'ensemble de la communauté scientifique par les équipes du Consortium.

Quoi qu'il en soit, l'entrée en piste de Venter déclenche une course aux armements : c'est à qui aura le plus de séquenceurs, et augmentera le plus la puissance de calcul des ordinateurs associés.

À l'époque, une machine peut analyser 96 séquences de 1 000 nucléotides en quelques heures, et un centre de séquençage tel que le Génoscope ou Celera Genomics en possède des dizaines.

Depuis, les choses ont changé, même si cela ne saute pas aux yeux pour les profanes : une plate-forme de séquençage reste une pièce climatisée où trônent des rangées de grosses boîtes gris clair - les séquenceurs, connectés par des câbles à très haut débit aux ordinateurs de calcul et de stockage des données.

Mais à l'intérieur de ces engins, de nouvelles technologies sont à l'oeuvre. « Nous savons aujourd'hui immobiliser des molécules biologiques sur des surfaces, explique Alain Nicolas, responsable de la plate-forme de séquençage haut débit de l'institut Curie, à Paris. Et cette immobilisation est à l'origine des méthodes actuelles de séquençage, dit "massivement parallèle", qui permettent de séquencer des millions de séquences simultanément en quelques heures. »

L'une des méthodes emblématiques de cette révolution est le pyroséquençage [fig.2] . Accrochés à des billes, les fragments d'ADN issus du « whole genome shotgun » sont déposés dans des millions de microtubes, d'un volume de quelques picolitres seulement, qui contiennent de l'ADN polymérase. Puis un nucléotide donné - par exemple « A » - est simultanément ajouté dans chacun de ces tubes. Si c'est celui que l'ADN polymérase attendait, elle l'incorpore. Et cette incorporation entraîne l'émission d'un flash lumineux, détecté « en direct » par une caméra haute définition. Les tubes sont simultanément rincés pour enlever les nucléotides non utilisés, et un autre nucléotide, - par exemple « T », est ajouté. Et ainsi de suite avec « G » et « C », avant de recommencer avec « A », tandis que la caméra enregistre les flashs au fur et à mesure de l'élongation du brin d'ADN en formation dans chaque tube. Considérant que plusieurs millions de tubes sont traités en même temps, le gain de temps est énorme. Au prix, certes, d'une moins grande précision, car les microtubes sont si rapprochés que la caméra peut faire des erreurs. Aussi les fabricants de séquenceurs travaillent-ils à améliorer ce paramètre.

Par ailleurs, ils continuent d'innover en concevant de nouvelles techniques. « D'ici 2012 ou 2013, on va voir arriver sur le marché de nouvelles méthodes de séquençage reposant sur une détection très originale », annonce Éric Baud, chef du groupe séquençage chez Roche l'un des trois fabricants de séquenceurs. « La lecture se fera non plus par une caméra haute résolution, mais grâce à une banale électrode permettant de mesurer le pH de chaque tube, ce qui revient beaucoup moins cher. » En effet, on a découvert que l'incorporation d'un nucléotide dans un brin d'ADN induit, à proximité de la molécule, des perturbations qui modifient le pH. De plus, ces perturbations sont caractéristiques du nucléotide incorporé. Il est donc possible d'utiliser les variations de pH comme signature de l'addition de tel ou tel nucléotide, et donc de remplacer la caméra par un système électronique qui enregistre ces variations.

Gènes ciblés
Et ce n'est pas tout. Outre qu'il va devenir encore moins cher, le séquençage sera aussi de plus en plus ciblé. Du moins celui à vocation médicale. Car aujourd'hui que recherchent les scientifiques travaillant dans ce domaine ? Les mutations à l'origine des maladies. Des mutations, qui affectent le plus souvent des gènes. Or, ceux-ci ne représentent qu'environ 10 % du génome, le reste étant constitué de séquences non codantes. « Du coup, explique Alain Nicolas, on peut se poser la question : a-t-on vraiment besoin de séquencer celui-ci en entier ? Si l'on choisit de ne s'intéresser qu'aux gènes, arithmétiquement, on peut étudier dix patients en parallèle au lieu d'un seul », poursuit-il.

Dans l'avenir, le séquençage prendra donc deux voies. D'un côté les grandes plates-formes de génomique, qui poursuivront l'étude de génomes entiers et requerront des séquenceurs haut débit avec des capacités toujours plus importantes. De l'autre, de petites machines ciblées, destinées aux hôpitaux ou aux laboratoires d'analyses. En attendant, la méthode de Sanger automatisée reste la plus appropriée pour un séquençage précis des gènes, la technique du pyroséquençage étant, elle, la favorite de tous ceux qui séquencent des génomes entiers.

Par Marine Cygler

 

DOCUMENT       larecherche.fr       LIEN

 
 
 
 

LES 0GM ...

 


Klaus Ammann : les ogm, entre mensonges et hystérie


autre - par Propos recueillis par Olivier Postel-Vinay dans mensuel n°325 daté novembre 1999 à la page 104 (2951 mots)
L'avènement des OGM* contribue à juste titre à nourrir la peur du grand public à l'égard de certaines technologies nouvelles. Or en Europe, ni les politiques, ni les industriels, ni les journalistes n'ont fait ce qu'ils auraient dû faire pour que le débat s'organise sur des bases saines. Du coup, les écologistes durs ont beau jeu de faire passer leur message, fondé sur de la fausse science.

La Recherche : L'un des risques évoqués à propos des OGM est que les gènes manipulés de ces plantes s'échappent dans la nature et aillent s'insérer dans le génome d'autres plantes.

Pour Jeremy Rifkin, le principal avocat de la cause écologiste aux Etats-Unis, c'est l'une des voies de la « pollution génétique »1. Lui et d'autres disent que les essais en champ n'ont pas été menés sérieusement et ne permettent pas d'évaluer les risques réels. Quel est votre point de vue ?

Klaus Ammann : En Amérique du Nord, les principales plantes cultivées sont exotiques : elles n'ont pas de cousines sauvages et la contamination dont parle Rifkin est impossible. Aux Etats-Unis, les quelques espèces pour lesquelles la question d'un flux de gènes pouvait se poser ont fait l'objet d'études approfondies. C'est le cas pour le tournesol ou encore pour les courges squash . Là le travail a été fait à fond. Pour le maïs, les Américains ont fait de nombreux essais au Mexique pour voir si le flux de gènes était à craindre. Il existe en effet une parente sauvage du maïs, la téosinte ; laquelle était d'ailleurs déjà menacée depuis longtemps par le maïs moderne. Plusieurs symposiums internationaux y ont été consacrés. Mais, pour le soja par exemple, ce n'était pas nécessaire. Si bien que les autorités se sont contentées d'accepter, de la part des entreprises fabriquant des OGM, des procédures de notification simplifiées. Rétrospectivement - c'était il y a environ cinq ans, on peut juger que les choses sont allées un peu vite. Mais globalement il n'est pas douteux que les instances compétentes, l'USDA*, la FDA* et l'EPA*, ont fait leur travail sérieusement.

Ce point est contesté jusque dans les bonnes revues scientifiques2. La littérature écologiste soutient pour sa part que ces grandes administrations sont depuis

longtemps noyautées par des experts qui viennent directement de l'industrie3. Qu'en pensez-vous ?

C'est vrai, les agences et l'industrie sont très proches. Il existe une certaine osmose. Mais les règles déontologiques sont fortes. Les détracteurs des très grandes entreprises ne veulent pas voir, aussi, que les compagnies emploient des scientifiques impeccables, qui connaissent leur boulot : ce n'est pas dramatique si des échanges ont lieu. L'essentiel, c'est la qualité de la littérature scientifique publiée. Or elle est bonne. Il faut prendre la peine de la lire, ce que les militants écologistes ont une fâcheuse tendance à ne pas faire. Le National Research Council* a publié en 1989 - dix ans déjà ! - un rapport sur les essais en plein champ4. La même année, l'USDA a publié un réglement pour ces essais. Cinq ans avant l'introduction des premiers OGM sur le marché. C'est un bon travail, même si on peut y repérer quelques lacunes. Les années précédentes, avaient eu lieu une série de symposiums consacrés spécialement au problème du risque que la dissémination des gènes modifiés - par exemple pour résister à certains désherbants ou à certains insectes - induise cette même résistance chez d'autres plantes. Il faut le souligner : c'est la première fois dans l'histoire que pour l'introduction de nouveaux cultivars on évalue systématiquement, dès le départ, les conséquences possibles pour l'environnement ; avec la mise en place de procédures adaptées, des essais en plein champ, la création d'aires de refuge*, et ainsi de suite. Pensons-y : dans les années 1950-1960, lorsque les pesticides ont été introduits, on ignorait jusqu'à la notion d'évaluation des risques !

Le problème vous paraît donc avoir été plutôt bien géré aux Etats-Unis. Il en va différemment en Europe ?

Oui, pour plusieurs raisons. D'abord chez nous le problème des flux de gènes est réel. Plusieurs plantes largement cultivées ont ici des cousines sauvages. Par exemple le colza. C'est un point que les industriels qui ont commercialisé ces OGM ont sous-estimé. Mais la vraie difficulté est ailleurs : les responsables politiques de l'Union européenne n'ont pas fait et ne font toujours pas leur devoir. Ils n'ont pas su appliquer à temps des règles strictes. Et maintenant ils ne savent pas réagir à la situation. La réglementation européenne est un chaos. Les discussions sont interminables et confuses. C'est catastrophique. L'été dernier, on a vu les ministres de l'Environnement imposer un moratoire de facto . Mais où est le dossier scientifique appuyant cette décision ? Il n'existe pas. Les deux seuls arguments mentionnés dans la déclaration officielle étaient l'histoire du monarque, le papillon, et celui des gènes marqueurs codant pour une résistance aux antibiotiques. Or ils ne valent rien. Sur ces questions, comparée aux Etats-Unis, l'Europe politique est un club d'amateurs. Comment expliquer par exemple qu'une centaine de millions d'euros aient été dépensés par l'UE pour la recherche sur les risques des OGM sans que le grand public le sache ?

Revenons sur ces deux points : l'affaire du monarque d'abord. Pourquoi l'argument n'est-il pas valable à vos yeux ?

Nature a publié en mai dernier les résultats d'une expérience en laboratoire censée montrer que le pollen issu d'un maïs transgénique résistant à l'insecticide Bt pouvait affecter les chenilles du papillon monarque5. Or pour diverses raisons, dont certaines ont déjà été exposées dans la littérature scientifique6, cette étude ne prouve nullement que le pollen du maïs transgénique représente, s'il est dispersé dans la nature, un risque quelconque pour le monarque. Le véritable ennemi du monarque, c'est l'agriculteur américain qui pulvérise ses insecticides. L'article de Nature est réductionniste et la publicité qui lui a été donnée tout à fait abusive.

Et l'argument des gènes marqueurs de résistance aux antibiotiquesI ?

Alors là, c'est proprement ridicule ! Comme l'a calculé récemment un chercheur français, le risque que la résistance issue d'un gène marqueur introduit dans un maïs transgénique se propage est de l'ordre de 10-18 : c'est moins probable que de gagner trois fois de suite le gros lot au Loto7 !. Or nous mangeons en moyenne par jour 1 à 5 millions de bactéries ayant développé une résistance aux antibiotiques. A ce compte il faudrait interdire d'urgence l'emploi d'engrais naturels. Il est littéralement infesté de bactéries résistantes !

On ne peut malgré tout exclure qu'un gène présentant un risque quelconque s'insère dans la chaîne écologique. Rifkin dit qu'une fois le gène lâché dans la nature, le mal est fait, il est trop tard pour agir.

Mais ce n'est pas vrai ! D'une part, tous les étudiants en génétique des populations savent qu'en raison du processus d'introgression* un gène qui s'échappe va finir par disparaître au bout d'un certain nombre de générations. Sauf si le gène entraîne un avantage sélectif. Mais c'est rare. D'autre part, on sait suivre le devenir d'un gène lâché par accident dans la nature. On l'a fait au Danemark pour le gène de tolérance à l'herbicide qui avait pris la clé des champsII. On l'a fait en Ecosse. On en a suivi une fois dans les docks de Londres, pendant six ans ; après quoi il a disparu.

Rifkin objecterait sans doute qu'il demeure un risque de nature statistique. Si les OGM continuent de se multiplier, il y a forcément des gènes présentant un avantage sélectif qui vont passer entre les mailles du filet...

C'est vrai, mais il faut prendre la mesure des différents types de risque. De quels gènes parle-t-on ? Rifkin agite des épouvantails. Il dit par exemple : ce serait terrible si des gènes de plantes qu'on a modifiées pour produire du plastique ou des produits pharmaceutiques se répandaient dans la nature. Il évoque le jour où le « farmer » américain deviendra un « pharmer ». Or c'est un mensonge pur et simple. Personne n'envisage de fabriquer ce type de plante en plein champ. Si cela se fait, ce sera en serre, dans des systèmes clos. On a essayé une fois au Canada dans une vallée très isolée où l'on a planté du colza transformé ainsi, mais c'était une situation absolument sûre.

Si l'on en revient au risque créé par la dissémination des gènes de résistance, Rifkin et Greenpeace disent que cela constitue une menace pour l'agriculture biologique.

Là aussi il faut distinguer. Par exemple, c'est un mensonge de dire que les gènes Bt de résistance aux insectes vont détruire la stratégie des agriculteurs bio. C'est l'agriculture biologique qui a créé naguère des résistances, en vaporisant l'insecticide Bt* à tort et à travers. Lequel contient un mélange d'une trentaine de gènes.

Aujourd'hui ces résistances ont disparu, notamment parce qu'on a cessé la vaporisation intensive. Ce qui montre aussi qu'on sait gérer l'apparition de résistances indésirables. C'est une question de temps.

Cela dit il existe d'autres risques sur lesquels Rifkin a raison d'insister. Notamment, celui que des gènes de maïs transgénique passent à du maïs non transgénique. C'est un problème sur lequel on travaille.

Comme toujours dans une phase d'introduction d'une technologie, il faut apprendre, et parfois apprendre vite.

Comment interprétez-vous le principe de précaution ?

J'y attache une grande importance mais je vois aussi que certaines organisations l'exploitent abusivement pour tenter de stopper la technologie. Pour moi le principe de précaution est de toujours penser à ce qui pourrait arriver. Le flux de gènes est un fait, il faut en tenir compte. Mais je pense aussi que le principe de précaution ne devrait pas être invoqué sans mettre dans la balance un autre principe : le principe de familiarité. La familiarité, c'est ce que l'on connaît déjà, c'est un ensemble de connaissances et d'expériences qu'on a accumulées sur un sujet. Il faut par exemple tenir compte des risques générés par l'agriculture classique. Or les détracteurs des OGM semblent ignorer le degré de familiarité que nous avons acquis en la matière.

Nous avons mené des milliers d'expériences en champ ; nous disposons d'un savoir énorme - suffisant pour définir au cas par cas ce qu'il est possible de faire et ce qu'il ne faut pas faire. Au cas par cas, c'est-à-dire région par région, plante cultivée par plante cultivée.

En quoi consiste exactement la nouveauté de cette technologie ?

La nouveauté, c'est de pouvoir envisager maintenant de transférer n'importe quel gène. On peut maintenant influencer l'évolution directement et pas seulement indirectement. Il y a donc une nouvelle qualité de risque à prendre en compte, et là, Rifkin a raison. Cela dit, la nature n'a pas attendu les OGM pour procéder aux flux de gènes, et l'homme non plus. Le plus énorme flux de gènes que la Terre ait connu depuis le début de l'histoire de l'humanité s'est produit en raison des brassages dus à l'urbanisation et à la révolution des transports. L'ampleur du phénomène est sans commune mesure avec celle induite par les OGM dans un avenir prévisible.

Supposons que la question se soit posée, à la veille de ces transformations, de dire : on va ou on ne va pas urbaniser, fabriquer ou ne pas fabriquer des avions, comment le principe de précaution se serait-il appliqué ?

Si on l'avait appliqué comme les écologistes durs voudraient l'appliquer aujourd'hui, on aurait tout arrêté. Les gens seraient restés à la campagne et les avions n'auraient pas décollé. Aujourd'hui l'espérance de vie serait d'une quarantaine d'années...

Que pensez-vous de la polémique qui se développe sur l'introduction du gène Terminator, dont un résultat serait d'obliger les agriculteurs qui utilisent des OGM à se réapprovisionner chaque année en graines auprès des fabricants ?

La réalité n'est pas blanche ou noire. Le brevet que les écologistes ont habilement baptisé ainsi a aussi pour objet de limiter les risques de flux de gènes. C'est un sujet complexe, simplifié à l'extrême par Rifkin et Greenpeace. Ils veulent faire croire en particulier que cette technologie est en train de s'implanter. C'est faux. Quand Monsanto a racheté Delta&Pine Land, qui avait développé le concept, un débat s'est engagé en interne. Deux camps se sont dessinés, l'un optant pour un renoncement pur et simple, l'autre pour une solution d'attente. Aujourd'hui Monsanto dit clairement : pas question de faire appel à Terminator si les agriculteurs n'en veulent pas. Ils ont publié divers communiqués pour le faire savoir, mais ceux-ci ne sont pas repris par les médias...

Faisons un détour par le BA-ba de votre discipline. Qu'est-ce qu'une mauvaise herbe ?

Il n'y a pas de définition scientifique. C'est une plante qui n'appartient pas à l'espace que certains hommes jugent utile....

Et qu'est-ce qu'une espèce ?

C'est ce qu'un bon taxonome juge comme étant une espèce... Il existe une dizaine de définitions... Il y a celle de Mayr*, définition ornithologique qui se fonde sur l'impossibilité pour deux espèces différentes de créer une descendance. Mais pour les plantes cette définition ne marche pas. La plupart des plantes sont hermaphrodites. En réalité on peut identifier quatre ensembles de critères pour définir une espèce : les critères écologiques, morphologiques, chimiques et cytologiques/génétiques. En général les quatre sont réunis, mais deux peuvent suffire.

Voici maintenant une phrase tirée du livre de Rifkin : « Les nouvelles techniques de recombinaison de l'ADN sont une boîte de Pandore ; et nul ne peut prévoir les conséquences que peut entraîner la recombinaison de matériaux génétiques appartenant à des espèces séparées jusqu'à aujourd'hui par des barrières infranchissables »8. Qu'en pensez-vous ?

C'est un non-sens scientifique de parler de barrières infranchissables. Voilà un bon exemple de la technique de Rifkin : il dresse un épouvantail à partir d'une affirmation fausse. C'est le contraire qui est vrai. L'hybridation et le flux des gènes sont le fondement de l'évolution. Quand je bois une bière, je suis à 33 % cannibale, parce que la levure et l'homme ont 33 % de gènes en commun... Rifkin ne comprendra jamais cela. Il vit dans sa petite église, dont il est le prêtre....

Pour désigner les écologistes durs, vous utilisez parfois un terme très fort : vous parlez d'écostalinisme. Le maintenez-vous ?

Il m'arrive d'hésiter, parce que le terme est un peu trop fort si on le compare directement avec le stalinisme historique. Il n'y a pas de camps de concentration... Mais l'esprit est le même. Cela fait aussi penser au maccarthysme. Tout le monde doit penser de la même manière. Ceux qui s'y refusent sont accusés d'être à la solde de l'ennemi, en l'occurrence l'industrie. C'est un terrorisme, parfois assorti de violence physique, ou de menaces de violence. Cela dit je comprends partiellement cette attitude. Ces gens croient vraiment que l'humanité est menacée. Pas moi. A la racine de cette violence idéologique, il y a la peur. J'ai le plus grand respect pour cette peur. Les gens sentent bien qu'il se passe quelque chose d'exceptionnel, d'historique. L'humanité dispose pour la première fois d'une technologie qui influence directement la vie. Les gens ont raison de s'inquiéter.

Mais la peur n'explique pas tout ?

Le problème de fond est que nous n'avons pas su développer les moyens culturels de maîtriser cette transition. La violence du débat exprime un processus culturel. Tant les responsables politiques que les dirigeants des entreprises concernées ont sous-estimé l'impact social de la transformation du savoir qui est à l'oeuvre. Une Américaine a écrit un livre rétrospectif sur les hystéries collectives générées par le progrès technique9. Il manque un livre de ce genre sur l'Europe. Quand le chemin de fer a fait son apparition en Suisse, le gouvernement a établi un comité composé de scientifiques et de médecins de haut niveau pour étudier le risque de dégâts cérébraux, les trains allant plus vite que les chevaux. Le comité a conclu non seulement que le risque était réel, mais qu'il existait aussi pour les spectateurs...

Si vous êtes tenté de parler d'écostalinisme, n'est-ce pas aussi parce que vous êtes choqué par l'efficacité des moyens rhétoriques mis en oeuvre?

Ce qui me frappe, c'est la manière dont les médias, même les plus sérieux, sont influencés par la rhétorique écologiste, au point de perdre parfois toute forme d'esprit critique. Je connais ces choses-là de l'intérieur. Or l'esprit critique est nécessaire. La rhétorique écologiste est subtile, elle mêle le vrai et le faux. Elle se fonde largement sur une fausse science. Il serait utile que les journalistes aident le public à la repérer. On le voit dans les forums, les gens ont des connaissances extrêmement floues sur ces sujets.

Une difficulté supplémentaire ne vient-elle pas du fait que nombre de scientifiques adhèrent eux-mêmes à l'idéologie écologiste et soutiennent de facto les positions d'un Rifkin ou de Greenpeace ?

Je pense malgré tout que la balance penche plutôt dans l'autre sens. Beaucoup de chercheurs poursuivent leurs travaux en autistes, sans du tout se soucier de leur impact éventuel pour la société. Beaucoup de scientifiques sont en réalité des technocrates de la science, ils ne s'intéressent pas au monde réel.

Mais la publication dans Nature de l'article sur le monarque, par exemple, ne sert-elle pas la cause de l'écologisme dur ?

Il ne fait aucun doute que la direction éditoriale de Nature est contre le génie génétique. Peu après la parution de cet article, passé par la procédure de « peer review » mais dont l'auteur aujourd'hui se repent, Nature a laissé une page entière à deux militants de Greenpeace, qui ont écrit un texte absolument creux sur les rapports entre la science et la société, un texte d'amateurs10. Il est pour moi incompréhensible qu'un grand journal scientifique international tombe dans ce genre de piège.

Croyez-vous possible que dans dix ans, en 2010, tout ce débat soit oublié ?

Pas oublié mais incorporé dans une culture avancée. C'est mon optimisme. Je constate avec plaisir que certains journalistes européens commencent à développer leur esprit critique. J'aime bien l'expression allemande « Lügen haben kurze Beine » les mensonges ont les jambes courtes. J'en suis convaincu, le jour viendra où les écologistes comprendront que les OGM de seconde génération servent la cause de l'écologie, et non le contraire.

Par Propos recueillis par Olivier Postel-Vinay

 

DOCUMENT       larecherche.fr       LIEN

 
 
 
 

NEURO-MODELAGE DES SOUVENIRS

 


Neuro-modelage des souvenirs


la mémoire et l'oubli - par Serge Laroche dans mensuel n°344 daté juillet 2001 à la page 20 (3412 mots)
Comment les neurones parviennent-ils à enregistrer nos souvenirs de façon durable ? Les controverses sont vives. Néanmoins, le puzzle se constitue peu à peu autour d'une pièce centrale : la plasticité du cerveau. Variation de l'activité de certaines synapses, croissance de nouvelles d'entre elles, et peut-être même formation de nouveaux neurones semblent impliquées dans la formation de traces mnésiques au niveau cellulaire.

Plusieurs centaines de milliards de neurones, chacun relié directement à dix ou vingt mille autres neurones par des connexions appelées synapses : voilà la formidable machine de plus d'un million de milliards de connexions qui nous permet de percevoir, de construire nos souvenirs, mais aussi de savoir, de croire, de décider et d'agir.

La clé de ses capacités réside en une propriété étonnante : celle de pouvoir remodeler, reconfigurer ses propres circuits. A cette aune, qu'est-ce que la mémoire ? Le modèle général considère qu'à chaque souvenir correspondrait une configuration unique d'activité dans de vastes réseaux neuronaux. Or, on sait depuis longtemps que cette activité est, par nature, évanescente. Elle ne peut donc constituer une trace stable à long terme, compatible avec la quasi-permanence des souvenirs. Alors, comment ceux-ci s'inscrivent-ils ? Quelle est leur trace matérielle ?

L'idée d'une reconfiguration des circuits neuronaux naît en 1894, lorsque le neuroanatomiste Santiago Ramón y Cajal propose, au cours d'une conférence à la Royal Society de Londres, une hypothèse révolutionnaire : l'apprentissage faciliterait l'expansion et la croissance de protubérances - elles allaient bientôt s'appeler les synapses - qui connectent les neurones entre eux. Cette première formulation du concept de plasticité neuronale est, à l'époque, d'autant plus frappante que les études anatomiques du cerveau et de son développement révèlent la précision et la stabilité des assemblages neuronaux. Sans arguments expérimentaux directs, les positions théoriques s'affrontent entre les tenants de l'hypothèse de la plasticité et ceux qui, comme Lorente de Nó, un élève de Cajal, et Deslisle Burns, prônent une conception plus dynamique impliquant la circulation en boucle de l'activité neuronale dans des chaînes de neurones. En 1949, le psychologue canadien Donald Hebb énonce une hypothèse forte, qui permet de concilier les deux points de vue. Hebb propose que l'activité électrique que l'on observe dans des assemblées de neurones lors d'un apprentissage persiste pendant un certain temps, comme pour frayer un chemin, et que cela entraîne des modifications cellulaires ou biochimiques des neurones activés, de sorte que la force synaptique entre eux augmente. Un demi-siècle après la publication de l'ouvrage de Hebb, le postulat selon lequel l'activité simultanée de neurones connectés modifie les connexions synaptiques entre ces neurones est devenu la pierre angulaire de notre compréhension des bases cellulaires de la mémoire.

Mais un postulat n'a pas force de théorème. Comment prouver la réalité de cette plasticité ? Un premier argument en sa faveur est venu de l'étude de formes simples d'apprentissage en l'occurrence, du conditionnement chez un mollusque marin, l'aplysie. En 1970, Eric Kandel et ses collaborateurs mettent en évidence des changements fonctionnels des synapses de l'aplysie, corrélativement à cet apprentissage1. Ces résultats ne devaient trouver leur pendant chez les mammifères qu'en 1973. Timothy Bliss et Terje Lømo démontrent alors, en travaillant sur des lapins, l'extraordinaire capacité de plasticité des synapses de l'hippocampe - structure qui joue un rôle fondamental dans de nombreux types de mémoire voir l'article de Bruno Poucet dans ce numéro. Cette plasticité est désormais connue sous le nom de potentialisation à long terme, ou LTP2. Dans leur découverte initiale, les auteurs montrent qu'une brève stimulation à haute fréquence d'une voie neuronale envoyant des informations sensorielles du cortex à l'hippocampe, induit une augmentation importante et durable de l'efficacité de la transmission synaptique : les neurones cibles de l'hippocampe acquièrent une plus grande sensibilité à toute stimulation ultérieure. Le plus remarquable dans cette forme de plasticité, induite en quelques dizaines de millisecondes, est sa persistance : les synapses restent modifiées pour des semaines, voire des mois. Cette découverte suscita un enthousiasme considérable dans la communauté scientifique. Avait-on là le mécanisme du stockage de l'information dans le cerveau, que l'on cherchait depuis l'énoncé de la théorie de Hebb ? En étudiant les mécanismes de la LTP au niveau cellulaire, allait-on découvrir les mécanismes de la mémoire ? Cela semblait plausible à de nombreux chercheurs. Dès lors, un très grand nombre d'équipes ont orienté leurs travaux vers l'étude de ce modèle de plasticité.

Mécanismes de plasticité. Un premier courant, de loin le plus important en efforts de recherche, se penchait sur les mécanismes de la LTP au niveau cellulaire et moléculaire3. Les synapses concernées par le phénomène de plasticité utilisent le glutamate comme neuromédiateur. On en trouve dans l'hippocampe, bien sûr, mais aussi dans la plupart des structures corticales et sous-corticales du cerveau. Pour que ces synapses puissent être modifiées, il est impératif qu'elles soient d'abord activées, soit, en d'autres termes, que l'influx nerveux qui arrive au niveau du neurone présynaptique se propage au neurone post-synaptique. C'est le récepteur AMPA du glutamate qui permet la propagation de cet influx nerveux fig. 1. Si le neurone post-synaptique est suffisamment activé, un second récepteur jusqu'alors inactif, le récepteur NMDA, subit une modification qui fait que sa stimulation par le glutamate entraîne l'entrée de calcium dans la cellule. En découle l'activation de nombreuses protéines, en particulier des kinases* dont la calmoduline-kinase II CaMK II et les MAP kinases. Au moins deux types de mécanismes sont alors déclenchés : la phosphorylation* des récepteurs du glutamate tant NMDA que AMPA, et l'activation de la machinerie génique. Ainsi qu'on peut le voir en microscopie électronique, ces modifications aboutissent à un profond remodelage des circuits neuronaux : changement de la forme et de la taille des synapses, insertion de récepteurs du glutamate et transformation de synapses silencieuses en synapses actives, et croissance de nouvelles synapses.

Comment mettre à jour l'hypothétique lien entre plasticité synaptique et processus d'apprentissage et de mémorisation ? Le chemin était difficile, et l'histoire, encore jeune, de ces recherches est jalonnée de constantes fluctuations entre le rejet et l'acceptation de l'hypothèse. Toutefois, les connaissances sur les mécanismes moléculaires de la mémoire ont progressé ces dix dernières années à un rythme étonnant, et de plus en plus de résultats montrent que ces mécanismes de plasticité sont un élément déterminant du stockage des souvenirs.

Dans les années 1980, plusieurs laboratoires ont étudié des formes simples d'apprentissage associatif chez le rat, comme l'association d'un son avec un léger choc électrique. Après une certaine période de conditionnement, l'animal réagit au son seul comme il réagissait au choc électrique. Parallèlement, les neurones de nombreuses structures, y compris l'hippocampe, présentent une augmentation importante et sélective de leur fréquence de décharge. De plus, l'efficacité de la transmission synaptique dans les circuits de l'hippocampe augmente parallèlement aux progrès de l'apprentissage. Mais ces données n'ont qu'une valeur de corrélation, et ne sont pas la preuve d'une relation de cause à effet. Sans compter que les variations d'efficacité synaptique pen-dant l'apprentissage sont techniquement difficiles à mettre en évidence, car la transmission synaptique moyenne sur une large population de neurones reste relativement constante. De fait, des données suggèrent que le renforcement de certaines populations de synapses s'accompagne de l'affaiblissement d'autres. Ceci n'est pas si surprenant : comment concevoir que l'efficacité de très nombreuses synapses augmente chaque fois que l'on apprend ? Un tel système serait probablement très vite saturé. La dépression à long terme LTD, un mécanisme de plasticité inverse de la LTP que l'on peut observer dans certaines conditions d'activation synaptique, interviendrait-elle à ce niveau en évitant la saturation du système d'encodage et en augmentant le contraste entre synapses potentialisées et déprimées ? Ou jouerait-elle un rôle dans l'oubli comme le prédisent certains modèles théoriques ? Si des modifications synaptiques de type LTP ou LTD ont pu être observées dans différentes structures du cerveau en fonction de l'information à mémoriser, une analyse précise nécessitera le développement de nouvelles méthodes électro-physiologiques permettant d'isoler de petites populations de synapses.

La pharmacologie et la génétique ont apporté des réponses là où l'électrophysiologie se heurtait à ses limites. Le blocage de la LTP, obtenu en faisant appel à des techniques relevant de l'un ou l'autre de ces deux domaines, modifie-t-il les capacités d'apprentissage d'un animal ? A la fin des années 1980, le groupe de Richard Morris à Edimbourg montre que l'administration à des rats d'un antagoniste* des récepteurs NMDA, qui bloque la plasticité des synapses sans perturber la transmission des messages neuronaux assurée par le récepteur AMPA, rend ces animaux incapables d'apprendre une tâche de navigation spatiale. A mesure que les doses d'antagoniste augmentent, la plasticité synaptique diminue, et les déficits mnésiques se renforcent4. De notre côté, nous constations qu'en présence d'un antagoniste des récepteurs NMDA les neurones de l'hippocampe ne modifient plus leur activité pendant un apprentissage associatif, suggérant que ces mécanismes de plasticité sont nécessaires à la construction d'une représentation neuronale de l'information à mémoriser. Et, alors que l'équipe de Bruce McNaughton à Tucson montrait que la saturation de la LTP dans l'hippocampe par de multiples stimulations électriques perturbait l'apprentissage spatial, l'enthousiasme pour considérer que la LTP représentait un modèle des mécanismes de l'apprentissage grandissait. Mais le scepticisme quant au rôle de la LTP dans la mémoire s'installa de nouveau lorsque plusieurs équipes ne purent reproduire ce résultat. Il a fallu plusieurs années pour inverser la tendance et montrer que l'on observe un réel déficit mnésique pour peu que l'on s'approche autant que possible de la saturation maximale de la LTP, saturation qui empêche les synapses d'être modifiées pendant l'apprentissage.

Une autre approche déterminante a consisté à d'abord rechercher les mécanismes biochimiques et moléculaires de la mémoire, puis à voir s'ils étaient similaires à ceux de la plasticité. Les premières études que nous avons réalisées avec Tim Bliss au milieu des années 1980 ont ainsi mis en évidence une augmentation de la capacité de libération synaptique du glutamate dans différentes régions de l'hippocampe après un apprentissage associatif, par des mécanismes neurochimiques identiques à ceux de la LTP. Ces résultats ont été confirmés lors de la réalisation d'autres tâches d'apprentissage, comme l'apprentissage spatial. Nombre d'autres études ont montré que la phosphorylation de différentes kinases ou l'augmentation de la sensibilité des récepteurs du glutamate - ainsi que d'autres mécanismes cellulaires impliqués dans la LTP - sont activées lorsqu'un animal apprend5. Et inversement le blocage de ces événements biochimiques perturbe invariablement l'apprentissage.

Apports très récents. Plus récemment, les techniques de modification génique chez la souris ont permis d'apporter des réponses encore plus démonstratives. D'un grand nombre d'études il ressort que l'inactivation génétique de molécules importantes pour la plasticité perturbe corrélativement l'apprentissage. Des souris chez lesquelles les neurones de certaines zones de l'hippocampe n'expriment pas le récepteur NMDA se sont révélées particulièrement riches en enseignements. Chez ces souris, la LTP est abolie dans la région hippocampique concernée, la stabilité des cellules de lieu est altérée voir l'article de Bruno Poucet dans ce numéro et les animaux présentent corrélativement des déficits importants de mémoire spatiale6. Inversement, en augmentant, chez d'autres souris, l'expression d'un gène qui code une protéine du récepteur NMDA, l'équipe de Joe Tsien à Princeton a observé de nettes améliorations des performances mnésiques dans de nombreuses tâches d'apprentissage7. Au vu de ces résultats, il semble indéniable que le récepteur NMDA est un acteur clé de la mémoire. Mais, de façon surprenante, les déficits mnésiques observés chez les souris dépourvues de récepteur NMDA peuvent être compensés par une période d'élevage dans un environnement riche en stimulations sensorielles8 voir l'article de Claire Rampon. S'agit-il de la compensation de mécanismes moléculaires défectueux par d'autres ? La fonction déficiente est-elle prise en charge par d'autres circuits ? Il est encore trop tôt pour le dire, mais ce type de données montre qu'on ne saurait restreindre les capacités mnésiques d'un animal à la présence du récepteur NMDA dans telle zone du cerveau.

L'idée que la mémorisation repose sur des modifications synaptiques implique que ces modifications soient stabilisées et consolidées. Comment peuvent-elles perdurer en résistant au renouvellement des molécules de la cellule ? On a constaté que l'administration d'inhibiteurs de la synthèse protéique pendant l'apprentissage perturbe la mémoire à long terme sans altérer la mémoire à court terme. Il semble donc que ces deux types de mémoires reposent sur des mécanismes biologiques distincts - la mémoire à long terme requérant la synthèse de protéines. On observe du reste une dichotomie analogue dans la plasticité synaptique, dont seule la phase durable nécessite l'apport de nouvelles protéines. Déduction logique : les mécanismes de plasticité neuronale et de consolidation mnésique impliquent très probablement des régulations de gènes. C'est au début des années 1990 que les premières évidences en la matière ont été mises à jour : l'induction de la LTP dans l'hippocampe conduit à l'activation de gènes dans le noyau des neurones activés. Ces régulations transcriptionnelles commencent par l'activation rapide en quelques dizaines de minutes et transitoire jusqu'à quelques heures d'une classe de gènes appelés « gènes précoces ». Certains d'entre eux codent des protéines qui agissent directement au niveau de la synapse. Mais une fraction importante, dont fait partie le gène zif268 , code des facteurs de transcription nucléaires modifiant l'expression d'autres gènes appelés, eux, effecteurs tardifs5,9. La réponse transcriptionnelle globale se traduit, sur plusieurs jours, par des vagues successives d'expression de différents gènes. Par exemple, l'expression des kinases est augmentée dans une fenêtre temporelle de quelques heures à un jour, alors que les récepteurs du glutamate sont, quant à eux, surexprimés entre 2 et 4 jours après l'induction de la LTP.

Commutateur moléculaire. Ce sont les kinases activées par l'entrée de calcium induite par la stimulation du récepteur NMDA, et en particulier les MAP kinases, qui sont à l'origine de l'expression des gènes précoces. Une fois phosphorylées, ces kinases activent des facteurs de transcription tels que CREB, qui se fixent sur des sites spécifiques de promoteurs de gènes dans le noyau et modifient leur expression10. Plusieurs études montrent que ces mécanismes jouent un rôle important dans la mémoire : les MAP kinases sont rapidement phosphorylées lors de l'apprentissage et le blocage de leur phosphorylation pendant l'acquisition perturbe l'apprentissage. L'activation des gènes précoces serait, quant à elle, l'étape cruciale permettant le déroulement complet du programme cellulaire de transcription génique qui entraîne une modification durable de la connectivité neuronale. Les groupes d'Alcino Silva et d'Eric Kandel ont, par exemple, montré que l'inactivation génétique de CREB chez des souris mutantes conduit à un déclin rapide de la LTP hippocampique et à des déficits de mémoire dans de nombreuses tâches11,12. En collaboration avec Tim Bliss, nous avons montré que, chez des souris mutantes chez lesquelles le gène zif268 est invalidé, les neurones de l'hippocampe conservent leurs propriétés de plasticité, mais à court terme seulement. Corrélativement, seule la mémoire à court terme des souris mutantes est intacte : elles sont incapables de retenir une information au-delà de quelques heures dans des tâches de mémorisation de l'espace, de reconnaissance d'objets familiers ou des tests de mémoire olfactive ou gustative. Ainsi, les gènes précoces tels que zif268 joueraient-ils le rôle de commutateurs moléculaires permettant d'enclencher les changements synaptiques durables nécessaires à la formation de souvenirs à long terme13.

Nouveaux neurones. Le fait que les activations de gènes, et donc la synthèse de protéines, soient d'une telle importance lors de la LTP et de l'apprentissage a soulevé un autre problème : comment les nouvelles protéines synthétisées pouvaient-elles être dirigées vers les synapses activées, et seulement elles, sans être distribuées à toutes les synapses d'un neurone ? La question paraissait si difficile qu'on était amené à penser que la plasticité ne serait peut-être qu'un mécanisme non spécifique de facilitation globale de circuits. Mais, en 1997, Uwe Frey et Richard Morris démontrent par élimination de différentes hypothèses que le seul mécanisme possible est le marquage des synapses activées, marquage qui différencierait ces synapses des synapses non activées, et leur permettrait de « capter » les protéines nouvellement synthétisées14. La nature de ce marqueur est, pour l'heure, inconnue. La découverte d'ARN messagers et de ribosomes dans les dendrites, alors qu'on les pensait cantonnés au corps cellulaire du neurone, a, elle aussi, révolutionné l'approche du mécanisme de modification des synapses. Certains ARN messagers, comme celui qui code la kinase CaMKII, ont une expression dendritique qui augmente fortement dans la demi-heure qui suit l'induction de la plasticité et l'apprentissage. Il semble que ces ARNm migrent le long des dendrites, et soient capturés par les ribosomes qui se trouvent à proximité immédiate des synapses activées - mais pas par ceux qui se trouvent à proximité des synapses inactives fig. 2. Il n'est donc pas impossible que la synthèse locale de protéines soit un mécanisme important assurant la spécificité de la plasticité synaptique et du frayage neuronal.

Qui dit souvenirs à long terme, dit stabilisation de tout un relais synaptique. La plasticité se propage-t-elle dans des réseaux de neurones interconnectés ? On relève, là encore, l'importance des régulations de gènes. Prenons l'exemple du gène de la syntaxine, une protéine qui intervient dans la libération du neuromédiateur. Nous savions déjà que, après l'induction de la LTP, son expression augmente pendant plusieurs heures dans les neurones postsynaptiques d'une zone de l'hippocampe appelée gyrus denté. Une fois synthétisée, la protéine migre vers l'extrémité axonale de ces neurones, extrémité qui se trouve dans une autre zone de l'hippocampe, la zone CA3. Là, elle favorise la libération synaptique de glutamate, donc l'activation d'autres neurones, et l'induction d'une LTP à leur niveau. Il apparaît que la régulation de l'expression de la syntaxine intervient également lors d'un apprentissage. Lors d'une tâche de mémoire spatiale, son expression augmente non seulement dans les neurones de l'hippocampe, mais aussi dans des régions du cortex préfrontal15, ce qui suggère le frayage de réseaux neuronaux, en partie par son intermédiaire, lors de la mémorisation.

Comme on l'a vu, les recherches actuelles montrent que les expériences sensorielles laissent des traces dans le cerveau en modifiant l'efficacité des synapses entre neurones et en créant de nouvelles synapses. Et si de nouveaux neurones se créaient aussi ? Impossible, aurait-on dit, il y a encore peu de temps. Nous perdons des neurones en permanence parce que les neurones qui meurent continuellement dans le cerveau adulte ne sont pas remplacés, ce qui est probablement l'une des causes majeures de nombreux désordres neurologiques. Pourtant, des travaux de Joseph Altman à la fin des années 1960 suggéraient que de nouveaux neurones étaient générés dans le gyrus denté de l'hippocampe pendant la vie postnatale et chez le jeune adulte. D'autres travaux montraient aussi une neurogenèse dans certaines régions cérébrales impliquées dans la mémoire des chants chez les canaris. Ces recherches sont longtemps restées dans l'ombre car elles semblaient n'être que des exceptions face au dogme prévalent. Mais, en 1998, Elizabeth Gould et son équipe démontrent qu'une neurogenèse se produit dans le gyrus denté chez le singe adulte et, la même année, Freg Gage au Salk Institute en Californie et ses collègues suédois de l'université de Göteborg observent le même phénomène chez l'homme en étudiant les cerveaux de patients âgés de 57 à 72 ans16I. Ces nouveaux neurones sont produits à partir d'une population de cellules progénitrices qui migrent dans le gyrus denté et se différencient en neurones. D'autres études ont montré que cette neurogenèse chez l'adulte se produit aussi dans des régions corticales. Quel pourrait être le rôle fonctionnel de ce nouveau type de plasticité ? S'agit-il d'un mécanisme de remplacement compensant partiellement les pertes neuronales ou a-t-il un rôle spécifique dans certaines fonctions cognitives ? En ce qui concerne l'apprentissage, deux études viennent de montrer, d'une part, qu'il augmente la survie des nouveaux neurones formés dans le gyrus denté17 et, d'autre part, qu'il est perturbé lorsque l'on empêche la neurogenèse chez le rat adulte18 fig. 3. Peut-on en conclure qu'apprendre, c'est aussi former de nouveaux neurones et que ces nouveaux neurones sont impliqués dans le codage de l'information qui vient d'être apprise ? Peut-on imaginer faciliter ces mécanismes de neurogenèse pour tenter de compenser les déficits mnésiques associés à certaines maladies neurodégénératives ? Il est encore beaucoup trop tôt pour le dire.

Ouverture. De tous ces résultats fondamentaux, commencent à émerger, çà et là, des embryons d'explications quant aux mécanismes cellulaires de certaines pathologies de la mémoire, comme le syndrome de l'X fragile la plus commune des formes héréditaires de retard mental ou la maladie d'Alzheimer. Par exemple, chez des souris qui surexpriment la protéine APP* et présentent des signes neuropathologiques de la maladie d'Alzheimer, on observe, associée aux déficits mnésiques, une altération de la plasticité synaptique dans l'hippocampe19. Si les connaissances qui s'accumulent sur la plasticité synaptique constituent l'une des pierres de ce qui sera, un jour, une réelle théorie de la mémoire, elles pourraient donc aussi, à échéance peut-être plus courte, favoriser l'émergence de nouvelles pistes thérapeutiques pour compenser certains dysfonctionnements de la mémoire.

Par Serge Laroche

 

DOCUMENT       larecherche.fr       LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 ] Précédente - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales /confidentialité

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon