ecole de musique piano
     
menu
 
 
 
 
 
 

GENÈSE ET ACTUALITÉ DE LA THÉORIE DE L' ÉVOLUTION

 


Genèse et actualité de la théorie de l'évolution


special : l'histoire de la vie - dans mensuel n°296 daté mars 1997 à la page 18 (5490 mots)
L'idée que le monde vivant a une histoire a émergé au XVIIIe siècle, avec Buffon, puis Lamarck. L'idée de la sélection naturelle comme moteur du changement remonte à Darwin et à Wallace. Elle s'est imposée non sans mal, intégrant au passage la découverte des gènes Mendel, puis celle du code génétique... La théorie moderne de l'évolution a ses problèmes et ses limites, mais sa cohérence est profonde.

André Langaney : L'histoire de la vie et l'évolution des espèces vous tiennent à coeur. Si je dis « histoire de la vie », c'est parce qu'en dehors du monde de la biologie que nous pratiquons on voit parfois s'exprimer des doutes ou des refus de l'évolution. C'est pourtant la théorie unificatrice de la biologie et je ne connais pas de théorie scientifique qui puisse la remplacer. Pour comprendre les réticences du public, il faut comparer l'évolution et les théories d'autres disciplines, en physique par exemple. Pourquoi est-elle moins bien acceptée ?

François Jacob : Les théories de la physique sont des théories compliquées que les profanes suivent mal parce qu'il est très difficile d'en traduire les raisonnements mathématiques en mots de tous les jours. Et néanmoins les gens les acceptent. La théorie de l'évolution est beaucoup plus simple à comprendre. Si bien que les gens croient l'avoir comprise alors que bien des éléments leur échappent ! C'est une théorie qui, comme la relativité, heurte notre intuition. Notre cerveau a été sélectionné sur des centaines de millions d'années. Il est adapté à la vie courante, à des niveaux moyens de taille, d'espace, de temps, qui ont permis à nos ancêtres de vivre, de sortir de la forêt et de se promener dans la savane. Certains concepts de la théorie de l'évolution ne sont pas en accord avec notre quotidien. Elle concerne des centaines de millions d'années, alors que nous avons l'habitude de penser le temps en décennies : nos grands-parents, nos arrière-grands-parents. Quand on va plus loin, cela devient de l'histoire et c'est déjà plus flou. D'autre part, le concept de hasard fait que les gens croient que tout est sorti de rien. Alors que ce n'est pas du tout ça ! L'idée de hasard aussi est compliquée. Enfin, nous fonctionnons par intentions, par desseins : nous projetons de faire telle ou telle chose. Quand nous regardons une pendule, nous savons que quelqu'un a décidé de la construire, a fait des plans après avoir choisi tel modèle. Il nous paraît donc normal de considérer que les animaux que nous rencontrons, ou les humains, sont aussi le résultat d'un projet et d'une intention. C'est cette idée qu'a démolie la théorie de l'évolution. C'est en cela qu'elle s'accorde mal avec notre façon habituelle de penser.

A. Langaney : Vous parlez de « la » théorie de l'évolution, comme si nous, biologistes, avions une théorie consensuelle. Il y a quand même de nombreuses varian-tes. Ensuite, vous avez prononcé le mot histoire. J'avais commencé par l'« histoire de la vie », parce que nous, êtres vivants, savons que nos ancêtres ont eu une histoire. Avant de théoriser, il y a tout simplement des faits. C'est par là que la découverte de l'évolution a commencé. Avant la grande synthèse et les idées sur les mécanismes, il a fallu avoir une histoire avec une échelle de temps, puis mesurer cette échelle de temps qui s'est révélée contradictoire avec ce que l'on pensait avant. Puis il a fallu découvrir des parentés entre les êtres vivants, qui laissaient penser que le paradigme d'alors, la création indépendante des espèces, devait être remis en question.

F. Jacob : Jusqu'au XVIIIe siècle, il était admis que les êtres vivants étaient les produits d'une création particulière de chaque type d'organismes, l'espèce humaine étant une création indépendante des autres. C'est alors que l'idée de l'histoire du monde vivant a émergé. Ce qui a commencé, c'est la Terre, ainsi que l'a décrit Buffon. Or les dates de l'histoire de la Terre ne correspondaient pas du tout avec celles que lui attribuait la Bible. Il est apparu aussi que le monde vivant n'était pas stable, créé une fois pour toutes. On trouvait des fossiles dans différentes strates de la Terre qui ne correspondaient pas aux mêmes dates d'origine. De là vient l'histoire du monde vivant et de ses transformations. L'idée s'est amplifiée à la fin du XVIIIe siècle, grâce à une série de philosophes et de naturalistes, pour culminer avec Lamarck, qui a proposé, le premier, que tout le monde vivant provenait d'une transformation progressive, allant du simple au compliqué.

A. Langaney : L'établissement de l'échelle de temps doit beaucoup à un principe philosophique, le « principe des causes actuelles* » de Buffon. Le dilemme, à l'époque, était d'expliquer des sédiments manifestement marins déposés dans des zones très éloignées des mers. Ces dépôts font des kilomètres d'épaisseur et, au rythme actuel de sédimentation au fond des océans, ils avaient requis des durées bien supérieures aux six mille ans que la Bible accordait à la Terre pour les déposer. Ou bien l'on croyait que la sédimentation avait duré beaucoup plus que les six mille ans bibliques, ou bien il fallait imaginer des mécanismes de dépôt très différents dans le passé. Buffon, grâce au principe des causes actuelles, a proposé une échelle de temps beaucoup plus longue, encore loin de la vérité puisque, dans Les Epoques de la nature 1779 , il parlait seulement de soixante-dix mille ans et, ailleurs, de milliers de siècles.

F. Jacob : La difficulté était de trouver un mécanisme, parce que, dans cette histoire, les animaux se transformaient les uns en les autres. Chez Lamarck, il y avait une sorte de poussée générale du simple vers le complexe, qui était une propriété des êtres vivants, mais pas de mécanisme.

A. Langaney : Je reviens sur un point antérieur à Lamarck : la parenté. La première idée qui a permis de parler de transformation des espèces a été d'envisager que des espèces se ressemblant aient une origine commune. C'est le fameux chapitre de l'âne et du cheval dans l 'Histoire naturelle de Buffon : les deux animaux se ressemblent par tellement de caractères qu'il est difficile de ne pas imaginer qu'ils ont eu un ancêtre commun. S'ils ont eu un ancêtre commun, il a fallu des transformations entre cet ancêtre commun et les deux descendants. Buffon pose le problème pendant une longue page, puis l'élude : la page finit en affirmant que les choses ne se sont pas passées ainsi et que l'Ane et le Cheval ont été créés indépendamment. A son époque, la Révolution française n'était pas encore passée et on ne contestait guère la création indépendante des espèces. Lamarck, après la Révolution, a développé ce schéma qu'il avait déjà proposé avant pour les plantes, au prix de beaucoup d'ennuis... Dans ma lecture de Lamarck, je ne vous suis pas sur l'importance du rôle donné à la « poussée » du simple vers le complexe. Ce n'était qu'une façon de parler de ce qu'il ne comprenait pas. Je crois que Lamarck, malgré ce qu'on lui reproche, n'avait pas de théorie sur les mécanismes.

F. Jacob : La première étape était d'admettre que les espèces ne sont pas fixes, qu'elles n'ont pas été faites une fois pour toutes et qu'elles ont une origine commune.

A. Langaney : C'est la théorie historique de l'évolution et l'hypothèse de la généalogie commune des espèces proposées par Lamarck en 1800, neuf ans avant la naissance de Charles Darwin...

F. Jacob : La seconde étape était de se demander comment les espèces changeaient, quelle était leur histoire. Le mécanisme était difficile à trouver parce que l'intention semblait aller de soi : dans un être vivant, la plupart des organes semblent faits dans un but précis, pour une fonction évidente : l'estomac pour digérer, les jambes pour marcher ou les ailes pour voler. La difficulté, c'est que si cette intention et ce dessein se décèlent chez l'individu, on ne les retrouve pas pour le monde vivant dans son ensemble. Rien ne permet de penser que les organismes ont été formés les uns après les autres dans un dessein définitif et précis. Ce qui signifie que l'évolution ne semble pas avoir de direction. Il fallait donc trouver une mécanique expliquant pourquoi les oiseaux ont des ailes, ceux qui marchent des pattes et les poissons des nageoires, sans qu'il y ait, derrière, une intention semblable à celles dont notre cerveau a l'habitude. Les idées de Darwin et aussi d'Alfred Wallace, qui a fait les mêmes constatations et hypothèses à la même époque, sont relativement simples. Leur grande importance vient de ce qu'ils ont pu montrer que des mécanismes simples peuvent simuler une intention. Cela marche si les caractères des organismes varient, si ces variations sont héréditaires et si, dans l'interaction des milieux et des organismes, la reproduction est tirée dans un sens ou un autre. Tout cela s'appelle la sélection et peut à peu près expliquer pourquoi les oiseaux ont des ailes et les poissons des nageoires.

A. Langaney : Darwin dit que les variations individuelles qui survivent et se reproduisent le plus vont diffuser dans la population : c'est le principe de la sélection naturelle. Mais il ne connaît pas le mécanisme de transmission de ces fameuses variations. Comment va-t-on arriver de ce savoir du milieu du siècle dernier aux propositions actuelles ?

F. Jacob : A l'époque de Darwin, on ne sait pas comment se transmettent les caractères. Il y a souvent l'idée de mélanges entre les caractères du père et ceux de la mère, bref, on ne sait pas grand-chose ! C'est peu après la publication de Darwin que Mendel, cultivant des pois dans le monastère de Brno, comprend comment fonctionne l'hérédité : les caractères que l'on voit sont gouvernés par des choses que l'on ne voit pas, des particules internes qui s'appelleront plus tard des gènes. Sur le moment, personne ne s'occupe de ce que trouve Mendel, mais les problèmes d'hérédité et de génétique sont repris au début de ce siècle. Grâce aux études sur les plantes et sur la drosophile, on comprend qu'il existe, pour chaque caractère que l'on voit, un gène que l'on ne voit pas mais dont on peut estimer l'état. On montre que ces gènes sont installés sur les chromosomes et qu'il y a un ballet des chromosomes. On comprend comment les caractères des organismes supérieurs sont gouvernés par les gènes et comment les gènes se distribuent et se recombinent au cours des générations. C'est la « génétique classique ».

A. Langaney : Cela ne s'est pas fait sans difficulté, en particulier parce que le dogme de l'hérédité de l'acquis a dû être éliminé.

F. Jacob : Le principe de la génétique c'est que les variations des gènes, les mutations, se font au hasard, par « accident ». Ce qui ne veut pas dire qu'elles n'ont pas de cause. Elles ont une cause chimique, ou physique par des radiations. Le hasard, ici, veut dire que l'action, de rayons X par exemple, n'a rien à voir avec l'effet final qu'elle produit sur l'organisme. Son résultat n'est ni intentionnel, ni prévisible. Autrement dit, des gènes se modifient et changent certains caractères dans l'organisme. C'est ce qui va permettre de faire rentrer le mendélisme dans le darwinisme, la génétique dans la théorie de l'évolution. Cela aboutira, au milieu de ce siècle, à ce que l'on appelle le néodarwinisme.

A. Langaney : Ce mélange de darwinisme et mendélisme a été baptisé « la théorie synthétique de l'évolution », un peu comme si l'on avait tout compris ! Avait-on vraiment tout compris ?

F. Jacob : Non, et on n'aura jamais tout compris ! Une théorie scientifique, c'est une construction abstraite des chercheurs pour mettre en place les résultats qu'ils ont obtenus et avoir une représentation de certains aspects de la réalité. Avec le temps, des notions et des informations nouvelles apparaissent et ces données nouvelles modifient souvent, plus ou moins, la théorie qui existait avant. Le milieu de ce siècle essaie d'intégrer darwinisme et mendélisme, c'est-à-dire la théorie de l'évolution d'un côté, et la théorie des gènes de l'autre... Pendant la guerre, on arrive à une théorie qui rend compte d'un certain nombre de choses, mais qui rencontre beaucoup de difficultés. Les variations se faisaient par des mutations simples, très rares, et on ne comprenait pas comment celles-ci pouvaient faire varier des organismes, faire apparaître des organes nouveaux et des fonctions nouvelles. Pour Darwin, la variation, et pour les généticiens du milieu du siècle, les mutations, affectaient très légèrement les caractères : l'évolution se faisait petit à petit...

A. Langaney : C'est la théorie du gradualisme, autrement dit, « la nature ne fait pas de saut* ».

F. Jacob : A ce moment-là, un des obstacles était qu'il manquait des fossiles pour reconstituer certaines lignées, il y avait des trous, des « chaînons manquants » dans l'évolution. Récemment, des chercheurs, aux Etats-Unis, ont proposé un autre type de théories disant que, de temps en temps, certaines mutations pouvaient être beaucoup plus importantes dans leurs effets. Les espèces pouvaient rester longtemps sans évoluer, puis brusquement changer et donner naissance à des espèces nouvelles. Cela s'appelle la ponctuation*.

A. Langaney : Précisons qu'il n'y a pas, bien sûr, de discontinuité entre les espèces mais que ces sauts, au niveau du temps, auraient été assez rapides pour ne pas laisser de traces dans les fossiles. Somme toute, on a éliminé la difficulté : on n'avait pas de chaînons manquants et l'on trouve une bonne raison pour qu'il n'y en ait pas !

F. Jacob : On a supprimé le chaînon manquant, mais des modifications de ce genre sont parfaitement concevables avec les propriétés du matériel génétique connues aujourd'hui. Il y a des discussions actuelles sur les proportions : combien de gradualisme et combien de ponctuations ? C'est une affaire de spécialistes. Un autre aspect est aussi en discussion : les mutations se font au hasard et la sélection naturelle tire dans un sens.

A. Langaney : Comment la sélection naturelle qui, contrairement à la sélection artificielle, n'a en principe pas de sélectionneur connu, peut-elle tirer dans une direction ?

F. Jacob : L'idée, c'est que se reproduisent mieux ceux qui sont plus adaptés à une certaine région écologique. De nouveaux variants s'y reproduisent plus que les autres et, peu à peu, occupent l'ensemble de la niche et forment l'essentiel de la population. Par l'accumulation successive de variations, on tire l'ensemble des formes et des propriétés de l'organisme dans une certaine direction, sans sélectionneur. C'est une sélection automatique. Mais à côté de ce mécanisme de sélection, il existe aussi des facteurs de hasard qui semblent jouer un rôle important. Là encore, c'est une question de proportions. Combien de hasard et combien de sélection ?

A. Langaney : Quels sont les caractères pour lesquels la sélection joue davantage et ceux pour lesquels le hasard compte plus ?

F. Jacob : La sélection est plus importante pour les fonctions fondamentales. Par exemple, les propriétés d'une protéine qui a un rôle dans le transport de l'oxygène ou comme enzyme dans les réactions de base de la cellule. Ces fonctions, une fois qu'elles sont là, ne peuvent guère varier.

A. Langaney : Il n'y a pas de fantaisie sur les mécanismes fondamentaux !

F. Jacob : En revanche, la forme des ailes, du bec, la taille de l'oeil, peuvent se permettre des variations sur le même thème. Quand des oiseaux arrivent dans les îles Galapagos chères à Darwin, une espèce nouvelle va être fondée dans une île par un petit groupe qui a des caractéristiques génétiques un peu différentes de celui qui va dans une autre île. Il y a une fondation d'espèces nouvelles, mais qui se fait au hasard. La population d'une île a une structure génétique qui dépend de celle des oiseaux « fondateurs ».

A. Langaney : N'est-on pas en train de généraliser comme si les mécanismes étaient les mêmes pour tous les groupes d'êtres vivants ? Quand on regarde la nature, la diversité des êtres dans les populations de plantes ou d'animaux est très variable. Il y a bien des espèces dans lesquelles tous les animaux ont l'air faits sur un modèle uniforme. En général, ce sont celles qui sont très nombreuses. S'il y a très peu de survivants dans la reproduction, il peut y avoir une sélection très intense qui élimine tous ceux qui ne correspondent pas au « type adapté » à ces conditions difficiles. Celui-ci représente une relative « optimisation » de l'organisme. Mais il y a aussi les espèces peu nombreuses grands oiseaux ou mammifères, grands singes et premiers humains avec une proportion de survie de ceux qui naissent trop forte pour que la sélection puisse conduire à des adaptations très poussées, à des optimisations des caractères. Les variations individuelles sont alors aléatoires et plus fortes.

F. Jacob : Je voudrais arriver à l'étape suivante et parler d'un nouveau type de biologie, apparu au milieu du siècle comme résultat de recherches faites aussi bien par des biologistes que par des microbiologistes et par des physiciens. Ils se sont attaqués à l'étude des molécules impliquées dans la génétique, les molécules de l'hérédité. Le principe dont sont partis ces chercheurs était que les propriétés étonnantes des êtres vivants, pour lesquelles on invoquait, il n'y a pas si longtemps, une force vitale, sont dues à la structure et aux propriétés des molécules qui les constituent. Conduite en particulier sur les microbes, sur les bactéries, cette biologie moléculaire, qui s'est imposée face à une biologie naturaliste souvent hostile, a montré que la molécule de l'hérédité était le fameux acide désoxyribonucléique et que les propriétés de cette molécule expliquaient les mutations, les recombinaisons et surtout la reproduction à l'identique des structures.

A. Langaney : En même temps, c'était la meilleure confirmation possible du transformisme et de l'évolutionnisme, de Lamarck à Darwin, puisque s'il n'y a, pour l'ensemble du monde vivant, qu'un seul type de molécule de l'hérédité, c'est une présomption très forte d'une communauté d'origine. C'est pour cela qu'à l'heure actuelle on peut dire que la biologie moléculaire et certains aspects de la biologie moléculaire du développement démontrent cette origine commune. Ou bien un créateur totalement dépourvu d'imagination a bâti tous les êtres vivants sur le même modèle il aurait pu en créer sur une chimie du silicium au lieu du carbone, ou je ne sais quoi d'autre ! ou bien il y a une histoire de la vie qui a commencé et s'est toujours continuée sur les mêmes principes chimiques de base.

F. Jacob : Tout ce qui avait été fait jusqu'à cette époque-là depuis Darwin et ce que l'on a appelé le néodarwinisme reposait uniquement sur la forme des organismes, leur parenté, la paléontologie et sur certaines similitudes des embryons. Car on avait trouvé que, très souvent, les embryons se ressemblent beaucoup entre des espèces qui, adultes, sont très différentes. La biologie moléculaire, qui analysait la structure même des molécules, a consolidé ces connaissances à un point inimaginable, en particulier la parenté de toutes ces espèces. On trouve certaines molécules de protéines qui sont exactement les mêmes chez le pois et chez l'homme. Certaines histones, par exemple, des protéines des chromosomes, ne diffèrent que par un acide aminé sur deux cents.

A. Langaney : Mendel et son petit pois étaient donc cousins !

F. Jacob : Certaines molécules sont exactement les mêmes et d'autres pas. Ces dernières varient lentement au cours du temps et on peut repérer des variations qui se sont faites régulièrement sur des centaines de millions d'années voir l'encadré « Mutations aléatoires et rythmes d'évolution ». Les organismes dont la structure des molécules est la plus proche peuvent être considérés comme les plus voisins. En analysant le détail de la structure des protéines ou des acides nucléiques, on peut ainsi retracer l'arbre de l'évolution. On retrouve alors un arbre très voisin de ce que les paléontologistes et les zoologistes avaient établi.

A. Langaney : C'est la plus belle confirmation possible de l'évolution, puisqu'on arrive, par des voies indépendantes, à des classifications presque identiques des êtres vivants. Ici ou là, il y a une petite divergence, surtout pour les espèces séparées depuis peu on sait que la théorie des « horloges moléculaires » n'est pas précise pour les « courtes durées », soit moins de dix millions d'années... alors qu'elle l'est beaucoup plus pour les longues durées, dizaines ou des centaines de millions d'années. Ces découvertes font qu'à l'heure actuelle il est pratiquement impossible de contester la réalité de cette histoire de la vie. Par contre, on discute beaucoup des mécanismes...

F. Jacob : On a trouvé d'autres aspects très intéressants. Ces grosses molécules que sont les protéines et les acides nucléiques sont faites par des modules, des petits éléments, qui sont toujours les mêmes. Comme les molécules sont faites d'atomes, les molécules de protéines sont faites de segments de trente à cinquante acides aminés, dont chacun a une fonction précise, et qui sont réunis et combinés de façon très variée. Tous les organismes sont faits plus ou moins des mêmes molécules, combinées et recombinées. On a souvent comparé le travail de l'évolution à celui d'un ingénieur, mais il ressemble beaucoup plus à celui d'un bricoleur. Elle utilise de vieilles structures pour en faire des nouvelles, prend le rideau de la grand-mère pour faire la jupe de la petite-fille, ou une caisse à savon pour faire une boîte de radio...

A. Langaney : Vous décriviez la sélection sans sélectionneur. Nous voilà devant du bricolage sans bricoleur ?

F. Jacob : Oui, mais on a aussi appris la variété des mécanismes de variation. Jusque vers le milieu du siècle, on ne connaissait que des mutations simples, ou de petits remaniements chromosomiques, ce qui rendait difficile la compréhension d'une évolution vers des organes nouveaux et des fonctions nouvelles...

A. Langaney : Que dire de l'exemple concret d'un organe comme l'oeil ?

F. Jacob : L'oeil est un organe très compliqué et l'un des arguments favoris des adversaires de l'évolution est de dire : « L 'oeil n'a pas pu être fait au hasard. L'oeil, c'est comme une montre. Pour la montre, il faut un horloger, pour l'oeil il faut un créateur . » Effectivement, avec des mutations simples changeant les protéines acide aminé par acide aminé, il faudrait des temps dépassant les délais de l'évolution pour produire un oeil. Mais on a découvert des mécanismes génétiques très différents et beaucoup plus rapides. En particulier, des éléments qui coupent les chromosomes, qui les collent, qui prennent un segment ici et le remettent là. Un module de protéine est pris ici, un autre là et ils sont mis ensemble. Voilà ce que j'appelle le bricolage. Des mécanismes génétiques connus permettent de le faire et, du coup, l'oeil n'est plus hors de portée des centaines de millions d'années disponibles. D'autant que l'on vient de montrer que tous les yeux quelles que soient leur forme et leur optique sont sous-tendus par le même système génétique. Ce sont les mêmes gènes qui mettent en place l'oeil à facettes des insectes ou l'oeil à cristallin des vertébrés ou des mollusques. Là encore, à partir d'un même fond génétique les structures finales sont bricolées pour s'adapter à des organismes très différents1.

A. Langaney : Les embryons sont souvent semblables entre espèces différentes, mais tout embryon part d'un oeuf. Comment des oeufs semblables dans toutes les espèces, de mammifères par exemple, produisent-ils des êtres aussi différents qu'un kangourou, un cochon ou un humain ?

F. Jacob : C'est l'un des mystères les plus fantastiques de la biologie et l'histoire la plus extraordinaire qui se passe sur cette Terre ! Pendant longtemps, on n'a su que regarder ce qui se passait. Ou prendre des morceaux ici et les mettre là, mais c'était difficile à analyser. Grâce à la biologie moléculaire, on commence à comprendre comment ça fonctionne. En quelques années, des progrès stupéfiants ont été faits sur les mouches, l'objet de prédilection des généticiens. Morgan, qui a inventé la mouche comme objet d'étude génétique, était embryologiste. L'hérédité gouverne le développement de l'embryon puisque la reproduction des éléphants donne toujours un éléphant, celle des humains un humain, et celle des lapins un lapin. Morgan voulait comprendre comment fonctionne l'hérédité et a choisi la drosophile, une petite mouche très facile à manipuler. Il a obtenu des quantités de mutations et compris ainsi le rôle des chromosomes. On a trouvé des mouches mutantes extraordinaires qui avaient quatre ailes au lieu de deux. D'autres, sur la tête, avaient une patte à la place d'une antenne. Ces mutations venaient donc perturber le développement de l'embryon. Cela a été analysé en détail depuis quinze ans grâce à la biologie moléculaire. Il y a toute une série de gènes qui mettent en place le plan de l'embryon de mouche, qui installent l'axe antéro-postérieur et l'axe dorso-ventral. Ensuite, le corps de la mouche se découpe en anneaux et des gènes précisent : « Ici sera le thorax, là une patte, la tête, ou un oeil... ». Parfois un gène mute et ne détermine plus des ailes, mettant des pattes à la place, ou bien met une patte sur la tête. On a trouvé les gènes en cause chez la mouche. On s'est demandé alors si de tels gènes existaient chez des organismes plus compliqués. On les a trouvés chez tous les animaux, chez la souris, chez l'homme. On a appris ainsi cette chose stupéfiante : ce sont les mêmes gènes qui mettent en place le corps d'une mouche et celui d'un humain ! Si on nous l'avait dit il y a dix ans, personne ne l'aurait cru...

A. Langaney : Cela prouve l'unité d'origine de tous ces animaux !

F. Jacob : Bien sûr ! Mais on comprend aussi que les mutations ne font pas que des petites variations : mettre une patte dans l'oeil ou des ailes en trop, ce sont de très gros changements, des ponctuations.

A. Langaney : N'est-ce pas ce que Richard Goldschmidt avait appelé des « monstres prometteurs » entre les deux guerres mondiales ? Si le pauvre Darwin sait cela, il doit se retourner dans sa tombe : c'est le contraire du gradualisme !

F. Jacob : C'est opposé au gradualisme. Mais cela lui donnerait quand même des satisfactions de constater cette extraor-dinaire persistance des mêmes gènes. Une fois que certaines solutions ont été trouvées dans la nature, elle s'y tient et brode autour. C'est le bricolage, une fois de plus ! La nature est conservatrice, mais elle fait aussi pas mal de changements. Elle conserve ce qu'il y a derrière, ce qu'on ne voit pas mais, en surface, elle fabrique tous les possibles.

A. Langaney : A vous écouter, on a l'impression que les principaux mystères sont élucidés ! Pourtant, il y a plein de choses que l'on ne comprend ou que l'on ne connaît pas.

F. Jacob : Certes. Par exemple, l'origine de la vie. On ne comprend pas comment ont pu se former les premiers organismes, les protobactéries. Comment a pu démarrer la reproduction, avec toute sa complexité chimique. On a des hypothèses. Mais je ne suis pas sûr que l'on pourra jamais arriver à les démontrer ou à les réfuter expérimentalement. De même, on ne comprend pas l'explosion cambrienne, l'apparition des divers plans d'organismes en quelques millions d'années, il y a 600 millions d'années. Et tant que l'on ne comprendra pas cela, on ne comprendra pas vraiment l'évolution.

A. Langaney : Revenons à notre point de départ : malgré ces inconnues, comment peut-on encore s'opposer au principe même de l'évolution, de l'histoire de la vie, de la transformation et de la parenté des espèces ?

F. Jacob : La théorie de l'évolution décrit les origines du monde vivant et des humains alors que, dans chaque culture, des mythes décrivent les origines. L'un des dangers qui guettent la théorie de l'évolution c'est d'être traitée comme un mythe. C'est une théorie scientifique qui ne doit pas quitter son statut. Certains aimeraient supprimer les autres mythes et les remplacer par celui-là. C'est une erreur parce qu'une théorie scientifique peut varier. Un mythe raconte les origines et est re-pris de génération en génération sans être modifié. En même temps, le mythe sécrète une échelle de valeurs, ce que vous ne trouvez pas dans la théorie de l'évolution. Dans l'origine, dans la soupe primordiale ou dans toutes les variations, vous n'avez aucune raison de trouver des valeurs.

A. Langaney : N'est-ce pas cela qui déçoit le commun des mortels ? Il s'attend, si on lui donne une théorie sur les origines, à ce que cette théorie fournisse aussi le mode d'emploi de ce que nous sommes.

F. Jacob : Elle explique ce que nous sommes, mais sans dire ce que nous devons faire et pourquoi nous devons le faire ! Ce n'est pas conforme au statut des mythes. La théorie de l'évolution ne doit donc pas être traitée comme un mythe, mais comme une théorie scientifique.

A. Langaney : Vous donnez l'impression d'avoir une théorie tout à fait cohérente sur l'histoire de la vie, une théorie prouvée, dans laquelle on peut discuter les modalités, mais où les grandes lignes sont fixées. C'est le point de vue actuel de la communauté des biologistes. Comment, en dehors d'elle, certains milieux s'opposent-ils à la notion de sélection naturelle, ou même à celles d'histoire de la vie et d'évolution ?

F. Jacob : Pour les biologistes la théorie est cohérente. Elle sera modifiée dans certains aspects, comme elle l'a souvent été, mais l'essentiel tient la route. Les oppositions sont de trois natures assez différentes. Une première catégorie d'opposants refuse que la théorie puisse rendre compte des origines du monde vivant et de l'homme. Dans toutes les cultures, des mythes décrivent les origines du monde, du monde vivant et de l'homme, donnent à ce dernier sa place dans la nature, et, en même temps, une échelle de valeurs. Ce qui n'est pas le cas dans la théorie de l'évolution. Certains considèrent que leurs mythes restent valables, que rien ne pourra les détruire : ce sont les intégristes de toutes les religions.

A. Langaney : Vous parlez de mythes, mais pour eux ce n'en est pas un du tout. Ce sont des dogmes, base de leur religion révélée, des vérités supérieures qui n'ont pas à être confrontées avec l'expérience. Et là nous avons une divergence totale entre ces fondamentalistes et les scientifiques qui veulent que toute proposition soit soumise à l'expérience et vérifiée si possible.

F. Jacob : Absolument. Le dialogue est impossible. Ils rejettent purement et simplement la théorie de l'évolution. Les opposants de la deuxième catégorie admettent le principe de la théorie, c'est-à-dire le changement et la transformation des espèces, mais n'aiment pas du tout la mécanique proposée par Darwin, c'est-à-dire la sélection naturelle. Certains n'ont pas bien compris, en particulier le rôle du hasard. Ils croient que l'on affirme qu'un oeil se fait par hasard, du jour au lendemain, alors qu'il a fallu des centaines de millions d'années pour faire l'oeil des vertébrés... D'autres estiment que « les calculs » lesquels ? ne permettent pas la construction d'organismes complexes en trois milliards et demi d'années. Enfin, certains n'aiment pas la sélection naturelle parce qu'elle a été utilisée par des philosophes comme Spencer pour essayer de rendre compte de l'état des sociétés. Spencer a essayé de plaquer l'évolution des sociétés sur l'évolution biologique et d'affirmer que, dans la société, ceux qui réussissent, qui sont riches, qui ont de l'argent, qui sont beaux, ne sont que le juste produit de la sélection.

A. Langaney : Expliquer l'évolution culturelle en termes de sélection naturelle, c'est ce que font encore aujourd'hui des sociobiologistes, avec des arguments très faibles. Donc, même dans le monde de la biologie il y a des extrémistes darwinistes qui sont quasiment des fondamentalistes...

F. Jacob : Exactement ! Et puis il faut ajouter une dernière catégorie d'opposants, composée de ceux qui aiment voir manger le dompteur, évolutionniste moyen ou darwiniste standard... Là, il faut répéter une fois de plus qu'une théorie scientifique n'est pas un dogme. Elle est modifiable à tout moment sur des données ou des faits nouveaux. On est alors conduit à rejeter toute la théorie, et à en trouver une autre, ou bien à en modifier certains aspects. C'est ce qui se passe quand, alors que Darwin estimait que tout se faisait de façon graduée, certains proposent des modifications par sauts, beaucoup plus rapides... Il est probable que les deux mécanismes jouent, que certains moments de l'évolution sont gradués et que d'autres, ponctués, se font par sauts. Un autre aspect, discuté depuis vingt ans, concerne le poids relatif de la sélection. Des chercheurs ont montré que certaines mutations sont sélectionnées et que d'autres, neutres, ne doivent leur maintien qu'au hasard. Ainsi, l'état génétique d'un organisme est en partie dû au hasard et en partie dû à la sélection naturelle. Il y a des discussions sur le dosage des deux. Mais rien de tout cela ne conduit à rejeter la théorie. Pratiquement tous les biologistes s'entendent sur ses très grandes lignes.

A. Langaney : En conclusion, je voudrais jouer le rôle du diable et vous poser une ultime question : que répondre à quelqu'un qui dirait : « Toutce que vous racontez, je l'admets volontiers, c'est prouvé expérimentalement. Malgré les trous, votre théorie est cohérente. Mais cette histoire de la vie est due à un créateur qui a juste inventé les mécanismes et tout mis en route » ?

F. Jacob : Là, on revient au problème de l'existence de Dieu, qui a beaucoup occupé nos aïeux. C'est une question qui ne relève pas de la science. On ne prouvera jamais que Dieu existe ou n'existe pas. C'est une question de goût..

 

 DOCUMENT    larecherche.fr     LIEN

 
 
 
 

LA MÉMOIRE ÉPISODIQUE

 

Endel Tulving : « J'ai révélé la mémoire épisodique »


spécial mémoire - par Marie-Laure Théodule dans mensuel n°432 daté juillet 2009 à la page 88 (2270 mots)
Plus personne ou presque ne conteste l'existence de la mémoire épisodique, ce système neurocognitif qui permet de se souvenir de nos expériences passées. Mais Endel Tulving, premier à avancer le concept, a dû batailler ferme avant qu'il s'impose.

Pourquoi avez-vous décidé d'étudier la mémoire ?

ENDEL TULVING : Je n'ai rien décidé du tout, c'est arrivé par hasard. Lorsque je suis devenu maître de conférences au département de psychologie de l'université de Toronto en 1956, je venais de passer ma thèse sur la vision, à Harvard. Je souhaitais continuer à étudier ce sujet, mais nous n'avions ni argent ni équipement à consacrer à la recherche en psychologie expérimentale. Aussi ai-je décidé de choisir une discipline qui ne nécessite ni argent ni matériel et qui s'appelait alors « apprentissage verbal * ». Je n'avais jamais suivi un cours de cette matière. Plus tard, elle a changé de nom pour s'appeler « mémoire ». C'est ainsi qu'un jour j'ai pris conscience que j'étudiais la mémoire !

Que comprenait-on de la mémoire à cette époque ?

ENDEL TULVING : Ce qui caractérisait alors l'étude de la mémoire, c'était que l'on ne se posait aucune question scientifique vraiment intéressante. Ainsi, au lieu de se demander sur quoi portait l'apprentissage, quelle était sa nature profonde ou comment il pouvait différer de ce qu'en pense l'homme de la rue, les chercheurs faisaient comme s'ils savaient parfaitement de quoi il s'agissait. Apprendre, c'était acquérir et renforcer des associations entre des stimuli et des réponses. Et oublier correspondait à un affaiblissement de ces associations. Le travail scientifique était censé nous éclairer sur les détails de ces renforcements et de ces affaiblissements, et sur les paramètres qui les affectaient. La science a le droit de commencer par explorer des idées qui relèvent du simple bon sens, mais si elle réussit, elle finit par rejeter ce simple bon sens ou au moins par le dépasser. Or, à l'époque, il n'y avait pas grand-chose dans l'étude de la mémoire qui aille au-delà du simple bon sens.

Et je trouvais cette discipline fort ennuyeuse.

Qu'est-ce qui a fait bouger les choses ?

ENDEL TULVING : C'est la révolution des sciences cognitives. Elle a redonné une légitimité à l'étude scientifique de l'esprit. Légitimité qui avait été laminée précédemment par le béhaviorisme, parce qu'il se refusait à étudier les phénomènes mentaux. Les béhavioristes ignoraient volontairement l'usage de mots comme « se rappeler », « se souvenir ». De même, ils se refusaient à considérer que la mémoire puisse avoir un quelconque rapport avec la conscience. La révolution cognitive a apporté de nombreux changements. Impossible de les citer tous ici, donc je vais mentionner seulement l'un des plus importants : la mise en évidence que la mémoire peut être consciente ou non consciente.

Freud avait parlé en son temps de la mémoire inconsciente. S'agit-il du même concept ?

ENDEL TULVING : Pas vraiment. Freud a eu beaucoup d'idées intéressantes sur la psyché humaine mais il n'a eu aucune influence réelle sur l'étude de la mémoire. Le concept de mémoire non consciente, au sens cognitif du terme, signifie que des événements du passé peuvent avoir des conséquences sur ce que quelqu'un fait et sait aujourd'hui sans que la personne en ait elle-même conscience. Beaucoup de ces conséquences sont générées par la mémoire mais le sujet l'ignore.

Pourriez-vous illustrer cela par un exemple ?

ENDEL TULVING : Bien sûr, il en existe des milliers ! Laissez-moi prendre un exemple de la vie courante. Quand vous écoutez quelqu'un parler ou que vous lisez quelque chose, vous vous appuyez sur des connaissances que vous avez acquises dans le passé. En l'occurrence, il s'agit du langage - le sens des mots, les structures grammaticales, les règles concernant la manière de former ou de comprendre les phrases négatives ou interrogatives, etc. C'est donc votre mémoire qui vous permet de comprendre le langage. Mais en êtes-vous conscient ? Quand vous vous remémorez des mots tendres murmurés à votre oreille il y a des années, vous faites un effort de mémoire conscient mais quand vous avez entendu ces mots pour la première fois, vous n'étiez probablement pas conscient que pour les comprendre vous utilisiez aussi votre mémoire. C'est cette mémoire que l'on appelle non consciente ou encore implicite. Cette distinction entre mémoire consciente et non consciente a été très importante : elle a permis de découvrir qu'il existe plusieurs systèmes de mémoire.

Plusieurs systèmes de mémoire, que voulez-vous dire ?

ENDEL TULVING : En étudiant la mémoire lors d'une expérience en laboratoire dans les années 1960, je me suis rendu compte que, si on demandait aux sujets de se rappeler des mots liés à un événement du passé, leurs résultats étaient beaucoup moins bons que si on leur demandait juste de se rappeler des mots de manière automatique implicite par association d'idées. Cela m'a conduit à émettre, dans les années 1970, l'hypothèse qu'il existe deux systèmes de mémoire à long terme fonctionnellement distincts : la mémoire sémantique, celle des connaissances que nous avons sur le monde, et la mémoire des faits vécus personnellement que j'ai baptisée mémoire « épisodique » [1] . C'est le seul système de mémoire qui permette de revivre consciemment des expériences antérieures, donc de « voyager dans le temps ». Il n'existe, selon moi, que dans l'espèce humaine et s'accompagne d'un état de conscience particulier que j'ai qualifiée de « autonoétique » : c'est la conscience de l'époque passée à laquelle les événements se sont déroulés et du temps qui s'est écoulé depuis. Aujourd'hui, le concept de mémoire épisodique est admis, mais au départ, cette proposition a été accueillie avec beaucoup de scepticisme.

Que lui reprochait-on ?

ENDEL TULVING : Les psychologues ont assez vite accepté le terme « épisodique » mais dans un but purement descriptif pour caractériser le contenu de l'information. En revanche, l'idée qu'il puisse exister un système de mémoire à part, différent, ne plaisait pas. On la trouvait trop vague, pas assez ancrée dans la réalité, dépourvue de preuves. Surtout, elle allait à l'encontre de la vision qui prévalait à l'époque, celle d'une mémoire unitaire. Les expériences en laboratoire utilisaient un matériel réduit des listes de mots, des mesures de nombre d'éléments rappelés et se focalisaient sur la composante « quoi » ou contenu de l'information, sans jamais s'intéresser à d'autres composantes quand ? où ?, ni à l'expérience vécue. À la fin des années 1980, j'ai donc suggéré de recourir aux méthodes de la neuropsychologie et de l'imagerie cérébrale pour dépasser ces arguments mais le scepticisme perdurait. Et il a fallu encore beaucoup de temps pour que les esprits critiques admettent enfin l'existence de la mémoire épisodique.

Qu'est-ce qui a contribué à la reconnaissance de la mémoire épisodique ?

ENDEL TULVING : La découverte d'une nouvelle forme de mémoire ne peut pas se comparer à celle d'un élément chimique ou d'une orchidée, car les systèmes de mémoire n'existent pas à l'état brut dans la nature. Ils s'apparentent plus à un système circulatoire ou immunitaire qui ne peut se percevoir que par des preuves externes. Des observations sont mises bout à bout, et ensuite on échafaude des hypothèses. Ainsi, ce sont les tests cliniques très précis et les expériences réalisées avec des personnes atteintes d'amnésie qui ont contribué à faire progresser la reconnaissance de la mémoire épisodique.

De quelle manière ?

ENDEL TULVING : Dans les années 1980, j'ai observé des cas d'amnésie à l'unité des troubles de la mémoire que nous avions créée à l'université de Toronto avec mon étudiant en post-doctorat, Daniel Schacter. L'un d'eux, le patient K.C., était particulièrement intéressant. C'était un jeune homme qui avait eu une lésion cérébrale dans un accident de voiture. Il m'est apparu comme quelqu'un qui avait complètement perdu sa mémoire épisodique mais qui néanmoins possédait de bonnes connaissances générales apprises avec sa mémoire sémantique [2] . C'était un cas neurologique qui illustrait parfaitement mon hypothèse théorique forcément spéculative. Mais, en dépit de ce cas, il a fallu encore beaucoup de temps pour tester et développer l'idée qu'il existe deux systèmes de mémoire séparés et encore plus longtemps pour que tout le monde l'accepte. Aujourd'hui, K.C. est reconnu dans notre domaine comme un cas particulièrement pur montrant la dissociation entre la mémoire épisodique et sémantique : l'un de ces systèmes est absent chez lui ou plutôt inopérant et l'autre est pratiquement intact.

Pourquoi qualifiez-vous ces différentes mémoires de systèmes ?

ENDEL TULVING : Nous parlons de systèmes de mémoire pour insister sur leur grande complexité : ils résultent de l'assemblage organisé d'une multitude de mécanismes neuronaux et de processus mentaux. Tous les systèmes de mémoire sont des sous-systèmes de l'ensemble « cerveau-esprit », qui est lui-même le plus complexe de tous les systèmes que nous connaissons.

Ces systèmes sont-ils indépendants et localisés dans différentes parties du cerveau ?

ENDEL TULVING : Je ne dirais pas qu'ils sont indépendants. Ils partagent certaines caractéristiques et propriétés, tout en ayant aussi celles qui leur sont propres. Ils interagissent en servant leur « maître », l'individu dans le cerveau duquel ils résident. Quant à la localisation, personne ne croit plus aujourd'hui qu'une mémoire spécifique soit localisée ici ou là dans le cerveau, ni qu'un système de mémoire soit localisé dans une région spécifique. La plupart des spécialistes de la mémoire admettent désormais que beaucoup de régions du cerveau sont impliquées dans la mémorisation, mais pas toutes les régions du cerveau.

Pourtant, on entend souvent dire que l'hippocampe joue un rôle clé dans l'enregistrement de nouveaux souvenirs ?

ENDEL TULVING : C'est exact, et vous utilisez la bonne expression : « joue un rôle ». Il n'y a pas si longtemps, on pensait que l'hippocampe était le siège de la mémoire dans le cerveau. Le rôle de l'hippocampe a été révélé quand Brenda Milner et ses collègues de l'université de Montréal ont commencé à étudier un homme nommé H.M. dans les années 1950 lire p. 67. Maintenant, plus de cinquante ans plus tard, nous savons que l'hippocampe joue un rôle vital dans certaines formes de mémoire mais pas dans d'autres. Des travaux particulièrement intéressants ont été réalisés par Faraneh Vargha-Khadem et ses collègues à l'université de Londres [3] . Ils ont étudié des adolescents qui avaient subi des lésions à l'hippocampe peu après leur naissance. Si l'hippocampe avait réellement été le siège de la mémoire, ces enfants auraient été incapables d'apprendre ou de se rappeler la moindre chose. Or, s'ils ont effectivement des problèmes de mémoire épisodique, ils suivent cependant une scolarité quasi normale, apprennent à lire, à écrire, à compter, et tout ce qu'on apprend à l'école. Il semble donc que l'hippocampe ne soit pas nécessaire pour ce type de mémoire sémantique. Par ailleurs, nous savons que les cortex préfrontal et pariétal entre autres sont impliqués dans la mémoire sémantique et dans la mémoire épisodique mais chacun de manière différente.

Pouvez-vous préciser les rôles respectifs du cortex préfrontal et du cortex pariétal ?

ENDEL TULVING : Non, nous savons seulement que certaines parties de ces aires sont impliquées dans la mémoire épisodique, et aussi dans la mémoire sémantique. On a décrit quelques cas où l'amnésie est causée par une lésion dans le cortex préfrontal ou dans le cortex pariétal sans que l'hippocampe ne soit touché, mais on n'en sait pas plus. Les travaux réalisés avec le patient H.M. ont, pendant des années, tellement focalisé l'attention des chercheurs sur les lobes temporaux et sur l'hippocampe que l'implication de réseaux corticaux et sous-corticaux dans la mémoire n'a été étudiée et révélée que récemment. Évidemment, il n'existe pas un réseau de mémoire unique, pas plus qu'il n'existe une mémoire unique. Il existe plusieurs réseaux qui sont impliqués dans différentes mémoires épisodique, sémantique..., différentes tâches reconnaissance, rappel..., différents procédés encodage, recherche... et différentes sortes d'informations mots, visages.... Les régions pariétales et préfrontales sont des composants de tels réseaux. Cela semble complexe, mais la mémoire est très complexe, et nous sommes loin d'avoir tout compris.

Existe-t-il cependant un consensus sur la manière de classer les différents systèmes de mémoire ?

ENDEL TULVING : Certains scientifiques contestent encore l'existence d'une différence biologique entre mémoires sémantique et épisodique. Mais leur vision, que je qualifierai d'unitaire, tient aux faits qu'ils travaillent sur la mémoire animale et que les animaux n'ont pas de véritable mémoire épisodique. Leur vision est donc valable dans « leur monde ». En revanche, beaucoup de chercheurs acceptent désormais l'idée qu'il existe au moins cinq types de mémoire, ou de systèmes de mémoire chez l'homme : mémoires à court terme ou de travail, procédurale, perceptive, sémantique et épisodique. La mémoire à court terme garde des informations verbales « en ligne » durant une courte période. Les quatre autres formes sont des mémoires à long terme sur ce qui a été appris ou vécu. La mémoire procédurale porte sur la manière de faire les choses, la mémoire perceptive nous rappelle des images, des bruits, des sons, des odeurs, des touchers. Enfin, il y a la mémoire sémantique et la mémoire épisodique dont nous avons déjà parlé.

Sur quoi portent les travaux désormais ?

ENDEL TULVING : Les débats sont et seront encore nombreux, étant donné la complexité de la mémoire. Mais il me semble que la relation entre les différents systèmes de mémoire doit être au coeur des préoccupations. En effet, on peut penser que la mémoire épisodique est issue de la mémoire sémantique au cours de l'évolution. D'ailleurs, elle existe à l'état émergeant chez certains animaux comme les geais buissonniers, qui sont capables de dissimuler de la nourriture pour la retrouver ensuite [4] . Donc, je crois qu'il faut continuer à explorer la mémoire épisodique, car si elle a un long passé, elle n'a qu'une courte histoire. Or à mon sens, elle représente un tournant majeur dans l'évolution : c'est elle qui a donné à un seul être vivant, l'homme, la capacité se projeter dans le passé et aussi dans l'avenir, donc de transformer en boucle le cours linéaire du temps.

Par Marie-Laure Théodule

 

DOCUMENT       larecherche.fr       LIEN

 
 
 
 

LE SÉQUENÇAGE

 


Les fulgurants progrès du séquençage


technologie - par Marine Cygler dans mensuel n°450 daté mars 2011 à la page 64 (2064 mots)
Dix ans après le décryptage du génome humain, la biologie est entrée dans l'ère du séquençage à très haut débit, toujours plus rapide et moins coûteux. Une nouvelle révolution technologique.

T rois mots, trois mots seulement : « Le génome humain ». C'était il y a dix ans, en février 2001. Avec ces trois mots sobrement affichés en couverture, les deux revues Nature et Science annonçaient le décryptage de la séquence de notre ADN [1] . Une séquence encore « brouillon », puisqu'il restait des trous à combler. Il n'empêche : une page décisive de l'histoire de la biologie était bel et bien tournée. Une page dont l'écriture aura exigé treize ans de travail, la contribution de 3 000 personnes, et environ 2,7 milliards de dollars !

Depuis, le coût du séquençage d'un génome humain n'a cessé de diminuer. En 2007, il était descendu à un million de dollars. En 2009, à 250 000 dollars. En 2010, Stephen Quake, de l'université Stanford, a jeté un pavé dans la mare, en annonçant avoir séquencé son propre génome pour moins de 50 000 dollars. Quant à l'entreprise américaine Pacific Biosciences, elle prétend que, d'ici 2013, elle sera en mesure de fournir le séquençage d'un génome humain en un temps record - quinze minutes -, pour une somme dérisoire - moins de 100 dollars. Comment un tel bouleversement s'est-il produit ?

Pour le comprendre, il faut remonter à 1990. Cette année-là, un consortium international, composé de vingt centres de séquençage dans six pays Allemagne, Chine, États-Unis, France, Japon et Royaume-Uni, se met en place. Son objectif ? Élucider, avant 2005, la séquence du génome humain. Autrement dit, déterminer l'ordre dans lequel se succèdent les constituants élémentaires de l'ADN, les « nucléotides ». Ces derniers sont de quatre types selon qu'ils portent, sur un même squelette moléculaire, un groupement chimique différent appelé adénine A, thymine T, cytosine C ou guanine G. Les quatre « bases » de l'ADN. Le défi est titanesque : le génome humain est long de 3 milliards de bases - comme une sorte de mot immense écrit dans un alphabet à quatre lettres.

Synthèse d'ADN
À l'époque, la technologie utilisée consiste en l'automatisation d'une méthode manuelle mise au point au milieu des années 1970 par le biochimiste britannique et deux fois Prix Nobel Frederick Sanger. Cette méthode s'appuie sur deux des principales caractéristiques de la molécule d'ADN. D'une part, celle-ci est constituée de deux brins complémentaires l'un de l'autre, une base A d'un brin étant toujours appariée à une base T de l'autre brin, et une base C étant toujours appariée à une base G. D'autre part on peut, à partir d'un brin unique, synthétiser le brin complémentaire, grâce à une enzyme appelée ADN polymérase : si elle dispose des quatre nucléotides isolés, cette enzyme les fixe les uns aux autres, un à un, en regard des nucléotides du brin initial, progressant le long de ce brin à partir d'un même point de départ, dans un sens qui est toujours le même. À supposer que l'on ait fixé à ces nucléotides un marqueur permettant de les repérer, alors on peut en déduire la séquence du brin nouvellement synthétisé.

Dans la méthode initiale de Sanger, ce marqueur est du phosphore radioactif. En pratique, l'expérience consiste à réaliser, en parallèle, quatre réactions de synthèse. Pour chacune, on mélange dans un même tube le brin d'ADN « matrice » préalablement multiplié pour qu'il y en ait des milliers de copies, l'ADN polymérase, les quatre nucléotides A, T, C et G non marqués, ainsi qu'une certaine quantité d'un des quatre nucléotides marqué. « A » pour le premier tube, « T » pour le deuxième, « C » pour le troisième, et « G » pour le quatrième. Et l'ADN polymérase commence son travail de synthèse, assemblant les nucléotides un à un.

Or, il se trouve que l'incorporation d'un nucléotide marqué interrompt la synthèse en cours. Il se trouve également que la quantité de nucléotides marqués et non marqués présente dans chaque tube est telle qu'à l'issue de la réaction, on dispose dans chaque tube d'un ensemble de brins de longueur variée. Par exemple, le tube « A » contient tous les brins allant du point de départ de la synthèse à chacun des « A » situé en regard d'un des « T » du brin initial. Les brins nouvellement synthétisés sont alors séparés de leur brin matrice, puis mis à migrer en parallèle dans un gel qui les sépare selon leur longueur, au nucléotide près. On utilise ensuite un système qui permet de visualiser la position de chacun de ces brins grâce à la radioactivité émise par le nucléotide marqué. Et l'on en déduit l'ordre d'incorporation de chacun des quatre nucléotides : c'est la séquence du brin synthétisé.

Fluorescence
Il s'agit là d'une méthode fiable, mais lente et totalement inappropriée pour un séquençage à grande échelle, ne serait-ce qu'en raison de l'utilisation de radioactivité. Aussi les centres de séquençage participant au Programme génome humain ont-ils utilisé des nucléotides marqués par fluorescence - chacun émettant un signal lumineux qui lui est propre. Ils ont aussi remplacé le gel de migration par un autre système, beaucoup moins encombrant : de fins tuyaux capillaires remplis d'une substance qui sert de tamis. Les brins d'ADN obtenus dans les tubes de synthèse y sont automatiquement injectés et y migrent à une vitesse qui dépend de leur longueur. C'est à l'issue de cette migration qu'ils sont détectés, par un photomètre situé à l'extrémité des capillaires. Les données de fluorescence sont ensuite transcrites en une succession de lettres ATCG, par un logiciel adapté [fig. 1] .

Cela dit, les améliorations mécaniques ayant permis la conception de machines de séquençage automatique - ou séquenceurs - ne sont pas seules à l'origine de l'émergence du séquençage haut débit. L'informatique, elle aussi, s'est révélée décisive. Pourquoi ? Parce qu'il est absolument inconcevable de séquencer telle quelle une molécule aussi longue que l'ADN humain. Ou même l'un des 24 types de chromosomes pris séparément : ils sont tous bien plus longs que les longueurs d'environ 1 000 nucléotides séquençables automatiquement. Aussi faut-il préalablement couper l'ADN en fragments d'environ 1 000 nucléotides. Après séquençage, les différentes séquences obtenues sont remises dans l'ordre au moyen de logiciels informatiques adaptés - la puissance de calcul nécessaire étant d'autant plus grande que le génome est long.

Couper certes, mais où ? Là aussi, il y a eu des évolutions notables. Il y a vingt ans, le Consortium avait décidé d'élaborer des cartes des chromosomes, avant de commencer le séquençage proprement dit. « Nous comptions séquencer de grands fragments couvrant l'ensemble du génome, rappelle Jean Weissenbach, directeur du Génoscope d'Évry, qui a participé activement à cette première phase du Projet génome humain. Mais il nous fallait des points de repère sur les chromosomes humains qui nous permettent d'ordonner les fragments après leur séquençage. Nous n'imaginions pas nous en passer. Et pendant plus de quatre ans, nous nous sommes concentrés sur ce travail de cartographie. »

Coup de fusil
Mais voilà : en 1998, un nouveau venu, l'Américain Craig Venter, se lance dans l'aventure du séquençage du génome humain. Il vient de fonder une entreprise, Celera Genomics, dédiée à ce projet. Son choix ? Couper « à l'aveugle » l'ensemble du génome en milliers de fragments d'environ 500 nucléotides, selon une approche appelée « whole genome shotgun » , ou technique du « coup de fusil dans le génome entier ». Ces fragments sont ensuite séquencés sans que l'on sache au préalable à quel endroit du génome ils se trouvent, puis les séquences sont assemblées à l'aide de logiciels spécialement mis au point. Sûr de gagner un temps précieux grâce à ce séquençage aléatoire global qui fait l'impasse sur le long travail de cartographie, Venter n'hésite pas, en 1998, à affirmer qu'il aura séquencé l'ensemble du génome humain avant 2002. Il y parviendra effectivement - oubliant au passage de dire que pour réaliser cet assemblage, il s'appuie non seulement sur les données de séquençage de Celera Genomics, mais aussi sur celles mises gracieusement à disposition de l'ensemble de la communauté scientifique par les équipes du Consortium.

Quoi qu'il en soit, l'entrée en piste de Venter déclenche une course aux armements : c'est à qui aura le plus de séquenceurs, et augmentera le plus la puissance de calcul des ordinateurs associés.

À l'époque, une machine peut analyser 96 séquences de 1 000 nucléotides en quelques heures, et un centre de séquençage tel que le Génoscope ou Celera Genomics en possède des dizaines.

Depuis, les choses ont changé, même si cela ne saute pas aux yeux pour les profanes : une plate-forme de séquençage reste une pièce climatisée où trônent des rangées de grosses boîtes gris clair - les séquenceurs, connectés par des câbles à très haut débit aux ordinateurs de calcul et de stockage des données.

Mais à l'intérieur de ces engins, de nouvelles technologies sont à l'oeuvre. « Nous savons aujourd'hui immobiliser des molécules biologiques sur des surfaces, explique Alain Nicolas, responsable de la plate-forme de séquençage haut débit de l'institut Curie, à Paris. Et cette immobilisation est à l'origine des méthodes actuelles de séquençage, dit "massivement parallèle", qui permettent de séquencer des millions de séquences simultanément en quelques heures. »

L'une des méthodes emblématiques de cette révolution est le pyroséquençage [fig.2] . Accrochés à des billes, les fragments d'ADN issus du « whole genome shotgun » sont déposés dans des millions de microtubes, d'un volume de quelques picolitres seulement, qui contiennent de l'ADN polymérase. Puis un nucléotide donné - par exemple « A » - est simultanément ajouté dans chacun de ces tubes. Si c'est celui que l'ADN polymérase attendait, elle l'incorpore. Et cette incorporation entraîne l'émission d'un flash lumineux, détecté « en direct » par une caméra haute définition. Les tubes sont simultanément rincés pour enlever les nucléotides non utilisés, et un autre nucléotide, - par exemple « T », est ajouté. Et ainsi de suite avec « G » et « C », avant de recommencer avec « A », tandis que la caméra enregistre les flashs au fur et à mesure de l'élongation du brin d'ADN en formation dans chaque tube. Considérant que plusieurs millions de tubes sont traités en même temps, le gain de temps est énorme. Au prix, certes, d'une moins grande précision, car les microtubes sont si rapprochés que la caméra peut faire des erreurs. Aussi les fabricants de séquenceurs travaillent-ils à améliorer ce paramètre.

Par ailleurs, ils continuent d'innover en concevant de nouvelles techniques. « D'ici 2012 ou 2013, on va voir arriver sur le marché de nouvelles méthodes de séquençage reposant sur une détection très originale », annonce Éric Baud, chef du groupe séquençage chez Roche l'un des trois fabricants de séquenceurs. « La lecture se fera non plus par une caméra haute résolution, mais grâce à une banale électrode permettant de mesurer le pH de chaque tube, ce qui revient beaucoup moins cher. » En effet, on a découvert que l'incorporation d'un nucléotide dans un brin d'ADN induit, à proximité de la molécule, des perturbations qui modifient le pH. De plus, ces perturbations sont caractéristiques du nucléotide incorporé. Il est donc possible d'utiliser les variations de pH comme signature de l'addition de tel ou tel nucléotide, et donc de remplacer la caméra par un système électronique qui enregistre ces variations.

Gènes ciblés
Et ce n'est pas tout. Outre qu'il va devenir encore moins cher, le séquençage sera aussi de plus en plus ciblé. Du moins celui à vocation médicale. Car aujourd'hui que recherchent les scientifiques travaillant dans ce domaine ? Les mutations à l'origine des maladies. Des mutations, qui affectent le plus souvent des gènes. Or, ceux-ci ne représentent qu'environ 10 % du génome, le reste étant constitué de séquences non codantes. « Du coup, explique Alain Nicolas, on peut se poser la question : a-t-on vraiment besoin de séquencer celui-ci en entier ? Si l'on choisit de ne s'intéresser qu'aux gènes, arithmétiquement, on peut étudier dix patients en parallèle au lieu d'un seul », poursuit-il.

Dans l'avenir, le séquençage prendra donc deux voies. D'un côté les grandes plates-formes de génomique, qui poursuivront l'étude de génomes entiers et requerront des séquenceurs haut débit avec des capacités toujours plus importantes. De l'autre, de petites machines ciblées, destinées aux hôpitaux ou aux laboratoires d'analyses. En attendant, la méthode de Sanger automatisée reste la plus appropriée pour un séquençage précis des gènes, la technique du pyroséquençage étant, elle, la favorite de tous ceux qui séquencent des génomes entiers.

Par Marine Cygler

 

DOCUMENT       larecherche.fr       LIEN

 
 
 
 

LES 0GM ...

 


Klaus Ammann : les ogm, entre mensonges et hystérie


autre - par Propos recueillis par Olivier Postel-Vinay dans mensuel n°325 daté novembre 1999 à la page 104 (2951 mots)
L'avènement des OGM* contribue à juste titre à nourrir la peur du grand public à l'égard de certaines technologies nouvelles. Or en Europe, ni les politiques, ni les industriels, ni les journalistes n'ont fait ce qu'ils auraient dû faire pour que le débat s'organise sur des bases saines. Du coup, les écologistes durs ont beau jeu de faire passer leur message, fondé sur de la fausse science.

La Recherche : L'un des risques évoqués à propos des OGM est que les gènes manipulés de ces plantes s'échappent dans la nature et aillent s'insérer dans le génome d'autres plantes.

Pour Jeremy Rifkin, le principal avocat de la cause écologiste aux Etats-Unis, c'est l'une des voies de la « pollution génétique »1. Lui et d'autres disent que les essais en champ n'ont pas été menés sérieusement et ne permettent pas d'évaluer les risques réels. Quel est votre point de vue ?

Klaus Ammann : En Amérique du Nord, les principales plantes cultivées sont exotiques : elles n'ont pas de cousines sauvages et la contamination dont parle Rifkin est impossible. Aux Etats-Unis, les quelques espèces pour lesquelles la question d'un flux de gènes pouvait se poser ont fait l'objet d'études approfondies. C'est le cas pour le tournesol ou encore pour les courges squash . Là le travail a été fait à fond. Pour le maïs, les Américains ont fait de nombreux essais au Mexique pour voir si le flux de gènes était à craindre. Il existe en effet une parente sauvage du maïs, la téosinte ; laquelle était d'ailleurs déjà menacée depuis longtemps par le maïs moderne. Plusieurs symposiums internationaux y ont été consacrés. Mais, pour le soja par exemple, ce n'était pas nécessaire. Si bien que les autorités se sont contentées d'accepter, de la part des entreprises fabriquant des OGM, des procédures de notification simplifiées. Rétrospectivement - c'était il y a environ cinq ans, on peut juger que les choses sont allées un peu vite. Mais globalement il n'est pas douteux que les instances compétentes, l'USDA*, la FDA* et l'EPA*, ont fait leur travail sérieusement.

Ce point est contesté jusque dans les bonnes revues scientifiques2. La littérature écologiste soutient pour sa part que ces grandes administrations sont depuis

longtemps noyautées par des experts qui viennent directement de l'industrie3. Qu'en pensez-vous ?

C'est vrai, les agences et l'industrie sont très proches. Il existe une certaine osmose. Mais les règles déontologiques sont fortes. Les détracteurs des très grandes entreprises ne veulent pas voir, aussi, que les compagnies emploient des scientifiques impeccables, qui connaissent leur boulot : ce n'est pas dramatique si des échanges ont lieu. L'essentiel, c'est la qualité de la littérature scientifique publiée. Or elle est bonne. Il faut prendre la peine de la lire, ce que les militants écologistes ont une fâcheuse tendance à ne pas faire. Le National Research Council* a publié en 1989 - dix ans déjà ! - un rapport sur les essais en plein champ4. La même année, l'USDA a publié un réglement pour ces essais. Cinq ans avant l'introduction des premiers OGM sur le marché. C'est un bon travail, même si on peut y repérer quelques lacunes. Les années précédentes, avaient eu lieu une série de symposiums consacrés spécialement au problème du risque que la dissémination des gènes modifiés - par exemple pour résister à certains désherbants ou à certains insectes - induise cette même résistance chez d'autres plantes. Il faut le souligner : c'est la première fois dans l'histoire que pour l'introduction de nouveaux cultivars on évalue systématiquement, dès le départ, les conséquences possibles pour l'environnement ; avec la mise en place de procédures adaptées, des essais en plein champ, la création d'aires de refuge*, et ainsi de suite. Pensons-y : dans les années 1950-1960, lorsque les pesticides ont été introduits, on ignorait jusqu'à la notion d'évaluation des risques !

Le problème vous paraît donc avoir été plutôt bien géré aux Etats-Unis. Il en va différemment en Europe ?

Oui, pour plusieurs raisons. D'abord chez nous le problème des flux de gènes est réel. Plusieurs plantes largement cultivées ont ici des cousines sauvages. Par exemple le colza. C'est un point que les industriels qui ont commercialisé ces OGM ont sous-estimé. Mais la vraie difficulté est ailleurs : les responsables politiques de l'Union européenne n'ont pas fait et ne font toujours pas leur devoir. Ils n'ont pas su appliquer à temps des règles strictes. Et maintenant ils ne savent pas réagir à la situation. La réglementation européenne est un chaos. Les discussions sont interminables et confuses. C'est catastrophique. L'été dernier, on a vu les ministres de l'Environnement imposer un moratoire de facto . Mais où est le dossier scientifique appuyant cette décision ? Il n'existe pas. Les deux seuls arguments mentionnés dans la déclaration officielle étaient l'histoire du monarque, le papillon, et celui des gènes marqueurs codant pour une résistance aux antibiotiques. Or ils ne valent rien. Sur ces questions, comparée aux Etats-Unis, l'Europe politique est un club d'amateurs. Comment expliquer par exemple qu'une centaine de millions d'euros aient été dépensés par l'UE pour la recherche sur les risques des OGM sans que le grand public le sache ?

Revenons sur ces deux points : l'affaire du monarque d'abord. Pourquoi l'argument n'est-il pas valable à vos yeux ?

Nature a publié en mai dernier les résultats d'une expérience en laboratoire censée montrer que le pollen issu d'un maïs transgénique résistant à l'insecticide Bt pouvait affecter les chenilles du papillon monarque5. Or pour diverses raisons, dont certaines ont déjà été exposées dans la littérature scientifique6, cette étude ne prouve nullement que le pollen du maïs transgénique représente, s'il est dispersé dans la nature, un risque quelconque pour le monarque. Le véritable ennemi du monarque, c'est l'agriculteur américain qui pulvérise ses insecticides. L'article de Nature est réductionniste et la publicité qui lui a été donnée tout à fait abusive.

Et l'argument des gènes marqueurs de résistance aux antibiotiquesI ?

Alors là, c'est proprement ridicule ! Comme l'a calculé récemment un chercheur français, le risque que la résistance issue d'un gène marqueur introduit dans un maïs transgénique se propage est de l'ordre de 10-18 : c'est moins probable que de gagner trois fois de suite le gros lot au Loto7 !. Or nous mangeons en moyenne par jour 1 à 5 millions de bactéries ayant développé une résistance aux antibiotiques. A ce compte il faudrait interdire d'urgence l'emploi d'engrais naturels. Il est littéralement infesté de bactéries résistantes !

On ne peut malgré tout exclure qu'un gène présentant un risque quelconque s'insère dans la chaîne écologique. Rifkin dit qu'une fois le gène lâché dans la nature, le mal est fait, il est trop tard pour agir.

Mais ce n'est pas vrai ! D'une part, tous les étudiants en génétique des populations savent qu'en raison du processus d'introgression* un gène qui s'échappe va finir par disparaître au bout d'un certain nombre de générations. Sauf si le gène entraîne un avantage sélectif. Mais c'est rare. D'autre part, on sait suivre le devenir d'un gène lâché par accident dans la nature. On l'a fait au Danemark pour le gène de tolérance à l'herbicide qui avait pris la clé des champsII. On l'a fait en Ecosse. On en a suivi une fois dans les docks de Londres, pendant six ans ; après quoi il a disparu.

Rifkin objecterait sans doute qu'il demeure un risque de nature statistique. Si les OGM continuent de se multiplier, il y a forcément des gènes présentant un avantage sélectif qui vont passer entre les mailles du filet...

C'est vrai, mais il faut prendre la mesure des différents types de risque. De quels gènes parle-t-on ? Rifkin agite des épouvantails. Il dit par exemple : ce serait terrible si des gènes de plantes qu'on a modifiées pour produire du plastique ou des produits pharmaceutiques se répandaient dans la nature. Il évoque le jour où le « farmer » américain deviendra un « pharmer ». Or c'est un mensonge pur et simple. Personne n'envisage de fabriquer ce type de plante en plein champ. Si cela se fait, ce sera en serre, dans des systèmes clos. On a essayé une fois au Canada dans une vallée très isolée où l'on a planté du colza transformé ainsi, mais c'était une situation absolument sûre.

Si l'on en revient au risque créé par la dissémination des gènes de résistance, Rifkin et Greenpeace disent que cela constitue une menace pour l'agriculture biologique.

Là aussi il faut distinguer. Par exemple, c'est un mensonge de dire que les gènes Bt de résistance aux insectes vont détruire la stratégie des agriculteurs bio. C'est l'agriculture biologique qui a créé naguère des résistances, en vaporisant l'insecticide Bt* à tort et à travers. Lequel contient un mélange d'une trentaine de gènes.

Aujourd'hui ces résistances ont disparu, notamment parce qu'on a cessé la vaporisation intensive. Ce qui montre aussi qu'on sait gérer l'apparition de résistances indésirables. C'est une question de temps.

Cela dit il existe d'autres risques sur lesquels Rifkin a raison d'insister. Notamment, celui que des gènes de maïs transgénique passent à du maïs non transgénique. C'est un problème sur lequel on travaille.

Comme toujours dans une phase d'introduction d'une technologie, il faut apprendre, et parfois apprendre vite.

Comment interprétez-vous le principe de précaution ?

J'y attache une grande importance mais je vois aussi que certaines organisations l'exploitent abusivement pour tenter de stopper la technologie. Pour moi le principe de précaution est de toujours penser à ce qui pourrait arriver. Le flux de gènes est un fait, il faut en tenir compte. Mais je pense aussi que le principe de précaution ne devrait pas être invoqué sans mettre dans la balance un autre principe : le principe de familiarité. La familiarité, c'est ce que l'on connaît déjà, c'est un ensemble de connaissances et d'expériences qu'on a accumulées sur un sujet. Il faut par exemple tenir compte des risques générés par l'agriculture classique. Or les détracteurs des OGM semblent ignorer le degré de familiarité que nous avons acquis en la matière.

Nous avons mené des milliers d'expériences en champ ; nous disposons d'un savoir énorme - suffisant pour définir au cas par cas ce qu'il est possible de faire et ce qu'il ne faut pas faire. Au cas par cas, c'est-à-dire région par région, plante cultivée par plante cultivée.

En quoi consiste exactement la nouveauté de cette technologie ?

La nouveauté, c'est de pouvoir envisager maintenant de transférer n'importe quel gène. On peut maintenant influencer l'évolution directement et pas seulement indirectement. Il y a donc une nouvelle qualité de risque à prendre en compte, et là, Rifkin a raison. Cela dit, la nature n'a pas attendu les OGM pour procéder aux flux de gènes, et l'homme non plus. Le plus énorme flux de gènes que la Terre ait connu depuis le début de l'histoire de l'humanité s'est produit en raison des brassages dus à l'urbanisation et à la révolution des transports. L'ampleur du phénomène est sans commune mesure avec celle induite par les OGM dans un avenir prévisible.

Supposons que la question se soit posée, à la veille de ces transformations, de dire : on va ou on ne va pas urbaniser, fabriquer ou ne pas fabriquer des avions, comment le principe de précaution se serait-il appliqué ?

Si on l'avait appliqué comme les écologistes durs voudraient l'appliquer aujourd'hui, on aurait tout arrêté. Les gens seraient restés à la campagne et les avions n'auraient pas décollé. Aujourd'hui l'espérance de vie serait d'une quarantaine d'années...

Que pensez-vous de la polémique qui se développe sur l'introduction du gène Terminator, dont un résultat serait d'obliger les agriculteurs qui utilisent des OGM à se réapprovisionner chaque année en graines auprès des fabricants ?

La réalité n'est pas blanche ou noire. Le brevet que les écologistes ont habilement baptisé ainsi a aussi pour objet de limiter les risques de flux de gènes. C'est un sujet complexe, simplifié à l'extrême par Rifkin et Greenpeace. Ils veulent faire croire en particulier que cette technologie est en train de s'implanter. C'est faux. Quand Monsanto a racheté Delta&Pine Land, qui avait développé le concept, un débat s'est engagé en interne. Deux camps se sont dessinés, l'un optant pour un renoncement pur et simple, l'autre pour une solution d'attente. Aujourd'hui Monsanto dit clairement : pas question de faire appel à Terminator si les agriculteurs n'en veulent pas. Ils ont publié divers communiqués pour le faire savoir, mais ceux-ci ne sont pas repris par les médias...

Faisons un détour par le BA-ba de votre discipline. Qu'est-ce qu'une mauvaise herbe ?

Il n'y a pas de définition scientifique. C'est une plante qui n'appartient pas à l'espace que certains hommes jugent utile....

Et qu'est-ce qu'une espèce ?

C'est ce qu'un bon taxonome juge comme étant une espèce... Il existe une dizaine de définitions... Il y a celle de Mayr*, définition ornithologique qui se fonde sur l'impossibilité pour deux espèces différentes de créer une descendance. Mais pour les plantes cette définition ne marche pas. La plupart des plantes sont hermaphrodites. En réalité on peut identifier quatre ensembles de critères pour définir une espèce : les critères écologiques, morphologiques, chimiques et cytologiques/génétiques. En général les quatre sont réunis, mais deux peuvent suffire.

Voici maintenant une phrase tirée du livre de Rifkin : « Les nouvelles techniques de recombinaison de l'ADN sont une boîte de Pandore ; et nul ne peut prévoir les conséquences que peut entraîner la recombinaison de matériaux génétiques appartenant à des espèces séparées jusqu'à aujourd'hui par des barrières infranchissables »8. Qu'en pensez-vous ?

C'est un non-sens scientifique de parler de barrières infranchissables. Voilà un bon exemple de la technique de Rifkin : il dresse un épouvantail à partir d'une affirmation fausse. C'est le contraire qui est vrai. L'hybridation et le flux des gènes sont le fondement de l'évolution. Quand je bois une bière, je suis à 33 % cannibale, parce que la levure et l'homme ont 33 % de gènes en commun... Rifkin ne comprendra jamais cela. Il vit dans sa petite église, dont il est le prêtre....

Pour désigner les écologistes durs, vous utilisez parfois un terme très fort : vous parlez d'écostalinisme. Le maintenez-vous ?

Il m'arrive d'hésiter, parce que le terme est un peu trop fort si on le compare directement avec le stalinisme historique. Il n'y a pas de camps de concentration... Mais l'esprit est le même. Cela fait aussi penser au maccarthysme. Tout le monde doit penser de la même manière. Ceux qui s'y refusent sont accusés d'être à la solde de l'ennemi, en l'occurrence l'industrie. C'est un terrorisme, parfois assorti de violence physique, ou de menaces de violence. Cela dit je comprends partiellement cette attitude. Ces gens croient vraiment que l'humanité est menacée. Pas moi. A la racine de cette violence idéologique, il y a la peur. J'ai le plus grand respect pour cette peur. Les gens sentent bien qu'il se passe quelque chose d'exceptionnel, d'historique. L'humanité dispose pour la première fois d'une technologie qui influence directement la vie. Les gens ont raison de s'inquiéter.

Mais la peur n'explique pas tout ?

Le problème de fond est que nous n'avons pas su développer les moyens culturels de maîtriser cette transition. La violence du débat exprime un processus culturel. Tant les responsables politiques que les dirigeants des entreprises concernées ont sous-estimé l'impact social de la transformation du savoir qui est à l'oeuvre. Une Américaine a écrit un livre rétrospectif sur les hystéries collectives générées par le progrès technique9. Il manque un livre de ce genre sur l'Europe. Quand le chemin de fer a fait son apparition en Suisse, le gouvernement a établi un comité composé de scientifiques et de médecins de haut niveau pour étudier le risque de dégâts cérébraux, les trains allant plus vite que les chevaux. Le comité a conclu non seulement que le risque était réel, mais qu'il existait aussi pour les spectateurs...

Si vous êtes tenté de parler d'écostalinisme, n'est-ce pas aussi parce que vous êtes choqué par l'efficacité des moyens rhétoriques mis en oeuvre?

Ce qui me frappe, c'est la manière dont les médias, même les plus sérieux, sont influencés par la rhétorique écologiste, au point de perdre parfois toute forme d'esprit critique. Je connais ces choses-là de l'intérieur. Or l'esprit critique est nécessaire. La rhétorique écologiste est subtile, elle mêle le vrai et le faux. Elle se fonde largement sur une fausse science. Il serait utile que les journalistes aident le public à la repérer. On le voit dans les forums, les gens ont des connaissances extrêmement floues sur ces sujets.

Une difficulté supplémentaire ne vient-elle pas du fait que nombre de scientifiques adhèrent eux-mêmes à l'idéologie écologiste et soutiennent de facto les positions d'un Rifkin ou de Greenpeace ?

Je pense malgré tout que la balance penche plutôt dans l'autre sens. Beaucoup de chercheurs poursuivent leurs travaux en autistes, sans du tout se soucier de leur impact éventuel pour la société. Beaucoup de scientifiques sont en réalité des technocrates de la science, ils ne s'intéressent pas au monde réel.

Mais la publication dans Nature de l'article sur le monarque, par exemple, ne sert-elle pas la cause de l'écologisme dur ?

Il ne fait aucun doute que la direction éditoriale de Nature est contre le génie génétique. Peu après la parution de cet article, passé par la procédure de « peer review » mais dont l'auteur aujourd'hui se repent, Nature a laissé une page entière à deux militants de Greenpeace, qui ont écrit un texte absolument creux sur les rapports entre la science et la société, un texte d'amateurs10. Il est pour moi incompréhensible qu'un grand journal scientifique international tombe dans ce genre de piège.

Croyez-vous possible que dans dix ans, en 2010, tout ce débat soit oublié ?

Pas oublié mais incorporé dans une culture avancée. C'est mon optimisme. Je constate avec plaisir que certains journalistes européens commencent à développer leur esprit critique. J'aime bien l'expression allemande « Lügen haben kurze Beine » les mensonges ont les jambes courtes. J'en suis convaincu, le jour viendra où les écologistes comprendront que les OGM de seconde génération servent la cause de l'écologie, et non le contraire.

Par Propos recueillis par Olivier Postel-Vinay

 

DOCUMENT       larecherche.fr       LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 ] Précédente - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales /confidentialité

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon