ecole de musique piano
     
menu
 
 
 
 
 
 

LA VISION

 


La vision


back to basic - par Olivier Blond dans mensuel n°387 daté juin 2005 à la page 73 (2781 mots) |
Qui dit vision, pense oeil. Mais si nous voyons, c'est grâce aussi à notre cerveau. L'oeil perçoit la lumière, le cerveau analyse les signaux que lui fournit l'oeil. Les mécanismes en jeu font de la vision la porte d'entrée privilégiée sur la conscience.

Qu'est-ce qu'un oeil ?

Oeil d'escargot, oeil de mouche, oeil humain... La diversité des yeux est immense. Mais tous ont un point commun : ce sont des structures photosensibles, qui transforment le signal lumineux véhiculé par les photons en un signal électrique interprétable par le système nerveux. Chez les unicellulaires déjà, des molécules photoréceptrices permettent à l'animal de s'orienter en fonction de la luminosité. Chez les animaux pluricellulaires, les yeux les plus simples sont constitués du regroupement de quelques cellules photosensibles, qui tapissent parfois une cupule peu profonde. C'est le cas des vers plats, de certaines méduses et de certains mollusques - la patelle, par exemple. Là encore, ces yeux servent simplement de détecteur de lumière.

La plupart des autres organismes disposent d'organes plus spécialisés capables de donner une représentation plus ou moins précise de leur environnement. Les plus élaborés sont construits autour de trois structures : la cornée, la lentille et le photorécepteur.

Chez les vertébrés - et donc l'homme -, la cornée est une membrane transparente au travers de laquelle la lumière pénètre dans l'oeil. La lentille correspond au cristallin dont la courbure, contrôlée par des muscles, permet focalisation et mise au point. La rétine tapisse le fond de l'oeil et contient les neurones sensibles à la lumière, qui envoient les informations reçues au cerveau [fig. 1]. Les céphalopodes ont des yeux construits sur un schéma très similaire.

Cette construction tripartite se retrouve chez les insectes : les grands dômes présents à l'avant de leur tête sont composés de milliers de petites unités appelées ommatidies. Chacune possède sa cornée - ou facette, d'où le nom d'oeil à facettes -, sa lentille, et sa région photosensible dénommée rhabdome. Les propriétés et le nombre jusqu'à plusieurs dizaines de milliers chez la libellule des ommatidies varient selon les espèces. En fait, les insectes possèdent souvent deux types d'yeux : en plus des yeux à facettes, ils possèdent en nombre variable des yeux plus simples appelés ocelles sur le dessus de la tête.

Comment l'oeil est-il apparu ?

L'évolution de l'oeil a longtemps interpellé les spécialistes de l'évolution. Comment en effet expliquer qu'un dispositif aussi complexe soit apparu avant que d'être achevé ? À quoi pourrait servir une rétine sans cornée, ou l'inverse ? Si l'évolution ne fonctionne que par petits changements progressifs, la sélection naturelle aurait-elle pu favoriser l'apparition d'une partie seulement de rétine ou de cristallin ?

En étudiant la diversité du vivant, plusieurs chercheurs, dont le biologiste anglais Richard Dawkins, ont réussi à construire une chaîne continue de microévolutions partant de structures similaires aux taches oculaires des unicellulaires et aboutissant à l'oeil des vertébrés, en passant par des formes en cupule comme chez certains mollusques, et bien d'autres... Des travaux qu'il résume dans son livre L'Horloger aveugle [1].

L'autre grande question, au regard des différences entre, par exemple, l'oeil des insectes et celui des vertébrés, est de savoir si les systèmes visuels de tous les animaux ont une origine commune. Il semble que ce soit le cas : le biologiste suisse Walter Gehring a fourni un élément de réponse essentiel en 1995, en montrant que le développement de l'oeil de mouche et celui de l'oeil de souris sont contrôlés par un gène similaire qui pourrait donc avoir un ancêtre commun. Par ailleurs, des analyses phylogénétiques ont montré que toutes les molécules photoréceptrices ont un même ancêtre commun.

Comment perçoit-on les couleurs ?

Grâce aux informations fournies au cerveau par une catégorie de cellules photosensibles appelées cônes une rétine humaine en contient 7 millions. Les cônes fonctionnent uniquement quand l'intensité lumineuse est supérieure à un certain seuil, ce qui est le cas quand il fait jour. Au-dessous de ce seuil, d'autres cellules photosensibles entrent en jeu. Ce sont les bâtonnets, capables de réagir à de très faibles intensités lumineuses, mais en revanche vite saturés quand la luminosité augmente. Ils sont environ 100 millions dans la rétine humaine, et assurent la vision nocturne.

Ces deux catégories de cellules détectent la lumière grâce à des molécules appelées pigments, qui toutes appartiennent à une même famille moléculaire, celle des opsines. La nature et la quantité du pigment déterminent la capacité de la cellule photosensible à percevoir le signal lumineux. En effet, une cellule donnée ne contient qu'un seul type de pigment, et un pigment donné ne réagit qu'à une gamme particulière de longueurs d'onde. Dans la rétine humaine, il n'y a qu'un seul type de bâtonnet. En revanche, il y a trois types de cônes, classés en fonction du type de pigment qu'ils contiennent, sensible respectivement aux longueurs d'onde courtes, moyennes et élevées du visible. Les signaux fournis par les cônes permettent de distinguer environ 2,3 millions de couleurs. Lorsque l'un des pigments est absent ou défectueux, comme c'est le cas dans le daltonisme, l'oeil perd sa capacité à discerner les couleurs correspondantes.

Parmi les mammifères, seuls les singes de l'Ancien Monde et l'homme possèdent cette vision trichromatique. Les chevaux, par exemple, ne disposent que d'une vision bichromatique. La plupart des poissons ont une vision trichromatique, plusieurs oiseaux, une vision tétrachromatique - ils perçoivent les ultraviolets grâce à un pigment supplémentaire. Certains serpents, comme le crotale, détectent les ondes infrarouges. Quant aux insectes, un grand nombre perçoit la lumière ultraviolette.

Comment l'information passe-t-elle de l'oeil au cerveau ?

Les cellules photosensibles de la rétine sont des neurones qui convertissent le signal lumineux en signal nerveux. Ce dernier est transmis à d'autres neurones rétiniens appelés cellules ganglionnaires, dont les axones constituent le nerf optique. Ces axones se partagent en deux groupes, à un endroit nommé chiasma optique [fig. 2] : la moitié gauche du champ visuel est perçue par le cerveau droit, et inversement. La plupart aboutissent finalement dans une zone particulière du thalamus* nommée corps genouillé latéral. Là, d'autres neurones prennent le relais pour envoyer l'information dans le cortex cérébral, plus précisément dans l'aire corticale primaire de la vision, appelée V1, située à l'arrière du cerveau. À ce niveau, les informations des deux yeux convergent. C'est cette convergence qui crée la possibilité d'effets binoculaires, c'est-à-dire la vision en trois dimensions. L'information est ensuite traitée selon de multiples modes, dans des aires visuelles secondaires spécialisées : selon leur forme dans V2, selon leur couleur en V4, selon leur mouvement en V5, etc. On connaît une trentaine d'aires secondaires.

En 2002, les chercheurs ont découvert que chez les mammifères, certaines cellules ganglionnaires de la rétine sont également photosensibles elles contiennent un pigment : la mélanopsine. Sensibles au niveau général d'illumination, elles sont reliées par des voies particulières à la zone cérébrale qui contrôle l'horloge biologique, le noyau suprachiasmatique [fig. 2]. Via d'autres relais encore, elles contrôlent la contraction de la pupille.

Quel rapport entre voir un objet et le reconnaître ?

En 1918, le neurologue britannique Gordon Holmes décrivit le cas d'un patient qui, suite à une lésion du cortex visuel, était capable de percevoir et d'identifier des objets, mais ne pouvait ni les toucher ni les situer correctement dans l'espace. Depuis 1982 et les travaux des Américains Leslie Ungerleider et Mortimer Mishkin, les chercheurs séparent deux voies de transmission de l'information visuelle, l'une dite ventrale, l'autre dite dorsale [fig. 3]. De façon très simplifiée, la première est impliquée dans la reconnaissance des objets et leur représentation consciente. La seconde intervient dans la localisation des objets, et guiderait les actions dirigées vers ces derniers, par un traitement largement inconscient.

Lorsque certaines zones du cortex sont endommagées, alors même que les yeux sont opérationnels, on observe des cécités dites centrales. Par exemple, des dommages infligés à la zone permettant la reconnaissance des visages entraînent une prosopagnosie, trouble étrange qui a fourni au neurologue Oliver Sacks le titre de son livre L'Homme qui prenait sa femme pour un chapeau [2]. Des défauts du système de l'attention, eux, peuvent être à l'origine de l'héminégligence : les patients qui en souffrent ne perçoivent qu'une moitié de l'Univers.

La manière dont tous les modes de traitement de l'information sont rassemblés pour former l'image finale consciente reste largement discutée. Le débat achoppe en effet sur la question d'une définition de la conscience. Mais inversement la vision est à l'heure actuelle la porte d'entrée privilégiée par les scientifiques pour étudier la conscience.

A-t-on conscience de tout ce qu'on voit ?

Lorsque l'aire visuelle primaire V1 est lésée, ce n'est plus une partie mais toute la vision qui est atteinte : les sujets deviennent aveugles. Toutefois, dans certains cas, une forme de vision inconsciente persiste, appelée vision aveugle. Les premiers cas ont été répertoriés pendant la Première Guerre mondiale quand des soldats, victimes de cette forme de cécité cérébrale, plongeaient néanmoins pour éviter les balles. Depuis, les descriptions abondent de personnes aveugles et pourtant capables de désigner avec précision un objet qui se déplace. Comment cela est-il possible ? Il semble qu'une petite partie des neurones issus du corps genouillé ne se projette pas vers V1, mais directement vers V5, l'aire du mouvement. Ces connexions pourraient expliquer pourquoi certains aveugles sont sensibles aux déplacements. Chez l'homme, la vision aveugle est probablement le vestige d'un système visuel primitif qui transmettait les informations aux aires du cerveau chargées de déclencher les réactions « automatiques » à différents stimuli, comme celles permettant au lézard d'attraper une mouche avec sa langue.

À l'inverse, on croit parfois voir des choses qui n'existent pas : il s'agit soit d'illusions, soit d'hallucinations. Les illusions résultent de phénomènes optiques ou bien d'« erreurs de calcul » de notre cerveau, souvent liées au fait que notre perception dépend du contexte dans lequel est présenté un objet donné. Quant aux hallucinations, ce sont des expériences sensorielles purement cérébrales. L'observation par imagerie cérébrale de personnes se trouvant dans ces situations a révélé que les aires de la vision et de la reconnaissance sont activées comme elles le seraient dans la vision normale, mais que l'activation des zones non corticales tel le thalamus est généralement modifiée. Toutefois, ces phénomènes restent très mal compris.

Que voit vraiment un bébé ?

On a longtemps considéré le nouveau-né comme aveugle, jusqu'à ce que l'on mette en évidence une sensibilité à la lumière dès le septième mois de vie intra-utérine : l'exposition du ventre maternel à une lumière vive et clignotante provoque une accélération du rythme cardiaque du foetus et l'agitation de ses membres.

À la naissance, le nouveau-né est capable de fixer son regard et de suivre un objet déplacé lentement, ce qui signe l'existence de réflexes oculomoteurs innés. Mais ce n'est qu'à partir de 12 mois que le bébé suit un objet en déplacement rapide. Quant à l'acuité visuelle, infime à la naissance, elle augmente progressivement pour atteindre 4/10e à 12 mois, et 10/10e à 4 ans.

Par des travaux qui leur ont valu le prix Nobel en 1981, David Hubel et Torsten Wiesel, de l'université Harvard, ont montré que l'activité visuelle structure le cortex visuel de façon très profonde. Cet effet structurant n'est toutefois possible que pendant une période déterminée. Si l'opportunité est manquée dans leur expérience, en suturant les paupières d'un chaton, le réarrangement cortical n'est plus possible, et la vision de l'adulte est considérablement altérée. Par ailleurs, le développement de la vision permet aussi le développement des zones motrices du cortex. Ainsi, le simple fait de voir un mouvement active dans le cerveau les mêmes zones qui seraient mobilisées si on faisait ce mouvement. C'est la base biologique de l'imitation - un mécanisme essentiel de l'apprentissage, en particulier chez les tout-petits.

Pourquoi devient-on myope ou astigmate ?

Les déformations du globe oculaire ou du cristallin modifient les propriétés optiques de l'oeil et engendrent une baisse d'acuité visuelle. Celle-ci correspond à la taille du plus petit détail qu'un oeil peut voir à une distance donnée. En pratique, une acuité de 10/10e marque la capacité de distinguer un objet de 0,6 millimètre situé à 5 mètres.

Si l'oeil est trop court ou que le cristallin ne peut plus accommoder, l'image des objets proches se forme en arrière de la rétine : c'est l'hypermétropie ou la presbytie. Si l'oeil est trop long ou que le cristallin est trop bombé, l'image des objets lointains se forme en avant de la rétine : c'est la myopie. Quand la déformation touche non pas l'ensemble de l'oeil, mais seulement une direction particulière, l'oeil est dit astigmate.

Pour répandus et familiers que soient ces troubles, leur origine reste parfois mystérieuse. Ainsi, pour les myopies fortes, on a longtemps incriminé des facteurs génétiques, sur la base d'études menées chez des jumeaux plus ou moins myopes. Mais il semble à présent que le style de vie soit essentiel : par exemple, seuls 10 % des Indiens vivant en Inde sont myopes, contre 70 % des Indiens vivant à Singapour. Le problème, c'est que si tout le monde sait que lire ou regarder un écran de télévision ou d'ordinateur fatigue les yeux, on ne comprend pas pourquoi cela aboutit à une déformation de la cornée ou du cristallin.

Pendant longtemps, ces troubles ont été corrigés par des verres correcteurs. Depuis vingt-cinq ans environ, on utilise également les lentilles de contact. Leur rôle est de dévier plus ou moins la lumière pour que l'image se forme sur la rétine c'est l'explication des dioptries, qui mesurent cette déviation. Plus récentes, les techniques « laser » permettent de découper la cornée pour restaurer des propriétés optiques à peu près normales. Elles sont efficaces pour les myopies, les astigmatismes et les hypermétropies faibles ou moyennes.

Quelles sont les principales causes de cécité dans le monde ?

La première est le trachome, ou conjonctive granuleuse, qui touche près de 500 millions de personnes, principalement en Afrique et dans certaines régions d'Asie du Sud et d'Amérique latine. Il s'agit d'une pathologie due à une petite bactérie, Chlamydia trachomatis, qui provoque une inflammation oculaire. Non traitée, celle-ci aboutit à la cécité. La deuxième cause est la « cécité des rivières » ou onchocercose, maladie endémique dans 30 pays d'Afrique et six pays d'Amérique. Environ 120 millions de personnes y sont exposées, et plus de 17 millions de personnes sont atteintes. C'est une maladie parasitaire transmise par la piqûre d'un insecte, la simulie ou « mouche noire ». Elle entraîne de sérieuses lésions cutanées et, dans sa phase finale, une cécité irréversible. Des traitements efficaces existent contre l'une et l'autre de ces maladies, et des programmes internationaux de lutte ont été mis en place. Pour l'onchocercose, par exemple, le traitement - un médicament antiparasitaire - a permis en vingt ans de ramener pratiquement à zéro la transmission de la maladie en Afrique de l'Ouest. Mais la lutte continue dans le reste du continent et en Amérique du Sud.

Dans les pays occidentaux, les risques sont tout différents. Le premier, la rétinopathie diabétique, est une conséquence du diabète : l'oedème ou l'occlusion des vaisseaux rétiniens entraînent progressivement la perte de la vue. Viennent ensuite : la dégénérescence maculaire liée à l'âge la région centrale de la rétine, appelée macula, dégénère ; le glaucome une augmentation de la pression intra-oculaire entraîne la compression du nerf optique et la cataracte ou opacification du cristallin. La première touche en France 1 200 000 personnes, le second plus de 500 000, le troisième presque 100 % des personnes de plus de 80 ans.

Pourra-t-on un jour rendre la vue aux aveugles ?

Si des implants visuels « bioniques » sont en développement, leurs résultats sont pour l'instant peu concluants. Ces implants visuels reposent sur des systèmes de caméras reliées, dans certains cas à la cornée, dans d'autres au cortex visuel, dans d'autres encore, à la langue. La difficulté, encore largement non résolue, consiste à transformer l'information numérique en provenance de la caméra en un signal interprétable par le cerveau.

Aussi une autre stratégie est-elle explorée : la reconstruction des tissus endommagés. Concernant la cornée, la greffe d'organes prélevés chez les personnes décédées est une opération relativement courante 4 000 opérations par an environ en France. Mais les greffons manquent, et les chercheurs tentent de mettre au point des cultures de cellules pour pallier cette pénurie. Les premiers résultats chez l'homme ont été obtenus en 2000. Les greffes de rétine, elles, sont beaucoup plus complexes. Il a ainsi fallu attendre 2002 pour qu'une première personne reçoive 2 millimètres carrés d'une rétine prélevée chez un foetus avorté, ce qui a restauré une « perception lumineuse temporaire ». Depuis, six personnes ont bénéficié de ce traitement. Là encore, la pénurie de greffons et, surtout, les problèmes techniques et éthiques incitent les chercheurs à travailler sur la mise au point de tissus rétiniens en culture, à partir de cellules souches. La complexité du tissu rétinien, composé de plusieurs couches de cellules aux connexions multiples, rend toutefois ces recherches très difficiles.

Par Olivier Blond

 

DOCUMENT      larecherche.fr     LIEN

 
 
 
 

THÉRAPIE CELLULAIRE

 


LES DÉFIS DES CELLULES SOUCHES
De la greffe à la thérapie cellulaire


les défis des cellules souches - par Dominique Thierry, Alain Chapel, Jean-Marc Bertho dans mensuel n°352 daté avril 2002 à la page 32 (2052 mots) | Gratuit
Les « cellules souches », outil thérapeutique du futur ? C'est oublier que certaines d'entre elles, en particulier les cellules souches de la moelle osseuse, sont déjà mises à profit depuis plusieurs dizaines d'années. De la théorie à la pratique, retour sur un parcours parsemé de surprises et riche d'enseignements.

En 1958, cinq physiciens yougoslaves furent très lourdement irradiés en travaillant près d'un réacteur nucléaire. On connaissait les conséquences d'un tel accident : une chute vertigineuse de toutes les cellules sanguines, la disparition des défenses de l'organisme ouvrant la voie aux infections, des saignements liés à la baisse des plaquettes pouvant entraîner la mort de la victime. Après transfert des patients en France eut lieu l'une des premières greffes mondiales de moelle osseuse. Ce fut le personnel du service qui servit de donneur. Quatre des patients survécurent, « en dépit du traitement », comme le disait en privé l'un des auteurs de ces tentatives héroïques et compassionnelles. Des tentatives certes téméraires, mais pas infondées : dès la fin du XIXe siècle, la moelle osseuse avait été identifiée comme le siège de la génération continue des cellules du sang1. Elle en produit en effet 200 à 400 milliards par jour, grâce à des cellules capables d'évoluer en globules rouges, globules blancs et plaquettes, et capables, également, de s'autorenouveler. Ces cellules, ce sont les cellules souches hématopoïétiques fig. 1.

Qu'on les utilise pour traiter des patients irradiésI, leucémiques ou souffrant d'une autre pathologie des cellules sanguines ou immunitaires, l'impératif technique est le même : ces cellules salvatrices, il faut les greffer. Or, qui dit greffe, dit risque de rejet, risque toujours d'actualité malgré les progrès réalisés depuis l'identification des molécules de compatibilité cellulaire, les groupes HLA, par Jean Dausset prix Nobel en 1980. Les registres de donneurs volontaires de groupe HLA connu, établis pour faire bénéficier les patients de donneurs de bonne compatibilité, ne permettent pas de répondre à tous les besoins, malgré plus de quatre millions de noms répertoriés à l'heure actuelle. Et, même si de nouveaux immunosuppresseurs sont en cours d'essai - thalidomide ou tacrolimus par exemple -, ils n'offrent pas des résultats totalement probants par rapport à la ciclosporine. Parallèlement, les problèmes de compatibilité peuvent aussi entraîner ce que l'on appelle la maladie du greffon contre l'hôte « graft versus host disease » : les lymphocytes T présents dans le greffon attaquent l'organisme du patient selon un mode aigu ou chronique. S'ajoute à ce problème celui de l'aplasie médullaire* induite par la radiothérapie ou la chimiothérapie, aplasie qui résulte de la destruction de la moelle normale en même temps que des cellules malades, et qui favorise infections et hémorragies.

Comment s'affranchir des problèmes de compatibilité cellulaire ? L'autogreffe semble, de prime abord, la solution la plus logique. Ce concept a pris corps en 1976, via les travaux de R. Graw à Bethesda Etats-Unis et de G. Duhamel à Paris : la moelle du patient est prélevée et congelée, puis lui est réinjectée après qu'il a été traité par chimiothérapie ou radiothérapie. Mais l'échantillon cellulaire, provenant des patients eux-mêmes, contient lui aussi des cellules malades susceptibles d'entraîner des rechutes. D'où un problème majeur, celui de la pureté des populations de cellules greffées.

Sources de cellules. En 1984, on réussissait à prélever les cellules souches nécessaires à la greffe non pas dans la moelle, mais dans le sang, par cytaphérèse2. Hélas, contrairement à ce que l'on espérait, ces greffons étaient eux aussi contaminés en cellules tumorales, comme les greffons médullaires. Les cellules souches du sang périphérique sont toutefois devenues en quelques années la principale source des greffons d'autogreffe environ 85 %. Car, outre qu'il n'est pas nécessaire d'anesthésier le patient pour récupérer ces cellules facilement accessibles, leur utilisation présente un avantage clinique immédiat : une prise de greffe plus rapide, avec aplasie plus courte, moins d'infection, un temps d'hospitalisation réduit et un coût moindre. Et une troisième voie se dessine, celle des cellules souches du sang de cordon ombilical. En effet, les cellules immunocompétentes, futures cellules T, sont plus immatures dans le sang de cordon que dans le sang ou la moelle adulte. Elles sont donc moins susceptibles d'entraîner une réaction du greffon contre l'hôte. En 1988, la première greffe de cellules de sang de cordon permettait de traiter un enfant atteint d'anémie de Fanconi*3. Ce succès de l'équipe du professeur Eliane Gluckman hôpital Saint-Louis, Paris et de Hal Broxmeyer Indianapolis a permis de relancer les études sur l'allogreffe, et l'on estime qu'une banque de 100 000 sangs de cordon cryopréservés aurait la même utilité que l'ensemble des registres actuels de donneurs de moelle potentiels voir l'encadré « Cellules pour soi, cellules pour tous ? ». Mais, pour l'instant, cette approche est encore limitée par la petite taille des greffons : bien que riches en cellules souches, ces derniers peuvent difficilement être greffés à des receveurs de forte taille, même si quelques résultats positifs ont été rapportés4,5.

Degré de pureté. Comment obtenir une population « pure » de cellules souches ? Plusieurs techniques ont été développées. Technique de purge négative d'un côté : le greffon est débarrassé des cellules néfastes - cellules tumorales dans le cas des autogreffes, lymphocytes T dans le cas des allogreffes. Technique de purge positive de l'autre, par sélection des cellules souches hématopoïétiques saines grâce à des molécules spécifiques présentes à leur surface. Ces molécules sont ce que l'on appelle des « marqueurs ». Le plus étudié d'entre eux ? L'antigène CD34, dont l'identification a constitué une percée importante du point de vue de la biologie cellulaire : grâce à lui, il est devenu possible d'estimer la richesse du sang ou de la moelle en cellules immatures intéressantes à greffer cellules CD34+. Mais les tentatives d'utilisation de petits greffons riches en ce type cellulaire se sont soldées par des complications inattendues : retards de prise de greffe, infections. Dans ce contexte morose, le concept selon lequel la population de cellules CD34+ comprendrait toutes les cellules souches hématopoïétiques est même remis en question ! Plusieurs équipes importantes estiment en effet qu'une certaine fraction de cellules dépourvues de l'antigène CD34 présente les caractéristiques de cellules souches6. A l'heure actuelle, le débat est loin d'être clos...

Indépendamment de cette controverse, il est en tout cas certain que la sélection des cellules souches, qu'elle soit négative ou positive, ne constitue pas une arme absolue. Car, si elle permet, par exemple, de réaliser des allogreffes dans des conditions de compatibilité HLA imparfaite, la sélection élimine, en cours de route, des cellules responsables d'une réaction inattendue, et cette fois bénéfique, du greffon envers l'hôte. Cette réaction, c'est la « graft versus leukemia » GVL, au cours de laquelle des cellules du greffon reconnaissent spécifiquement les cellules leucémiques résiduelles du patient et les éliminent. Le concept selon lequel un greffon de cellules souches devrait être le plus pur possible se heurte, en l'occurrence, à une fascinante réalité clinique que l'on tente à présent de mettre à profit de façon plus contrôlée. Idéalement, il faudrait pouvoir créer une moelle chimérique, de type donneur en ce qui concerne la GVL et de type receveur pour toutes les autres fonctions de la moelle. Dans la pratique, on tente pour les leucémies de mettre au point une technique de minigreffe : en réduisant le niveau de chimiothérapie supporté par le patient, on permet aux cellules lymphoïdes - responsables notamment de l'immunité antitumorale - de s'implanter, tout en préservant le compartiment myéloïde chargé de la fabrication des autres cellules sanguines7. Ces greffes mises en oeuvre en hôpital de jour depuis moins de cinq ans sont prometteuses, bien que le recul soit très insuffisant pour estimer leur valeur réelle.

Hormis la compatibilité, un second critère se révèle capital à la réussite thérapeutique de l'utilisation des cellules souches : leur quantité. Le problème se pose, qu'il s'agisse d'allogreffe ou d'autogreffe, de moelle osseuse, de sang périphérique ou de sang de cordon. Lors des transplantations, la durée de l'aplasie est en effet fonction de la quantité de cellules, et notamment de cellules CD34+, qui sont infusées. On estime qu'il faut en délivrer environ un million par kilogramme de poids corporel pour que la greffe prenne dans des délais raisonnables. Si l'on considère le sang périphérique, les cellules souches y circulent, à l'origine, en quantité trop faible pour permettre une telle greffe : elles ne représentent qu'environ 0,1 % des cellules sanguines.

Nouvelles approches. C'est seulement lorsqu'on a su les faire sortir de la moelle afin de pouvoir les recueillir dans le sang que l'on a pu les utiliser fig. 2. En plus de ces cellules très immatures qui assurent la prise de la greffe à long terme, sont également récupérés des progéniteurs déjà engagés dans une voie de différenciation précise. Incapables de s'implanter à long terme, ils sont toutefois précieux car ils permettent une sortie d'aplasie plus rapide. En aval, une seconde approche est actuellement en plein développement : c'est l'expansion ex vivo, qui tend à amplifier en culture le pool de cellules souches hématopoïétiques et de progéniteurs, en présence de facteurs de croissance utilisés à des doses bien plus élevées qu'il ne serait envisageable in vivo du fait de leurs effets secondaires voir l'encadré : « Recherche cytokines désespérément ». On espère, par ce biais, activer la reprise de l'hématopoïèse via les cellules immatures et limiter les risques liés à l'aplasie via les cellules différenciées in vitro. Résultat encourageant : lors du traitement d'un premier groupe de patients en autogreffe, la période d'aplasie a été très réduite, voire totalement annihilée8. Par ailleurs, il est envisagé d'appliquer l'expansion ex vivo aux cellules souches de sang de cordon, pour pouvoir traiter facilement un adulte. Enfin, cette technique pourrait être mise à profit dans la manipulation génique ex vivo de cellules hématopoïétiques immatures. Dans ce domaine, on ne manquera d'ailleurs pas de rappeler la récente réussite du traitement par autogreffe et thérapie génique d'enfants bulles à l'hôpital Necker9II. Un succès qui relance un champ de recherche où s'accumulaient au fil des ans des résultats très décevants...

Enfin, les scientifiques travaillent à renforcer l'effet des cellules souches hématopoïétiques en favorisant leur insertion dans le tissu de soutien complexe qui constitue leur micro-environnement. L'hématopoïèse est en effet liée à la présence, dans la moelle, de cellules souches dites mésenchymateuses. Des cellules qui possèdent de nombreuses propriétés intéressantes du point de vue thérapeutique : elles produisent de nombreux facteurs de croissance hématopoïétiques et un facteur qui permet aux cellules hématopoïétiques de s'établir dans la moelle ; elles sont très peu immunogènes et ont même tendance à inhiber les réactions immunes ; elles sont douées de propriétés plastiques qui leur permettent de se différencier en de nombreux types cellulaires10,11. Bien qu'elles soient peu nombreuses dans la moelle, la possibilité de les multiplier in vitro a permis de les utiliser au cours d'autogreffes, en combinaison avec les cellules souches hématopoïétiques. Les patients du groupe traité selon ce protocole sont sortis d'aplasie plus vite que le groupe témoin12. Des résultats similaires ont été observés en allogreffe, avec en plus une notable réduction de l'incidence des réactions du greffon contre l'hôte. Et la réelle prise de greffe de ces cellules mésenchymateuses vient d'être tout récemment démontrée chez une patiente atteinte d'aplasie sévère, par l'équipe du professeur Norbert Gorin associée à l'IPSN13. Ces réussites ouvrent la voie à la possibilité de combiner restauration hématopoïétique et réparation d'atteintes multi-organes comme on en rencontre fréquemment dans les accidents d'irradiations ou dans de nombreuses pathologies génétiques. Dans ce domaine, l'hématologie rejoint la thérapie cellulaire en général, la moelle étant à la fois cible thérapeutique et source de cellules pour les autres organes.

Toujours plus. La liste des applications des cellules souches de la moelle, en cours d'exploration ou simplement envisagées, ne cesse en fait de s'allonger, grâce aux progrès réalisés. Peu à peu, l'hématopoïèse est disséquée, les cellules immatures caractérisées par leurs antigènes spécifiques et les sous-populations définies de même. Les conditions de bonne pratique de laboratoire des cultures, permettant de produire un type cellulaire réinjectable particulier ou de manipuler son génome, sont établies. Après quarante années de travail, la connaissance des cellules souches hématopoïétiques ou mésenchymateuses les plus primitives est presque à la portée du chercheur - qui entrevoit maintenant la possibilité de différencier ces cellules en des types cellulaires complètement différents14 voir l'article d'Ali Turhan page 25. Le clinicien, lui, va devoir attendre encore un peu. Mais finalement, parce que la médecine a toujours accompagné la recherche en hématologie, il attendra certainement beaucoup moins que dans d'autres disciplines.

Par Dominique Thierry, Alain Chapel, Jean-Marc Bertho

 

DOCUMENT      larecherche.fr     LIEN

 
 
 
 

CANCER DE L'OVAIRE

 

Accueil > Communiqués/Dossiers > Cancer > Cancer de l’ovaire : une piste prometteuse pour traiter les formes les plus agressives par une thérapie ciblée

Cancer de l’ovaire : une piste prometteuse pour traiter les formes les plus agressives par une thérapie ciblée
12.10.2015 - COMMUNIQUÉ
Cancer Physiopathologie, métabolisme, nutrition

Grâce aux travaux menés à l’Institut Curie par  l’équipe de Fatima Mechta-Grigoriou, directrice de recherche Inserm, il est désormais envisageable d’identifier, parmi les femmes atteintes de cancer de l’ovaire agressif, celles qui pourraient bénéficier d’une thérapie ciblée prometteuse.inserm_5619


L’équipe Stress et Cancer (Inserm/Institut Curie, labélisée Ligue Nationale contre le Cancer) dirigée par  Fatima Mechta-Grigoriou (photo, droite) vient de franchir une étape importante en vue d’identifier les femmes atteintes de forme agressive de cancer de l’ovaire susceptibles de bénéficier d’une thérapie ciblée, un inhibiteur de MEK.

Trouver le talon d’Achille des cellules tumorales ovariennes

Or BRAF active la voie de signalisation MEK[1] impliquée dans le développement des tumeurs ovariennes de bas grade. Les inhibiteurs de MEK ont donc été proposés comme une solution thérapeutique possible pour ces cancers.« 75 % des cancers de l’ovaire sont de haut grade, soit très agressifs. Le profil des mutations diffère entre les tumeurs de bas et de haut grade, explique Virginie Mieulet (photo, gauche), post-doctorante et co-auteure de ce travail. Si l’on prend l’exemple des altérations des oncogènes KRAS/BRAF, elles sont présentes dans     70 % des tumeurs peu agressives et seulement dans 1% des tumeurs agressives. »

Fatima Mechta-Grigoriou et son équipe montrent que la prescription des inhibiteurs de MEK pourrait s’étendre aux tumeurs de haut grade. Car bien qu’il n’y ait pas de mutations de KRAS/BRAF, la voie MEK est activée dans 50 % des tumeurs ovariennes de haut grade. Pourquoi ? « En raison de l’accumulation de MAP3K8, explique la chercheuse. Cette protéine contrôle la progression tumorale en régulant le cycle cellulaire et l’invasion tumorale, et, à ce titre, elle joue un rôle clé dans la genèse des cancers de l’ovaire. »
« La protéine MAP3K8 pourrait servir de biomarqueur pour identifier les patientes susceptibles de bénéficier d’une thérapie par inhibiteur de MEK, ajoute Fatima Mechta-Grigoriou, directrice de recherche Inserm. D’autant plus que sa détection peut être réalisée assez simplement à partir d’une coupe histologique par nos collègues médecins pathologistes qui nous ont par ailleurs beaucoup aidés dans ce travail. »

Alors que des essais cliniques sont déjà en cours pour évaluer les inhibiteurs de MEK dans les cancers de l’ovaire de bas grade, tout semble concourir à montrer l’intérêt de développer un essai clinique chez les femmes atteintes de cancer de l’ovaire de haut grade surexprimant MAP3K8 pour évaluer l’efficacité de cette thérapie ciblée, en plus des chimiothérapies classiques.

Le cancer de l’ovaire touche près de 4 600 femmes chaque année en France. Une tumeur ovarienne peut se développer de manière indolente assez longtemps et par conséquent atteindre un volume important avant de provoquer des symptômes qui incitent à consulter. Cela explique que ce cancer est souvent diagnostiqué à un stade avancé. Il est responsable de 3 150 décès par an. Le traitement repose principalement sur une combinaison de chirurgie et de chimiothérapie). Le choix entre les différentes options thérapeutiques est fonction de la morphologie des cellules tumorales, de leur taux de prolifération, de l’extension de la maladie… L’analyse du profil moléculaire des tumeurs pourraient bientôt participer à cette décision et améliorer leur prise en charge. Chez la plupart des femmes atteintes de tumeur ovarienne, la combinaison des chimiothérapies (sels de platine-taxanes) fait preuve d’efficacité. Toutefois dès qu’une rechute est diagnostiquée, aucun traitement réellement efficace n’existe à ce jour.
[1] Compte-tenu du rôle clé de la voie de signalisation MEK dans la cancérogenèse, son activation est observée dans 30% des cancers, les inhibiteurs de MEK constituent une voie thérapeutique prometteuse. Des essais cliniques sont actuellement en cours dans plusieurs localisations tumorales (mélanome de la peau, tumeurs intestinales, cancer de la thyroïde…).

 

 DOCUMENT     inserm      LIEN

 
 
 
 

FLORE INTESTINALE ET OBÉSITÉ

 

 

 

 

 

La flore intestinale associée au syndrome métabolique lié à l'obésité.
Publié le 05-03-2010 à 15h21

Les microbes de nos intestins, et la partie de notre système immunitaire qui les régule, pourraient être en partie responsables du syndrome métabolique, un ensemble de troubles métaboliques liés à l'obésité qui augmentent les risques de diabète et de maladies cardiovasculaires selon une nouvelle étude effectuée chez la souris.


Un défaut cellulaire responsable de l’obésité ?
Surpoids et obésité augmenteraient les risques de cancer
Une cause génétique d'obésité sévère identifiée
À LIRE SUR INTERNET
Le syndrome métabolique
Ce travail, publié dans la revus Science, s'inspire de récentes découvertes qui ont établi un lien entre la composition de la flore intestinale et l'obésité. L'étude de Matam Vijay-Kumar, de l'Université Emory à Atlanta, suggère que le système immunitaire inné qui défend l'organisme contre les microbes pathogènes, pourrait être le lien entre le microbiote intestinal et le métabolisme. Le microbiote, ou la microflore, est constitué par l’ensemble des micro-organismes commensaux qui vivent dans l’organisme, principalement les intestins.

Les auteurs ont trouvé que les souris dépourvues d'une composante importante du système immunitaire inné, une protéine appelée TLR5, ont développé des caractéristiques du syndrome métabolique comme un gain en matière grasse et une résistance à l'insuline avec des variations du microbiote intestinal. Les souris mutantes mangeaient aussi plus que les autres. Le transfert des microbes intestinaux des souris mutantes dans des souris n'ayant pas initialement de flore intestinale a fait que ces dernières ont développé plusieurs traits du syndrome métabolique, ce qui laisse penser que le changement microbien était probablement une cause, plutôt qu'une conséquence, de l'apparition de la pathologie.

Les auteurs ont aussi séquencé une partie du matériel génétique des microbes de la flore intestinale des souris mutées et pu identifier un ensemble d'espèces bactériennes anormalement abondantes. Les chercheurs proposent que des déficiences dans le système immunitaire inné pourraient causer des changements dans le microbiote intestinal qui induirait alors un signal inflammatoire à bas bruit. Ce dernier déclencherait l’apparition du syndrome métabolique.

J.I.
Sciences-et-Avenir.com
05/03/2010

 

 DOCUMENT       sciencesetavenir.fr      LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 ] Précédente - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales /confidentialité

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon