|
|
|
|
|
|
ÉPILEPSIE |
|
|
|
|
|
Épilepsie
Sous titre
Un ensemble de maladies complexe, encore mal compris
Une diversité de symptômes et d’évolution : Il n’y a pas une mais des épilepsies. Ensemble, elles constituent la troisième maladie neurologique la plus fréquente, derrière la migraine et les démences. Aux yeux du grand public, l’épilepsie est associée à des crises avec convulsions, absences, rigidité musculaire… Mais chaque syndrome épileptique peut se manifester par une grande variété de symptômes et être accompagné de troubles de l’humeur, de la cognition, du sommeil... Chacun est en outre associé à une évolution qui lui est propre.
Les enjeux de la recherche : La complexité de ces maladies motive une forte dynamique de recherche, aussi bien expérimentale que clinique. Afin d’améliorer les options de traitement, qui restent insatisfaisantes pour près d’un tiers des malades, il est indispensable de trouver de nouvelles approches fondées sur la compréhension fine et exhaustive des mécanismes à l’origine de la maladie, puis de chaque crise.
Dossier réalisé en collaboration avec Stéphanie Baulac, unité 1127 Inserm/CNRS/UPMC, équipe Génétique et physiopathologie des épilepsies familiales, Institut du Cerveau et de la Moelle Epinière, Paris, Antoine Depaulis et Philippe Kahane, unité 1216 Inserm/Université Grenoble Alpes, équipe Synchronisation et modulation des réseaux nerveux dans l'épilepsie, Grenoble Institut des neurosciences (GIN).
Comprendre l’épilepsie
Bien qu’elle soit reconnue depuis l’Antiquité, l’épilepsie revêt encore beaucoup de mystères. Toutefois, sa compréhension ne cesse d’évoluer. Si dans l’imaginaire collectif elle se limite souvent à des crises épisodiques, elle constitue en réalité une maladie du cerveau englobant différents symptômes, dont les plus spectaculaires sont effectivement ces fameuses crises. Ainsi, les troubles cognitifs ou psychiatriques que l’on considérait auparavant comme des comorbidités
comorbidités
Maladie associée à une pathologie principale.
font désormais partie intégrante de la maladie épileptique. Dans ce contexte, la crise ne constituerait que la partie émergée de l’iceberg, avec parallèlement des conséquences neurobiologiques, cognitives, psychologiques et sociales.
Aujourd’hui, on estime qu’il existe environ une cinquantaine de maladies épileptiques (ou syndromes épileptiques) qui sont définies en fonction de leur âge d’apparition, de leur cause sous-jacente (présumée ou avérée) et de la présentation clinique des crises qui y sont les plus fréquemment associées. Quelques-unes ont une composante génétique certaine, mais la plupart sont d’origine multifactorielle, liées à des composantes héréditaires, lésionnelles et/ou environnementales.
In fine, on ne parle donc plus de l’épilepsie mais des épilepsies, un ensemble de maladies dont les manifestations et l’origine sont très variées. Elles ont cependant toutes un point commun : une excitation synchronisée et anormale d’un groupe de neurones plus ou moins étendu du cortex cérébral, qui peut secondairement se propager à (ou faire dysfonctionner) d’autres zones du cerveau. Il en résulte une activité électrique - de survenue brutale, intense et prolongée - qui engendre les symptômes de la crise (mouvements involontaires, hallucinations auditives ou visuelles, absences…). L’expression de ces symptômes dépend :
* de la/des zones cérébrales dans lesquelles sont situées les neurones impliqués
* du rôle de ces cellules nerveuses dans les systèmes qui gèrent notre motricité, notre cognition, nos émotions ou nos comportements
Ainsi les épilepsies sont des maladies qui affectent des circuits nerveux plus ou moins étendus, pouvant conduire à la modification de leur fonctionnement physiologique.
Des maladies fréquentes qui affectent l’espérance de vie
On estime que 600 000 personnes souffrent d’épilepsie en France. Près de la moitié d’entre elles sont âgées de moins de 20 ans. À l’échelle internationale, l’incidence de la maladie serait de 50 à 100 cas pour 100 000 habitants (selon le niveau de revenu et le système de soins du pays), soit 60 millions de malades.
Globalement, la durée de vie moyenne d’un patient épileptique est légèrement inférieure à celle de la population générale, principalement du fait du risque de décès accidentel au décours d’une crise (noyade, chute, accident). Quant aux morts subites inattendues (Sudden Unexpected Death in Epilepsy), spécifiques de certaines formes d’épilepsie, elles restent rares (30 000 par an dans le monde, 115 en 5 ans en France).
Selon la nature de la maladie épileptique, le pronostic est variable : certaines sont des maladies chroniques qui perdurent tout au long de la vie, certaines sont limitées à la période néonatale ou à l’enfance, d’autres n’apparaissent qu’au cours de la vie adulte, tandis que d’autres encore sont amenées à disparaître à l’âge adulte, une fois la maturation cérébrale accomplie. Enfin, dans certains cas, lorsque la cause initiale de l’épilepsie peut être traitée, la maladie peut être guérie.
De la crise aux manifestations associées
La manifestation la plus typique de l’épilepsie est la crise épileptique, dont on distingue deux types : la crise généralisée et la crise focale. Mais les troubles associés de la cognition, du sommeil ou du langage... font aussi partie du syndrome épileptique. Toutes ces manifestations ont des conséquences délétères sur le bien-être, l’insertion scolaire et socioprofessionnelle, la vie quotidienne et la qualité de vie des personnes malades.
Les crises généralisées
Elles sont liées à l’excitation et à la synchronisation de neurones issus d’emblée de plusieurs zones réparties dans les deux hémisphères cérébraux. Elles associent une perte de conscience transitoire (absence de quelques secondes à quelques minutes) à des signes moteurs toniques (contractions musculaires), myocloniques (secousses musculaires), tonicocloniques (associant les deux) ou atoniques (sans tonus musculaire).
Les crises que l’on a longtemps appelées "grand mal" ou "petit mal" constituent les formes les plus connues de crises généralisées. La première, la plus impressionnante, correspond à une crise motrice touchant l’ensemble de la musculature squelettique (raidissement brutal puis secousses), associée à une perte de conscience et à des manifestations végétatives (respiratoires, urinaires...). La seconde, désormais appelée "absence", se caractérise par une rupture brutale de la conscience, parfois accompagnée de légères contractions musculaires des membres ou des paupières, ou encore d’une chute du tonus musculaire.
Les crises focales (ou partielles)
Selon la région cérébrale impliquée, elles engendrent différentes manifestations cliniques : une décharge au niveau du cortex moteur peut par exemple engendrer un raidissement ou des secousses des doigts, selon les neurones incriminés, et peut (ou non) se propager au bras puis au reste du corps. De la même façon, la crise épileptique peut engendrer des fourmillements dans un membre, des hallucinations auditives ou des hallucinations visuelles selon que la décharge électrique touche une région corticale sensitive, auditive ou visuelle...
Pour résumer, les symptômes d’une crise épileptique focale sont innombrables et aussi variés que des troubles du langage, des manifestations de déjà-vu ou déjà-vécu, des signes émotionnels (peur, rire, extase...), des douleurs, des signes végétatifs (salivation, apnée, tachycardie
tachycardie
Rythme cardiaque trop rapide.
...) des gestes automatiques ou des comportements moteurs étranges et souvent explosifs. Une perte de conscience (ou du contact avec l’extérieur) est aussi souvent observée.
L’hyperexcitation de la crise focale peut se propager et, ainsi, engendrer une crise secondairement généralisée.
Les autres manifestations de l’épilepsie
Troubles cognitifs (troubles de la mémoire, du langage, de l’attention…), troubles de l’humeur (dont la dépression) ou troubles du comportement… : les autres manifestations de l’épilepsie sont nombreuses. Lorsqu’elles surviennent durant l’enfance et l’adolescence, période de maturation cérébrale, les crises à répétition peuvent engendrer des troubles neuropsychologiques et neurodéveloppementaux parfois sévères.
Par ailleurs, les crises en tant que telles, par leurs conséquences directes, peuvent entraîner des complications : chutes et risque associé de fractures, de traumatismes voire de décès.
L’épilepsie chez l’enfant
La maladie revêt un certain nombre de spécificités chez l’enfant, qu’elles soient épidémiologiques, étiologiques, cliniques ou thérapeutiques. L'âge auquel débute la maladie détermine souvent le type du syndrome épileptique, dont la gravité varie en fonction de divers facteurs (état de maturation cérébrale, agression cérébrale sous-jacente, prédisposition génétique...).
Ainsi, le syndrome de West (spasmes et troubles du développement psychomoteur) ou le syndrome de Dravet (épilepsie myoclonique sévère) qui apparaissent dès les premiers mois du nourrisson, ou le syndrome de Lennox-Gastaut (absences et crises toniques), qui survient durant les toutes premières années, sont des formes rares mais assez sévères, pouvant être associées à une composante génétique et/ou anatomique (anomalie cérébrale).
À l’inverse, l’épilepsie-absence est une des formes les plus fréquentes de la maladie chez les enfants, dont l’évolution est plus bénigne et qui disparaît souvent à l’adolescence ou chez l’adulte jeune. Elle survient souvent entre 5 et 7 ans, plus particulièrement chez les filles. Cette maladie, qui présente sans doute une composante génétique, est aussi favorisée par les lumières intermittentes ou l’hyperventilation. Elle se manifeste par des absences de quelques dizaines de secondes, dont l’enfant n’a pas mémoire, et s’accompagne de modifications motrices très discrètes (myoclonies, automatismes, diminution du tonus musculaire). Ces crises peuvent se répéter de nombreuses fois au cours d’une même journée.
Enfin, on estime que 2 à 5% des enfants souffrent un jour d’une crise ou de convulsions liée à un épisode fébrile au cours de leurs premières années de vie. Pour la grande majorité d’entre eux, cet épisode n’aura pas d’incidence ultérieure. Cependant, pour quelques-uns, ces premières crises peuvent constituer les prémices d’une épilepsie à venir, en particulier d’une épilepsie mésio-temporale, la forme la plus fréquente d’épilepsie focale de l’adulte.
Une origine polyfactorielle
Des facteurs comme une anomalie métabolique (hypoglycémie, hypocalcémie…), la prise d’un médicament épileptogène (neuroleptiques
neuroleptiques
Médicaments utilisés pour combattre les troubles mentaux.
, certains antidépresseurs, certains antalgiques…) ou l’exposition à un toxique épileptogène (monoxyde de carbone, gaz neurotoxiques…) peuvent expliquer la survenue d’une crise épileptique unique et ponctuelle.
Mais lorsqu’une telle cause accidentelle n’est pas impliquée, il n’est pas toujours facile d’identifier l’origine des épilepsies : la plupart du temps, leur origine est considérée comme polyfactorielle, liée à :
* des facteurs génétiques
* des facteurs environnementaux
* des maladies métaboliques
* des lésions du cerveau (traumatiques, vasculaires, tumorales, malformatives, inflammatoires ou infectieuses)
On parle d’épilepsie cryptogénique lorsque aucune cause évidente n’a pu être identifiée.
L'existence d’une composante génétique dans deux tiers des épilepsies est désormais reconnue, bien qu’elle reste incomplètement élucidée. Certaines formes de la maladie sont clairement associées à la transmission de mutations affectant un gène unique (maladie monogénique) ou à l’apparition d’une mutation de novo, mais la plupart sont probablement d’origine polygénique. Et si certaines mutations ne favorisent que des crises isolées, d’autres inscrivent l’épilepsie dans un tableau clinique plus complexe, associant un retard psychomoteur ou une déficience intellectuelle. Actuellement, plus d’une centaine de gènes impliqués ont déjà été identifiés, et la plupart d’entre eux font l’objet d’une recherche diagnostique en routine.
L’épigénétique joue probablement aussi un rôle dans l’étiologie de la maladie, mais les études qui lui sont dédiées restent encore rares.
À l’échelle du neurone
La crise épileptique correspond à la survenue transitoire de signes et/ou de symptômes dus à une activité neuronale cérébrale intense (hyperexcitabilité) et anormalement synchrone dans les réseaux neuronaux impliqués. L’image la plus parlante serait celle d’un court-circuit troublant le fonctionnement cognitif et/ou le comportement normal du sujet.
La transmission d’information d’un neurone à l’autre se fait habituellement par le cheminement du message nerveux le long de l’axone du premier d’entre eux, via l’activation de différents canaux ioniques. À l’extrémité de l’axone, au niveau de la synapse
synapse
Zone de communication entre deux neurones.
, des échanges d’ions et la libération de neurotransmetteurs
neurotransmetteurs
Petite molécule qui assure la transmission des messages d'un neurone à l'autre, au niveau des synapses.
permettent d’activer différents récepteurs et canaux ioniques localisés sur le second neurone. Une modification de l’activité électrique est alors générée sur ce dernier, conduisant ainsi à la transmission du message nerveux.
L’épilepsie résulterait en partie d’anomalies concernant l’activation des canaux ioniques ou celle des neurotransmetteurs. Ainsi, lors d’une crise, le taux de GABA
GABA
Principal neurotransmetteur inhibiteur.
(un neurotransmetteur inhibiteur) au niveau synaptique est inférieur au taux habituel, tandis que celui du glutamate
glutamate
Neurotransmetteur excitateur le plus répandu dans le système nerveux central.
(excitateur) est anormalement élevé. Pendant longtemps, on a considéré que l’épilepsie était le fruit du déséquilibre entre ces deux neurotransmetteurs. Aujourd’hui, cette seule hypothèse ne suffit plus : d’autres voies cellulaires sont incriminées dans la genèse des crises. C’est notamment le cas dans certaines épilepsies d’origine génétique, pour lesquelles la mutation de gènes codant pour des protéines présentes à la surface des neurones et impliquées dans la transmission nerveuse a été identifiée.
Par ailleurs, l’embrasement électrique (ou kindling) associé aux crises favoriserait la pérennisation de l’épilepsie grâce à l’activation de certains récepteurs à l’acide glutamique (récepteurs NMDA), capables de se réactiver ultérieurement plus facilement, mais également grâce à d’autres modifications structurelles et fonctionnelles qui caractérisent la plasticité neuronale.
Ainsi, réduire les épilepsies à un dysfonctionnement d’un neurotransmetteur ou d’un canal ionique est sans doute simpliste : c’est en général un réseau complexe qui est modifié par la maladie.
L’électroencéphalogramme : examen incontournable
Parce que 10% de la population aura une crise isolée au cours de sa vie, la démarche diagnostique doit permettre de différencier ces évènements d’une véritable maladie épileptique.
La suspicion clinique d’une épilepsie repose sur la survenue d'au moins deux crises non provoquées par un facteur déclenchant et espacées de plus de 24 heures. Une seule crise suffisamment typique et associée à une forte probabilité de récurrence peut parfois suffire à poser l’hypothèse. Plusieurs examens complémentaires permettent ensuite d’écarter d’autres pathologies pouvant provoquer des crises, de poser le diagnostic d’épilepsie, de localiser la région épileptogène et/ou de rechercher et localiser une lésion responsable de l’épilepsie :
* L’examen clinique et un bilan biologique permettent d’écarter la plupart des crises épisodiques liées à un facteur précipitant aigu. Un second bilan biologique, défini selon le bilan clinique et les données de l’EEG et de l’imagerie (cf. ci-dessous) permet de rechercher, par exemple, un désordre métabolique, auto-immun ou génétique.
* L’électroencéphalogramme (EEG) est incontournable, tant pour le diagnostic que pour le suivi la maladie. Il consiste à enregistrer l’activité électrique cérébrale grâce à des électrodes posées sur le scalp durant une vingtaine de minutes. L’aspect, la fréquence et la topographie des anomalies enregistrées en dehors des crises (pointes ou pointes-ondes) aident à caractériser le syndrome épileptique et/ou à localiser la zone cérébrale impliquée. L'EEG standard peut cependant s'avérer normal en dehors des crises. Dans ce cas, il est complété par un enregistrement sur une période plus longue (plusieurs heures) ou après exposition à un facteur favorisant (privation de sommeil…). En cas de doutes sur la nature épileptique des crises, sur le type de crises ou sur leur localisation, des enregistrements d’une semaine à 15 jours sont utilisés. Dans ce cas, un monitorage vidéo est associé à l’EEG afin de corréler les manifestations cliniques et les modifications correspondantes de l’EEG.
* La tomodensitométrie cérébrale (TDM) ou – mieux – l’imagerie par résonance magnétique (IRM) sont les principales méthodes de neuroimagerie utilisées pour éliminer une cause tumorale ou hémorragique, ou pour rechercher une lésion cérébrale épileptogène.
Des traitements essentiellement médicamenteux
Les traitements des épilepsies sont médicamenteux dans la grande majorité des cas. Leur but est de réverser les altérations de la transmission synaptique excitatrice ou inhibitrice et de limiter la propagation des crises. Grâce à ces traitements, la maladie peut être contrôlée (absence de crises) dans 60 à 70% des cas.
Ils agissent à différents niveaux : blocage des canaux synaptiques sodium, potassium ou calcium, inhibition de certains acides aminés excitateurs, stimulation d’autres molécules ayant un effet inhibiteur comme le GABA. Parmi les plus fréquemment utilisés, le phénobarbital, le valproate de sodium, la carbamazépine, l'oxcarbazépine, la lamotrigine, le lacosamide, le topiramate, le zonisamide… Toutes ces molécules ont un profil d’efficacité qui diffère selon le type de syndrome épileptique. Le choix est donc établi selon le diagnostic syndromique, mais aussi en fonction de l'âge, du sexe, de l'existence d'éventuelles comorbidités associées, tout en tenant compte du profil de tolérance de la molécule.
En cas de pharmacorésistance, la chirurgie peut être envisagée à condition que la zone responsable des crises (zone épileptogène), soit focale, unique et suffisamment à distance de régions hautement fonctionnelles (impliquées dans le langage, la motricité...). Dans ce cas, des examens approfondis sont conduits pour évaluer le rapport bénéfice/risque d’une telle opération. Lorsqu’elle est dite curative, l'intervention consiste à enlever (chirurgie de résection) ou à détruire (Gamma-Knife, ablation laser, thermocoagulation) la zone épileptogène. En pratique, ceci n’est envisageable que chez une minorité de patients souffrant d’épilepsie partielle pharmacorésistante.
Pour les autres, des approches dites palliatives, faisant notamment appel à des méthodes de neurostimulation, sont développées depuis une trentaine d’années. L’objective est alors de diminuer la fréquence des crises. Schématiquement, ces approches consistent à agir directement sur le réseau neuronal responsable des crises, ou à en moduler l'excitabilité à distance. Plusieurs techniques sont aujourd’hui proposées : non invasives (stimulation magnétique transcrânnienne, stimulation transcutanée du nerf trijumeau), semi-invasives (stimulation du nerf vague
nerf vague
Nerf reliant le cerveau à divers organes pour assurer la régulation des fonctions autonomes de l'organisme, comme la digestion, la respiration ou la fonction cardiaque.
) ou invasives (stimulation du noyau antérieur du thalamus, stimulation corticale en boucle fermée). Leur utilisation varie en fonction de la problématique soulevée par chaque patient.
Les enjeux de la recherche
Continuer à décrypter...
... l’origine génétique de la maladie
Facilitées par l’avènement du séquençage haut débit, les avancées dans ce domaine sont particulièrement importantes depuis une quinzaine d’années. Identifier l’origine génétique d’une épilepsie permet de stopper les recherches d’une étiologie non génétique, d’identifier les mécanismes moléculaires et cellulaires impliqués dans les manifestations cliniques et dans la maladie, de développer des modèles animaux pour tester de futurs traitements et de proposer un conseil génétique, voire un dépistage génétique prénatal, aux parents qui ont déjà eu un enfant souffrant d’une forme sévère.
Ces cinq dernières années, le séquençage de l’exome de parents et de leurs enfants malades a permis d’identifier de nombreuses mutations dites de novo, impliquées dans des formes sévères d’épilepsie, telles que les encéphalopathies épileptiques. La plupart de ces mutations touchent des gènes codant pour des sous-unités de canaux ioniques ou de récepteurs aux neurotransmetteurs (gène SCN1A, HCN1, KCNQ2…)
Un gène impliqué dans différentes formes d’épilepsie focale
Beaucoup d’épilepsies focales (frontale, temporale, à foyer variable…) sont secondaires à une lésion cérébrale ou à une malformation du développement cortical. Mais il semble de plus en plus évident que certaines sont également liées à des facteurs génétiques parfois uniques (monogéniques). Si des mutations familiales ont pu être identifiées, l’équipe Génétique et physiopathologie des épilepsies familiales de l’Institut du cerveau et de la moelle épinière (ICM – unité Inserm 1127) a montré que certaines sont somatiques, c’est-à-dire acquises au cours du développement, uniquement par les cellules composant le tissu cérébral. En étudiant les différentes formes d’épilepsies focales, l’équipe a identifié des mutations touchant le gène DEPDC5, qui est impliqué dans la voie de signalisation cellulaire
signalisation cellulaire
Ensemble de mécanismes de communication qui régissent le fonctionnement et l’activité des cellules.
mTOR. Cette découverte ouvre potentiellement la voie vers de nouvelles approches thérapeutiques : la voie mTOR constitue en effet déjà la cible de plusieurs médicaments développés en cancérologie, comme l’évérolimus et ses dérivés.
Pour en savoir plus sur ces travaux
... la naissance et la récurrence des crises
Si elle constitue un phénomène cérébral normal face à certaines agressions, ou pour assurer l’apprentissage au cours du sommeil, la synchronisation des neurones est anormalement efficace et prolongée dans l’épilepsie : aussi, la recherche se consacre activement à élucider les mécanismes de l’épileptogenèse, qui aboutit à la formation d’un réseau neuronal propice à la manifestation d’une crise initiale puis à ses récidives. Un autre pan de la recherche vise à décrypter les fondements de l’ictogenèse, le mécanisme déclenchant la crise.
Les données actuelles permettent de penser que l’installation du terrain épileptique est progressive et favorisée par la plasticité cérébrale
plasticité cérébrale
Mécanismes au cours desquels le cerveau est capable de se modifier en réorganisant les connexions et les réseaux neuronaux, dans la phase embryonnaire du développement ou lors d’apprentissage.
importante au cours du développement. Une fois structuré, ce réseau neuronal dysfonctionnel déclencherait les premières crises visibles et resterait ensuite relativement stable dans le temps.
Un modèle animal de l’épilepsie-absence
Les modèles animaux sont indispensables pour avancer dans la compréhension des épilepsies : ils peuvent mimer des épilepsies d’origine lésionnelle, ou des épilepsies pour lesquelles les modifications morphologiques ou fonctionnelles sont idiopathiques
idiopathiques
Qui existe par soi-même, indépendamment d’une autre maladie.
ou d’origine génétique.
À l’Institut des neurosciences de Grenoble (GIN – unité Inserm 1216), l’équipe Synchronisation et modulation des réseaux neuronaux épileptiques a développé un modèle animal permettant d’étudier les mécanismes neurobiologiques de l’épilepsie-absence (anciennement "petit mal"). Il s’agit de la plus fréquente des épilepsies de l’enfant, qui se caractérise par des absences très stéréotypées de plusieurs secondes, associées à des pointes-ondes typiques lors d’un enregistrement l’EEG. La lignée des rats GAERS (Genetic Absence Epilepsie Rats from Strasbourg) a été développée en sélectionnant des lignées de rats naturellement épileptiques, qui présentent le même type d’anomalies comportementales et EEG que l’humain.
Ces travaux ont permis de suggérer que l’épileptogenèse reposerait sur un mécanisme progressif, s’établissant à bas bruit durant plusieurs années avant la crise inaugurale et le diagnostic proprement dit. En effet, des anomalies EEG cliniquement non visibles sont mises en évidence précocement chez le raton GAERS dès 15 jours après la naissance. Elles évoluent et se structurent au cours des semaines suivantes pour aboutir aux premiers symptômes typiques vers l’âge de 30 jours.
On pense également désormais que la maladie ne repose pas uniquement sur le dysfonctionnement des neurones : les cellules gliales, qui les entourent et participent à leur maturation, alimentation et synchronisation, pourraient jouer un rôle. Les astrocytes
astrocytes
Cellule gliale en forme d’étoile qui assure le support et la protection des neurones.
semblent en particulier dysfonctionner dans certains modèles animaux. Une inflammation locale pourrait notamment en modifier le fonctionnement.
Pour avancer sur cette voie, les modèles animaux sont indispensables : ils peuvent mimer des épilepsies d’origine lésionnelle, ou des épilepsies pour lesquelles les modifications morphologiques ou fonctionnelles sont idiopathiques ou d’origine génétique.
Dans le cerveau en développement
Habituellement, au cours du développement, les neurones réorganisent les connexions qu’ils créent entre eux pour n’en privilégier que quelques-unes. Des chercheurs de l’Institut de neurobiologie de la Méditerranée (Inmed - unité Inserm 1249, équipe Bases moléculaires et physiopathologie des malformations du cortex cérébral) ont observé que ce tri n’est pas réalisé chez les patients épileptiques. En conséquence, ces derniers garderaient des réseaux de communication très développés, propices à la synchronisation des neurones. Plus récemment, dans un modèle animal d’épilepsies infantiles sévères transmissibles, ils ont décrit un retard de migration et de maturation des cellules neuronales au cours du développement cérébral in utero, lié à la présence d’une mutation du gène TBC1D24.
… le lien entre crises et symptômes associés
Il semble aujourd’hui établi qu’une relation bidirectionnelle existe entre l’épilepsie et les troubles associés aux crises (cognition, humeur, sommeil…), suggérant l’existence de mécanismes neurobiologiques communs. Des anomalies structurelles, fonctionnelles et neuropathologiques similaires ont ainsi été identifiées chez les sujets souffrant d’épilepsie et ceux sujets à d’autres troubles. Il pourrait aussi exister une composante génétique, certaines familles présentant par exemple des antécédents de dépression et d’épilepsie plus fréquents que la population générale. Enfin, il est probable que, conjointement à ces mécanismes communs, des bouleversements neuronaux secondaires aux crises initient ou amplifient les troubles associés.
Une mutation associée à plusieurs troubles
En cherchant à comprendre les liens entre certaines épilepsies pédiatriques, les encéphalopathies épileptiques, et les troubles cognitifs et comportementaux qui leur sont associés (déficience intellectuelle, trouble du langage…), des chercheurs de l’Inmed (équipe Épilepsies et encéphalopathies néonatales, du nourrisson et de l’enfance) ont identifié une mutation commune : elle affecte le gène GRIN2A, qui code pour les récepteurs NMDA régissant la communication interneuronale.
Épilepsie et dépression
Des chercheurs de l’Institut de neurosciences des systèmes (INS - unité Inserm 1106, Marseille) ont développé un modèle animal d’épilepsie du lobe temporal
lobe temporal
Région latérale inférieure du cerveau qui se trouve au niveau des tempes.
, une forme de la maladie associée à une dépression dans 30% des cas chez l’humain. Dans ce modèle, les animaux qui présentaient un faible taux de BDNF (un facteur de croissance
facteur de croissance
Molécule qui favorise ou inhibe la multiplication des cellules.
du cerveau) avant la première crise étaient ensuite plus vulnérables face à la dépression. Rétablir le taux de BDNF initial, pharmacologiquement ou en limitant la survenue d’antécédents de stress intense, permettrait d’éviter le développement de ce trouble de l’humeur.
Trouver de nouveaux traitements
Si 60 à 70% des patients répondent favorablement aux médicaments, la recherche thérapeutique est encore nécessaire. En effet, la mise à disposition de molécules plus efficaces ou présentant moins d’effets secondaires (fatigabilité, somnolence, tremblement, troubles cognitifs ou de l’humeur, prise ou perte de poids…) permettrait d’améliorer le contrôle de la maladie et la qualité de vie des malades. Par ailleurs, ceux qui répondent peu ou pas aux traitements médicamenteux ont besoin de solutions alternatives.
Ainsi, de nombreux essais cliniques sont aujourd’hui conduits soit avec des molécules déjà utilisées dans d’autres maladies neurologiques (évérolimus, fenfluramine, nalutozan...), soit avec de nouvelles molécules ciblant les mécanismes d’action des antiépileptiques actuels (selurampanel, CPP115, cenobamate, ganaxolone...). Mais l’important effort de compréhension des mécanismes neurobiologiques de la maladie a aussi permis l’émergence d’une nouvelle génération de traitements expérimentaux visant à interagir avec des cibles thérapeutiques inédites (huperzine A, cannabidiol, tonabersat, 2-deoxyglucose, pitolisant...).
De nouvelles approches galéniques, permettant de délivrer les médicaments au site même du foyer épileptogène (nanoparticules, nanotechnologies), améliorant ainsi la balance bénéfice-risque des médicaments antiépileptiques, sont également en développement.
Enfin, l’identification de marqueurs prédictifs des crises et la compréhension des mécanismes de résistance aux traitements (pharmacogénétique) permettront d’optimiser les stratégies de prévention et de prise en charge des crises.
Un cerveau virtuel pour décrypter l’épilepsie
Des chercheurs de l’Institut de neurosciences des systèmes (INS, Marseille) ont participé au développement d’un modèle in silico de cerveau virtuel, permettant de reconstituer le cerveau d’une personne atteinte d’épilepsie.
Ce modèle de base peut être implémenté par les informations propres au patient, pour mimer les spécificités de ses crises (initiation, propagation). Cet outil, capable de reconstruire en imagerie 3D dynamique les régions du cerveau, leurs connexions et l’activité électrique, génère des crises similaires aux crises réelles du patient. Il pourrait aider à évaluer de nouvelles stratégies thérapeutiques.
En savoir plus
D’autres approches, moins conventionnelles, pourraient en outre bouleverser l’offre thérapeutique dans l’épilepsie à moyen terme, comme la thérapie génique, l’optogénétique (qui consiste à intégrer des protéines naturellement sensibles à la lumière dans les neurones pour en contrôler l’activité), l’implantation de capteurs permettant de prédire la survenue des crises, ou le développement d’antagonistes (baptisés antagomirs) de certains microARN, ces petits ARN
ARN
Molécule issue de la transcription d'un gène.
non codants circulants dont le rôle a été décrit dans l’épilepsie...
Le traitement chirurgical, aujourd’hui proposé lorsque la région épileptogène est localisée dans une partie du cerveau accessible et opérable sans risque majeur, est aujourd’hui complété par de nombreuses approches de stimulation électrique cérébrale ou périphérique : aux sites d’implantation actuellement confirmés pourraient s’ajouter certaines approches ciblant notamment le cervelet ou l’hippocampe.
Des rayons X contre les crises
L’équipe Synchronisation et modulation des réseaux neuronaux épileptiques (GIN, Grenoble) s’intéresse également à l’utilisation de rayons X générés par synchrotron
synchrotron
Grand instrument électromagnétique destiné à l’accélération à haute énergie de particules élémentaires.
dans le traitement des épilepsies : l’équipement européen ultra-puissant basé à Grenoble est capable de délivrer des microfaisceaux de quelques dizaines de microns qui restent bien tolérés par le tissu nerveux. Ainsi, l’irradiation sous plusieurs angles de la région corticale génératrice de crises chez le rat GAERS (modèle génétique d'épilepsie-absence) a permis de supprimer les crises pendant plusieurs mois.
DOCUMENT inserm LIEN |
|
|
|
|
|
|
Big data en santé |
|
|
|
|
|
Big data en santé
Sous titre
Des défis techniques, humains et éthiques à relever
Dans le domaine de la santé, le big data (ou données massives) correspond à l’ensemble des données socio-démographiques et de santé, disponibles auprès de différentes sources qui les collectent pour diverses raisons. L’exploitation de ces données présente de nombreux intérêts : identification de facteurs de risque de maladie, aide au diagnostic, au choix et au suivi de l’efficacité des traitements, pharmacovigilance, épidémiologie… Elle n’en soulève pas moins de nombreux défis techniques et humains, et pose autant de questions éthiques.
Dossier réalisé en collaboration avec Rodolphe Thiebaut, directeur de l’équipe Statistiques pour la médecine translationnelle (unité 1219 Inserm/Inria), enseignant à l'ISPED (Bordeaux), directeur de l’unité de soutien méthodologique à la recherche clinique et épidémiologique au CHU de Bordeaux et chercheur au Vaccine Research Institute (Créteil).
Comprendre l’importance du big data en santé
En santé comme dans bien d’autres domaines, les progrès technologiques ont fait exploser la quantité d’informations recueillies à chaque instant. Ainsi, si dix ans ont été nécessaires pour obtenir la première séquence d’un génome humain, en 2003, il faut aujourd’hui moins d’une journée pour parvenir au même résultat. Cette accélération technologique fait croître le volume de données disponibles de manière exponentielle. Une aubaine pour la recherche en santé pour qui le big data est une source presque inépuisable de nouvelles connaissances, indispensables à l’innovation et aux progrès médicaux !
Un nombre important de sources et de types de données
La France possède environ 260 bases de données publiques dans le domaine de la santé, et le portail Epidémiologie‐France recense jusqu’à 500 bases de données médico-économiques, cohortes, registres et études en cours.
Les bases de données médico-administratives
Ces bases offrent des données objectives et très exhaustives à l’échelle de larges populations, avec peu de personnes perdues de vue en cours de suivi. Des atouts majeurs par rapport aux informations qui peuvent être recueillies lors d’études, poursuivies à court ou moyen terme, menées dans des populations spécifiques ou en nombre limité, et souvent fondées sur les déclarations des participants.
La plus riche des bases médico-administratives est le SNIIRAM (Système national d’information interrégimes de l’Assurance maladie). Dans cette base sont enregistrés tous les remboursements effectués par l’Assurance maladie pour chaque cotisant, tout au long de leur vie (biologie, médicaments, ambulances, consultations avec dates et noms des professionnels de santé vus, codes du type de maladie dans certains cas…). Ce système permet le suivi à long terme de données fiables.
Il existe beaucoup d’autres bases médico-administratives, comme celle de l’ATIH (Agence technique de l'information sur l'hospitalisation) ou celles des caisses de retraite (dont la CNAV). Il existe également des bases gérées par des centres de recherche, notamment celle du CépiDc (Inserm) qui recense les causes médicales de décès en France depuis 1968.
Qui accède aux données du SNIIRAM ?
La base est actuellement accessible aux agences sanitaires et organismes publics de recherche à but non lucratif. En 2013, une cinquantaine de chercheurs l’a interrogée de manière régulière, réalisant plus de 17 000 requêtes, soit 30% de plus que l'année précédente.
Un arrêté du ministère de la Santé qui interdit l'accès à cette base aux organismes à but lucratif (compagnie d'assurances, laboratoire pharmaceutique…) a été jugé illégal par le Conseil d’État qui demande son annulation d’ici fin 2016. Par conséquent, toutes les structures voulant mener une étude d'intérêt général pourront bientôt accéder à ces données et les demandes devraient donc exploser dans les années à venir.
Les cohortes
Une cohorte est un groupe de personnes partageant un certain nombre de caractéristiques communes, que des chercheurs suivent pendant un temps plus ou moins long afin d’identifier la survenue d’événements de santé (maladie ou dysfonctionnement de l’organisme) et des facteurs de risque ou de protection s’y rapportant.
Les organismes de recherche montent de grandes cohortes, incluant jusqu’à plusieurs dizaines de milliers de personnes, suivies pendant plusieurs années. C’est le cas par exemple des cohortes Constances, I-Share ou encore MAVIE et NutiNet-Santé, mises en œuvre en partenariat avec l’Inserm. La cohorte Constances, en cours de constitution, inclura à terme 200 000 adultes de 18 à 69 ans consultant dans des centres d'examens de santé de la Sécurité sociale. La cohorte I-Share incluera 30 000 étudiants des universités, suivis pendant 10 ans. L’observatoire MAVIE étudie les accidents de la vie quotidienne chez plus de 25 000 volontaires internautes. Quant à NutiNet-Santé, elle récolte une multitude de données sur le mode de vie, la santé et les habitudes alimentaires de 500 000 Français.
Toutes ces données récoltées permettent des études et une surveillance épidémiologique, potentiellement à fort impact en santé publique.
Les études cliniques
Les laboratoires publics mènent par ailleurs de très nombreux travaux de recherche clinique, incluant des populations particulières de patients dont les profils de risque et les états de santé sont analysés. Or, le nombre de données collectées chez un même patient ne cesse de croitre, avec des centaines d’informations recueillies chez un même individu, contre une dizaine il y a quelques années.
En oncologie, des dizaines de paramètres cliniques, biologiques, d’imagerie et de génétique sont systématiquement recueillis. C’est aussi le cas pour le développement des vaccins. Ainsi, dans le cadre de l’essai clinique DALIA réalisé par Vaccine Research Institute, destiné à évaluer un vaccin thérapeutique contre le VIH, toutes les cellules immunitaires des patients ont été comptées grâce à la reconnaissance des marqueurs de surface, et leur fonctionnalité a été testée. Le protocole a généré environ 800 mesures par patient et par visite, sans compter l’étude de l’expression génétique de nombreux marqueurs (47 000 sondes/patient/visite) et du séquençage à haut débit du virus lui-même.
Les objets de santé connectés
Les objets de santé connectés génèrent également de très nombreuses données transmissibles et partageables : appareils mesurant le nombre de pas, la fréquence cardiaque, la glycémie
glycémie
Taux de glucose (sucre) dans le sang.
, la pression artérielle… Ces données sont le plus souvent stockées et gérées par des géants d’internet ou GAFAM : Google, Apple, Facebook, Amazon et Microsoft.
Les enjeux de la recherche
Des défis techniques majeurs
Les énormes volumes de données désormais disponibles soulèvent des défis techniques concernant leur stockage et les capacités d’exploitation. Des programmes et des algorithmes informatiques et statistiques de plus en plus complexes s’avèrent nécessaires.
Les organismes de recherche disposent tous de serveurs de stockage et de supercalculateurs. Dans la plupart des cas, compte tenu de leur coût, ces plateformes sont mutualisées. C’est par exemple le cas du Mésocentre de calcul intensif aquitain (MCIA, Bordeaux), partagé par les universités de Bordeaux et les laboratoires CNRS, Inra, Inria et Inserm de la région. Autre exemple à Lyon, avec Platine, une plateforme européenne d’immunomonitoring gérée par plusieurs entreprises de biotechnologie ainsi que le Centre Léon Bérard de lutte contre le cancer et l’Inserm. Elle vise à aider les médecins à la décision thérapeutique en cancérologie et en infectiologie, en permettant l’analyse du statut immunologique initial des patients.
Autre problématique, les données massives sont assez fragmentées. Les informations collectées sont en effet de plus en plus hétérogènes, de par :
* leur nature (génomiquegénomiqueÉtude conduite à l’échelle du génome, portant sur le fonctionnement de l’organisme, d’un organe, d’une pathologie...
, physiologique, biologique, clinique, sociale…),
* leur format (texte, valeurs numériques, signaux, images 2D et 3D, séquences génomiques…),
* leur dispersion au sein de plusieurs systèmes d'information (groupes hospitaliers, laboratoires de recherche, bases publiques…).
Pour rendre possible leur traitement et leur exploitation, ces informations complexes doivent être acquises de manière structurée, et codées avant de pouvoir être intégrées dans des bases ou des entrepôts de données. Des standards se développent, tel I2b2 (pour Informatics for Integrating Biology and the Bedside), développé à Boston et désormais utilisé au CHU de Rennes, à Bordeaux ou encore à l’Hôpital européen Georges Pompidou (Paris). Ce système a par exemple été utilisé́ pour identifier et quantifier le risque accru d’infarctus du myocarde chez les patients sous Avandia, et a contribué́ au retrait du marché́ de ce médicament.
Grâce à ces standards, les hôpitaux et les centres de soins sont mieux armés pour compiler toutes les données collectées (pharmacie, biologie, imagerie, génomique, médico-économique, clinique...) dans des entrepôts de données biomédicales, interrogeables par les chercheurs via des interfaces web. De nombreuses équipes de recherche travaillent également sur des plateformes intégrées, pour apparier des bases et agréger leurs données avec celles de cohortes. Ainsi, le projet Hygie, conduit par l’Institut de recherche et de documentation en économie de la santé, apparie les bases SNIIRAM et SNGC (Système national de gestion des carrières de l’Assurance retraite). L’objectif est de constituer un système d’information sur les indemnités journalières de sécurité́ sociale sur un échantillon de 800 000 personnes, qui servira à enrichir les fichiers de la cohorte CONSTANCES.
En pratique
Lorsqu’un chercheur souhaite démarrer une étude se fondant sur l’utilisation de données massives, il commence par identifier les bases qui lui sont utiles et demande un accès spécifique aux équipes ou organismes qui détiennent ces données. Il doit ensuite s’entourer de nombreuses compétences pour effectuer des méta-analyses
méta-analyses
Analyse statistique faite à partir de plusieurs études portant sur un même sujet.
intégrant toutes ces données. Pour l’essai DALIA par exemple, l’analyse des résultats a nécessité la contribution d’une cinquantaine de personnes issues de disciplines différentes : cliniciens, immunologistes, biologistes, virologistes, techniciens de laboratoire, assistants de recherche clinique, gestionnaires de bases de données, biostatisticiens ou encore bioinformaticiens.
Le big data, quelles utilités ?
Entreprises, organismes de recherche, à but lucratif ou non, scientifiques, médecins, industriels…. Le big data intéresse de très nombreux acteurs du monde de la santé car il permet de nombreux progrès médicaux.
Mieux prévenir et prendre en charge les maladies
Les données multidimensionnelles récoltées à long terme sur de larges populations, permettent d’identifier des facteurs de risque pour certaines maladies comme le cancer, le diabète, l’asthme ou encore les maladies neurodégénératives. Ces facteurs servent ensuite pour construire des messages de prévention, et mettre en place des programmes à destination des populations à risque.
Le big data permet en outre le développement de systèmes d’aide au diagnostic et d’outils permettant la personnalisation des traitements. Ces systèmes se fondent sur le traitement de grandes masses de données cliniques individuelles. Dans cette veine, le super-ordinateur Watson d’IBM permet par exemple d’analyser en quelques minutes le résultat du séquençage génomique de patients atteints de cancer, de comparer les données obtenues à celles déjà disponibles, et de proposer ainsi une stratégie thérapeutique personnalisée. En l’absence de cet outil, ce travail d’analyse prend plusieurs semaines. Les cliniques et hôpitaux intéressés passent un partenariat avec IBM qui détient ce super-ordinateur et fournit les résultats.
Le big data peut également permettre de vérifier l’efficacité d’un traitement. Par exemple, dans le domaine des vaccins, les cliniciens mesurent aujourd’hui des centaines de paramètres au cours des essais cliniques : comptages cellulaires, fonctionnalité cellulaire, expression de gènes d’intérêt... alors qu’il y a quelques années, on se limitait à la concentration des anticorps
anticorps
Protéine du système immunitaire, capable de reconnaître une autre molécule afin de faciliter son élimination.
d’intérêt. À terme, cette évolution, les données massives qu’elle génère et la capacité à les analyser, pourrait permettre de vérifier qu’une vaccination a bien fonctionné au bout d’une heure seulement, à partir d’une micro goutte de sang.
Prédire des épidémies
Disposer de nombreuses informations sur l’état de santé des individus dans une région donnée permet de repérer l’élévation de l’incidence de maladies ou de comportements à risque, et d’alerter les autorités sanitaires.
Ainsi, le site HealthMap a pour objectif de prédire la survenue d’épidémies à partir de données provenant de nombreuses sources. Développé par des épidémiologistes et des informaticiens américains en 2006, ce site fonctionne en collectant les notes de départements sanitaires et d’organismes publics, les rapports officiels, des données internet… Le tout est mis à jour en continu pour identifier des menaces sanitaires et alerter les populations. Citons aussi le simulateur GLEAM, destiné à prédire la dissémination d’une épidémie en particulier, en exploitant les données de transport aérien.
En France, depuis 1984, le réseau Sentinelles suit plusieurs maladies infectieuses et alerte sur les épidémies grâce à la contribution de 1 300 médecins généralistes et d’une centaine de pédiatres répartis sur tout le territoire. Ces derniers rapportent au moins une fois par semaine le nombre de cas observés pour sept maladies transmissibles (diarrhée aiguë, maladie de Lyme, oreillons, syndromes grippaux, urétrite masculine, varicelle et zona) ainsi que les actes suicidaires. Les données sont transmises, via un réseau sécurisé, auprès de l’institut Pierre Louis d’Épidémiologie et de Santé Publique France, en collaboration avec l'Institut de veille sanitaire (InVS).
Améliorer la pharmacovigilance
L’analyse des données issues de cohortes ou des bases médico-économiques sur le long terme peut donc permettre d’observer beaucoup de phénomènes, et notamment de faire des rapprochements entre des traitements et la survenue d’événements en santé. Cette pratique permet de repérer des événements indésirables graves et d’alerter sur certains risques. En 2013, la base de données du SNIIRAM avait ainsi permis d’étudier le risque d’AVC et d’infarctus du myocarde chez les femmes utilisant une pilule contraceptive de 3e génération.
Entre protection des données et avancée de la recherche : les défis éthiques du big data
Lors d’un essai clinique, un consentement est nécessaire avant le recueil de données de santé. De même, tout chercheur ou clinicien qui utilise des données du soin doit en informer le patient concerné et faire une déclaration auprès de la CNIL. Mais d’autres recueils se font à l’insu des contributeurs, notamment lors de recherches sur internet par mots clés ou lors de la transmission de données d’objets connectés. Cela pose évidemment des problèmes éthiques relatifs au souhait des citoyens de partager ou non ces données avec des tiers, ainsi que sur la préservation de l’anonymat.
Et de nombreuses autres questions se posent : faut-il conserver toutes les données ? Faut-il les mutualiser ? Qui doit les gérer et sous quelles conditions les partager ? Comment faire en sorte que Google, Apple, Facebook et Amazon ne s’approprient pas une partie d’entre elles ? Les enjeux sont de taille : risque de divulgation de la vie privée et conséquences pour la vie sociale, perte de confiance dans la puissance publique et la confidentialité de la recherche, harcèlement publicitaire... Ces problématiques font régulièrement l’objet d’avis de la part de comités d’éthiques, dont le Comité consultatif national d’éthique en France.
Les pouvoirs publics se sont également saisis de la question : la loi de modernisation de notre système de santé, promulguée le 26 janvier 2016, prévoit en effet l'ouverture des données agrégées de santé à des fins de recherche, d'étude ou d'évaluation d'intérêt public, à tout citoyen, professionnel de santé ou organisme (public ou privé) participant au fonctionnement du système de santé et aux soins. Cette ouverture est assortie de plusieurs conditions :
* les données ne doivent pas permettre l’identification des personnes concernées (la loi restreint drastiquement l’accès aux données à caractère personnel pouvant permettre l’identification d’une personne),
* les travaux ne doivent pas aboutir à la promotion de produits en direction des professionnels de santé ou d'établissements de santé, ni permettre l'exclusion de garanties des contrats d'assurance ou la modification de cotisations ou de primes d'assurance.
Pour y avoir accès, tout organisme de recherche ou d’étude désireux de mener un projet d’intérêt public doit soumettre ce dernier à l’Institut national des données de santé, composé entre autres de représentants de l'État, d'usagers de l'Assurance-maladie et de producteurs et d'utilisateurs publics et privés de données de santé. Le protocole de l’étude devra ensuite être validé par un comité scientifique, avant que la CNIL ne se prononce sur ses aspects relatifs au respect de la vie privée. Néanmoins, en juin 2016, les décrets d’application pour cette nouvelle organisation n’étaient toujours pas parus.
L’Inserm et le Système national des données de santé
La loi de modernisation du système de santé de janvier 2016 prévoit la création du Système national des données de santé (SNDS). Ce système sera notamment composé :
* des données de l'Assurance maladie (SNIIRAM),
* des données hospitalières (PMSI)
* des causes de décès (CépiDc-Inserm).
Il est prévu que la gouvernance de ce système inclue les producteurs de données, parmi lesquels l'Inserm. Plus concrètement, l’Inserm devrait jouer le rôle d’opérateur d’extraction et de mise à disposition des données pour des traitements mis en œuvre à des fins de recherche.
Marisol Touraine, ministre des Affaires sociales et de la Santé, a lancé en avril 2016 une consultation nationale en ligne sur le big data en santé. L’objectif est que chaque Français puisse donner son avis sur les objectifs souhaités pour les patients, les professionnels de santé, les industries, les assureurs ou la puissance publique, mais également sur les conditions dans lesquelles l’exploitation des données de santé est acceptable. Les conclusions sont attendues fin 2016. Les chercheurs plaident quant à eux pour une ouverture assez large des données, et un accès simplifié. Leur souhait est de parvenir à accélérer la recherche via des plateformes techniques adaptées, permettant de hauts niveaux de sécurité (ne collecter que des données ayant un intérêt potentiel pour le sujet de recherche, cloisonner les données identifiantes, chiffrer certaines informations, limiter les accès et la copie des informations...).
DOCUMENT inserm LIEN |
|
|
|
|
|
|
Diabète de type 1 |
|
|
|
|
|
Diabète de type 1
Sous titre
Une maladie auto-immune de plus en plus fréquente
Le diabète correspond à une élévation prolongée de la concentration de glucose dans le sang : on parle d'hyperglycémie. Dans le cas du diabète de type 1, ce dérèglement est dû à un déficit d’insuline, une hormone régulatrice de la glycémie
glycémie
Taux de glucose (sucre) dans le sang.
. Potentiellement très grave s’il n’est pas contrôlé, le diabète de type 1 est aujourd’hui très bien pris en charge (mais pas guérit) grâce à un apport d’insuline exogène. Les patients qui bénéficient d'une insulinothérapie ont ainsi une espérance de vie équivalente au reste de la population. Néanmoins, la recherche continue à décrypter les mécanismes de la maladie, avec notamment l'objectif de comprendre comment la prévenir, mais aussi d'améliorer encore les traitements.
Dossier réalisé avec la collaboration de Roberto Mallone, équipe Diabète de type 1 : Tolérance, biomarqueurs et thérapies T cellulaires, unité 1016 Inserm/CNRS/Université Paris Descartes, Institut Cochin, Paris
Comprendre le diabète de type 1
Chez les personnes atteintes de diabète de type 1, une production insuffisante – voire nulle – d’insuline entraîne une élévation prolongée de la concentration de glucose dans le sang (ou glycémie). L’insuline, une hormone essentielle à la régulation de la glycémie, est normalement produite par cellules spécialisées du pancréas : les cellules ß des îlots de Langerhans.
Le diabète de type 1, maladie auto-immune
Le diabète de type 1 (DT1) est causé par le dysfonctionnement de lymphocytes T (des cellules du système immunitaire) qui se mettent à identifier les cellules ß du pancréas comme des cellules étrangères à l'organisme du patient, et à les éliminer. Il s’agit donc d’une maladie auto-immune, détectable par la présence d’autoanticorps.
Les symptômes apparaissent plusieurs mois, voire plusieurs années après le début de ces événements, lorsque la plupart de ces cellules productrice d'insuline ont été détruites. Longtemps considéré comme un "diabète de l’enfant", le DT1 peut survenir à tout âge.
Absence d’insuline : les conséquences
L’insuline favorise l’entrée du glucose dans plusieurs types de cellules, notamment dans les cellules musculaires, les adipocytes (cellules graisseuses) et les hépatocytes (cellules du foie). L’absence de cette hormone empêche l’organisme de stocker du sucre. Elle entraîne donc un risque majeur d’hyperglycémie au moment des prises alimentaires. Pour les patients sous insulinothérapie, il existe en outre un risque d’hypoglycémie entre les repas, en cas d'injection d'une dose excessive d'insuline. Ces hypoglycémies peuvent être graves en l’absence de prise rapide de sucre, avec notamment un risque de coma.
En l’absence de glucose pour alimenter les organes, en particulier le cerveau et le cœur, l’organisme a recours à une solution de secours : il utilise les graisses stockées pour produire des substances énergétiques alternatives, nommées corps cétoniques. Cependant, l'accumulation de corps cétonique dans le sang s’avère toxique pour l’organisme : au-delà d'un certain taux, on parle d'acidocétose diabétique. Elle se manifeste par différents symptômes, notamment des douleurs abdominales, et peut elle-aussi conduire au coma.
Risque de complications majeures après 10 à 20 ans
Quotidiens chez les patients dont le diabète est mal contrôlé, ces évènements sont délétères pour les organes. En outre, un contrôle glycémique insuffisant entraîne des complications graves à long terme, survenant plusieurs années après le début du déséquilibre (souvent jusqu'à 10 à 20 ans après).
Ces complications concernent principalement le cœur et les vaisseaux, qui sont les premiers lésés par une concentration excessive et permanente de glucose dans le sang. Le diabète entraine ainsi des lésions vasculaires augmentant le risque d’athérosclérose, d’infarctus du myocarde, d’AVC ou encore d’artérite des membres inférieurs. Le diabète affecte également les petites artères qui nourrissent les reins, les nerfs des membres inférieurs et la rétine – on parle alors de complications micro-vasculaires.
Le diabète (types 1 et 2 confondus) multiplie par trois à cinq le risque d’infarctus du myocarde. La maladie augmente aussi le risque d’insuffisance rénale (nécessitant une dialyse, voire une greffe), d’amputation d’un membre inférieur suite à une artérite, ou encore de cécité.
Une origine à déterminer
L’apparition de la réaction auto-immune à l'origine du diabète de type 1 dépend de l’association de gènes de prédisposition et de facteurs environnementaux. Si l’on excepte les rares cas de diabète de type 1 associés à des maladies d’origine monogénique (comme par exemple les syndromes APECED et IPEX, entrainant des atteintes auto-immunes multiples), les variations génétiques associées à cette maladie sont nombreuses. La plus fréquente découverte à ce jour est localisée dans les gènes du système HLA, impliqué dans la tolérance immunitaire vis-à-vis à des cellules du "soi". Quant aux facteurs environnementaux incriminés, ils sont encore à l’étude (voir plus loin).
Une maladie de plus en plus fréquente
Le diabète de type 1 représente environ 10% des cas de diabètes en France et dans le monde. La moitié des cas se déclare avant l’âge de 20 ans. Actuellement en France, l’incidence du diabète de type 1 est d’environ 15 cas pour 100 000 enfants de moins de 15 ans. Ce chiffre varie d’un pays à l’autre, avec en Europe un gradient nord-sud marqué par une prévalence
prévalence
Nombre de cas enregistrés à un temps T.
plus importante au Nord.
Depuis une vingtaine d’années, le nombre de personnes atteintes de diabète de type 1 ne cesse d’augmenter, au rythme de 3 à 4% par an. En outre, son apparition est de plus en plus précoce, avec une augmentation importante de la prévalence chez les enfants de moins de 5 ans. Les raisons de ces évolutions sont inexpliquées à ce jour, mais certaines modifications de l’environnement et de son interaction avec le génome sont montrés du doigt : accroissement de l’âge maternel, type d’allaitement dans les premiers mois de la vie, facteurs nutritionnels, modification de la flore intestinale, exposition à des toxines… Le facteur le plus nettement mis en cause est à ce jour le taux d’infection par des entérovirus (échovirus ou coxsackie B).
Signes d’alerte et détection
La principale méthode de détection du diabète à un stade précoce est la mesure de la glycémie à jeun. La glycémie normale est d’environ 1 gramme de glucose par litre de plasma sanguin, à jeun. Elle varie au cours de la journée, augmentant en particulier durant plusieurs heures après les repas, d’où la nécessité de réaliser cette mesure à jeun le matin, mais parfois également après les repas pour détecter des anomalies plus discrètes.
* Avec une glycémie de 1,10 à 1,26 g/l, le patient est considéré comme prédiabétique.
* Si la glycémie dépasse 1,26 g/l lors de deux dosages successifs, le diabète est déclaré.
D’autres critères – glycémie postprandiale, glycémie provoquée, taux d’hémoglobine glyquée (hémoglobine
hémoglobine
Protéine qui, associée au fer, permet le transport de l’oxygène dans les globules rouges.
sur laquelle s'est fixé du glucose) – peuvent confirmer ou préciser le diagnostic.
Cependant, les patients consultent généralement plus tard, lorsque le déséquilibre glycémique a déjà provoqué des signes cliniques : des épisodes d'hyperglycémie, associés à une fatigue, une soif intense, une augmentation de la fréquence des envies d’uriner et du volume des urines, et/ou une perte de poids malgré un bon appétit sont des annonciateurs de la maladie.
Ces signes sont partagés par les deux types de diabète. Mais la présence d'autoanticorps circulants dans le sang permet de poser le diagnostic de diabète de type 1, et d’adapter le traitement en conséquence.
Les trois stades de la maladie
Les spécialistes considèrent aujourd’hui le diabète de type 1 comme un continuum composé de trois stades :
* Stade 1 : La présence d’autoanticorps dans le sang révèle une activation du système immunitaire contre les cellules ß du pancréas, mais le patient est asymptomatique car la plupart des cellules ß productrices d'insuline sont encore présentes et fonctionnelles.
* Stade 2 : Le patient est toujours asymptomatique mais des tests métaboliques fins peuvent révéler une altération de la fonction pancréatique (un retard de sécrétion d’insuline).
* Stade 3 : Les symptômes d’hyperglycémie amènent le patient à consulter : à ce stade, un nombre critique de cellules ß a déjà été détruit.
Des programmes expérimentaux de dépistage dès le stade 1, par mesure du taux sanguin d’anticorps, ont été lancés dans plusieurs pays européens. Ils concernent pour l’instant des personnes apparentées à des malades, qui ont 10 à 20 fois plus de risque que la population générale de contracter elles-mêmes la maladie.
L’insulinothérapie, traitement de référence
Le traitement du diabète de type 1 repose sur des injections sous-cutanées d'insuline, plusieurs fois par jour, pour compenser son défaut de production par l'organisme. On utilise aujourd’hui des analogues d’insuline humaine, produits par des bactéries génétiquement modifiées.
* Les analogues "rapides" possèdent une action quasiment immédiate et de courte durée, utile pour faire redescendre rapidement le taux de glucose en cas de prise alimentaire.
* Les analogues d’action ultra lente (insulines basales) sont actifs pendant environ 24 heures et assurent la présence permanente d’insuline dans le sang tout au long de la journée, comme chez un individu non diabétique.
Ces deux types d'analogue sont complémentaires.
Un traitement bien suivi permet le plus souvent d’obtenir des profils glycémiques se rapprochant de la normale, et d’éviter ainsi l’apparition de complications macro et microvasculaires à long terme. Néanmoins, l’insulinothérapie est un traitement lourd et chronique ("à vie") : le patient doit lui-même mesurer sa glycémie plusieurs fois par jour en se piquant le doigt, et adapter les doses d’insuline à s'injecter. Une éducation thérapeutique est indispensable, notamment pour limiter le risque d’hypoglycémie.
Des lecteurs flash du glucose permettent aujourd’hui aux patients de vérifier leur glycémie à tout moment, sans se piquer le doigt, grâce à un petit capteur installé sur la peau qui effectue des mesures environ toutes les 10 minutes. Des pompes à insuline sont également utiles pour certains patients : de la taille d’un téléphone portable et fixées à la ceinture, elles injectent directement l’insuline via un cathéter. Le patient doit tout de même surveiller régulièrement sa glycémie pour adapter les doses à injecter. Et dans les années à venir, des pancréas artificiels vont faire leur apparition sur le marché. Déjà parvenus à un stade avancé de développement, en particulier au CHU de Montpellier, ces dispositifs se présentent comme des pompes à insuline munies d’un capteur sous-cutané pour contrôler la glycémie, et capables d’adapter automatiquement la dose à injecter, du moins en dehors des repas.
Et la greffe ?
Chez des patients diabétiques depuis plusieurs années dont la maladie n’est plus équilibrée par l’insulinothérapie, la greffe d’îlots de Langerhans dans le foie peut être un recours. Les cellules sont injectées dans la veine menant au foie. Elles se nichent et se revascularisent dans cet organe, où elles se mettent à produire de l’insuline. Cette approche nécessite un traitement immunosuppresseur lourd et une surveillance régulière pour éviter le rejet de greffe. Elle est également limitée par le nombre de donneurs à disposition. Elle a souvent lieu simultanément avec une greffe de rein, chez les patients en insuffisance rénale terminale. La greffe de pancréas, opération très lourde, n’est envisagée que pour les cas extrêmes. Actuellement environ 70 greffes de pancréas sont effectuées chaque année en France.
Les enjeux de la recherche
Prévenir la maladie
De nombreuses équipes de recherche, en particulier à l’Inserm, se consacrent à l’identification des facteurs de risque environnementaux associés au diabète, afin qu'il devienne possible de mettre en place des mesures de prévention. La piste la plus solide est actuellement celle des infections par certains entérovirus. Des essais de vaccination préventive contre ces virus vont être lancés en 2021, à l’échelle internationale. Ils seront conduit auprès de sujets génétiquement prédisposés au diabète de type 1 (souvent apparentés à des malades), mais ne présentant pas encore d’autoanticorps.
Intérêt majeur pour l’immunothérapie
D’un point de vue fondamental, la découverte majeure de ces dernières années est que… tout le monde possède des lymphocytes T auto-immuns ! Dès lors, pourquoi ne sommes nous pas tous diabétiques ? Il existe deux possibilités, non exclusives : soit les individus sains possèdent des mécanismes (que les diabétiques ont perdu) régulant ces lymphocytes, soit le diabète de type 1 est également une maladie des cellules ß, les rendant plus "visibles" aux lymphocytes T auto-immuns.
Îlot pancréatique de souris. La protéine βig-h3 (en rouge) module l’activation des lymphocytes T qui, en cas de diabète de type 1, s’attaquent aux cellules du pancréas (en vert). Chez les patients atteints de DT1, les cellules bêta pancréatiques, productrices d’insuline, synthétisent moins de protéine βig-h3, ce qui les priverait d’une protection efficace contre une réaction auto-immune. Science & Santé N°28, novembre-décembre 2015, rubrique Découvertes, p.7
D’un point de vue clinique, il n’existe aujourd’hui aucun traitement luttant contre les mécanismes de la maladie : on se limite à compenser la perte d’insuline. Or des approches immunothérapeutiques pourraient aller plus loin, en enrayant la maladie elle-même. Ainsi, certains chercheurs travaillent à une sorte d’anti-vaccination préventive, destinée à des personnes asymptomatiques. Il s’agit d’utiliser les antigènes
antigènes
Molécule capable de déclencher une réponse immunitaire.
cibles présents sur les cellules ß afin de "réapprendre" au système immunitaire à les tolérer. Pour les personnes déjà symptomatiques, plusieurs études cliniques testent actuellement des anticorps monoclonaux dirigés contre différentes molécules participant à la réaction auto-immune. L'idée générale est d’empêcher les lymphocytes T d'attaquer les cellules ß restantes, préservant ainsi une production d’insuline résiduelle.
Régénérer les cellules bêta
Des chercheurs tentent également de régénérer les cellules pancréatiques à partir de cellules précurseurs, in vivo. Une équipe Inserm a en effet montré, en 2013, que le pancréas de souris contient des cellules capables de se transformer en cellules ß productrices d’insuline et ceci à tout âge. Si ces mécanismes se retrouvent chez l’humain, des médicaments stimulant la différenciation de cellules précurseurs en cellules ß fonctionnelles, a priori des facteurs de transcription agissant sur des gènes de différenciation, pourraient voir le jour.
Etat de la recherche : Vaincre le diabète
Thérapie cellulaire
La greffe de cellules ß "classique" est réalisée à partir de cellules provenant de donneurs : il existe donc un risque de rejet, nécessitant la prise d’immunosuppresseurs au long cours. Pour éviter cela, les chercheurs tentent de reprogrammer des cellules pluripotentes du patient lui-même en cellules ß productrices d’insuline. Plusieurs équipes travaillent sur des cellules souches pluripotentes
cellules souches pluripotentes
Cellules capables de se différencier en n'importe quel type de cellulaire.
induites (cellules IPS), dérivées par exemple des fibroblastes
fibroblastes
Cellule de soutien du tissu conjonctif, qui sécrète les composés de la matrice extracellulaire et les protéines du tissu conjonctif.
de peau. Cette approche permettrait de produire à l’infini des cellules ß compatibles, mais elle ne résout pas le problème auto-immun de la maladie. Un traitement combiné pour remplacer les cellules ß et les protéger de l’auto-immunité est donc envisagé.
DOCUMENT inserm LIEN |
|
|
|
|
|
|
PHYSIQUE ET MÉDECINE : L'IMAGERIE MÉDICALE |
|
|
|
|
|
PHYSIQUE ET MÉDECINE : L'IMAGERIE MÉDICALE
L'imagerie médicale a sans aucun doute entraîné ces vingt dernières années une transformation radicale dans la façon d'aborder le diagnostic et le suivi thérapeutique. Un diagnostic de localisation d'une lésion cérébrale qui nécessitait un examen clinique long et minutieux par un neurologue expérimenté se fait aujourd'hui avec une précision millimétrique grâce au scanner ou à l'imagerie par résonance magnétique (IRM). Là où le maître entouré de ses élèves démontrait que la lésion ischémique ou tumorale devait siéger au niveau de tel noyau du thalamus (la vérification ayant lieu malheureusement souvent quelques semaines plus tard sur les coupes de cerveau), le neuroradiologue parvient au même résultat en quelques minutes. On pourrait multiplier les exemples ; là où le cardiologue se fiait à son auscultation et à des clichés de thorax, l'échocardiographie montre en temps réel les mouvements des valves cardiaques et la dynamique de la contraction ventriculaire, la scintigraphie myocardique précise la localisation des zones de myocarde ischémique et les anomalies de sa contraction ; demain l'IRM permettra de voir la circulation coronaire et le tissu myocardique et remplacera l'angiographie par voie artérielle. On pourrait encore citer l'échographie en obstétrique, en hépatologie ou en urologie, la scintigraphie dans la détection des lésions de la thyroïde, des métastases osseuses ou de l'embolie pulmonaire. Aujourd'hui la tomographie par émission de positons (TEP) est en train de devenir la méthode incontournable en cancérologie, non pas tant pour le diagnostic du cancer que pour en préciser l'extension, l'existence de métastases, l'évolution sous traitement après chimiothérapie, chirurgie ou radiothérapie ou encore l'apparition de récidives ou de métastases tardives. Au milieu du 19ème siècle, l'inventeur de la médecine expérimentale, Claude Bernard indiquait à Ernest Renan qui l'a relaté, que « l ‘on ne connaîtrait la physiologie que le jour où l'on saura décrire le voyage d'un atome d'azote depuis son entrée dans l'organisme jusqu'à sa sortie». Ce qui était totalement hors de portée du savant de cette époque, connaît en ce début du 21ème siècle une pleine réalisation grâce à une série d'avancées techniques rendues d'abord possibles par la radioactivité et aussi dans une certaine mesure par l'IRM et de toutes façons par la combinaison de plusieurs méthodes lorsqu'on aborde la pathologie. C'est certainement dans la description du voyage fait par le médicament dans le corps que réside aujourd'hui une des avancées les plus intéressantes dans le domaine pharmaceutique. Mais nous verrons aussi que quand nous écoutons, parlons, bougeons, réfléchissons... certaines aires de notre cerveau s'activent. Cette activation électrique et chimique des neurones se traduit par une augmentation du débit sanguin local dans les régions cérébrales concernées par cette activation. La TEP d'abord puis en utilisant les mêmes principes physiologiques, l'IRM aujourd'hui permet de produire des images sensibles au débit sanguin et ce, sans recours à l'injection d'une substance ou molécule particulière. Il ne peut s'agir dans cette conférence de décrire les principes physiques, les indications de toutes ces méthodes et les résultats qu'elles permettent d'obtenir en clinique. Par contre la comparaison de l'origine et de l'évolution de trois de ces méthodes, la radiologie, la médecine nucléaire et l'imagerie par résonance magnétique nucléaire est intéressante. La perspective historique permet en effet de mieux comprendre la genèse, l'évolution et les indications de ces différentes méthodes qui ont toutes leur point de départ dans la physique.
Transcription* de la 585ème conférence donnée le 7 juillet 2005 à l'Université de tous les savoirs revue par l'auteur
Physique et médecine : l'imagerie médicale
par André Syrota
L'imagerie médicale a sans aucun doute entraîné ces vingt dernières années une transformation radicale dans la façon d'aborder le diagnostic et le suivi thérapeutique. Un diagnostic de localisation d'une lésion cérébrale qui nécessitait un examen clinique long et minutieux par un neurologue expérimenté se fait aujourd'hui avec une précision millimétrique grâce au scanner ou à l'imagerie par résonance magnétique (IRM). Là où le maître entouré de ses élèves démontrait que la lésion ischémique ou tumorale devait siéger au niveau de tel noyau du thalamus (la vérification ayant lieu malheureusement souvent quelques semaines plus tard sur les coupes de cerveau), le neuroradiologue parvient au même résultat en quelques minutes. On pourrait multiplier les exemples ; là où le cardiologue se fiait à son auscultation et à des clichés de thorax, l'échocardiographie montre en temps réel les mouvements des valves cardiaques et la dynamique de la contraction ventriculaire, la scintigraphie myocardique précise la localisation des zones de myocarde ischémique et les anomalies de sa contraction ; demain l'IRM permettra de voir la circulation coronaire et le tissu myocardique et remplacera l'angiographie par voie artérielle. On pourrait encore citer l'échographie en obstétrique, en hépatologie ou en urologie, la scintigraphie dans la détection des lésions de la thyroïde, des métastases osseuses ou de l'embolie pulmonaire. Aujourd'hui la tomographie par émission de positons (TEP) est en train de devenir la méthode incontournable en cancérologie, non pas tant pour le diagnostic du cancer que pour en préciser l'extension, l'existence de métastases, l'évolution sous traitement après chimiothérapie, chirurgie ou radiothérapie ou encore l'apparition de récidives ou de métastases tardives.
Au milieu du XIXème siècle, l'inventeur de la médecine expérimentale, Claude Bernard, indiquait à Ernest Renan qui l'a relaté, que « l'on ne connaîtrait la physiologie que le jour où l'on saura décrire le voyage d'un atome d'azote depuis son entrée dans l'organisme jusqu'à sa sortie ». Ce qui était totalement hors de portée du savant de cette époque, connaît, en ce début du XXIe siècle une pleine réalisation grâce à une série d'avancées techniques rendues d'abord possibles par la radioactivité et aussi dans une certaine mesure par l'IRM et de toute façon par la combinaison de plusieurs méthodes lorsqu'on aborde la pathologie. C'est certainement dans la description du voyage fait par le médicament dans le corps que réside aujourd'hui une des avancées les plus intéressantes dans le domaine pharmaceutique. Mais nous verrons aussi que quand nous écoutons, parlons, bougeons, réfléchissons... certaines aires de notre cerveau s'activent. Cette activation électrique et chimique des neurones se traduit par une augmentation du débit sanguin local dans les régions cérébrales concernées par cette activation. La TEP d'abord, puis en utilisant les mêmes principes physiologiques, l'IRM aujourd'hui, permettent de produire des images sensibles au débit sanguin et ce, sans recours à l'injection d'une substance ou molécule particulière.
Il ne peut s'agir dans cette conférence de décrire les principes physiques, les indications de toutes ces méthodes et les résultats qu'elles permettent d'obtenir en clinique. Par contre, la comparaison de l'origine et de l'évolution de trois de ces méthodes, la radiologie, la médecine nucléaire et l'imagerie par résonance magnétique nucléaire est intéressante. La perspective historique permet en effet de mieux comprendre la genèse, l'évolution et les indications de ces différentes méthodes qui ont toutes leur point de départ dans la physique.
Tous les champs de la physique sont impliqués dans la médecine, pour certains en imagerie, pour d'autres en thérapeutique :
- l'électromagnétisme : imagerie gamma, imagerie X, proche infrarouge, radiofréquences, radiothérapie, laser, électrocardiographie, magnétoencéphalographie, potentiels de membrane, potentiels d'action
- les ultrasons : imagerie (échographie)
- la physique nucléaire et la physique des particules : imagerie (électrons, positons), thérapie (électrons, protons, particules alpha, ions lourds)
- la mécanique des fluides : écoulements sanguins, rhéologie
- la physique de la matière condensée
Les applications de la physique à la médecine ont débuté au XVIIème siècle avec les travaux du philosophe, scientifique et mathématicien, René Descartes (1596-1650) sur la vision. Dans La Dioptrique (1637) il s'intéresse à la théorie de la lumière, de l'Sil et de la vision.
Walther Hermann Nernst (1864-1941), physicien et chimiste allemand, a mené de nombreuses recherches dans les domaines de l'électrochimie, la thermodynamique, la chimie du solide et la photochimie. Ces découvertes incluent également l'équation qui porte son nom et qui intervient dans le calcul des potentiels de membrane.
William Harvey (1578-1657), médecin et physiologiste anglais, met en évidence la circulation du sang dans le corps humain. En 1628 Harvey publie à Francfort, Exentération Anatomica de Motu Cordis et Sanguinis in animalibus. Dans cet ouvrage qui marqua son époque, il explique en dix-sept chapitres son interprétation de ses constatations expérimentales et anatomiques et donne un compte-rendu précis du fonctionnement de la grande circulation.
Henry Philibert Gaspard Darcy (1803-1858), hydraulicien français, a démontré la loi qui porte son nom et qui explique la filtration des liquides, notamment les fontaines de Dijon.
Les composants du corps sont des objets physiques et peuvent être étudiés et manipulés comme le font les physiciens des objets physiques. Les outils de la biologie sont devenus des outils lourds et certains sont communs à ceux de la physique. Jusqu'à il y a une dizaine d'année la biologie pouvait se faire sur le coin d'une paillasse. Aujourd'hui, le séquençage du génome, l'imagerie, tous les outils de la post-génomique, nécessitent le développement d'une biologie lourde comme il y a une physique lourde qui utilise les grands accélérateurs, le CERN à Genève. Les méthodes d'imagerie qui permettent de voir le fonctionnement du cerveau nécessitent un outillage très lourd.
Le défi actuel est la prise en compte de la complexité des systèmes vivants. Les sciences du vivant ne sont plus simplement de la biologie ou de la médecine, elles comprennent de la biologie, de la chimie, de la physique, des mathématiques, de l'informatique.
Avant de nous intéresser au cerveau proprement dit, n'oublions pas que Sigmund Freud dans "De l'esquisse d'une psychologie scientifique" (1895, in La naissance de la psychanalyse) a toujours cru que les mécanismes cognitifs des phénomènes mentaux normaux et pathologiques pourraient s'expliquer par l'étude rigoureuse des systèmes cérébraux.
Depuis une quinzaine d'année, les progrès de l'imagerie ont permis de grandes avancées dans l'étude des sciences cognitives.
- Posner M. I., Petersen S. E., Fox P. T., Raichle M. E. (1988), Localization of cognitive operations in the human brain, Science, Vol. 240, pp. 1627-1631. (Localisation des opérations cognitives dans le cerveau humain.)
- Andreasen, N., «Linking Mind and Brain in the Study of Mental Illness : A project for a Scientific Psychopathology», Science, No 275, mars 1997, pp. 1562-87. (Lier le cerveau et l'esprit pour l'étude des maladies mentales.)
- Raichle, M.E., "Imaging the mind" in Seminars in Nuclear Medicine 28 : (4) 278 - 289, 1998. (L'imagerie de l'esprit.)
- Posner, M.I. (2003). Imaging a science of mind. Trends in Cognitive Sciences, 7 :10:450-453. (L'imagerie d'une science de l'esprit.)
- Greene, J.D., Sommerville, R.B., Nystrom, L.E., Darley, J.M., & Cohen, J.D. (2001). An fMRI investigation of emotional engagement in moral Judgment. Science, Vol. 293, Sept. 14, 2001, 2105-2108. (L'investigation de l'engagement émotionnel dans le jugement moral.)
Historique
La physique nucléaire : des rayons X et la radioactivité à la radiologie
Le soir du 8 novembre 1895, Wilhelm Conrad Röntgen (1845-1923) observe qu'à la décharge d'un tube, complètement enrobé de carton noir, scellé pour en exclure toute lumière et ceci dans une chambre noire, un carton couvert d'un côté de barium platino-cyanide devient fluorescent lorsqu'il est frappé par les rayons émis du tube, et ce jusqu'à une distance de deux mètres. Lors d'expériences subséquentes, il place divers objet entre une plaque photographique et la source de rayonnement et il se rend compte qu'ils ont une transparence variable. Il expérimente, le 22 décembre 1895, avec la main de son épouse placée sur le parcours des rayons. Au développement, il s'aperçoit que l'image est en fait l'ombre des os de la main de son épouse, son alliance y étant visible. Les os sont entourés d'une pénombre qui représente la chair de la main, la chair est donc plus perméable aux rayons. À la suite d'autres expériences, Röntgen constate que les nouveaux rayons sont produits par l'impact des rayons cathodiques sur un objet matériel. Parce que leur nature est encore inconnue, il leur donne le nom de « rayons X ».
Le 28 décembre, il envoie la première communication indiquant que l'on doit considérer que les rayons X proviennent de la zone de la paroi du tube de verre qui est la plus fluorescente. Il reçut pour cela le tout premier prix Nobel de physique en 1901 après avoir reçu la Médaille Rumford en 1896.
Le 20 janvier 1895, Henri Poincaré montre à Antoine Henri Becquerel (1852-1908) la première radiographie que lui a envoyé Röntgen. Il suggère que les substances fluorescentes pourraient émettre des rayons X. Le 24 février, il constate l'apparition d'un faible noircissement d'un film recouvert de sulfate double d'Uranium exposé pendant une journée au soleil. Quatre jours plus tard, le noircissement s'est intensifié. Henri Becqurel obtient les mêmes résultats après une exposition de cinq heures au soleil ou de cinq heures à l'obscurité. Le 23 mars, il observe le même noircissement avec des sels d'Uranium non fluorescents. Le 18 mai, il en conclut que le matériau émet son propre rayonnement sans nécessiter une excitation par de la lumière. L'effet n'est donc pas dû à la fluorescence mais à une propriété spécifique de l'Uranium. C'est la découverte de la radioactivité naturelle. Les travaux d'Henri Becquerel lui valent la Médaille Rumford en 1900.
Les découvertes en physique se succèdent rapidement dans les années qui suivent.
En 1899, Ernest Rutherford (1871-1937) découvre la transmutation du Thorium et la décroissance exponentielle, ce qui lui permet d'identifier les particules alpha. Ces travaux sur les rayonnements alpha et bêta, et la découverte que la radioactivité s'accompagne d'une désintégration des éléments, lui valent un prix Nobel de Chimie en 1908. C'est aussi lui qui a mis en évidence l'existence d'un noyau atomique, dans lequel étaient réunies toute la charge positive et presque toute la masse de l'atome, et qui a réussi la toute première transmutation artificielle.
À cette époque, une étudiante, Marie Curie, épouse de son collègue Pierre Curie, choisit comme sujet de thèse l'étude de ce nouveau type de rayonnement. Elle confirme en quelques mois que ce rayonnement est une propriété de plusieurs éléments chimiques, et baptise cette propriété « radioactivité ». En 1898 Pierre et Marie Curie découvrent le Polonium et le Radium.
En 1903, Henri Becquerel, Pierre et Marie Curie partagent le Prix Nobel de physique pour leur contribution extraordinaire à la découverte de la radioactivité spontanée et leur étude des rayonnements émis.
En 1911, Rutherford découvre le noyau atomique. Il avait observé qu'en bombardant une fine feuille de mica avec des particules alpha, on obtenait une déflexion de ces particules. Il émit alors l'hypothèse qu'au centre de l'atome devait se trouver un « noyau » contenant presque toute la masse et toute la charge positive de l'atome, les électrons déterminant en fait la taille de l'atome.
Il est intéressant de noter que les premiers effets des rayons X, notamment sur les lésions cutanées, sont immédiatement décrits. Dès 1896, les premiers effets des rayons X sont publiés dans le Lancet, à partir de mi-1896 les essais d'irradiation de lésions cutanées. En 1900-1901, Pierre Curie et Henri Becquerel décrivent les réactions cutanées produites par le dépôt de Radium sur leur propre peau. Le D. Danlos soigne des lésions de lichen à l'Hôpital Saint-Louis avec du Radium donné par Pierre Curie. Ces soins conduisent en 1909 à la fondation de l'Institut du Radium.
La physique des particules : les positons
Le positon a été découvert par C. D. Anderson en 1933 [C.D. Anderson, "The Positive Electron", Phys. Rev. 43, 491 (1933)] suite de la prédiction totalement théorique quant à l'existence d'électrons positifs de Dirac.
Irène et Frédéric Joliot mettent en évidence la même année des électrons positifs de matérialisation et montrent l'annihilation de la paire électron positif - électron négatif. Ils mettent en évidence également les électrons de transmutation. C'est la découverte de la radioactivité artificielle.
Les Comptes rendus de l'Académie des sciences du 19 juin 1933 annoncent que la transmutation de l'aluminium peut se faire avec émission soit d'un proton soit d'un neutron accompagné d'un électron positif.
L'accueil est cependant sceptique chez la majorité des participants du 7e congrès Solvay en octobre 1933. Niels Borg y a présenté que « si vraiment comme le suppose M. Joliot, les positons viennent de l'intérieur du noyau, les circonstances seront fort semblables à celles des rayons bêta ».
À l'occasion de la conférence internationale de physique à Londres en 1934, le journal _Le Soir_ citait Frédéric Joliot : « Il est très possible, si nos expériences réussissent, que nous puissions fabriquer une substance dont les applications médicales obtiendront les mêmes effets que le Radium. » Il se situait dans la perspective des travaux de Marie Curie.
Le Petit Journal rapportait : « Pour le traitement du cancer, Irène Joliot-Curie et son mari posséderaient la formule du radium artificiel. On laisse entendre à cette occasion que la fille de Mme Curie pourrait bien recevoir le prix Nobel. »
La découverte de la radioactivité sera à la base de toute l'imagerie, comme la découverte de la radioactivité artificielle en janvier 1934 par Irène et Frédéric Joliot-Curie sera à la base de la médecine nucléaire.
En janvier 1934, la radioactivité artificielle est découverte par la vérification de l'émission de positons dans la chambre de Wilson. La particule alpha est capturée par un noyau d'aluminium qui se transforme en un noyau de "phosphore inconnu" avec émission d'un neutron. Ce "phosphore inconnu" est radioactif et se transforme en un noyau de Silicium connu avec émission d'un positon.
27Al + alpha -> 30P + n
30 P -> 30Si + positon + nu
Les Comptes rendus de l'Académie des sciences publient le 15 janvier 1934 Un nouveau type de radioactivité et Nature "Artificial Production of a New Kind of Radio-Element."
Nature 1934, 198, 201 "Artificial production of a new kind of radio-elements".
I. Curie and F. Joliot, Un nouveau type de radioactivité, C. R. Acad. Sci. 198 (1934), 254-256 ; Artificial Production of a New Kind of Radio-Element, Nature 133 (1934), 201-202.
Cette découverte est double puisque la radioactivité artificielle implique la découverte de la radioactivité par émission de positons.
Pour utiliser ces résultats en imagerie, il manque encore deux éléments importants : l'instrumentation et le marquage.
En 1930, Ernest Orlando Lawrence (1901-1958), physicien américain, construit le premier cyclotron. Il reçoit le Prix Nobel de physique en 1939 pour l'invention du cyclotron et ses applications en radiochimie.
En 1938, Otto Hahn et Fritz Strassmann découvrirent des traces du baryum, en cherchant des éléments transuraniens dans un échantillon d'uranium qui avait été irradié de neutrons. Cette découverte, annoncée en 1939, constituait la preuve irréfutable, confirmée par le calcul des énergies impliquées dans la réaction, que l'uranium avait bien subi une fission, se divisant en plus petits fragments constitués d'éléments plus légers [O. HAHN AND F. STRASSMANN Berlin-Dahlem. Die Naturwissenschaften 27, p. 11-15 (January 1939)].
En 1947, Leó Szilárd et Enrico Fermi montrent la divergence de la première pile.
L'autre élément très important, ce sont les travaux de George de Hevesy qui est un savant hongrois, un chimiste qui travaillait, qui voulait faire sa thèse chez Rutherford, à qui Rutherford avait confié un travail pas trop intéressant de séparer des éléments radioactifs et George de Hevesy a eu l'idée d'utiliser ces éléments radioactifs comme traceurs, donc de permettre de suivre à la trace le devenir d'éléments non radioactifs et il en a été largement récompensé par le Prix Nobel en 1943.
En 1912, George de Hevesy (1885-1966) a été récompensé pour ses travaux sur l'utilisation des isotopes comme traceurs dans l'étude des processus chimiques. Il reçoit en 1943 le prix Nobel de chimie pour l'utilisation d'éléments radioactifs comme traceurs
L'ensemble des moyens physiques, instrumentaux et physiologiques sont alors réunis pour aller plus loin dans l'imagerie.
Tous les êtres humains sont constitués de carbone, à 99% de carbone 12 et 1% de carbone 13. Le carbone 11 est un isotope du carbone qui émet des positons. Cet électron positif a un trajet dans la matière de l'ordre du millimètre. Il ne peut donc pas être repéré facilement. Par contre, contrairement aux électrons émis par le carbone 14, l'électron positif est de l'antimatière et il ne peut donc pas exister dans notre univers. Il va rencontrer un électron négatif et ils vont s'annihiler. Leur masse disparaît suivant la relation d'Einstein E=mc2 et deux photons vont apparaître et sortir du cerveau.
Une autre radioactivité, l'émission gamma, notamment celle de l'iode, est également utilisée couramment en médecine nucléaire.
Dans les années 1950 de l'iode 131 était injecté. Il allait dans la thyroïde pour s'incorporer dans les hormones thyroïdiennes qui comprennent chacune quatre atomes d'iode. Un opérateur mesurait avec un compteur Geiger-Müller, en regard du cou du malade, la radioactivité point par point. Il déplaçait la sonde, il remesurait la radioactivité puis il traçait sur la feuille de papier les zones, les iso-contours d'iso-doses. Il obtenait ainsi des images fonctionnelles montrant l'incorporation de l'iode dans l'hormone thyroïdienne de la thyroïde.
L'autre aspect qui a permis le développement important de l'imagerie médicale ces dix dernières années ce sont les progrès de l'informatique. Dans les années 1970-1980, les premiers ordinateurs disponibles à l'hôpital et dans les services de recherche permettaient avec des multi8, de l'intertechnique, et de la mémoire de faire des enregistrements avec des bandes magnétiques. Ces machines étaient tout à fait insuffisantes pour les développements actuels qui consomment une informatique en quantité considérable.
L'étape suivante, a été la possibilité de passage des projections en deux dimensions, à des coupes virtuelles de cerveau. Les travaux de Mansfield, un ingénieur d'IMA, l'ont conduit à un procédé pour reconstruire des images de façon numérique. Simultanément et indépendamment un physicien d'hôpital Allan MacLeod Cormack (1924-1998) qui travaillait au Cap en Afrique du Sud puis ensuite à Boston, a eu l'idée de la formulation mathématique d'une projection, qui est connue sous le nom de transformée de radon. Le scanner X est le début de l'imagerie moderne. Les travaux de Cormack lui ont valu le prix Nobel de médecine en 1979.
L'imagerie
Je vais maintenant vous présenter plusieurs techniques utilisant la radioactivité, la tomographie par émission de positons ou la physique quantique. Ces techniques permettent de voir le "cerveau vivant" ou "living brain" et même le "cerveau pensée" comme on le dit aujourd'hui.
Dans les années 1985, les physiciens ont essayé de produire des images du corps vivant en combinant l'interaction d'un rayonnement. Ils ont observé l'atténuation ou la réflexion de rayonnements électromagnétiques, d'ondes acoustiques, de faisceaux de particules, etc. Les valeurs notées sont ensuite traitées par l'algorithme de rétroprojection filtrée de Cormack-Hounsfield pour obtenir des images.
Aujourd'hui, il reste les rayons gammas, la tomographie par émission de simples photons, la tomographie par émission de positons, les rayons X et le scanner. Les autres rayonnements ont été écartés pour des raisons variées : l'infrarouge ne marche pas très bien, les micro-ondes ont les mêmes effets que les fours du même nom, la résonance paramagnétique électronique nécessite l'injection de radicaux libres, les radiofréquences de l'imagerie par résonance magnétique et l'imagerie d'impédance ne donnent pas beaucoup de résultats. Les ultrasons sont très utilisés mais ils ne s'appliquent pas au cerveau.
La gamma-tomographie mesure l'émission d'un seul photon. En regard de la tête du malade, l'opérateur place une gamma-caméra avec un collimateur, c'est-à-dire du plomb percé de trous, un cristal qui transforme les gammas en photons lumineux, des amplificateurs de brillance. Cette technique est utilisée quotidiennement dans les services de médecine nucléaire du monde entier. Elle permet d'obtenir des images fonctionnelles.
Les recherches menées sur le fonctionnement du cerveau utilisent notamment la tomographie par émission de positons. Dans ce cas, un positon est émis avec une certaine énergie cinétique. Une molécule dont un carbone naturel est remplacé par un carbone radioactif est injectée par voie intraveineuse. Le médicament migre jusqu'à un endroit particulier du cerveau. La radioactivité décroît et on assiste à l'émission d'électrons positifs. Ils perdent leur énergie cinétique en une minute pour les isotopes utilisés. Ils sont au repos jusqu'à ce qu'ils rencontrent un électron libre. La paire positon-négaton s'annihile et deux photons sont émis simultanément, à 180° l'un de l'autre à cause de la conservation de la quantité de mouvement. Ils ont chacun une énergie de 511 keV puisque, selon la réaction d'Einstein, la masse de l'électron positif et celle de l'électron négatif se matérialisent sous forme d'énergie. Les photons sont détectés par les détecteurs autour du sujet. L'arrivée simultanée de deux photons indique qu'à un endroit proche de cette trajectoire il y a eu émission d'un positon.
Quels isotopes sont utilisés ? Les molécules sont formées de carbone, d'oxygène, d'hydrogène, d'azote et pour certaines d'entre elles de phosphore. Le carbone 11 est un émetteur de positon. Il est donc possible de remplacer un carbone 12 par un carbone 11. L'oxygène 15 est un émetteur de positon. Le fluor 18 est intéressant car de nombreux médicaments, tels que des neuroleptiques ou des tranquillisants, contiennent du fluor.
Il n'existe pas d'isotope de l'hydrogène ou du phosphore qui émette un positon. Ils seront cependant utilisés par la résonance magnétique nucléaire qui est une technique complémentaire de la tomographie par émission de positons.
L'inconvénient ou l'avantage des émetteurs de positons c'est qu'ils ont des durées de vie très brèves. La période physique du carbone 11 est de vingt minutes, ce qui veut dire que toutes les vingt minutes la radioactivité décroît de moitié. Pour l'oxygène 15 c'est encore pire ou encore mieux pour le sujet puisque la période, elle, est de deux minutes. L'avantage est qu'il est possible d'injecter beaucoup de radioactivité sans aucun effet. L'inconvénient est qu'il faut produire le carbone 11, par exemple, avec un cyclotron et qu'il faut ensuite l'incorporer dans un médicament, un acide aminé, un sucre, ou une molécule organique. Cette réaction chimique doit être réalisée sur place, en très peu de temps, et le sujet étudié doit se trouver à côté pour que l'injection ait lieu le plus rapidement possible. L'installation nécessaire est évidemment lourde. Au Service hospitalier Frédéric Joliot à Orsay, qui dépend de la direction des sciences du vivant du CEA, il y a l'un des tous premiers cyclotrons qui a été utilisé pour l'imagerie médicale. Il s'agit d'un cyclotron CGR-MeV. Il date de la même époque que les premières caméras à positons avec deux détecteurs qui permettaient de repérer deux photons émis simultanément. Deux ans plus tard, une caméra a été mise au point à Philadelphie puis à l'UCLA, avec des photo-multiplicateurs répartis en couronne autour de la tête du sujet.
L'imagerie médicale nécessite des équipes multi-disciplinaires avec des ingénieurs, des techniciens qui s'occupent du cyclotron, des chimistes, des radiochimistes qui vont incorporer l'isotope (le carbone 11 ou le fluor 18 principalement) dans un précurseur non radioactif pour en faire une molécule radioactive, des informaticiens et des mathématiciens pour transformer la radioactivité mesurée après injection en un paramètre physiologique pour obtenir une série d'images de cerveau.
Aujourd'hui, les caméras qui se trouvent dans le commerce ont une résolution de cinq à six millimètres. Un prototype disponible au CEA et fabriqué par Siemens a une résolution spatiale de deux millimètres et demi alors que la plus petite caméra à positons que nous utilisons pour l'animal est tout à fait remarquable avec une résolution spatiale de 1,6 millimètre, c'est-à-dire le trajet pratiquement du positon. Il ne sera pas possible de descendre plus bas.
L'application la plus importante en ce moment dans le domaine de la tomographie par émission de positons c'est le domaine de la cancérologie. Dans le cadre du plan cancer le gouvernement a décidé d'équiper la France de soixante à soixante-dix caméras à positons réparties sur tout le territoire qui utiliseront un analogue du glucose marqué au fluor 18, le fluoro-desoxy-glucose. Cette molécule a une période de deux heures ce qui permet de la transporter dans les hôpitaux après la fabrication. Nous savons depuis le début du XXème siècle que les tumeurs ont un métabolisme augmenté qui consomme beaucoup d'énergie donc de glucose. La tumeur peut être mise en évidence par des images de la consommation de glucose dans le corps. Il est ainsi possible de repérer les tumeurs et les métastases.
Les applications pour l'étude du cerveau sont infinies puisque théoriquement n'importe quelle molécule peut être marquée selon les projets des médecins, des physiologistes et des pharmacologues. Il est possible d'étudier le métabolisme par la consommation de glucose, mais aussi la synthèse protéique, la consommation d'oxygène, la perfusion cérébrale. Nous savons regarder et quantifier point par point dans le cerveau les récepteurs des neurotransmetteurs, tels que l'adrénaline, l'acétylcholine, l'histamine, les opiacées, la dopamine, etc.
Prenons un exemple de la méthode des traceurs. La maladie de Parkinson est due à une destruction des neurones du tronc cérébral qui produisent la dopamine. Cette dopamine va être libérée normalement au niveau d'une synapse entre deux neurones dans une structure très particulière en plein milieu du cerveau appelée les noyaux gris et les corps striés. Le traitement de la maladie de Parkinson consiste à donner de la dopa qui devient de la dopamine dans le cerveau. Il est donc possible de marquer la dopa avec du fluor 18 puis de suivre la libération de la dopamine par les quelques molécules radioactives injectées par voie intraveineuse. La tomographie par émission de positons permet de suivre l'évolution de la maladie par l'étendue des zones qui cessent de libérer la dopamine.
Un autre exemple concerne les récepteurs de la nicotine et de l'acétylcholine. Dans le cerveau il y a deux types de récepteurs de l'acétylcholine : le type muscarinique et le type nicotinique. Ces récepteurs disparaissent chez les patients atteints de la maladie d'Alzeihmer. Il est possible de marquer un médicament au fluor 18 pour observer les zones dans le thalamus où la molécule se fixe sur les récepteurs de la nicotine. La tomographie par émission de positons permet de mesurer quantitativement, point par point, non seulement la radioactivité mais aussi la densité de récepteurs grâce à un modèle mathématique. Elle permet donc de suivre au cours du temps l'évolution de la radioactivité dans le thalamus.
Ce qui est le plus remarquable c'est qu'on a fait fumer une cigarette au sujet en lui faisant de nouveau la même injection de fluoro-A85A81. Quatre-vingt minutes après l'injection, lorsque le patient fume une cigarette il y a une diminution considérable de la radioactivité. Le traceur radioactif injecté en des quantités infimes est en compétition avec la nicotine qui est arrivée dans le cerveau en quantité importante. Il est ainsi possible de mettre en évidence in vivo chez l'homme l'effet de la nicotine sur les récepteurs cérébraux.
Il est possible d'aller plus loin et d'observer ce qui se passe dans le cerveau lorsqu'un individu à des activités cognitives, telles que lire, parler, etc. Lorsque qu'un individu regarde un écran, il y a des circuits neuronaux qui sont activés au niveau du cortex visuel, dans le cortex occipital. L'injection de désoxy-glucose marqué permet d'observer les zones au travail dans le cerveau car elles consomment de l'énergie. La vue tridimensionnelle du cerveau par tomographie par émission de positons permet de faire la différence entre les yeux fermés et les yeux ouverts et de noter dans le cortex occipital une augmentation de la consommation de glucose.
L'imagerie par résonance magnétique nucléaire est une technique physique plus complexe puisqu'elle fait appel aux spins des noyaux de l'hydrogène et du phosphore. Nous avons vu précédemment qu'il n'y a pas d'isotope émetteur de positons qui nous conviennent pour l'hydrogène et le phosphore. Par contre ils ont un spin 1/2, c'est-à-dire qu'ils vont se comporter comme des petits aimants. Or, le corps humain est formé à 75 % d'eau. Il contient énormément d'atomes d'hydrogène. La première image par résonance magnétique a été réalisée en 1973 par Lauterbour. Lauterbour et Mansfield ont utilisé la transformée de Fourrier pour obtenir des images. Ils sont été récompensés par l'avant-dernier prix Nobel de physiologie. Ce qui est intéressant c'est que Lauterbour est un chimiste et que Mansfield est un physicien.
Avec le développement de techniques ultrarapides d'acquisition et de traitement de données, il est devenu possible de réaliser des images de résonance magnétique en des temps suffisamment brefs pour suivre certains aspects du métabolisme. L'imagerie par résonance magnétique nucléaire est devenue fonctionnelle. Il est possible d'observer les zones activées dans le cerveau lors des mouvements en notant les changements de concentration d'oxy-hémoglobine par rapport à la désoxy-hémoglobine. En effet, le mouvement consomme de l'énergie donc de l'oxygène apporté par l'oxy-hémoglobine. Or, l'une est paramagnétique, l'autre ne l'est pas, l'une détruit localement le champ magnétique. En plaçant le sujet dans un aimant, il est possible de détecter cette infime variation de signal.
Des expériences réalisées par Stanislas Dehaene toujours au Service hospitalier Frédéric Joliot par IRM fonctionnel, permettent de comparer l'image anatomique tridimensionnelle du cerveau d'un volontaire lorsqu'on lui demande de faire le calcul exact ou approximatif de deux soustractions : 11-5 et 11-9.
Des expériences encore plus récentes de Stanislas Dehaene ont permis d'observer l'inconscient. Par un processus d'images subliminales, il présente au sujet sur un écran des mots qu'il ne peut pas voir car la durée de présentation est trop courte. Un signal plus faible mais néanmoins détectable apparaît pour les mots subliminaux.
La spectroscopie par résonance magnétique nucléaire in vivo permet de faire de la chimie directement dans le cerveau. Nous savons mesurer la concentration d'un neurotransmetteur dans une région du cerveau, par exemple pour étudier l'épilepsie.
L'inconvénient majeur de la tomographie par émission de positons, de l'imagerie par résonance magnétique nucléaire fonctionnelle, est qu'elles mesurent des phénomènes à l'échelle de la seconde à quelques dizaines de secondes alors que les potentiels d'actions sont de l'ordre de la milliseconde. Pour les enregistrer il faut l'électroencéphalographie et la magnétoencéphalographie.
La magnétoencéphalographie consiste à enregistrer les variations de champs magnétiques produits dans le cerveau. L'idéal est de corréler ces mesures électriques avec l'imagerie par résonance magnétique nucléaire ou la tomographie avec émission de positons pour connaître leur localisation anatomique.
En conclusion, revenons à Frédéric Joliot en 1943 à l'occasion de sa conférence Nobel :
« Les applications biologiques des radioéléments paraissent simples à réaliser mais, en réalité elles nécessitent une mobilisation importante de matériel et de chercheurs ayant des connaissances variées. En biologie, il est nécessaire d'associer étroitement les activités du biologiste, du physicien et du chimiste. On conçoit tout le bénéfice qui peut être tiré pour ce genre de recherches de l'association de formes de pensée souvent très différentes et se complétant. »
Aujourd'hui il n'est pas envisageable de concevoir une recherche en France et dans le Monde qui ne soit pas multidisciplinaire et qui ne porte pas sur la complexité.
* Transcription réalisée par Juliette Roussel
VIDEO CANAL U LIEN
|
|
|
|
|
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 ] Précédente - Suivante |
|
|
|
|
|
|