ecole de musique piano
     
menu
 
 
 
 
 
 

langage

 

 

 

 

 

 

 

langage

Consulter aussi dans le dictionnaire : langage
Cet article fait partie du dossier consacré à l'informatique.
Ensemble de caractères, de symboles et de règles qui permettent de les assembler, utilisé pour donner des instructions à un ordinateur.

INFORMATIQUE
LE PRINCIPE D'UN LANGAGE DE PROGRAMMATION
Comme les « langages naturels » (le français, l'anglais…), les langages de programmation sont des systèmes d'expression et de communication. Mais les « phrases » utilisées par ces langages, appelées programmes, forment des textes destinés à être compris par des ordinateurs. Cependant, les langages utilisés pour communiquer avec les ordinateurs ne sont pas tous considérés comme des langages de programmation. Il s'agit seulement des langages qui, théoriquement, sont suffisamment universels pour exprimer tous les traitements possibles (algorithmes) qu'un ordinateur peut effectuer. Ne sont pas considérés comme des langages de programmation, les langages d'interrogation de bases de données, et plus généralement les langages dits « de quatrième génération » (L4G en abrégé) – langages SQL (Structured Query Language) et Java – qui permettent de réaliser de façon conviviale des applications particulières.
On peut considérer qu'un programme est un texte dépourvu de toute ambiguïté et qui doit être écrit en respectant scrupuleusement les « règles de grammaire » du langage.

LES NIVEAUX DE LANGAGE
Un programme est constitué d'instructions destinées à être exécutées par la machine. Seules les instructions qu'une machine, ou plus précisément le processeur de l'ordinateur, est capable d'interpréter directement sont celles d'un langage de nature binaire (les programmes sont des combinaisons de nombres binaires 0 et 1). Ce langage est appelé « langage machine ». C'est le langage de plus « bas niveau ». Sur les premiers ordinateurs, c'était le seul moyen d'écrire un programme. Mais, très vite est apparue la nécessité d'utiliser des langages de programmation plus évolués, de plus « haut niveau », c'est-à-dire plus proches de l'esprit humain, et cela pour deux raisons : la première raison est qu'écrire un programme en langage machine est une tâche extrêmement minutieuse et fastidieuse, ce qui entraîne un risque d'erreurs très élevé ; la deuxième raison est que chaque processeur a son propre langage machine, ce qui empêche de transporter le même programme d'un matériel à un autre.
Un programme écrit dans un langage de plus haut niveau que le langage machine ne peut pas être exécuté directement par l'ordinateur. Il doit être préalablement traduit en langage machine. Cette traduction est effectuée automatiquement par l'ordinateur lui-même. C'est un programme appelé « traducteur » qui effectue ce travail.

LES LANGAGES D'ASSEMBLAGE
Un premier niveau de langage au-dessus du langage machine a commencé à être utilisé dans les années 1950. Il s'agit du langage d'assemblage qui, en gros, remplace des suites de 0 et de 1 par des notations symboliques. La traduction d'un tel langage s'appelle l'assemblage. Mais ce genre de langage dépend encore de la famille d'ordinateurs pour laquelle il a été développé. De plus, il reste peu facile à lire et à comprendre et il ne convient donc pas pour écrire de gros programmes fiables.

LES LANGAGES ÉVOLUÉS
On appelle « langages évolués » les langages de haut niveau qui non seulement sont indépendants de toute machine mais aussi sont plus faciles à lire et à comprendre parce qu'ils regroupent en une seule instruction de haut niveau des suites d'opérations élémentaires de bas niveau, par exemple additionner deux variables numériques sans se préoccuper des détails de transfert entre mémoire centrale et registres du processeur. Il y a essentiellement deux sortes de programmes traducteurs pour ce genre de langage : les compilateurs et les interpréteurs.
Le programme en langage évolué qui doit être traduit est appelé programme source. Un interpréteur traduit les instructions du programme source l'une après l'autre et les exécute au fur et à mesure. Le compilateur traduit la totalité du programme source en produisant une nouvelle version exécutable. Comme un programme est en général destiné à être exécuté de nombreuses fois, l'avantage de la compilation est que cette traduction est faite une fois pour toutes et sollicite beaucoup moins le processeur. Mais l'interprétation peut aussi avoir des avantages : d'une part, il est plus facile de produire un interpréteur qu'un compilateur et d'autre part, l'interprétation rend plus aisée la mise en place des méthodes d'aide à la mise au point des programmes.

LES LANGAGES ALGORITHMIQUES/DÉCLARATIFS/OBJETS
L'évolution des langages décrite précédemment a conduit à des langages de haut niveau qui restent liés à un style de programmation dit algorithmique ou encore impératif ou procédural. Tout se passe comme si on programmait dans le langage machine d'une machine virtuelle de très haut niveau. Par exemple, la notion de variable est une abstraction de la notion de case mémoire et l'instruction d'affectation décrit l'action fondamentale qui consiste à modifier la valeur d'une variable. De façon générale, un programme décrit une suite d'actions que la machine doit effectuer.

QUELQUES LANGAGES ALGORITHMIQUES CLASSIQUES
Parmi les langages algorithmiques classiques, on peut citer en particulier FORTRAN apparu dès 1954 et encore utilisé pour la programmation de calculs scientifiques, COBOL (1959) utilisé pour des applications de gestion, BASIC (1964). Le langage Pascal (1969) a marqué une étape dans la structuration rigoureuse des programmes et est encore largement utilisé pour l'enseignement de la programmation. Le langage Ada est particulièrement adapté à la production de très gros programmes vus comme des assemblages de « composants logiciels ». Le langage C est aussi largement utilisé, en liaison avec l'essor du système d'exploitation Unix.

LE LANGAGE DÉCLARATIF OU DESCRIPTIF
Au style de programmation algorithmique, largement dominant, on peut opposer un style de programmation dit déclaratif ou encore descriptif, qui cherche à atteindre un niveau encore plus haut. Un programme est alors vu comme la définition de fonctions (on parle alors de « programmation fonctionnelle ») ou de relations (on parle alors de « programmation logique »). Le langage LISP (1959) peut être considéré comme un précurseur des langages fonctionnels. Parmi les langages fonctionnels, on peut aussi citer les différents dialectes actuels du langage ML. La famille des langages de programmation logique est composée principalement de PROLOG (1973) et de ses successeurs. Les langages fonctionnels ou logiques sont surtout utilisés pour certaines applications relevant de ce qu'on appelle « l'intelligence artificielle ».

LA PROGRAMMATION « ORIENTÉE OBJETS »
Le style de programmation « orientée objets » constitue une autre avancée importante dans l'évolution des langages de programmation et connaît actuellement un essor considérable. L'idée fondamentale est de permettre au mieux la conception et la réutilisation de composants logiciels et, pour cela, de structurer les programmes en fonction des objets qu'ils manipulent. On peut citer en particulier Smalltalk, Eiffel, mais le langage orienté objets le plus utilisé est certainement C++, extension du langage C. Ada 95 se veut aussi une extension de Ada adaptée à la programmation objets. Le langage Java, dont la vogue actuelle est liée à des applications au World Wide Web (Internet) est aussi un langage orienté objets. Il présente l'immense avantage d'être portable, c'est-à-dire qu'un programme écrit en Java peut fonctionner sur des machines de constructeurs différents et sous plusieurs systèmes d'exploitation sans aucune modification.
Les programmes Java sont soit interprétés soit compilés. Les versions interprétées sollicitent beaucoup l'unité centrale de l'ordinateur et cela peut avoir des conséquences fâcheuses pour les temps de réponse des applications interactives.

LE PARALLÉLISME
Citons aussi, sans entrer dans les détails, le parallélisme, c'est-à-dire les techniques qui permettent d'accroître les performances d'un système grâce à l'utilisation simultanée de plusieurs processeurs. Des problèmes difficiles se posent pour exprimer le parallélisme dans des langages de programmation et pour compiler ces langages. Le langage HPF (High Performance FORTRAN ) est un exemple récent de tentative pour résoudre ces difficultés.

 

   DOCUMENT   larousse.fr    LIEN

 
 
 
 

La démarche scientifique

 


 

 

 

 

 

La démarche scientifique

Publié le 19 septembre 2018

Pour comprendre et expliquer le réel en physique, chimie, sciences de la vie et de la Terre, les scientifiques utilisent une méthode appelée la démarche scientifique. Quels sont ses grands principes ? Quels outils sont utilisés pour mettre en place des raisonnements logiques ? Découvrez l’essentiel sur la démarche scientifique.
QU’EST-CE QUE LA DÉMARCHE SCIENTIFIQUE ?

La démarche scientifique est la méthode utilisée par les scientifiques pour parvenir à comprendre et à expliquer le monde qui nous entoure. De façon simplificatrice, elle se déroule en plusieurs étapes : à partir de l’observation d’un phénomène et de la formulation d’une problématique, différentes hypothèses vont être émises, testées puis infirmées ou confirmées ; à partir de cette confirmation se construit un modèle ou théorie. L’observation et l’expérimentation sont des moyens pour tester les différentes hypothèses émises.


L’évolution de la démarche scientifique au fil du temps
De l’Antiquité à nos jours, les moyens d’investigation sur le monde ont évolué pour aboutir à une démarche dont les fondements sont communs à toutes les sciences de la nature (physique, chimie, sciences de la vie et de la Terre).
Dès l’Antiquité, Hippocrate, médecin grec, apporte de la nouveauté dans son traité « Le pronostic », qui détaille, pour la première fois, un protocole pour diagnostiquer les patients. Ce texte est l’une des premières démarches scientifiques.


Le XVIIe siècle est l’âge d’or des instruments et désormais l'expérience est au cœur de la pratique scientifique : on parle de Révolution scientifique. En plus des observations, les hypothèses peuvent aussi être testées par l’expérience. Par ailleurs, l’invention d’instruments tels que le microscope donne la possibilité aux scientifiques d’observer des éléments jusqu’alors invisibles à l'œil nu, comme les cellules, découvertes par Robert Hooke en 1665.
A partir du XXe siècle, la science se fait de manière collective. Les études scientifiques sont soumises au jugement des « pairs », c’est-à-dire à d’autres scientifiques et toutes les expériences doivent être détaillées pour être reproductibles par d’autres équipes. En contrepartie, la publication dans des revues internationales, et sur Internet dès les années 1990, permet aux chercheurs du monde entier d’accroître la notoriété de leurs idées et facilite l'accès aux sciences pour le grand public. Mais avec l'arrivée de l'informatique, il n'y a pas que la communication qui change, la méthode scientifique aussi se transforme. Il devient plus simple de trier de grands nombres de données et de construire des études statistiques. Il faut cependant faire attention à sélectionner les critères pertinents, car les progrès technologiques apportent aux chercheurs d’immenses quantités d’informations, appelées big data.
    

LES DIFFÉRENTES ÉTAPES DE LA DÉMARCHE SCIENTIFIQUE

Observation et formulation d’une problématique

A la base de toute démarche scientifique,  il y a au départ une observation d’un phénomène et la formulation d’une problématique.
Par exemple, depuis l’Antiquité, certains savants sont convaincus que la Terre est immobile au centre de l’Univers et que le Soleil tourne autour d’elle : c’est l’hypothèse du géocentrisme. Elle est émise car à l’époque, toutes les observations se faisaient à l’œil nu. Vu depuis la Terre, le Soleil peut donner l’impression de tourner autour de nous car il se lève sur l’horizon Est et se couche sur l’horizon Ouest. Cependant, ce n’était qu’une intuition car à ce stade, aucune véritable démarche scientifique n’est engagée.
Plus tard, quand les astronomes ont observé le mouvement des planètes, ils ont vu que le déplacement de certaines planètes forme parfois une boucle dans le ciel, ce qui est incompatible avec un mouvement strictement circulaire autour de la Terre. Le problème fut résolu en complexifiant le modèle : une planète se déplace sur un cercle dont le centre se déplace sur un cercle. C’est la théorie des épicycles.

Les hypothèses et la construction d’un modèle
Une nouvelle hypothèse fut émise par Nicolas Copernic au XVe siècle. Selon lui, le Soleil est au centre de l’Univers et toutes les planètes, dont la Terre, tournent autour de lui. On appelle cette hypothèse « l’héliocentrisme ». Ce modèle rend naturellement compte des rétrogradations planétaires mais possède quand même des épicycles pour décrire leurs mouvements avec plus de précisions.
Durant l’hiver 1609-1610, Galilée pointe sa lunette vers le ciel et découvre les phases de Vénus et des satellites qui tournent autour de la planète Jupiter. Ses observations l’incitent à invalider l’hypothèse géocentrique et à adhérer à l’héliocentrisme.
Petit à petit, cette méthode est devenue générale. Une hypothèse reste considérée comme valide tant qu’aucune observation ou expérience ne vient montrer qu’elle est fausse. Plus elle résiste à l’épreuve du temps, plus elle s’impose comme une description correcte du monde. Cependant, il suffit d’une seule observation contraire pour que l’hypothèse s’effondre, et dans ce cas, c’est définitif. Il faut alors changer d’hypothèse.
Reste que l’héliocentrisme de Copernic s’est d’abord imposé par la qualité des éphémérides planétaires qui en étaient tirées plus que par la force de son hypothèse, certes plus pratique que l’hypothèse géocentrique mais pas confirmée directement. Pour cela, il fallut encore attendre quelques années, le temps que la qualité des instruments d’observation progresse.

L’observation et l’expérimentation
Si la Terre est animée d’un mouvement autour du Soleil alors on devrait constater un effet de parallaxe, c’est-à-dire de variation des positions relatives des étoiles au fil de l’année. L’absence d’une parallaxe mesurable était utilisée contre l’héliocentrisme. C’est en cherchant à mesurer la parallaxe des étoiles que l’astronome anglais James Bradley découvrit en 1727 un autre effet, l’aberration des étoiles, dont il montra qu’elle ne pouvait provenir que de la révolution de la Terre autour du Soleil. La première mesure de parallaxe, due à l’astronome Friedrich Bessel en 1838, vient clore le débat.
Le mouvement de rotation de la Terre ne fut prouvé que plus tard. En 1851 le physicien Léon Foucault mène une expérience publique spectaculaire : un grand pendule est accroché à la voûte du Panthéon de Paris et la lente révolution de son plan d’oscillation révèle la rotation de la Terre sur elle-même.
On trouve là une autre caractéristique de la démarche scientifique. Une fois le modèle mis au point en s’appuyant sur des observations qui le justifient, il faut en tirer des prédictions, c’est-à-dire des conséquences encore non observées du modèle. Cela permet de mener de nouvelles observations ou de bâtir de nouvelles expériences pour aller tester ces prédictions. Si elles sont fausses, le modèle qui leur a donné naissance est inadéquat et doit être réformé ou oublié. Si elles sont justes, le modèle en sort renforcé car il est à la fois descriptif et prédictif.

La communication
Aujourd’hui, la « revue par les pairs » permet de contrôler la démarche scientifique d’une nouvelle découverte, par un collège de scientifiques indépendants. Si les observations et expérimentations vont dans le même sens et qu’elles ne se contredisent pas, la proposition est déclarée apte à être publiée dans une revue scientifique.

QUELS OUTILS POUR DÉCRYPTER LA SCIENCE ?
La démarche scientifique repose sur la construction d’un raisonnement logique et argumenté. Elle utilise les bases de la logique formelle : l’induction et la déduction.
    
L’induction
L’induction cherche à établir une loi générale en se fondant sur l’observation d’un ensemble de faits particuliers (échantillon).
L'induction est par exemple utilisée en biologie. Ainsi, pour étudier des cellules dans un organisme, il est impossible de les observer toutes, car elles sont trop nombreuses. Les scientifiques en étudient un échantillon restreint, puis généralisent leurs observations à l’ensemble des cellules. Les scientifiques établissent alors des hypothèses et des modèles dont il faudra tester les prédictions par des observations et des expériences ultérieures.

La déduction
La déduction relie des propositions, dites prémisses, à une proposition, dite conclusion, en s’assurant que si les prémisses sont vraies, la conclusion l’est aussi.
Exemple classique de déduction : tous les hommes sont mortels, or Socrate est un homme donc Socrate est mortel.
La déduction est beaucoup utilisée en physique ou mathématiques, lors de la démonstration d’une loi ou d’un théorème.

Raisonnement du Modus Ponens et du Modus Tollens
Le Modus Ponens et le Modus Tollens sont utilisés par les scientifiques dans leurs raisonnements.
Le Modus Ponens est, en logique, le raisonnement qui affirme que si une proposition A implique une proposition B, alors si A est vraie, B est vraie.
Mais si une implication est vraie alors sa contraposée l’est également (même valeur de vérité selon les règles de la logique formelle). Cela signifie que « la négation de B implique la négation de A » (contraposée de « A implique B »).
Le Modus Tollens est le raisonnement suivant : si une proposition A implique une proposition B, constater que B est fausse permet d’affirmer que A est fausse.
Un exemple : On sait que tous les poissons respirent sous l'eau. Or le saumon est un poisson donc il respire sous l'eau (Modus Ponens). La proposition initiale peut être énoncée sous une autre proposition équivalente (contraposée) : si « je ne peux pas respirer sous l’eau, alors je ne suis pas un poisson ». Cela permet de construire le raisonnement suivant : tous les poissons respirent sous l’eau, or je ne respire pas sous l’eau, donc je ne suis pas un poisson (Modus Tollens).
Ces outils de logique formelle permettent de vérifier la cohérence logique d’un argument et de détecter les argumentations fautives. Grâce à ces outils et en gardant un bon esprit critique et en vérifiant l'origine des informations diffusées, on peut donc plus facilement repérer un discours non scientifique ou pseudo-scientifique.

Notions clés
*         Une hypothèse est considérée comme valide aussi longtemps qu’aucune observation ou expérience ne vient montrer qu'elle est fausse.
*         La démarche scientifique consiste à tester les hypothèses pour démontrer si elles sont fausses ou non et à conserver uniquement celles qui sont cohérentes avec toutes les observations et les expériences.
*         La fausseté d’une hypothèse est certaine alors que sa validité scientifique est temporaire et soumise à l’évolution des connaissances.

 

  DOCUMENT     cea         LIEN
 

 
 
 
 

DÉCOUVERTE. Quand ils ne savent pas, les bébés le savent

 



 

 

 

 

 

CERVEAU ET PSY

DÉCOUVERTE. Quand ils ne savent pas, les bébés le savent

Par Hugo Jalinière le 10.03.2016 à 11h11, mis à jour le 10.03.2016 à 11h11

Lecture 2 min.

Dès l'âge de 20 mois, les bébés sont déjà doués d'une faculté permettant d'émettre un jugement sur leurs propres actions. Une réflexivité qu'on pensait alors quasi inexistante avant l'âge de 6 ans.

Les très jeunes enfants sont capables, dès 20 mois, de penser un jugement sur leurs propres choix et actions.


COGNITION. Les très jeunes enfants sont-ils capables d'évaluer leurs propres choix ? Sont-ils en mesure d'avoir une pensée ou une opinion sur leurs actions, et de la communiquer ? Jusqu'à présent, cette sensibilité métacognitive qui permet donc d'avoir un retour sur ses propres pensées et de l'exprimer ou la manifester était considérée comme quasi inexistante chez les enfants en-dessous de 6 ou 7 ans. Mais l'équipe Cerveau et conscience du laboratoire de sciences cognitives et psycholinguistique (CNRS/ENS/EHESS) vient de montrer que cette faculté réflexive est déjà bel et bien présente chez les bébés âgés de 20 mois. C'est en fait l'obstacle d'un langage mal maîtrisé par les plus jeunes qui empêchait jusqu'à présent de l'évaluer. L'étude que ces chercheurs français publient dans les PNAS, a pu contourner cet obstacle en mettant sur pied une méthode comportementale permettant de déterminer si les bébés de 20 mois sont capables d’évaluer et de communiquer non verbalement leur propre incertitude.

Les bébés peuvent évaluer leurs propres processus cognitifs
L'expérience a consisté à demander à des bébés de mémoriser l’emplacement d'un jouet caché sous une des deux boîtes présentées devant eux. Après un délai variable - 3 à 12 secondes -, ils devaient pointer la boîte dans laquelle ils pensaient que le jouet était caché. Pour corser un peu le tout, le jouet pouvait être caché derrière un rideau, rendant impossible la résolution du test.

Ainsi, soit le bébé, sûr de son fait, pointait la bonne boîte ; soit, assailli d'un doute, il adoptait un comportement signifiant une recherche de soutien extérieur. Les résultats de l’étude montrent ainsi que les bébés demandent de l’aide pour éviter de pointer vers la mauvaise boîte. De plus, ils demandent de l’aide plus souvent lorsque les essais sont impossibles, et pour les délais de mémorisation plus longs. Des conditions propices à entretenir une incertitude bien évaluée par les jeunes enfants.

Les chercheurs concluent ainsi que "les tout petits font donc déjà preuve de sensibilité métacognitive, même s'ils sont incapables de la verbaliser convenablement avant bien plus tard pendant l'enfance. De façon plus générale, nos résultats suggèrent que les bébés, en plus d’analyser leur environnement physique et social, peuvent aussi examiner leurs propres processus cognitifs."

 

DOCUMENT   sciences et avenir.fr    LIEN 

 
 
 
 

LE CERVEAU

 



 

 

 

 

 

L'ESSENTIEL SUR...
Le cerveau


Publié le 8 mars 2017
       
Organe complexe, le cerveau et son fonctionnement restent la source de nombreux mystères. Découvrez dans cette fiche "L'essentiel sur..." la composition du cerveau, son organisation, les moyens d’exploration du cerveau ou encore le processus d’apprentissage de la lecture chez l’Homme.

A QUOI SERT LE CERVEAU ?

Protégé par la boîte crânienne, le cerveau est l’organe qui fait office de chef d’orchestre pour tous les membres et organes du corps humain. Il centralise les informations et renvoie des messages aux différents membres. Il se compose de deux hémisphères reliés : l’hémisphère gauche et l’hémisphère droit, qui contrôlent chacun la partie du corps qui lui est opposée. La main droite sera donc contrôlée par une partie de l’hémisphère gauche.


DE QUOI EST COMPOSÉ LE CERVEAU ?
On distingue deux catégories de tissus dans le cerveau : la matière grise et la matière blanche.

La matière grise est faite des corps cellulaires des neurones, de leurs dendrites et d’autres cellules. Elle est responsable de notre activité sensori-motrice et de nos fonctions cognitives comme la lecture, le calcul, l’attention, la mémoire...

Les neurones sont des cellules du cerveau qui servent à transmettre les informations. Ils sont tous interconnectés et communiquent entre eux par messages électriques et chimiques au travers de milliers de petites branches appelées dendrites sur lesquelles se terminent les axones, prolongement des neurones pour transmettre l’information à distance.

Ce message  est transmis au corps cellulaire pour y être traité. L’information est émise sous la forme d’un message électrique le long de l’axone, une partie de la cellule qui fait office de route pour l’information. L’axone se ramifie ensuite pour distribuer le message aux autres neurones. Puisque les neurones ne se touchent pas, le message électrique est transformé en message chimique pour être capté par les dendrites de l’autre neurone.

La matière blanche est, quant à elle, constituée de ces axones, enveloppés d’un manchon graisseux de myéline, reliant les différentes régions de matière grise afin qu’elles échangent leur information.

QUELLE EST L’ANATOMIE DU CERVEAU ?

Chacun des hémisphères du cerveau est divisé en cinq régions (quatre extérieures et une enfouie : le cortex insulaire ou Insula). Ces lobes sont composés de zones plus petites qui gèrent des fonctions précises. Elles sont appelées aires cérébrales. On en dénombre aujourd’hui près de  200 par hémisphère.
 
Dans ces zones les neurones sont spécialisés dans une fonction précise comme transmettre un message visuel, sonore, sensitif… Les zones des différents lobes coopèrent pour réaliser les tâches complexes. Par exemple, le langage fait intervenir plusieurs zones de différents lobes pour nous permettre de parler ou lire.

*         Le lobe frontal est le siège de la parole, du langage et du raisonnement. Il a également la fonction de gérer les mouvements des membres.
*         Le lobe pariétal est la partie qui va s’occuper du repérage dans l’espace, des sens et de la lecture
*         Le lobe occipital est dédié à la vision
*         Le lobe temporal est la zone où se situent le langage, la mémoire et l’émotivité.
*         Le cortex insulaire ou Insula est spécialisé dans la perception de soi/sa conscience, dans la socialisation et impacte également les émotions.


Les régions associées à certaines fonctions sont localisées à des endroits variant légèrement d’un individu à l’autre. Par ailleurs, la spécialisation hémisphérique de certaines fonctions comme le langage varie : elle est majoritairement située dans l’hémisphère gauche chez les droitiers mais peut se situer dans l’hémisphère droit, comme chez la plupart des gauchers.

Ces différentes régions du cerveau sont connectées pour combiner les messages. C’est cette coopération des zones qui permet, par exemple, la reconnaissance de visages ou de lieux.

COMMENT LE CERVEAU PERMET-IL D’APPRENDRE À LIRE ?
Les zones du cerveau s’adaptent et interagissent ensemble en fonction des besoins et des tâches réalisées. Lorsque l’on apprend à lire, une zone du cerveau, située entre les lobes occipital et pariétal, va se spécialiser dans la reconnaissance et la mémorisation des lettres et des mots.

Dans l’apprentissage de la lecture, l’aire auditive du lobe temporal est également nécessaire pour faire correspondre ce qui est écrit à un son déjà appris. Dans la lecture, les neurones de l’aire visuelle vont se connecter à ceux de l’aire auditive. Cette connexion permet de déchiffrer le mot et de l’entendre dans sa tête.

A ce stade, le mot est entendu mais pas encore compris. Il faut donner du sens à ce message sonore. Pour cela l’aire auditive est connectée à l’aire de Wernicke, la partie du cerveau qui comme un dictionnaire, donne le sens des mots entendus.

Si l’assemblage de phonèmes (briques sonores qui constituent les mots) ne correspond pas à un mot connu, le cerveau va mémoriser à la fois le sens, le son du mot et son écriture.

COMMENT EXPLORE-T-ON LE CERVEAU ?
Arriver à observer le cerveau ne va pas de soi car il est abrité par la boîte crânienne. L’observer est essentiel pour comprendre son fonctionnement, l’apparition et le développement des maladies. La méthode d’imagerie la plus ancienne, la radiographie (rayons X) est peu informative pour étudier le cerveau car les rayons X sont en grande partie absorbés par l’os de la boîte crânienne. Le scanner à rayons  X, grâce à des capteurs très sensibles et un couplage informatique, permet de voir le cerveau et est utilisé en routine en médecine.


Les techniques d’exploration du cerveau au fil du temps
Outre le scanner X  le cerveau est exploré à l’aide de 3 autres grandes familles d’imagerie, qui font appel à des principes physiques différents : l’activité électrique et magnétique du cerveau, la radioactivité ou la résonance magnétique de certains noyaux atomiques.

L’électroencéphalographie (EEG)
L'électroencéphalographie mesure des signaux électriques produits par l’activité des neurones. Elle est très utilisée pour localiser les foyers épileptogènes (endroit où se situe la source d’une crise d’épilepsie)  ou pour rechercher une signature spécifique de l’état de conscience des patients en situation de coma.

Cet outil est parfois associé à la magnéto encéphalographie (MEG) qui est un outil de mesure de l’activité magnétique  du cerveau  associée aux courants produits par les neurones. L'atout de l’EEG et de la MEG est leur résolution temporelle, de l’ordre de la milliseconde. La MEG qui n’est pas perturbée par l’os et le scalp (cuir chevelu) génère des signaux plus propres.

L’imagerie nucléaire : la tomographie par émission de positons (TEP) ou de photons
La tomographie par émission de positons (TEP) ou tomographie par émission de photons sont des méthodes qui s’appuient sur des principes de la physique nucléaire pour étudier ce qu’il se passe dans le corps humain. Ces techniques offrent une analyse quantitative des réactions biochimiques du corps, comme par exemple la neurotransmission (transmission des informations entre les neurones) Pour cela, les médecins injectent au patient des molécules (appelées « traceurs ») combinées avec des éléments faiblement radioactifs qui ciblent les régions du corps où ont lieu les processus biochimiques à analyser. Pour ces examens, les atomes radioactifs utilisés ont une demi-vie relativement courte (6 h pour le technétium 99m, l’isotope le plus utilisé, 13 h pour l’iode 123) et leur radioactivité a disparu au bout de quelques jours (10 demi-vies).

L’imagerie par résonance magnétique (IRM)

L’IRM repose sur les propriétés magnétiques des atomes d’hydrogène des molécules d’eau qui composent à plus de 80 % le corps humain. L’atome d’hydrogène possède un "moment magnétique", ou spin, qui agit comme un aimant.

L’appareil IRM consiste à créer un champ magnétique puissant grâce à une bobine. Le patient est placé au centre de ce champ magnétique, et toutes les molécules d’eau présentes dans le corps vont s’orienter selon la direction du champ magnétique. Une antenne placée sur la partie du corps étudiée va permettre d’émettre et de réceptionner une onde radiofréquence spécifique des atomes d’hydrogène.

A l’émission, la fréquence induite va faire basculer l’aimantation des noyaux des molécules dans un plan perpendiculaire aux champs magnétiques de l’IRM. Lorsque l’antenne arrête d’émettre, l’aimantation revient à la position d’origine en émettant à leur tour une fréquence captée par l’antenne. Celle-ci est ensuite traitée comme un signal électrique et analysée par des logiciels. Le signal diffère selon que les tissus observés contiennent plus ou moins d’eau.


QUELS SONT LES ENJEUX DE LA RECHERCHE SUR LE CERVEAU ?
Les deux principaux enjeux de la recherche sur le cerveau sont : l’acquisition de nouvelles connaissances fondamentales sur le fonctionnement de l’organe (au niveau microscopique et macroscopique) et la compréhension des maladies ou troubles qui l’affectent.

Pour cela il faut rechercher de nouveaux signaux de l’activité neuronale, mettre au point de meilleurs outils d’imagerie médicale et concevoir de nouveaux traceurs.

 

   DOCUMENT     cea         LIEN

 
 
 
Page : [ 1 2 3 4 5 6 ] - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales /confidentialité

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon