ecole de musique piano
     
menu
 
 
 
 
 
 

LA DÉMARCHE SCIENTIFIQUE

 

 

 

 

 

 

 

LA  DÉMARCHE  SCIENTIFIQUE

Pour comprendre et expliquer le réel en physique, chimie, sciences de la vie et de la Terre, les scientifiques utilisent une méthode appelée la démarche scientifique. Quels sont ses grands principes ? Quels outils sont utilisés pour mettre en place des raisonnements logiques ? Découvrez l’essentiel sur la démarche scientifique.
QU’EST-CE QUE LA DÉMARCHE SCIENTIFIQUE ?

La démarche scientifique est la méthode utilisée par les scientifiques pour parvenir à comprendre et à expliquer le monde qui nous entoure. De façon simplificatrice, elle se déroule en plusieurs étapes : à partir de l’observation d’un phénomène et de la formulation d’une problématique, différentes hypothèses vont être émises, testées puis infirmées ou confirmées ; à partir de cette confirmation se construit un modèle ou théorie. L’observation et l’expérimentation sont des moyens pour tester les différentes hypothèses émises.
    
L’évolution de la démarche scientifique
au fil du temps
De l’Antiquité à nos jours, les moyens d’investigation sur le monde ont évolué pour aboutir à une démarche dont les fondements sont communs à toutes les sciences de la nature (physique, chimie, sciences de la vie et de la Terre).
Dès l’Antiquité, Hippocrate, médecin grec, apporte de la nouveauté dans son traité « Le pronostic », qui détaille, pour la première fois, un protocole pour diagnostiquer les patients. Ce texte est l’une des premières démarches scientifiques.
Le XVIIe siècle est l’âge d’or des instruments et désormais l'expérience est au cœur de la pratique scientifique : on parle de Révolution scientifique. En plus des observations, les hypothèses peuvent aussi être testées par l’expérience. Par ailleurs, l’invention d’instruments tels que le microscope donne la possibilité aux scientifiques d’observer des éléments jusqu’alors invisibles à l'œil nu, comme les cellules, découvertes par Robert Hooke en 1665.
A partir du XXe siècle, la science se fait de manière collective. Les études scientifiques sont soumises au jugement des « pairs », c’est-à-dire à d’autres scientifiques et toutes les expériences doivent être détaillées pour être reproductibles par d’autres équipes. En contrepartie, la publication dans des revues internationales, et sur Internet dès les années 1990, permet aux chercheurs du monde entier d’accroître la notoriété de leurs idées et facilite l'accès aux sciences pour le grand public. Mais avec l'arrivée de l'informatique, il n'y a pas que la communication qui change, la méthode scientifique aussi se transforme. Il devient plus simple de trier de grands nombres de données et de construire des études statistiques. Il faut cependant faire attention à sélectionner les critères pertinents, car les progrès technologiques apportent aux chercheurs d’immenses quantités d’informations, appelées big data.

LES DIFFÉRENTES ÉTAPES DE LA DÉMARCHE SCIENTIFIQUE

Observation et formulation d’une problématique

A la base de toute démarche scientifique,il y a au départ une observation d’un phénomène et la formulation d’une problématique.
Par exemple, depuis l’Antiquité, certains savants sont convaincus que la Terre est immobile au centre de l’Univers et que le Soleil tourne autour d’elle : c’est l’hypothèse du géocentrisme. Elle est émise car à l’époque, toutes les observations se faisaient à l’œil nu. Vu depuis la Terre, le Soleil peut donner l’impression de tourner autour de nous car il se lève sur l’horizon Est et se couche sur l’horizon Ouest. Cependant, ce n’était qu’une intuition car à ce stade, aucune véritable démarche scientifique n’est engagée.
Plus tard, quand les astronomes ont observé le mouvement des planètes, ils ont vu que le déplacement de certaines planètes forme parfois une boucle dans le ciel, ce qui est incompatible avec un mouvement strictement circulaire autour de la Terre. Le problème fut résolu en complexifiant le modèle : une planète se déplace sur un cercle dont le centre se déplace sur un cercle. C’est la théorie des épicycles.

Les hypothèses et la construction d’un modèle
Une nouvelle hypothèse fut émise par Nicolas Copernic au XVe siècle. Selon lui, le Soleil est au centre de l’Univers et toutes les planètes, dont la Terre, tournent autour de lui. On appelle cette hypothèse « l’héliocentrisme ». Ce modèle rend naturellement compte des rétrogradations planétaires mais possède quand même des épicycles pour décrire leurs mouvements avec plus de précisions.
Durant l’hiver 1609-1610, Galilée pointe sa lunette vers le ciel et découvre les phases de Vénus et des satellites qui tournent autour de la planète Jupiter. Ses observations l’incitent à invalider l’hypothèse géocentrique et à adhérer à l’héliocentrisme.
Petit à petit, cette méthode est devenue générale. Une hypothèse reste considérée comme valide tant qu’aucune observation ou expérience ne vient montrer qu’elle est fausse. Plus elle résiste à l’épreuve du temps, plus elle s’impose comme une description correcte du monde. Cependant, il suffit d’une seule observation contraire pour que l’hypothèse s’effondre, et dans ce cas, c’est définitif. Il faut alors changer d’hypothèse.
Reste que l’héliocentrisme de Copernic s’est d’abord imposé par la qualité des éphémérides planétaires qui en étaient tirées plus que par la force de son hypothèse, certes plus pratique que l’hypothèse géocentrique mais pas confirmée directement. Pour cela, il fallut encore attendre quelques années, le temps que la qualité des instruments d’observation progresse.

L’observation et l’expérimentation
Si la Terre est animée d’un mouvement autour du Soleil alors on devrait constater un effet de parallaxe, c’est-à-dire de variation des positions relatives des étoiles au fil de l’année. L’absence d’une parallaxe mesurable était utilisée contre l’héliocentrisme. C’est en cherchant à mesurer la parallaxe des étoiles que l’astronome anglais James Bradley découvrit en 1727 un autre effet, l’aberration des étoiles, dont il montra qu’elle ne pouvait provenir que de la révolution de la Terre autour du Soleil. La première mesure de parallaxe, due à l’astronome Friedrich Bessel en 1838, vient clore le débat.
Le mouvement de rotation de la Terre ne fut prouvé que plus tard. En 1851 le physicien Léon Foucault mène une expérience publique spectaculaire : un grand pendule est accroché à la voûte du Panthéon de Paris et la lente révolution de son plan d’oscillation révèle la rotation de la Terre sur elle-même.
On trouve là une autre caractéristique de la démarche scientifique. Une fois le modèle mis au point en s’appuyant sur des observations qui le justifient, il faut en tirer des prédictions, c’est-à-dire des conséquences encore non observées du modèle. Cela permet de mener de nouvelles observations ou de bâtir de nouvelles expériences pour aller tester ces prédictions. Si elles sont fausses, le modèle qui leur a donné naissance est inadéquat et doit être réformé ou oublié. Si elles sont justes, le modèle en sort renforcé car il est à la fois descriptif et prédictif.

La communication
Aujourd’hui, la « revue par les pairs » permet de contrôler la démarche scientifique d’une nouvelle découverte, par un collège de scientifiques indépendants. Si les observations et expérimentations vont dans le même sens et qu’elles ne se contredisent pas, la proposition est déclarée apte à être publiée dans une revue scientifique.

QUELS OUTILS POUR DÉCRYPTER
LA SCIENCE ?
La démarche scientifique repose sur la construction d’un raisonnement logique et argumenté. Elle utilise les bases de la logique formelle : l’induction et la déduction.

L’induction
L’induction cherche à établir une loi générale en se fondant sur l’observation d’un ensemble de faits particuliers (échantillon).
L'induction est par exemple utilisée en biologie. Ainsi, pour étudier des cellules dans un organisme, il est impossible de les observer toutes, car elles sont trop nombreuses. Les scientifiques en étudient un échantillon restreint, puis généralisent leurs observations à l’ensemble des cellules. Les scientifiques établissent alors des hypothèses et des modèles dont il faudra tester les prédictions par des observations et des expériences ultérieures.

La déduction
La déduction relie des propositions, dites prémisses, à une proposition, dite conclusion, en s’assurant que si les prémisses sont vraies, la conclusion l’est aussi.
Exemple classique de déduction : tous les hommes sont mortels, or Socrate est un homme donc Socrate est mortel.
La déduction est beaucoup utilisée en physique ou mathématiques, lors de la démonstration d’une loi ou d’un théorème.

Raisonnement du Modus Ponens et du Modus Tollens
Le Modus Ponens et le Modus Tollens sont utilisés par les scientifiques dans leurs raisonnements.
Le Modus Ponens est, en logique, le raisonnement qui affirme que si une proposition A implique une proposition B, alors si A est vraie, B est vraie.
Mais si une implication est vraie alors sa contraposée l’est également (même valeur de vérité selon les règles de la logique formelle). Cela signifie que « la négation de B implique la négation de A » (contraposée de « A implique B »).
Le Modus Tollens est le raisonnement suivant : si une proposition A implique une proposition B, constater que B est fausse permet d’affirmer que A est fausse.
Un exemple : On sait que tous les poissons respirent sous l'eau. Or le saumon est un poisson donc il respire sous l'eau (Modus Ponens). La proposition initiale peut être énoncée sous une autre proposition équivalente (contraposée) : si « je ne peux pas respirer sous l’eau, alors je ne suis pas un poisson ». Cela permet de construire le raisonnement suivant : tous les poissons respirent sous l’eau, or je ne respire pas sous l’eau, donc je ne suis pas un poisson (Modus Tollens).

 

   DOCUMENT     cea         LIEN

 
 
 
 

ALAN MATHISON TURING

 

 

 

 

 

 

 

Alan Mathison Turing

Mathématicien britannique (Londres 1912-Wilmslow, Cheshire, 1954).
Il fut un brillant logicien (→ logique) et l'un des pionniers de l'informatique et de l'intelligence artificielle.

1. De la logique mathématique à l'informatique

Fils d'un officier de l'armée des Indes, Alan Turing, âgé d'à peine 1 an, est confié à un couple de retraités qui va l'élever, ainsi que son frère John. Sa mère part, en effet, rejoindre son père, administrateur colonial à Madras. Ses parents ne regagneront définitivement l'Angleterre qu'en 1926 (mais reverront leurs enfants chaque année lors des vacances).
Réfractaire à la scolarité, le jeune Alan manifeste un désintérêt total pour les matières littéraires, mais un goût prononcé pour les disciplines scientifiques, en particulier pour la chimie, et de réelles dispositions pour les mathématiques. En 1931, il est admis au King's College de Cambridge pour y poursuivre des études de mathématiques ; il y obtient sa licence en 1934. Ses lectures ainsi que les cours du mathématicien Max Newman (1897-1984) et de l'astrophysicien Arthur Eddington lui font découvrir les grandes questions de la science moderne.

Les travaux de David Hilbert sur la recherche des fondements des mathématiques et ceux de Johann von Neumann sur les fondements mathématiques de la mécanique quantique stimulent son intérêt pour l'étude du déterminisme en physique et en mathématiques. Chargé de cours au King's College en 1935, il part l'année suivante à Princeton, aux États-Unis, préparer un doctorat de logique mathématique sous la direction d'Alonzo Church (1903-1995). Après avoir soutenu sa thèse, il regagne Cambridge, en juillet 1938.
L'un des problèmes qu' étudie Turing est celui, posé par Hilbert, de la possibilité pour une proposition mathématique d'être validée comme vraie ou fausse par un algorithme. Un article rédigé avant son départ aux États-Unis, mais publié seulement en janvier 1937, On Computable Numbers, with an Application to the Entscheidungsproblem (Sur les nombres calculables, avec une application au problème de la décision), constitue l'une de ses plus importantes contributions à la logique mathématique. L'auteur y élabore le concept d'une machine à calculer « universelle » (machine de Turing), qui est à la base de toutes les théories sur les automates et ouvre la voie à de nombreux développements de la théorie des algorithmes. Une opération n'est exécutable sur ordinateur que s'il existe une machine de Turing équivalente. Tous les ordinateurs étant des réalisations matérielles de cette machine universelle, Turing peut être considéré comme le fondateur de l'informatique.

2. Cryptologie, ordinateurs, intelligence artificielle

Pendant la Seconde Guerre mondiale, Turing contribue à l'effort allié, au sein du service britannique du chiffre, en mettant au point des machines et des méthodes qui lui permettent de percer les codes secrets de la machine Enigma utilisée par la marine allemande pour communiquer avec ses sous-marins (→ cryptographie). Envoyé secrètement aux États-Unis, il travaille aux Laboratoires Bell de New York (1943), où il rencontre régulièrement Claude Elwood Shannon, l'un des fondateurs de la théorie de l'information, avec qui il évoque des projets de machines qui imiteraient le fonctionnement du cerveau humain. Après son retour en Angleterre, il conçoit et réalise une machine électronique capable de crypter la voix humaine.

En 1945, il reprend ses recherches sur la conception des machines à calculer au Laboratoire national de physique britannique. Le projet de construction d'un calculateur électronique qu'il présente en 1946 marque, avec celui proposé quelques mois auparavant aux États-Unis par John von Neumann, l'acte de naissance de l'ordinateur. En 1947, Turing retourne au King's College et prend une année sabbatique pour suivre des cours de physiologie et de neurologie. Son intérêt pour les phénomènes de croissance animale ou végétale se développe ; ils deviendront son champ de recherche à partir de 1951. À l'automne 1948, il rejoint l'équipe d'informatique de l'université de Manchester et, durant les deux années suivantes, se consacre à des travaux de programmation électronique, tout en s'intéressant à l'intelligence artificielle.

En 1951, il est élu membre de la Royal Society. Cependant, la révélation de son homosexualité va bientôt briser sa carrière. Arrêté et inculpé en 1952 à la suite d'une aventure avec un jeune homme, il évite la prison en acceptant de subir un traitement de castration chimique, mais il est écarté des grands projets gouvernementaux. Le 7 juin 1954, sa femme de ménage le trouve mort, dans son lit, et remarque une pomme à moitié mangée posée sur sa table de chevet. L'enquête établit que le fruit a macéré dans du cyanure et conclut à un suicide par empoisonnement. La mère d'Alan Turing écartera pourtant cette thèse et soutiendra celle de l'accident, en arguant que son fils avait l'habitude d'entreposer chez lui des produits chimiques sans aucune précaution.

Suite aux nombreuses pétitions réclamant la réhabilitation de Turing, la reine Elizabeth II le gracie en 2013. Le gouvernement britannique considère aujourd'hui sa condamnation comme injuste et discriminatoire et salue son génie qui a contribué à sauver des milliers de vie. Depuis 1966, le prix Turing récompense chaque année une personne ayant apporté une contribution significative au monde de l'informatique. En 2015, la biographie d'Alan Turing est portée à l'écran dans le film Imitation Game.


DOCUMENT   larousse.fr    LIEN

 
 
 
 

CRYPTOGRAPHIE

 


 

 

 

 

 

PLAN
    *         CRYPTOGRAPHIE
    *         Principes généraux
    *         Historique
    *         Les principales techniques
    *         La cryptographie à clé secrète
    *         La cryptographie à clé publique
    *         La cryptographie quantique


cryptographie

Consulter aussi dans le dictionnaire : cryptographie

Ensemble des techniques de chiffrement qui assurent l'inviolabilité de textes et, en informatique, de données.

Principes généraux
Un système de cryptographie adopte des règles qui définissent la manière dont les données sont encryptées ou décryptées. On distingue les techniques sans clé et celle à une ou deux clés. Une clé est une suite de bits qui sert au chiffrement et au déchiffrement des données. La clé est souvent produite à partir d'un mot (ou d'une phrase) de passe. Un algorithme qui n'utilise pas de clé n'offre une sécurité que tant qu'il demeure secret. Dans une méthode à base de clé, la protection ne dépend pas de l'algorithme de chiffrement, qui peut être largement divulgué, mais de la confidentialité de la clé. Les systèmes n'ayant qu'une seule clé s'en servent pour les deux sens, tandis que ceux qui en ont deux utilisent l'une, dite clé publique, au chiffrement et l'autre, dite clé révélée, au déchiffrement.

Historique
La cryptographie était déjà utilisée dans l'Antiquité romaine : Jules César la pratiquait dans certains messages en décalant chaque lettre de quatre rangs par rapport à sa place dans l'alphabet. Les premiers traités de chiffrement combinatoire remontent au ixe s. et sont l'œuvre du philosophe et savant arabe al-Kindi. Après lui, les hommes de la Renaissance ont poursuivi l'étude de cet art du message secret, dont l'intérêt politique ne leur avait pas échappé. Mais il a fallu attendre la Seconde Guerre mondiale pour que la cryptographie accède à une autre dimension. Pour garantir le secret des messages signalant la position de ses sous-marins, l'Allemagne nazie avait mis au point la machine de cryptage Enigma. Dans un message codé, le chiffrement d'une lettre n'était pas fixe, mais suivait une loi de fluctuation dont les combinaisons étaient si nombreuses qu'elle décourageait toute tentative de décryptage. Pour pallier cet obstacle, les Alliés firent appel à des mathématiciens (dont Alan Turing) pour construire des machines capables de suivre automatiquement les variations de ces codes. Ce travail eut pour conséquence inattendue de contribuer à la naissance de l'ordinateur.
Plus récemment, l'expansion considérable des réseaux a conduit la cryptographie à sortir du champ strictement militaire ou diplomatique. Afin de garantir la confidentialité des messages et de conditionner l'accès à certaines informations circulant sur les réseaux, les informaticiens ont développé des techniques de cryptage utilisant des théories mathématiques sophistiquées. Aujourd'hui, le développement du commerce électronique conduit même à une légalisation de la cryptographie privée.

Les principales techniques
Selon le concept et le mode de fonctionnement mis en œuvre, les systèmes de cryptographie modernes relèvent de deux grandes techniques : la cryptographie à clé secrète (ou privée) et la cryptographie à clé publique (ou à double clé). Il faut y ajouter la cryptographie quantique, à la pointe des recherches menées pour accroître encore la sécurité.

La cryptographie à clé secrète
Dans cette technique, la clé qui sert au cryptage des informations par l'expéditeur d'un message est identique à celle qui permet leur décryptage par le destinataire. L'algorithme de chiffrement à clé secrète le plus répandu est le DES (sigle de l'anglais Data Encryption Standard). Développé en 1976, par une équipe d'IBM, pour le National Bureau of Standards, il a été adopté à cette époque comme standard de chiffrement aux États-Unis et certaines de ses variantes restent largement utilisées, notamment dans le secteur bancaire (cartes de crédit). Son principal avantage est une vitesse de chiffrement et de déchiffrement très élevée. Mais le fait que l'expéditeur et le destinataire utilisent la même clé n'est pas sans risque ; ils doivent en effet se la communiquer à un moment ou à un autre, et son interception par un tiers est toujours possible.

La cryptographie à clé publique
Dans cette technique, la clé qui sert à chiffrer le message diffère de celle utilisée pour son déchiffrement. Le logiciel de cryptage d'un utilisateur génère ainsi deux clés distinctes. La première, dite clé publique, est publiée dans un annuaire accessible à tous sur Internet. La seconde, dite clé privée, est gardée secrète. L'expéditeur d'un message doit au préalable consulter l'annuaire en ligne pour y trouver la clé publique associée au destinataire. Il l'utilise ensuite pour crypter son message. Le destinataire ne peut décrypter le message qu'à l'aide de la clé qu'il a tenue secrète. Le cryptage est dit asymétrique, car l'expéditeur lui-même n'est pas en mesure de décrypter son message, une fois celui-ci codé.
L'algorithme de chiffrement à clé publique le plus répandu est RSA, ainsi nommé d'après les initiales des noms des trois chercheurs du Massachusetts Institute of Technology qui l'ont mis au point en 1977, Ronald Rivest, Adi Shamir et Len Adleman. Sa fiabilité tient à la difficulté qu'éprouvent les mathématiciens à factoriser les très grands nombres premiers : s'il est facile, à l'aide d'un ordinateur, de faire le produit de deux nombres premiers de plus de cent chiffres, il est en revanche extrêmement compliqué, à partir du résultat du produit, de trouver les deux facteurs qui en sont à l'origine. RSA tire parti de cette difficulté : un texte est codé en fonction d'un certain nombre n, connu de tous (clé publique), composé de deux entiers premiers p et q que tout le monde ignore à l'exception du destinataire (clé privée), et qui lui permettent de décoder le message. Si n est un nombre assez grand, le système est pratiquement inviolable, compte tenu du temps nécessaire aux machines les plus puissantes pour retrouver p et q. À l'heure actuelle, lorsque la clé a une longueur d'au moins 1 024 bits, le système est considéré comme sûr.
L'algorithme RSA est utilisé aujourd'hui dans une large variété d'appareils pour le chiffrement des communications et dans le cadre de la signature numérique, car il dispose d'une fonction d'authentification de l'émetteur du message. Il a toutefois l'inconvénient d'être 500 fois plus lent que le système DES. Aussi, pour l'envoi de messages confidentiels longs, recourt-on fréquemment à une méthode mixte alliant la sécurité de la cryptographie à clé publique à la rapidité de la cryptographie à clé secrète. La plus connue de ces méthodes est PGP (sigle de l'anglais Pretty Good Privacy), inventée en 1992 par l'Américain Phil Zimmermann.

La cryptographie quantique
Sur le réseau Internet, ni la cryptographie à clé publique, ni celle à clé secrète ne permettent de savoir si le message chiffré émis n'a pas été intercepté par une personne autre que le destinataire. Cet inconvénient disparaît avec la cryptographie quantique. Celle-ci s'appuie sur la physique quantique, d'où son nom. Plus précisément, elle tire parti du principe d'incertitude de Heisenberg, selon lequel le seul fait de mesurer un système quantique suffit à perturber ce dernier.
Dans la cryptographie quantique, on transmet des impulsions lumineuses, par l'intermédiaire de fibres optiques. Le texte du message codé sous forme de bits est représenté par un ensemble de photons dont l'état quantique correspond à la valeur de ses bits. Si, lors de la transmission, un intrus agit sur l'un des photons, il en détruit la polarisation, de sorte que l'expéditeur et le destinataire s'en aperçoivent immédiatement.
Cette technique permet donc l'échange d'informations confidentielles, notamment celui de la clé de codage employée dans un système à clé publique. Elle se heurte toutefois à un problème important, celui de l'atténuation progressive du flux de photons le long des fibres optiques par lesquelles ils transitent. Au-delà de quelques kilomètres, la cryptographie quantique devient inopérante.

 

DOCUMENT   larousse.fr    LIEN

 
 
 
 

INTELLIGENCE ARTIFICIELLE

 

 

 

 

 

 

 

Apprentissage profond : le supercerveau du Net
Gautier Cariou dans mensuel 498
daté avril 2015 -

L'intelligence artificielle s'apprête à bouleverser les réseaux sociaux. Comment ? Grâce à l'apprentissage profond, une discipline émergente qui a franchi récemment un cap décisif.

L'intelligence artificielle (IA) est devenue le nouveau pari de Facebook, Google et Baidu. Depuis deux ans, ces géants du Net y investissent des milliards de dollars et débauchent parmi les meilleurs chercheurs du domaine. Il faut dire que les performances actuelles de l'IA laissent entrevoir des applications aussi inédites que séduisantes pour ces grands groupes. « Les algorithmes d'apprentissage profond, une discipline émergente de l'intelligence artificielle, permettent d'identifier automatiquement et de façon très efficace les images et les vidéos, explique ainsi Yann LeCun, pionnier de l'apprentissage profond et directeur du laboratoire d'intelligence artificielle de Facebook (FAIR). Depuis deux ans, les résultats dans le domaine de la compréhension par la machine du langage naturel, parlé, sont également très prometteurs. De quoi analyser les goûts des utilisateurs de façon plus fine et leur recommander des contenus plus pertinents. »
Si l'intérêt pour l'apprentissage profond (ou deep learning) est relativement récent, la recherche dans ce domaine a débuté dès la fin des années 1980. En 1994, le Français Yann LeCun met au point un algorithme qui permet à un ordinateur de reconnaître automatiquement des mots écrits à la main [1]. Ses travaux sont rapidement exploités à grande échelle dans les lecteurs automatiques de chèques de nombreuses banques américaines. Malgré ce succès, la recherche tombe en désuétude à la fin des années 1990 : la puissance de calcul des ordinateurs est bien trop faible pour améliorer de façon notable les performances des algorithmes d'apprentissage profond.
Il faut attendre une dizaine d'années et le franchissement de cette barrière technologique (lire « L'accélération de la vitesse de calcul », p. 32) pour que l'apprentissage profond remporte l'adhésion de la plupart des spécialistes de la reconnaissance visuelle. Nous sommes en 2012. « L'équipe de Geoffrey Hinton, professeur à l'université de Toronto, au Canada (et engagé depuis par Google dans le groupe de recherche « Google Brain », NDLR), remporte alors haut la main une compétition - ImageNet Large Scale Visual Recognition Challenge - qui permet chaque année à de nombreux laboratoires de confronter leurs algorithmes de reconnaissance d'image et de mesurer leur efficacité sur des milliers d'images », raconte Yann LeCun.

Neurones artificiels
Lorsqu'on présente des images issues d'une banque de données [2] au système de l'équipe canadienne - le seul de la compétition fondé sur l'apprentissage profond-, il parvient à les identifier avec 15 % d'erreurs seulement. Du jamais vu. Le meilleur système concurrent affiche un taux d'erreurs de 26 %. « Ce résultat a impressionné la communauté de la vision informatique. Si bien que, deux ans plus tard, tous les participants utilisaient des algorithmes d'apprentissage profond pour analyser les images. Aujourd'hui, cette technologie égale voire surpasse l'homme dans certaines tâches, comme la reconnaissance des visages. » C'est ainsi qu'en 2014, Facebook présente DeepFace, un programme capable de reconnaître automatiquement un individu sur deux photos différentes avec un taux de réussite de 97,35 % contre 97,53 % en moyenne lorsqu'un homme se prête à l'exercice. Une amélioration de 27 % par rapport à l'état de l'art.
Ce succès dans le domaine de la reconnaissance visuelle s'explique par l'utilisation de ce que l'on appelle des « réseaux de neurones convolutifs », une classe d'algorithmes imaginée par Yann LeCun à la fin des années 1980 [3]. Comme le suggère leur nom, ces réseaux s'inspirent de l'organisation des cellules nerveuses du cerveau, et en particulier du cortex visuel. Lorsque l'oeil observe une scène, une image s'imprime sur la rétine. Des impulsions électriques sont alors transmises vers le cortex visuel qui traite cette information. Des millions de neurones interconnectés échangent des messages, travaillent de concert pour identifier le contenu de la scène.
Les neurones artificiels utilisés en apprentissage profond sont des entités informatiques qui reproduisent de façon très simplifiée l'action de leur analogue biologique. « Concrètement, ce sont des blocs de code informatique qui exécutent des calculs élémentaires : des additions et des multiplications », explique Yoshua Bengio, directeur de l'Institut de Montréal pour les algorithmes d'apprentissage, à l'université de Montréal. Ces neurones artificiels se comptent par millions et sont organisés en plusieurs « couches » successives. Chaque neurone est doté de plusieurs entrées et d'une sortie par lesquelles transite l'information. Les entrées des neurones de la première couche reçoivent les informations élémentaires : des triplets de nombres réels qui correspondent aux couleurs rouge, vert et bleu des pixels de l'image. Leur sortie est quant à elle connectée aux entrées des neurones de la deuxième couche, eux-mêmes connectés aux entrées des neurones de la troisième couche et ainsi de suite.
Le lien entre deux neurones de couches successives (un neurone source et un neurone destinataire) est défini par un « poids synaptique », un nombre réel qui quantifie la force de ce lien. Selon la valeur de ce poids, les signaux envoyés par un neurone source vers un neurone destinataire sont soit amplifiés, soit atténués. Ces signaux sont ensuite additionnés. Si cette somme dépasse un certain seuil fixé au préalable par l'ordinateur, le neurone destinataire envoie alors un signal vers les neurones de la couche suivante. En revanche, si cette valeur est inférieure à ce seuil, le neurone est inhibé : il ne transmet aucun signal. Le cheminement de l'information à travers un réseau de neurones et l'interprétation de cette information par le réseau dépendent donc de la valeur de ces poids synaptiques.

Entraînement à l'identification
Pour identifier un objet dans une image, l'ordinateur utilise un programme informatique qui envoie vers la première couche de neurones des informations élémentaires sur la nature de l'image : la couleur ou le niveau de gris des pixels. « Pris séparément, ces pixels ne contiennent pas d'information pertinente sur la nature de l'image, précise Yann LeCun. Or, dans une image naturelle, la probabilité que des pixels proches possèdent la même couleur est très élevée. La première couche de neurones est donc configurée pour tirer parti de cette particularité statistique et parvient à détecter automatiquement des configurations particulières de pixels, par exemple des contours orientés selon la même direction. »
En sortie de la première couche, ces configurations sont codées sous la forme de vecteurs qui contiennent des informations spécifiques sur la nature de l'objet à identifier. « Ces vecteurs dits "caractéristiques" sont ensuite envoyés vers une seconde couche de neurones qui les combinent et en extraient des motifs plus abstraits : arrangements de contours, parties d'objets, etc. Les neurones des couches suivantes réalisent le même type d'opération et produisent des vecteurs caractéristiques de plus haut niveau, qui contiennent des informations telles que l'identité des objets. »
Cette identification n'est toutefois possible que si le réseau de neurones a été entraîné au préalable à reconnaître une image. Cette tâche nécessite de disposer d'une quantité colossale d'images étiquetées, classées dans différentes catégories (races de chiens, marques de voitures ou de sacs, etc.). Chez Google et Facebook, qui disposent de milliards d'images, des équipes entières sont chargées de ce travail fastidieux. Mais les laboratoires plus modestes peuvent aussi utiliser les millions d'images étiquetées contenues dans la base ImageNet, créée en 2012 par des universitaires de Stanford, aux États-Unis.

Pour que l'ordinateur apprenne à reconnaître une image à coup sûr (ou presque), par exemple un chien, les chercheurs utilisent un algorithme « d'optimisation par gradient stochastique ». À chaque nouvel exemple qu'on soumet à l'ordinateur, cet algorithme modifie la valeur des poids synaptiques du réseau de neurones. « Après des centaines de millions d'exemples présentés à l'ordinateur, la distribution des poids synaptiques ne varie plus ou presque, explique Yoshua Bengio. Quand vient ce moment, le réseau de neurones a terminé son apprentissage, et il peut alors associer à n'importe quelle image une représentation apprise, c'est-à-dire un vecteur de caractéristiques, qui permet de prédire la catégorie à laquelle l'objet appartient. »
De cette façon, un réseau de neurones entraîné pourra reconnaître avec une grande probabilité n'importe quel chien, sous n'importe quel angle de prise de vue, sans l'avoir jamais vu auparavant. Simplement parce que sa représentation mathématique associée à la catégorie « chien » est suffisamment générale. Avec cette technologie, Facebook compte améliorer l'analyse des goûts des utilisateurs en identifiant automatiquement le contenu des images et des vidéos qu'ils postent ou qu'ils « like » (lire « Facebook réinvente Facebook » p. 28).

Des mots transformés en vecteurs
Après la reconnaissance des images, l'apprentissage profond est sur le point de révolutionner la compréhension automatique du langage naturel. Avec des applications très concrètes en préparation dans les laboratoires de Facebook telles que l'analyse des sentiments dans les textes (lire « L'ordinateur qui comprend l'ironie », p. 34), la traduction instantanée ou la mise en place de boîtes de dialogue entre l'homme et la machine. Des tâches que les algorithmes actuellement utilisés pour analyser les phrases sont incapables d'accomplir. Ces derniers permettent uniquement de compter la « co-occurrence » de mots, c'est-à-dire leur fréquence d'apparition dans un texte et le nombre de mots qui les séparent d'autres mots. De cette manière, un ordinateur calcule la probabilité que tel mot apparaisse à tel endroit dans une phrase, sans vraiment en comprendre le sens.
Or, en 2000, Yoshua Bengio démontre pour la première fois que les machines sont capables d'apprendre par elles-mêmes le langage naturel grâce à des algorithmes d'apprentissage profond [4]. Parmi ces algorithmes, se distinguent les réseaux de neurones dits « récurrents », dont le principe général est analogue à celui des réseaux de neurones convolutifs. Avec ces algorithmes, un ordinateur comprend mieux le sens des mots et les liens qui les unissent. « Autrement dit, il développe une compréhension sémantique de la langue, explique Yoshua Bengio. À la manière des algorithmes de reconnaissance des images, ceux utilisés pour la compréhension du langage naturel apprennent automatiquement à représenter des séquences de mots sous la forme de vecteurs de caractéristiques à partir de milliards d'exemples. »
Pour chaque mot que l'ordinateur repère dans un texte, par exemple « stylo », l'algorithme génère automatiquement un ensemble de nombres, des attributs sémantiques. Ensemble, ces attributs forment un vecteur correspondant au mot « stylo ». Ce vecteur est construit de telle façon que les mots de signification proche ou apparaissant dans des contextes voisins possèdent des attributs sémantiques en commun. Le mot « crayon » partagera ainsi de nombreux attributs avec « stylo » ou « pinceau ».

Ces vecteurs constituent le premier niveau de représentation. Dans un second temps, ils sont combinés par les couches suivantes du réseau de neurones qui génèrent des vecteurs de plus haut niveau encore. Ces derniers résument le sens de séquences entières de mots, puis celui de phrases complètes. « Cette technique qui consiste à représenter des textes par des vecteurs a été popularisée en 2008, à la suite d'une publication de Ronan Collobert et James Weston [5], aujourd'hui chercheurs dans le laboratoire FAIR, précise Yann LeCun. Ce sont leurs travaux en particulier qui ont réveillé l'intérêt de la communauté pour ces techniques. »
La représentation des mots par des vecteurs permet également aux ordinateurs d'appréhender le langage en raisonnant par analogie. En 2013, Tomas Mikolov, jeune chercheur au laboratoire d'intelligence artificielle chez Google (et actuellement chez Facebook), montre qu'en réalisant des opérations élémentaires entre plusieurs vecteurs, un ordinateur découvre des analogies entre les mots [6]. En réalisant le calcul suivant : vecteur « Madrid » moins vecteur « Espagne » plus vecteur « France », il remarque que le résultat obtenu est un vecteur très proche de celui de « Paris ». À sa manière, la machine a donc compris par elle-même le concept de capitale. « Ce résultat peut paraître anodin mais pour la communauté de chercheurs en intelligence artificielle, c'est extraordinaire, explique Yoshua Bengio. D'autant plus que le réseau de neurones n'a pas été entraîné pour cela : c'est un effet secondaire de l'apprentissage, une heureuse surprise ! »

Sens commun intégré
Cette technologie est aussi très prometteuse pour la traduction [7,8]. Pour cette application, les chercheurs en intelligence artificielle utilisent deux réseaux de neurones qui sont entraînés ensemble avec des centaines de millions de phrases étiquetées, c'est-à-dire traduites au préalable. « Les exemples choisis pour l'étape d'entraînement sont des textes multilingues provenant des parlements canadiens ou européens, ou des traductions d'ouvrages disponibles sur Internet. » Le premier réseau reçoit une phrase dans la langue source et produit une représentation sémantique de cette phrase, sous la forme de vecteurs.
Le second réseau de neurones reçoit ces vecteurs en entrée et est entraîné à produire une séquence de mots dans la langue désirée. Pour une même phrase source, l'ordinateur peut donc générer un grand nombre de traductions différentes, mais de signification semblable, en mobilisant différents vecteurs dont les attributs sont proches. Cette technologie sera bientôt utilisée par Facebook pour traduire les textes de façon plus naturelle.

L'un des objectifs de l'apprentissage profond est de permettre à l'usager de dialoguer avec son ordinateur en langage naturel en lui demandant par exemple de répondre à la question « mes amis ont-ils aimé le concert du lycée ? » à partir de l'analyse des messages postés par ces derniers. Pour cela, il est indispensable d'instiller à la machine une forme de sens commun. Ce qui lui fait pour l'instant défaut ! En effet, lorsqu'une machine analyse un texte évoquant des actions exécutées dans un ordre donné, il lui est difficile de répondre à des questions simples sur les conséquences de ces actions. Ainsi, dans le texte « Joe est allé dans la cuisine. Joe a pris du lait. Il est allé dans le bureau. Il a laissé le lait. Il est ensuite allé dans la salle de bains », la machine aura du mal à répondre correctement aux questions : « où se trouve le lait maintenant ? » ou « où était Joe avant d'aller dans son bureau ? »
Dans le laboratoire FAIR, Jason Weston, Antoine Bordes et Sumit Chopra ont proposé de pallier cette difficulté en dotant un réseau de neurones récurrents d'une mémoire à court terme [9]. Pour cela, ils ont utilisé un type particulier de réseau de neurones récurrents, baptisé « Memory Network ». Cet algorithme comporte un module « mémoire » séparé du réseau de neurones qui le rend capable d'analyser de longues séquences de mots. Cela a permis à l'ordinateur de créer des représentations qui, non seulement captent le sens des phrases, mais intègrent l'enchaînement temporel des actions. Résultat : la machine a répondu juste, sur le fond comme sur la forme.

L'ESSENTIEL
- FACEBOOK, GOOGLE ET BAIDU ont investi massivement dans l'apprentissage profond, une branche de l'intelligence artificielle en plein essor.
- LES ALGORITHMES d'apprentissage profond s'inspirent du fonctionnement du cortex cérébral pour analyser les données.
- CETTE TECHNOLOGIE est à l'origine des progrès spectaculaires déjà réalisés dans les domaines de la reconnaissance automatique des images et de la compréhension du langage naturel.

L'ACCÉLÉRATION DE LA VITESSE DE CALCUL
Identifier le contenu d'une image n'est pas de tout repos pour un ordinateur : cette tâche mobilise plusieurs millions de neurones artificiels, des blocs de code informatique, qui exécutent des calculs élémentaires. À chaque fois qu'une image apparaît, le système exécute donc des millions d'additions ou de multiplications. Or, pour exercer un programme à reconnaître une image, il faut l'entraîner au préalable sur des millions d'exemples. Au total, il doit donc exécuter des milliards de calculs dans un délai respectable. Il y a encore un an, cette phase d'entraînement prenait deux semaines. Aujourd'hui, elle ne prend que deux jours. Une nette amélioration due à l'utilisation de cartes graphiques toujours plus puissantes. Pour entraîner son système, Yann LeCun, directeur du laboratoire d'intelligence artificielle de Facebook, en a branché quatre en parallèle dans un seul et même ordinateur. Ces cartes graphiques, utilisées par les passionnés de jeux vidéo, calculent à la vitesse de cinq téraflops, soit cinq milliers de milliards d'opérations chaque seconde ! À terme, les chercheurs aimeraient encore améliorer ces performances, en branchant plusieurs ordinateurs en parallèle.

L'ORDINATEUR QUI COMPREND L'IRONIE
Les algorithmes utilisés par les publicitaires pour analyser les sentiments des internautes ont du mal à percevoir le second degré ou le sarcasme. Cela provient en grande partie du fait qu'ils ne s'attachent pas à l'ordre des mots. De fait, les algorithmes en question fonctionnent avec des « sacs de mots », autrement dit, des vecteurs contenant des centaines de milliers de mots-clés, chacun associé à un sentiment positif ou négatif. Chaque coordonnée de ce vecteur est un nombre qui correspond à la fréquence d'apparition d'un mot dans un texte. Plus la fréquence d'un mot positif est élevée, plus le texte sera considéré comme tel, indépendamment de l'ordre des mots. Or les internautes anglo-saxons, par exemple, expriment souvent l'ironie en écrivant le contraire de ce qu'ils pensent suivi de « not ». Une phrase peut donc être associée à un contenu positif alors qu'elle exprime le contraire. De la même façon, une phrase contenant de nombreuses négations, comme « il n'est pas possible de ne pas détester cette image », brouille les pistes, et l'ordinateur peinera à classer cette phrase dans la bonne catégorie (positif ou négatif). Avec des technologies d'apprentissage profond, l'ordinateur prend en considération l'ordre des mots, leur rôle sémantique, le contexte dans lequel ils apparaissent. Il détecte ainsi mieux la teneur des commentaires et leurs nuances.

 

DOCUMENT   larecherche.fr    LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 ] - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales /confidentialité

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon