ecole de musique piano
     
menu
 
 
 
 
 
 

INTELLIGENCE ARTIFICIELLE

 

 

 

 

 

 

 

Apprentissage profond : le supercerveau du Net
Gautier Cariou dans mensuel 498
daté avril 2015 -

L'intelligence artificielle s'apprête à bouleverser les réseaux sociaux. Comment ? Grâce à l'apprentissage profond, une discipline émergente qui a franchi récemment un cap décisif.

L'intelligence artificielle (IA) est devenue le nouveau pari de Facebook, Google et Baidu. Depuis deux ans, ces géants du Net y investissent des milliards de dollars et débauchent parmi les meilleurs chercheurs du domaine. Il faut dire que les performances actuelles de l'IA laissent entrevoir des applications aussi inédites que séduisantes pour ces grands groupes. « Les algorithmes d'apprentissage profond, une discipline émergente de l'intelligence artificielle, permettent d'identifier automatiquement et de façon très efficace les images et les vidéos, explique ainsi Yann LeCun, pionnier de l'apprentissage profond et directeur du laboratoire d'intelligence artificielle de Facebook (FAIR). Depuis deux ans, les résultats dans le domaine de la compréhension par la machine du langage naturel, parlé, sont également très prometteurs. De quoi analyser les goûts des utilisateurs de façon plus fine et leur recommander des contenus plus pertinents. »
Si l'intérêt pour l'apprentissage profond (ou deep learning) est relativement récent, la recherche dans ce domaine a débuté dès la fin des années 1980. En 1994, le Français Yann LeCun met au point un algorithme qui permet à un ordinateur de reconnaître automatiquement des mots écrits à la main [1]. Ses travaux sont rapidement exploités à grande échelle dans les lecteurs automatiques de chèques de nombreuses banques américaines. Malgré ce succès, la recherche tombe en désuétude à la fin des années 1990 : la puissance de calcul des ordinateurs est bien trop faible pour améliorer de façon notable les performances des algorithmes d'apprentissage profond.
Il faut attendre une dizaine d'années et le franchissement de cette barrière technologique (lire « L'accélération de la vitesse de calcul », p. 32) pour que l'apprentissage profond remporte l'adhésion de la plupart des spécialistes de la reconnaissance visuelle. Nous sommes en 2012. « L'équipe de Geoffrey Hinton, professeur à l'université de Toronto, au Canada (et engagé depuis par Google dans le groupe de recherche « Google Brain », NDLR), remporte alors haut la main une compétition - ImageNet Large Scale Visual Recognition Challenge - qui permet chaque année à de nombreux laboratoires de confronter leurs algorithmes de reconnaissance d'image et de mesurer leur efficacité sur des milliers d'images », raconte Yann LeCun.

Neurones artificiels
Lorsqu'on présente des images issues d'une banque de données [2] au système de l'équipe canadienne - le seul de la compétition fondé sur l'apprentissage profond-, il parvient à les identifier avec 15 % d'erreurs seulement. Du jamais vu. Le meilleur système concurrent affiche un taux d'erreurs de 26 %. « Ce résultat a impressionné la communauté de la vision informatique. Si bien que, deux ans plus tard, tous les participants utilisaient des algorithmes d'apprentissage profond pour analyser les images. Aujourd'hui, cette technologie égale voire surpasse l'homme dans certaines tâches, comme la reconnaissance des visages. » C'est ainsi qu'en 2014, Facebook présente DeepFace, un programme capable de reconnaître automatiquement un individu sur deux photos différentes avec un taux de réussite de 97,35 % contre 97,53 % en moyenne lorsqu'un homme se prête à l'exercice. Une amélioration de 27 % par rapport à l'état de l'art.
Ce succès dans le domaine de la reconnaissance visuelle s'explique par l'utilisation de ce que l'on appelle des « réseaux de neurones convolutifs », une classe d'algorithmes imaginée par Yann LeCun à la fin des années 1980 [3]. Comme le suggère leur nom, ces réseaux s'inspirent de l'organisation des cellules nerveuses du cerveau, et en particulier du cortex visuel. Lorsque l'oeil observe une scène, une image s'imprime sur la rétine. Des impulsions électriques sont alors transmises vers le cortex visuel qui traite cette information. Des millions de neurones interconnectés échangent des messages, travaillent de concert pour identifier le contenu de la scène.
Les neurones artificiels utilisés en apprentissage profond sont des entités informatiques qui reproduisent de façon très simplifiée l'action de leur analogue biologique. « Concrètement, ce sont des blocs de code informatique qui exécutent des calculs élémentaires : des additions et des multiplications », explique Yoshua Bengio, directeur de l'Institut de Montréal pour les algorithmes d'apprentissage, à l'université de Montréal. Ces neurones artificiels se comptent par millions et sont organisés en plusieurs « couches » successives. Chaque neurone est doté de plusieurs entrées et d'une sortie par lesquelles transite l'information. Les entrées des neurones de la première couche reçoivent les informations élémentaires : des triplets de nombres réels qui correspondent aux couleurs rouge, vert et bleu des pixels de l'image. Leur sortie est quant à elle connectée aux entrées des neurones de la deuxième couche, eux-mêmes connectés aux entrées des neurones de la troisième couche et ainsi de suite.
Le lien entre deux neurones de couches successives (un neurone source et un neurone destinataire) est défini par un « poids synaptique », un nombre réel qui quantifie la force de ce lien. Selon la valeur de ce poids, les signaux envoyés par un neurone source vers un neurone destinataire sont soit amplifiés, soit atténués. Ces signaux sont ensuite additionnés. Si cette somme dépasse un certain seuil fixé au préalable par l'ordinateur, le neurone destinataire envoie alors un signal vers les neurones de la couche suivante. En revanche, si cette valeur est inférieure à ce seuil, le neurone est inhibé : il ne transmet aucun signal. Le cheminement de l'information à travers un réseau de neurones et l'interprétation de cette information par le réseau dépendent donc de la valeur de ces poids synaptiques.

Entraînement à l'identification
Pour identifier un objet dans une image, l'ordinateur utilise un programme informatique qui envoie vers la première couche de neurones des informations élémentaires sur la nature de l'image : la couleur ou le niveau de gris des pixels. « Pris séparément, ces pixels ne contiennent pas d'information pertinente sur la nature de l'image, précise Yann LeCun. Or, dans une image naturelle, la probabilité que des pixels proches possèdent la même couleur est très élevée. La première couche de neurones est donc configurée pour tirer parti de cette particularité statistique et parvient à détecter automatiquement des configurations particulières de pixels, par exemple des contours orientés selon la même direction. »
En sortie de la première couche, ces configurations sont codées sous la forme de vecteurs qui contiennent des informations spécifiques sur la nature de l'objet à identifier. « Ces vecteurs dits "caractéristiques" sont ensuite envoyés vers une seconde couche de neurones qui les combinent et en extraient des motifs plus abstraits : arrangements de contours, parties d'objets, etc. Les neurones des couches suivantes réalisent le même type d'opération et produisent des vecteurs caractéristiques de plus haut niveau, qui contiennent des informations telles que l'identité des objets. »
Cette identification n'est toutefois possible que si le réseau de neurones a été entraîné au préalable à reconnaître une image. Cette tâche nécessite de disposer d'une quantité colossale d'images étiquetées, classées dans différentes catégories (races de chiens, marques de voitures ou de sacs, etc.). Chez Google et Facebook, qui disposent de milliards d'images, des équipes entières sont chargées de ce travail fastidieux. Mais les laboratoires plus modestes peuvent aussi utiliser les millions d'images étiquetées contenues dans la base ImageNet, créée en 2012 par des universitaires de Stanford, aux États-Unis.

Pour que l'ordinateur apprenne à reconnaître une image à coup sûr (ou presque), par exemple un chien, les chercheurs utilisent un algorithme « d'optimisation par gradient stochastique ». À chaque nouvel exemple qu'on soumet à l'ordinateur, cet algorithme modifie la valeur des poids synaptiques du réseau de neurones. « Après des centaines de millions d'exemples présentés à l'ordinateur, la distribution des poids synaptiques ne varie plus ou presque, explique Yoshua Bengio. Quand vient ce moment, le réseau de neurones a terminé son apprentissage, et il peut alors associer à n'importe quelle image une représentation apprise, c'est-à-dire un vecteur de caractéristiques, qui permet de prédire la catégorie à laquelle l'objet appartient. »
De cette façon, un réseau de neurones entraîné pourra reconnaître avec une grande probabilité n'importe quel chien, sous n'importe quel angle de prise de vue, sans l'avoir jamais vu auparavant. Simplement parce que sa représentation mathématique associée à la catégorie « chien » est suffisamment générale. Avec cette technologie, Facebook compte améliorer l'analyse des goûts des utilisateurs en identifiant automatiquement le contenu des images et des vidéos qu'ils postent ou qu'ils « like » (lire « Facebook réinvente Facebook » p. 28).

Des mots transformés en vecteurs
Après la reconnaissance des images, l'apprentissage profond est sur le point de révolutionner la compréhension automatique du langage naturel. Avec des applications très concrètes en préparation dans les laboratoires de Facebook telles que l'analyse des sentiments dans les textes (lire « L'ordinateur qui comprend l'ironie », p. 34), la traduction instantanée ou la mise en place de boîtes de dialogue entre l'homme et la machine. Des tâches que les algorithmes actuellement utilisés pour analyser les phrases sont incapables d'accomplir. Ces derniers permettent uniquement de compter la « co-occurrence » de mots, c'est-à-dire leur fréquence d'apparition dans un texte et le nombre de mots qui les séparent d'autres mots. De cette manière, un ordinateur calcule la probabilité que tel mot apparaisse à tel endroit dans une phrase, sans vraiment en comprendre le sens.
Or, en 2000, Yoshua Bengio démontre pour la première fois que les machines sont capables d'apprendre par elles-mêmes le langage naturel grâce à des algorithmes d'apprentissage profond [4]. Parmi ces algorithmes, se distinguent les réseaux de neurones dits « récurrents », dont le principe général est analogue à celui des réseaux de neurones convolutifs. Avec ces algorithmes, un ordinateur comprend mieux le sens des mots et les liens qui les unissent. « Autrement dit, il développe une compréhension sémantique de la langue, explique Yoshua Bengio. À la manière des algorithmes de reconnaissance des images, ceux utilisés pour la compréhension du langage naturel apprennent automatiquement à représenter des séquences de mots sous la forme de vecteurs de caractéristiques à partir de milliards d'exemples. »
Pour chaque mot que l'ordinateur repère dans un texte, par exemple « stylo », l'algorithme génère automatiquement un ensemble de nombres, des attributs sémantiques. Ensemble, ces attributs forment un vecteur correspondant au mot « stylo ». Ce vecteur est construit de telle façon que les mots de signification proche ou apparaissant dans des contextes voisins possèdent des attributs sémantiques en commun. Le mot « crayon » partagera ainsi de nombreux attributs avec « stylo » ou « pinceau ».

Ces vecteurs constituent le premier niveau de représentation. Dans un second temps, ils sont combinés par les couches suivantes du réseau de neurones qui génèrent des vecteurs de plus haut niveau encore. Ces derniers résument le sens de séquences entières de mots, puis celui de phrases complètes. « Cette technique qui consiste à représenter des textes par des vecteurs a été popularisée en 2008, à la suite d'une publication de Ronan Collobert et James Weston [5], aujourd'hui chercheurs dans le laboratoire FAIR, précise Yann LeCun. Ce sont leurs travaux en particulier qui ont réveillé l'intérêt de la communauté pour ces techniques. »
La représentation des mots par des vecteurs permet également aux ordinateurs d'appréhender le langage en raisonnant par analogie. En 2013, Tomas Mikolov, jeune chercheur au laboratoire d'intelligence artificielle chez Google (et actuellement chez Facebook), montre qu'en réalisant des opérations élémentaires entre plusieurs vecteurs, un ordinateur découvre des analogies entre les mots [6]. En réalisant le calcul suivant : vecteur « Madrid » moins vecteur « Espagne » plus vecteur « France », il remarque que le résultat obtenu est un vecteur très proche de celui de « Paris ». À sa manière, la machine a donc compris par elle-même le concept de capitale. « Ce résultat peut paraître anodin mais pour la communauté de chercheurs en intelligence artificielle, c'est extraordinaire, explique Yoshua Bengio. D'autant plus que le réseau de neurones n'a pas été entraîné pour cela : c'est un effet secondaire de l'apprentissage, une heureuse surprise ! »

Sens commun intégré
Cette technologie est aussi très prometteuse pour la traduction [7,8]. Pour cette application, les chercheurs en intelligence artificielle utilisent deux réseaux de neurones qui sont entraînés ensemble avec des centaines de millions de phrases étiquetées, c'est-à-dire traduites au préalable. « Les exemples choisis pour l'étape d'entraînement sont des textes multilingues provenant des parlements canadiens ou européens, ou des traductions d'ouvrages disponibles sur Internet. » Le premier réseau reçoit une phrase dans la langue source et produit une représentation sémantique de cette phrase, sous la forme de vecteurs.
Le second réseau de neurones reçoit ces vecteurs en entrée et est entraîné à produire une séquence de mots dans la langue désirée. Pour une même phrase source, l'ordinateur peut donc générer un grand nombre de traductions différentes, mais de signification semblable, en mobilisant différents vecteurs dont les attributs sont proches. Cette technologie sera bientôt utilisée par Facebook pour traduire les textes de façon plus naturelle.

L'un des objectifs de l'apprentissage profond est de permettre à l'usager de dialoguer avec son ordinateur en langage naturel en lui demandant par exemple de répondre à la question « mes amis ont-ils aimé le concert du lycée ? » à partir de l'analyse des messages postés par ces derniers. Pour cela, il est indispensable d'instiller à la machine une forme de sens commun. Ce qui lui fait pour l'instant défaut ! En effet, lorsqu'une machine analyse un texte évoquant des actions exécutées dans un ordre donné, il lui est difficile de répondre à des questions simples sur les conséquences de ces actions. Ainsi, dans le texte « Joe est allé dans la cuisine. Joe a pris du lait. Il est allé dans le bureau. Il a laissé le lait. Il est ensuite allé dans la salle de bains », la machine aura du mal à répondre correctement aux questions : « où se trouve le lait maintenant ? » ou « où était Joe avant d'aller dans son bureau ? »
Dans le laboratoire FAIR, Jason Weston, Antoine Bordes et Sumit Chopra ont proposé de pallier cette difficulté en dotant un réseau de neurones récurrents d'une mémoire à court terme [9]. Pour cela, ils ont utilisé un type particulier de réseau de neurones récurrents, baptisé « Memory Network ». Cet algorithme comporte un module « mémoire » séparé du réseau de neurones qui le rend capable d'analyser de longues séquences de mots. Cela a permis à l'ordinateur de créer des représentations qui, non seulement captent le sens des phrases, mais intègrent l'enchaînement temporel des actions. Résultat : la machine a répondu juste, sur le fond comme sur la forme.

L'ESSENTIEL
- FACEBOOK, GOOGLE ET BAIDU ont investi massivement dans l'apprentissage profond, une branche de l'intelligence artificielle en plein essor.
- LES ALGORITHMES d'apprentissage profond s'inspirent du fonctionnement du cortex cérébral pour analyser les données.
- CETTE TECHNOLOGIE est à l'origine des progrès spectaculaires déjà réalisés dans les domaines de la reconnaissance automatique des images et de la compréhension du langage naturel.

L'ACCÉLÉRATION DE LA VITESSE DE CALCUL
Identifier le contenu d'une image n'est pas de tout repos pour un ordinateur : cette tâche mobilise plusieurs millions de neurones artificiels, des blocs de code informatique, qui exécutent des calculs élémentaires. À chaque fois qu'une image apparaît, le système exécute donc des millions d'additions ou de multiplications. Or, pour exercer un programme à reconnaître une image, il faut l'entraîner au préalable sur des millions d'exemples. Au total, il doit donc exécuter des milliards de calculs dans un délai respectable. Il y a encore un an, cette phase d'entraînement prenait deux semaines. Aujourd'hui, elle ne prend que deux jours. Une nette amélioration due à l'utilisation de cartes graphiques toujours plus puissantes. Pour entraîner son système, Yann LeCun, directeur du laboratoire d'intelligence artificielle de Facebook, en a branché quatre en parallèle dans un seul et même ordinateur. Ces cartes graphiques, utilisées par les passionnés de jeux vidéo, calculent à la vitesse de cinq téraflops, soit cinq milliers de milliards d'opérations chaque seconde ! À terme, les chercheurs aimeraient encore améliorer ces performances, en branchant plusieurs ordinateurs en parallèle.

L'ORDINATEUR QUI COMPREND L'IRONIE
Les algorithmes utilisés par les publicitaires pour analyser les sentiments des internautes ont du mal à percevoir le second degré ou le sarcasme. Cela provient en grande partie du fait qu'ils ne s'attachent pas à l'ordre des mots. De fait, les algorithmes en question fonctionnent avec des « sacs de mots », autrement dit, des vecteurs contenant des centaines de milliers de mots-clés, chacun associé à un sentiment positif ou négatif. Chaque coordonnée de ce vecteur est un nombre qui correspond à la fréquence d'apparition d'un mot dans un texte. Plus la fréquence d'un mot positif est élevée, plus le texte sera considéré comme tel, indépendamment de l'ordre des mots. Or les internautes anglo-saxons, par exemple, expriment souvent l'ironie en écrivant le contraire de ce qu'ils pensent suivi de « not ». Une phrase peut donc être associée à un contenu positif alors qu'elle exprime le contraire. De la même façon, une phrase contenant de nombreuses négations, comme « il n'est pas possible de ne pas détester cette image », brouille les pistes, et l'ordinateur peinera à classer cette phrase dans la bonne catégorie (positif ou négatif). Avec des technologies d'apprentissage profond, l'ordinateur prend en considération l'ordre des mots, leur rôle sémantique, le contexte dans lequel ils apparaissent. Il détecte ainsi mieux la teneur des commentaires et leurs nuances.

 

DOCUMENT   larecherche.fr    LIEN

 
 
 
 

LA SYMÉTRIE ICI ET LÀ

 

 

 

 

 

 

 

Texte de la 352e conférence de l'Université de tous les savoirs, donnée le 17 décembre 2000.La symétrie ici et là[1]par Henri BacryL'un des divertissements les plus prisés de la vie au lit consiste à compter les moutons. Tout le monde sait qu'en cas d'insomnie, il suffit d'additionner mouton après mouton pour s'endormir, mais combien de personnes savent que pour rester éveillé, il suffit de soustraire les moutons ? Groucho Marx, Beds. Mille neuf cent trente quatre marches de montée et mille neuf cent trente quatre marches de descente, ça fait zéro et pourtant je suis bien fatigué ! Film La fiancée des ténèbres (dialogues de Gaston Bonheur) . Ouvrir ainsi une conférence sur la symétrie par des blagues sur les soustractions est une façon délibérée de montrer que la symétrie intervient dans des endroits inattendus, c'est-à-dire des domaines qui ne concernent ni la science ni l'art, comme le laisseraient croire les auteurs d'encyclopédies. N'importe lequel de mes collègues physiciens se serait attendu à me voir proposer d'emblée quelques équations fondamentales de la physique en vue d'étudier leurs propriétés de symétrie, par exemple les équations de Maxwell qui gouvernent l'électrodynamique classique. Dans le vide (c'est-à-dire en l'absence de charges et de courants électriques), elles s'écrivent comme suit : div B = 0, rot E + = 0, div E = 0, rot B - = 0. Rassurez-vous ! je n'ai pas l'intention de vous imposer ici un cours de physique. Je vous invite seulement à examiner ici avec moi ces quatre équations. Il vous suffira de savoir que E désigne le champ électrique, B le champ magnétique et de me croire lorsque je vous dis que ces formules permettent de comprendre la propagation de la lumière dans le vide. Vous constaterez sans difficulté que la transformation qui consiste à remplacer E par B et B par - E conserve manifestement ces équations, pourvu que l'on sache que div (- E) = - div E et rot (- E) = - rot E. Cette symétrie des équations de Maxwell n'est cependant valable que dans le vide. En présence de matière, c'est-à-dire en présence de charges électriques en mouvement, deux d'entre elles s'écrivent avec des termes supplémentaires, appelés sources du champ électromagnétique : div B = 0, rot E + = 0, div E = rélect, rot B - = jélect, où ρélect est la densité de charge électrique et jélect la densité de courant électrique. La symétrie a disparu. Certains auteurs, déçus par cette disparition, n'hésitent pas à imaginer l'existence de charges et de courants magnétiques, dans le but de la rétablir. Ils écrivent alors de nouvelles formules : div B = rmagn, rot E + = jmagn, div E = rélect, rot B - = jélect. ce qui permet d'obtenir une symétrie entre parties électrique et magnétique de ces équations. Le terme ρmagn est positif ou négatif selon qu'il s'agisse de magnétisme nord ou de magnétisme sud. La difficulté est que cette nouvelle symétrie n'existe que dans l'imagination de ceux qui la proposent. Pour qu'elle corresponde à une certaine réalité, il faudrait que l'on puisse isoler des pôles magnétiques nord et sud, ce qu'on n'a jamais pu réaliser. En effet, tout le monde sait qu'en coupant une aiguille aimantée en deux on obtient non pas un pôle nord séparé d'un pôle sud mais deux nouvelles aiguilles aimantées. Le magnétisme nord est inséparable du magnétisme sud. Il faut dire, pour défendre ceux qui tiennent à cette symétrie imaginaire, qu'elle aurait l'avantage de donner une explication à la quantification de la charge électrique. On démontre, en effet, à partir de la mécanique quantique, que s'il existait des pôles magnétiques, la charge électrique serait toujours un multiple entier de la charge de l'électron, chose reconnue comme une réalité. Plus généralement, la plupart des symétries dont il est question en physique sont des symétries imaginaires. Les physiciens ne s'expriment pourtant pas ainsi car ils sont persuadés que leurs symétries existent réellement. Ils préfèrent parler de symétries violées. Il me faut expliquer ce qu'ils entendent par cette expression et, pour cela, j'en donnerai l'exemple le plus simple. Chacun sait que les noyaux atomiques sont constitués de neutrons et de protons, les premiers en nombre N, les seconds en nombre Z. L'atome comprend, gravitant autour du noyau, Z électrons. Le proton ayant une charge opposée à celle de l'électron, on note que l'atome est électriquement neutre. Le nombre Z caractérise les propriétés chimiques d'un élément. Ainsi pour l'élément oxygène, on a Z = 8. Pour le chimiste, Z est le nombre essentiel tandis que le nombre N joue un rôle secondaire. On parle d'isotopes pour désigner des atomes de même Z mais de N différents. Pour le physicien nucléaire la situation est différente car, pour lui, le neutron ressemble étonnamment au proton. Ces deux particules ont en effet à peu près la même masse. Le neutron a une masse égale approximativement à 1840 fois celle de l'électron, alors que la masse du proton vaut 1838 fois celle de l'électron. Cette propriété justifie la dénomination de nucléon pour désigner les deux espèces de constituants du noyau. Pour le physicien nucléaire, ce qui compte c'est le nombre de nucléons du noyau ou, ce qui revient au même, grosso modo sa masse. Pour lui, le noyau d'Uranium 235, avec ses 235 nucléons est différent du noyau d'uranium 238 qui en a 238. Le physicien nucléaire raisonne à peu près de la façon suivante : imaginons, dit-il, un monde idéal où la chimie – et donc la physique atomique – n'existerait pas ; cela reviendrait à négliger la présence des Z électrons responsables des réactions chimiques et, du même coup, à négliger aussi la présence de charges sur les protons ; on pourrait admettre alors que nous sommes dans une situation où l'on aurait une impossibilité de distinguer entre protons et neutrons ; le physicien nucléaire va plus loin ; il fait l'hypothèse que ces deux sortes de particules non seulement n'auraient pas de charge électrique, mais auraient rigoureusement la même masse, ce qui justifierait pleinement l'usage du vocable de nucléons. Ces nucléons seraient indiscernables, donc permutables, tout en étant responsables de toutes les propriétés nucléaires. De cette façon, la physique nucléaire acquiert une symétrie plus grande que celle de la chimie ou de la physique atomique. Autrement dit, la chimie et la physique atomique violent la symétrie des nucléons en attribuant au proton non seulement une charge électrique mais également une masse différente de celle du neutron. Cette position pose un problème sérieux car la chimie n'est qu'un chapitre des sciences physiques et il faut expliciter le lien qui existe entre le tout et la partie. On le fait de la façon suivante. En sciences physiques, l'énergie mise en jeu dans une interaction nucléaire est plus importante que celle mise en jeu dans une réaction chimique (une bombe nucléaire est bien plus puissante qu'une bombe au TNT). Dans une première approximation, on peut donc négliger la chimie devant la physique nucléaire, ce qui revient à négliger la violation de la symétrie qu'apporte la distinction entre le proton et le neutron. Si la physique nucléaire est plus symétrique que la chimie, c'est parce qu'elle met en jeu une physique plus importante du point de vue énergétique. Autrement dit, la chimie concerne des phénomènes d'importance négligeable. Négliger les différences de masse et de charge des nucléons se justifie en première approximation. C'est ainsi que finalement la physique se sent obligée de distinguer entre les interactions nucléaires et les interactions électromagnétiques (celles qui gouvernent la chimie) et de faire comme si elles étaient indépendantes. Cette façon de voir les sciences physiques en imaginant une symétrie qui n'existe pas réellement constitue paradoxalement un précieux moyen d'investigation de ses lois dont nous n'avons donné ici que l'un des exemples les plus simples. Je vous prie de me croire lorsque je vous dis que la symétrie des nucléons est liée à celle de la sphère, symétrie qui se déduit de façon logique de la symétrie en géométrie élémentaire, qui dérive elle-même de la symétrie du miroir. Se voir dans un miroir est une chose banale : on a l'impression que la main gauche a remplacé la main droite. On dit que l'on se voit renversé de droite à gauche. Cependant cette façon de parler est ambiguë. On comprend mal dans ce cas pourquoi l'on ne se voit pas plutôt renversé de haut en bas comme l'imagine le dessinateur et humoriste Gotlib (figure 1)[2]. Après tout dans le miroir que constitue un plan d'eau on voit les bâtiments renversés. La lettre A vue dans un miroir ressemble à la lettre originale ; il n'en est pas de même pour la lettre E... sauf si je la couche. Pour étudier la symétrie en géométrie élémentaire, le mathématicien a un langage plus rigoureux. Il introduit trois notions. a) Transformation : La notion de transformation en mathématiques s'éloigne sensiblement du sens usuel de ce mot. Une transformation mathématique ne s'intéresse qu'au résultat de la transformation effectuée ; on ne tient pas compte de la façon dont elle est obtenue. Ainsi, pour effectuer une translation donnée d'un objet, je ne m'intéresse nullement au cheminement suivi, mais seulement au résultat final. Lorsqu'on dit que l'on effectue une symétrie (un demi-tour) autour de l'axe vertical du A, on ne pense pas à l'action même du demi-tour. Pour un A tracé sur une feuille de papier blanc, le demi-tour nous présenterait ... le dos de la feuille blanche. On parlera quand même de demi-tour ou encore de symétrie par rapport à un axe vertical. Faisant allusion à la phrase de Gaston Bonheur citée au début, on dira que l'on peut faire monter le A de mille neuf cent trente quatre marches, puis le faire redescendre, cela est équivalent à une non-transformation qu'on désigne sous le nom de « transformation identique ». b) Invariance : On associe au A initial le A transformé par demi-tour autour de son axe vertical et, pour parler de symétrie, on se contente de constater qu'ils coïncident ; le A est inchangé par une telle transformation. De même, lorsque j'effectue une symétrie de moi-même par rapport à un axe vertical, j'ai l'impression d'être invariant sous cette transformation. Cependant, à y regarder de plus près, je constaterai que cette symétrie n'est qu'approchée. Pour m'en convaincre il me suffirait de comparer les lignes de mes deux mains. Même la symétrie du visage est approximative : il faut savoir, en effet, que pour tout individu la joue gauche est plus large que la joue droite, ce que l'on constate aisément en recomposant son propre visage à l'aide d'un seul côté retourné. On se retrouve manifestement déformé avec deux joues larges ou deux joues étroites selon le cas. Le traitement de la symétrie du E ne diffère que par l'orientation de l'axe, qui est cette fois horizontal. Il est inutile de faire subir au E une rotation. c) Groupe de transformations : Si l'on effectue un deuxième demi-tour après le premier, la forme des lettres reste évidemment inchangée. En effet, effectuer deux demi-tours successifs revient à n'effectuer aucune transformation. Il s'agit là de la « transformation identique ». Comme tout objet est invariant sous la transformation identique, on peut dire qu'un objet non symétrique est invariant sous une seule transformation. Son groupe de transformations se réduit à un seul élément. Le groupe de transformations des lettres A et E contient deux éléments : le demi-tour et la transformation identique. Qu'en est-il des autres lettres ? Examinons-les. Lettres à axe vertical de symétrie : A, H, I, M, O, T, U, V, W, X, Y. Lettres à axe horizontal de symétrie : B, C, D, E, H, I, K, O, X. Remarque : le forme des lettres est importante. Nous avons choisi les caractères helvetica (on notera, par exemple, qu'en caractères times, le W n'est pas symétrique). On remarque que certaines des lettres ont à la fois un axe de symétrie vertical et un axe de symétrie horizontal. C'est le cas des lettres suivantes : H, I, O, X. On pourrait penser que leur groupe de transformations est à trois éléments : demi-tour vertical, demi-tour horizontal, transformation identique. Cela reviendrait à oublier la transformation qui résulte de la combinaison du demi-tour vertical V et du demi-tour horizontal H. Pour voir ce qu'il en est, effectuons ces transformations sur une lettre non symétrique, par exemple la lettre F. Pour la clarté du dessin, nous avons désigné par la lettre a l'un des sommets du F et séparé les F transformés du F initial. Si l'on avait effectué vraiment les transformations souhaitées, on aurait eu le dessin suivant : On vérifie que, quel que soit l'ordre dans lequel on effectue les transformations V et H, le résultat est le même : il s'agit tout simplement d'un demi-tour C autour du point marqué par une croix. On note immédiatement que les lettres H, I, O et X sont bien invariantes sous cette transformation. Leur groupe de transformations est donc d'ordre quatre. C'est le groupe d'invariance du rectangle. Tout n'a pas été dit sur les symétries des lettres de l'alphabet. Il y a trois lettres qui ont pour seule symétrie la symétrie C. Ce sont les lettres N, S, Z. Leur groupe de transformations est d'ordre deux. On conclut que les lettres peuvent être classées suivant leur groupe de transformations de la façon suivante ( Id désigne la transformation identique). Groupe { Id, V, H, C} : H, I, O, X. Groupe { Id, V} : A, M, T, U, V, W, Y. Groupe { Id, H} : B, C, D, E, K. Groupe { Id, C} : N, S, Z. Groupe trivial : { Id} F, G, J, L, P, Q, R La chose importante aux yeux du mathématicien est que, grâce à l'introduction de la transformation identique, toutes les lettres ont été classées à l'aide d'un groupe de transformations. D'une façon générale, le fait qu'il n'y ait aucune exception à une règle satisfait le mathématicien. Cela est à rapprocher de l'introduction du zéro dans la numération, qui permet de donner sens à une équation du type x + a = b, même lorsque a = b. Les trois groupes { Id, V}, { Id, H}, { Id, C} sont dits isomorphes, c'est-à-dire de même forme, parce qu'ils ont même nombre d'éléments et la même structure ; ce que les mathématiciens entendent par là, c'est qu'ils ont la même loi de composition. En effet, ils obéissent tous trois à la loi : V2 ( V suivi de V) = Id ou une loi analogue obtenue en remplaçant la lettre V par l'une des lettres H ou C. Cela n'a rien d'étonnant ; il est facile de démontrer, en effet, qu'il n'y a qu'un groupe à deux éléments, à un isomorphisme près. Allons à la découverte d'autres groupes à deux éléments. Les deux transformations "multiplication d'un nombre quelconque par 1 ou -1" forment un groupe isomorphe aux précédents. La multiplication par 1 est la transformation identique et l'on vérifie que multiplier deux fois de suite un nombre par -1 est équivalent à la transformation identique. On s'assure ainsi que la structure est encore la même. L'isomorphisme est vérifié. Donnons un deuxième exemple. Considérons la transformation qui consiste à ajouter un nombre pair à un nombre entier arbitraire. Si ce nombre est pair il reste pair, s'il est impair il reste impair. Effectuer cette transformation le maintient dans la catégorie à laquelle il appartient. Par contre, lui ajouter un nombre impair le fait changer de catégorie. On a donc la loi : pair + (pair) = (pair) pair + (impair) = (impair) impair + (pair) = (impair) impair + (impair) = (pair) « Ajouter un nombre pair » est la transformation identique. « Ajouter un nombre impair deux fois de suite » revient à ajouter un nombre pair. On vérifie encore l'isomorphisme de ce groupe avec les précédents. Les lois de groupe sont les mêmes. la seule différence est qu'elle s'exprime multiplicativement dans le cas de +1 et -1 et additivement dans le cas de pair et impair. On a, en effet, en faisant abstraction des catégories sur lesquelles ces transformations s'appliquent : (-1) x (-1) = 1 impair + impair = pair Ajoutons à notre alphabet la lettre grecque delta , supposée décrite par un triangle parfaitement équilatéral. Elle a trois axes de symétrie que l'on peut désigner par A1, A2 et A3 et l'on peut vérifier qu'en composant deux de ces symétries, on obtient une rotation d'un tiers de tour autour du centre de la lettre. Le groupe de symétrie de cette lettre est d'ordre six : { Id, A1, A2, A3, R, R'}, où R et R' désignent respectivement les rotations d'un tiers de tour respectivement dans le sens des aiguilles d'une montre et dans le sens inverse. On remarquera qu'une lettre de la forme a pour groupe de symétrie le sous-groupe à trois éléments : { Id, R, R'}, que l'on peut écrire aussi : { R, R2 = R', R3 = Id}. Plus généralement, le lecteur pourra lui-même vérifier qu'un polygône régulier à n côtés a un groupe de symétrie à 2 n éléments ( n axes de symétrie et n rotations R, R2, R3, ..., Rn, où R est une rotation d'angle . Considérons, par exemple, le cas du carré, pour lequel n = 4. Il a quatre axes de symétrie (les deux diagonales et les deux médianes). Son groupe de symétrie comprend, en plus, les quatre rotations de 90°, 180°, 270° et 360°. Cette dernière est la transformation identique. Le groupe de symétrie du carré est donc d'ordre huit (2 n = 8). Le cas du cube est bien plus complexe. Son groupe de symétrie est à 48 éléments, dont 24 rotations et 24 autres transformations qui combinent les 24 rotations avec une symétrie par rapport à un plan. Nous ne décrirons pas ce groupe. Nous tenons seulement à montrer que même pour une figure aussi simple que celle du cube, l'ordre du groupe peut être important. Nous constaterons en passant un fait qui peut sembler paradoxal : si l'on veut vérifier les propriétés de symétrie d'un cube, il est nécessaire de nommer les sommets, comme on l'a fait dans le cas de la lettre F. Il est clair que, ce faisant, on détruit la symétrie du cube, que l'on désirait sauvegarder. Bien entendu, on fait comme si le cube n'était nullement affecté par les lettres ajoutées. Un cube qui vient à l'esprit est le dé à jouer. Là, la numérotation des faces ne peut être ignorée ; son rôle est essentiel. On admet que cette numérotation n'altère aucunement la symétrie du dé, ce qui est manifestement faux. On fait comme si cela n'affectait nullement la probabilité du résultat lorsque le dé est jeté. La question n'est plus mathématique, elle est d'ordre physique. Il est clair cependant que le problème mécanique associé au lancement d'un dé est insoluble dans la pratique. On est même dans l'impossibilité de calculer les probabilités de chaque résultat. Peut-on cependant les mesurer ? La réponse rigoureuse est NON ! On peut seulement vérifier approximativement l'égalité des probabilités en jetant le dé un très grand nombre de fois. La théorie des probabilités permet quelquefois de dénoncer le dé comme probablement pipé (si, sur un grand nombre de coups, le six sort par exemple une fois sur trois) mais est toujours dans l'impossibilité totale d'affirmer qu'il est tout à fait correct (trouver exactement une fois sur six chacun des résultats est improbable sur un grand nombre de coups et ne signifie donc rien). Nous venons de relier la symétrie du dé à un problème de probabilités. Par raison de symétrie (il s'agit seulement d'une hypothèse), les six faces ont la même probabilité de sortir. Les nombres 1, 2, 3, 4, 5, 6 sont mis a priori sur le même plan. Aucun d'eux ne se distingue de l'ensemble. Il y a symétrie entre ces six nombres. On peut, en effet, permuter ces nombres, cela ne change rien à leur probabilité. La symétrie se traduit par l'existence d'un groupe : le groupe des permutations de ces six nombres. Ce groupe comprend 6 ! = 1 x 2 x 3 x 4 x 5 x 6 = 720 opérations, comme on le vérifie aisément par le raisonnement suivant : il y a six façons de transformer le 1 ; une fois cette transformation effectuée, il y a cinq façons de transformer le 2 ; une fois ces deux transformations effectuées, il y a quatre façons de transformer le 3, etc. Une fois les cinq premières transformations effectuées, il ne reste plus qu'une possibilité pour choisir le transformé du 6. La considération d'un tel groupe est justifiée par le problème physique qui lui est associé, à savoir le lancement du dé. On conçoit que ce problème ne saurait être influencé par des marques sur les faces, à condition que ces marques ne comportent aucune déformation mécanique. Si le phénomène devait prendre en compte les marques effectives des points sur les faces du dé, ce groupe serait brisé. Il se réduirait à la permutation identique. On peut imaginer une situation intermédiaire où les points du dé comporteraient, tracés sur les faces, trois as et trois deux. Le groupe n'aurait alors que 36 éléments, car 1 x 2 x 3 x 1 x 2 x 3 = 36. Il y a, en effet, six façons de permuter les trois 2 et à chacune de ces façons peuvent être associées les six façons de permuter les trois 1. Le groupe des permutations est important car il joue un rôle privilégié dans l'étude des symétries. Considérons le cas du carré. Il existe 4 ! = 1 x 2 x 3 x 4 = 24 permutations des quatre sommets de ce carré. Parmi ces permutations, il y a celles qui transforment le carré en un carré, autrement dit celles qui laissent le carré invariant. Nous avons vu qu'elles sont au nombre de huit. Elles forment un sous-groupe du groupe des permutations. On vérifie ici l'un des théorèmes fondamentaux concernant les sous-groupes. L'ordre d'un sous-groupe est un diviseur de l'ordre du groupe (dans le cas présent 8 divise 24). Il en va de même pour le cube : le nombre des permutations des huit sommets est égal à 8 ! = 1 x 2 x 3 x 4 x 5 x 6 x 7 x 8 = 40320. L'ordre du sous-groupe qui conserve la forme du cube est égal à 48. Ce nombre divise bien 40320 comme le veut le théorème. On notera que, pour le triangle équilatéral, toute permutation des trois sommets conserve sa forme et l'on vérifie, si nécessaire, que 3 ! = 6 est bien un diviseur de 6. Plus généralement, étant donnée une figure à n sommets, le groupe qui laisse la figure inchangée a un ordre qui divise n ! Vérifions cela sur un exemple. Joignons les centres des faces d'un cube. On obtient un octaèdre régulier, polyèdre à six sommets. D'après sa construction, il est clair que l'octaèdre a même groupe de symétrie que le cube, qui est, comme on l'a dit, un groupe d'ordre 48, et 48 divise le nombre de permutations des six sommets, soit 6 ! = 720, comme il se doit. L'octaèdre a même symétrie que le cube correspondant Tournons-nous vers la rose des vents avec ses quatre points cardinaux N, E, S, O. Il y a 4 ! = 24 permutations de ces quatre points. Parmi elles, quatre seulement respectent l'ordre des lettres sur la rose. Il s'agit des quatre rotations d'angle 90°, 180°, 270° et 360°. On vérifie que 4 divise 24. Les points cardinaux semblent jouer des rôles symétriques. Pourtant : « C'est drôle, on parle souvent du pôle Nord, plus rarement du pôle Sud, et jamais du pôle Ouest ni du pôle Est. Pourquoi cette injustice ?... ou cet oubli ? »[3] Considérons le cas de deux amis. A priori, ils sont interchangeables puisque leur permutation conserve l'amitié qui règne entre les deux. Tel n'est pas l'avis pourtant d'Alphonse Karr qui affirme, dans Les guêpes : « Entre deux amis, il n'y en a qu'un qui soit l'ami de l'autre. » Les marches d'un escalier se ressemblent toutes, mais pas quand on doit les grimper. Ne faudrait-il pas suivre le conseil suivant ? « En montant un escalier, on est toujours plus fatigué à la fin qu'au début. Dans ces conditions, pourquoi ne pas commencer l'ascension par les dernières marches et la terminer par les premières ? » P. Dac, L'os à moelle. Le cas de la sphère retiendra notre attention car son groupe d'invariance est infini. N'importe quelle rotation autour de son centre la conserve de même que n'importe quelle symétrie par rapport à un plan contenant un de ses diamètres. On peut montrer ce que j'ai affirmé plus haut, que ce groupe joue un rôle dans la symétrie du nucléon. Nous avons montré que la symétrie était intimement reliée à la géométrie ; bien qu'il s'agissait seulement de géométrie élémentaire, on peut étendre ce lien à la géométrie non commutative qui englobe aujourd'hui toutes les formes antérieurement connues de la géométrie, y compris la géométrie différentielle qui concerne entre autres êtres géométriques la sphère. Il n'est pas question ici, faute de temps et de compétence, de pénétrer ce sujet immense d'actualité introduit par Alain Connes. Il est naturel de dire quelques mots sur les objets non symétriques, c'est-à-dire sur ceux qui ont { Id } comme seul groupe de symétrie. On s'étonnera que le langage usuel ait deux mots pour désigner de tels objets : dissymétrique et asymétrique . On est en droit de se demander pourquoi deux mots sont nécessaires pour désigner une situation unique. Le Petit Robert nous apprend que l'asymétrie désigne une absence de symétrie et la dissymétrie un défaut de symétrie. Pour ces raisons, asymétrie et dissymétrie sont présentés comme des antonymes du mot symétrie. C'est parce que le mot symétrie est un concept qui n'implique pas sa présence effective que nous préférons nous préoccuper des adjectifs associés, à savoir asymétrique, dissymétrique. L'expression être symétrique n'a de sens qu'à partir du moment où la symétrie dont il est question est préalablement définie et, pour la définir – vérité de La Palice – il faut nécessairement l'avoir remarquée, ce qui ne signifie pas qu'elle soit effectivement réalisée. Je peux, en effet, évoquer les parties droite et gauche d'un bâtiment avant d'affirmer qu'elles sont ou non symétriques l'une de l'autre. On constate que l'on se pose la question d'une symétrie potentielle avant de se prononcer. C'est pourquoi l'expression ne pas être symétrique n'a pas la même signification suivant qu'on se réfère à une symétrie que l'on connaît ou qu'on ait affaire à une absence certaine de toute espèce de symétrie. Dans le premier cas, on parlera de dissymétrie, dans le second cas d'asymétrie. L'ennui c'est que l'on ne peut jamais être certain de l'absence totale de symétrie. Pour préciser cette remarque, nous examinons le cas de la figure suivante : Le côté gauche ne ressemble pas au côté droit puisqu'ils sont de couleurs différentes. On aura tendance à dire que cette propriété constitue une dissymétrie. Ce faisant, on s'est référé implicitement à une symétrie - violée, certes - la symétrie gauche/droite. Remarquons cependant que si l'on fait abstraction des couleurs, il y a bel et bien une symétrie, la figure étant constituée de deux carrés de mêmes dimensions. Dire que l'on fait abstraction des couleurs équivaut à déclarer que l'on ne s'intéresse qu'à la forme de la figure. Autrement dit, il y a symétrie en ce qui concerne la forme, dissymétrie en ce qui concerne les couleurs. Le physicien que je suis fera d'emblée une remarque à propos de cette figure. Il s'agit de la suivante : contrairement aux apparences, cette figure est manifestement symétrique. En effet, elle possède un axe de symétrie horizontal, axe auquel on ne pense pas immédiatement, il faut le reconnaître. On voit pourquoi il faut se montrer prudent avant de se prononcer en faveur d'une asymétrie. Examinons donc aussi la figure suivante. Est-elle asymétrique ? Désignons par V l'axe de symétrie vertical de l'une des deux figures réduites à leur forme et par K la transformation définie par l'échange des deux couleurs noir et blanc : blanc → noir noir → blanc Combinons les deux transformations V et K. On définit ainsi la symétrie VK que l'on peut également écrire sous la forme KV. On a de cette façon introduit une symétrie nouvelle, symétrie rigoureuse pour ces deux figures. Le groupe de symétrie est { KV, Id}. On a remplacé la dissymétrie apparente par une symétrie plus élaborée, impliquant la permutation des couleurs blanc et noir. Tournons nous maintenant vers une œuvre de Piero della Francesca, La Madone del Parto, représentant la Vierge entourée de deux anges placés symétriquement l'un par rapport à l'autre. (figure 2) On a des raisons de penser que le peintre a décalqué le premier ange pour dessiner le second après l'avoir retourné. Seules leurs couleurs diffèrent. Si l'on note que ces couleurs sont complémentaires, on pourra évoquer une symétrie plus rigoureuse comme on vient de le faire pour les deux figures géométriques précédentes. On a ainsi substitué dans les deux cas à une dissymétrie apparente, une symétrie nouvelle. Nous proposerons, par conséquent, de réserver le mot asymétrique pour une situation où, malgré tous les efforts que l'on peut fournir, aucune symétrie, même absente, ne peut être évoquée. Ce serait le cas pour la figure ci-dessous. Résumons-nous. On dira qu'un objet est dissymétrique chaque fois que l'on notera qu'une symétrie annoncée n'est pas assurée. On s'efforcera alors d'en découvrir une plus subtile. On dira, par contre, qu'un objet semble asymétrique si on se trouve dans l'incapacité de percevoir la présence d'une quelconque symétrie. On notera la fragilité d'une telle constatation. Elle est aussi fragile que celle qui consiste à affirmer qu'une certaine démonstration mathématique est exacte. En effet, ce n'est pas parce qu'on n'a décelé aucune erreur dans une démonstration qu'on peut être certain de son exactitude. Rien ne prouve qu'un mathématicien plus doué ne sera pas capable d'en dénicher une. Cette idée, répandue par Popper, trouve son origine, selon lui, chez le présocratique Xénophane. « Il n'y eut dans le passé et il n'y aura jamais dans l'avenir personne qui ait une connaissance certaine des dieux et de tout ce dont je parle. Même s'il se trouvait quelqu'un pour parler avec toute l'exactitude possible, il ne s'en rendrait pas compte par lui-même. »[4] La distinction entre dissymétrie et asymétrie peut s'établir à partir de l'architecture. Un bâtiment a presque toujours une partie droite et une partie gauche. Elles sont soit symétriques soit dissymétriques. Il existe pourtant des exceptions. Ainsi, pour le musée de Cincinatti construit par l'architecte irakienne Zaha Hadid qui condamne délibérément l'angle droit des bâtiments, on ne peut qu'évoquer l'asymétrie de l'architecture, ce qui démontre en passant que le beau peut faire fi de la symétrie. Nous avons souligné plus haut le rôle important du groupe des permutations. Ce groupe intervient dans une phrase comme toute celle qui commence par « les Français sont... » ou « les hommes sont... ». Une permutation quelconque effectuée dans l'ensemble des Français ou des hommes ne changerait rien à l'affirmation. La proposition énoncée est invariante sous le groupe des permutations des hommes concernés. L'ordre de ce groupe est fantastique, il s'écrit pour les seuls Français avec à peu près un milliard de chiffres. On peut considérer des sous-groupes de ce groupe, par exemple celui des permutations qui conservent le sexe des individus ou celui des permutations qui conservent l'année de naissance des Français mâles. Pour connaître l'ordre de ce dernier groupe, il faudrait se donner les populations des différentes classes d'appel sous les drapeaux. Examinons de plus près la structure d'une phrase qui commence par « les Français sont... ». Pour qu'elle soit valide, il faut que celui qui énonce la proposition se considère comme inclus, si lui-même est français. Ce n'est pas toujours le cas. Il y a alors violation de la symétrie. Ainsi quand le général de Gaulle a déclaré que les Français étaient des veaux, on peut penser raisonnablement qu'il ne se sentait pas concerné par cette énoncé à caractère collectif. Le groupe auquel il faisait allusion était celui des permutations des Français assimilables aux veaux Perm( E). Ce groupe laisse le président de la République invariant. On peut bien sûr préférer penser que dans son idée un certain ensemble E' de Français incluant le général ne sont pas des veaux. Le groupe de symétrie deviendrait Perm( E) ¥ Perm( E'). On peut aussi évoquer cette affirmation manifestement excessive : « Tous les Français sont égaux devant la loi. » Les brisures de cette symétrie sont extrêmement nombreuses et tellement connues qu'il est hors de question d'en citer ici ne serait-ce une seule. Tous les hommes sont des humains. Cette tautologie est loin d'être évidente pour tout le monde. Il n'y pas si longtemps, à l'époque de la découverte de l'Amérique, on en était à se demander si les Indiens pouvaient être considérés comme des hommes. Plus récemment, pour les nazis, les seuls à mériter vraiment le nom d'hommes étaient les aryens. Il est commode de donner un nom à la symétrie associée à cette tautologie que nous évoquons. Nous la désignerons sous le nom de symétrie tautologique. Le groupe qui caractérise cette symétrie est le groupe des permutations de tous les hommes. Plus généralement, tout ensemble, quel qu'il soit, est invariant sous le groupe des permutations de cet ensemble, groupe qui est associé à la symétrie tautologique de l'ensemble. Lorsqu'on conteste une telle symétrie, on est forcément ramené à un sous-groupe de ce groupe. Ainsi, le groupe de symétrie défini par les nazis est le groupe obtenu en composant le produit du groupe des permutations des aryens par le groupe des permutations des non-aryens : Perm (Aryens) x Perm (Non Aryens) Considérons l'ensemble des Français. Son groupe de symétrie est le groupe des permutations de tous les Français. Associons à chaque Français son numéro d'INSEE. Le groupe de symétrie des Français numérotés est le groupe trivial qui ne comprend que la transformation identique car il n'y a pas deux Français avec le même numéro de sécurité sociale. « Tous les hommes sont des philosophes », affirme Karl Popper[5]. L'ensemble des hommes est donc défini comme un sous-ensemble de l'ensemble des philosophes et comme les philosophes sont certainement des hommes, pour Popper, les deux ensembles coïncident. Ils définissent le même ensemble. Le groupe de symétrie est le groupe de symétrie tautologique. Seulement Popper apporte une restriction : « Je crois que tout les hommes sont des philosophes, même si certains le sont plus que d'autres. » Si l'on veut tenir compte du degré ainsi introduit, on est conduit à classer les hommes en fonction de ce degré et le groupe de symétrie se trouve réduit. On ne peut aller plus loin car on ne sait rien sur une classification éventuelle à partir de ce degré. Dans le cas limite où il n'y a pas deux hommes de même degré, le groupe de symétrie se réduit à la transformation identique. Le verset du Lévitique : « Tu aimeras ton prochain comme toi-même » nous fournit un autre exemple de symétrie. Si je fais mien ce précepte, l'ensemble des hommes autres que moi est invariant sous le groupe des permutations de cet ensemble. Cependant, dans le cas où tout le monde l'adopte, la symétrie ne devient pas pour autant la symétrie tautologique. Pour cela il faudrait encore que l'amour que je porte à mon prochain soit identique à celui qu'il me porte[6]. Mentionnons un problème analogue concernant la définition du sage. Pour cela, nous citons ce passage du Talmud : « Qui est sage ? Celui qui apprend de tout homme. »[7] Cette sentence, riche de significations, est commentée par un célèbre rabbin du seizième siècle, le Maharal de Prague[8]. Voici ce qu'il dit à ce sujet : « Un tel homme est à ce titre digne du nom de "sage" car la sagesse ne se trouve pas chez lui par accident, mais parce qu'il en est avide et la recherche auprès de tout homme. Tandis que s'il n'apprend pas de tout homme mais seulement d'un maître réputé pour sa grande sagesse, sa sagesse sera dépendante du maître en question, elle viendra de l'extérieur et non de lui-même, puisque c'est l'importance du maître qui en conditionnera la réception ; il ne conviendra donc pas de le nommer sage. Et seul celui qui apprend de tout homme est digne de ce nom, car tous les hommes étant égaux auprès de lui puisqu'il apprend de tous, la sagesse ne dépend alors que de celui qui la reçoit et il est ainsi digne du nom de "sage" car c'est la sagesse qu'il reçoit directement en apprenant de tous, sans distinction de grand ou petit. » Ce commentaire rejoint la pensée bouddhiste qui affirme que l'on a toujours quelque chose à apprendre, même de son ennemi. Pour mériter d'être appelé sage, il nous faut donc prendre en considération tout ce que les autres nous apprennent. Les arguments de symétrie les plus anciens ont un intérêt actuel indéniable, surtout lorsqu'on les confronte aux connaissances scientifiques modernes. C'est le cas, par exemple, de celui d'Aristote qui défend l'idée de l'impossibilité du vide. Je voudrais aborder ici une idée plus récente due à Descartes. On sait que, pour ce philosophe, l'homme est constitué d'un corps et d'une âme. La chose étrange est qu'il cherche à localiser l'âme dans le corps, comme si cette localisation allait de soi, ce qui peut sembler paradoxal pour une entité aussi abstraite. Et il utilise un argument de symétrie pour résoudre ce problème. L'âme, étant une, ne saurait résider dans les reins, car on ne saurait la répartir entre ces deux organes à la fois. Le foie est également exclu car il se trouve dans la partie droite du corps. Pour Descartes, l'âme est non seulement indissociable mais ne saurait résider dans une fraction non symétrique de l'organisme. Seul le cerveau, organe central, peut convenir. Il semble, aujourd'hui que cette conclusion apparaisse satisfaisante pour les biologistes de tous bords. Pourtant... On remarquera que Descartes fait en tout trois hypothèses sur ce sujet. La première est revendiquée par le philosophe ; il s'agit de la décomposition de l'homme en corps et âme, c'est-à-dire une partie matérielle et une partie spirituelle ; la seconde est celle de la possibilité de localisation de l'âme dans le corps. La troisième réside dans l'exigence d'une symétrie pour cette localisation. Il semble que, pour Descartes, toute chose soit localisable mais que tout ce qui est localisable n'est pas nécessairement matériel. Comment peut-on concevoir une âme dans le corps qui serait immatérielle ? Je vois là une contradiction difficile à lever. La première réponse qui vient à l'esprit consiste à rejeter l'hypothèse de l'opposition âme-corps et à affirmer comme le ferait un matérialiste que tout est matière. Examinons la position d'un matérialiste connu. Je pense à Jean-Pierre Changeux qui, dans la troisième conférence de l'Université de tous les savoirs, donnait pour titre à sa conclusion : L'âme au corps. On notera que Changeux ne met pas en cause l'existence de l'âme mais la relie spontanément au corps. Il précise : « Qu'en est-il de fonctions encore plus élaborées du cerveau comme la conscience ? » On voit que, pour lui, la conscience est une manifestation du cerveau. Tout se passe comme si le cerveau sécrétait la conscience comme le foie sécrète la bile. En somme, pour comprendre l'âme, il faudrait en quelque sorte être en mesure de disséquer le cerveau. On notera en passant que cette position crée, de fait, une dissymétrie entre les deux propositions suivantes : « J'ai conscience d'avoir un cerveau et j'ai conscience d'avoir un foie. » Changeux semble ne pas en avoir conscience. On sait que le cerveau est composé de deux hémisphères et que ces hémisphères sont spécialisés, chose évidemment ignorée de Descartes. Le rôle de l'hémisphère gauche concerne les fonctions symboliques, c'est-à-dire l'interprétation des signes. Sont ainsi de son ressort la compréhension des gestes et du langage écrit. L'hémisphère droit s'attache, quant à lui, à la connaissance de l'espace corporel et extra-corporel. Cette hypothèse est corroborée par le fait que des lésions de cet hémisphère peuvent faire croire au malade que son côté gauche lui est étranger ; elles vont jusqu'à lui faire ignorer tout l'espace situé à sa gauche. Il n'est pas étonnant qu'il perde la notion d'espace que lui assurent habituellement les sens de la vue, de l'ouïe et du toucher. S'habiller peut devenir une opération quasi impossible. Que pense alors l'hémiplégique cartésien qui croit, comme Descartes, à l'existence de l'âme dans le cerveau ? Il croit, bien évidemment, en l'existence de la sienne propre qu'il ne pourra situer raisonnablement que dans son hémisphère intact. Si c'est le gauche, il aura tendance à généraliser ce résultat à tous les hommes. Il en irait de même si c'était l'hémisphère droit qui était sain. Un raisonnement conduirait finalement ces deux espèces d'hémiplégiques à affirmer que l'âme ou la conscience ne saurait être vraiment localisable, puisque les uns la localiseraient dans l'hémisphère gauche, les autres dans l'hémisphère droit. La symétrie de Descartes est brisée. Si l'âme est localisée dans le cerveau, ce serait dans quelle partie ? s'agit-il de l'hémisphère gauche ou de l'hémisphère droit ? Que l'on adopte l'une ou l'autre réponse ne saurait satisfaire aujourd'hui un disciple de Descartes. Comme pour répondre à ce que dit Changeux, Antoine Danchin débute la quatrième conférence de l'Université de tous les savoirs par une interrogation pertinente de l'oracle de Delphes. «J'ai une barque faite de planches et les planches s'usent une par une. Au bout d'un certain temps, toutes les planches ont été changées. Est-ce la même barque ? » Et Danchin commente : « le propriétaire répond oui avec raison : quelque chose, ce qui fait que la barque flotte, s'est conservé, bien que la matière de la barque ne soit pas conservée [...]. Il y a dans la barque plus que la simple matière. Pourquoi choisir cette image, cette question pour parler de la vie ? Il est essentiel de concevoir le vivant et la biologie comme une science des relations entre objets plus qu'une science des objets. » Ainsi, pour Danchin, il y a dans l'homme plus que la simple matière ; si la conscience est en dehors de la matière, ne s'ensuit-il pas que la dissection du cerveau ne permettrait pas de l'y découvrir ? On est conduit ainsi à penser la conscience comme jouissant d'une existence autonome non soumise à la matière du cerveau. La conscience ne serait donc pas localisable. Que pense un religieux de cette situation ? Il est conscient du fait que le cerveau est impliqué dans cette affaire. Il me semble que, pour lui, un lien existe effectivement entre la conscience et le corps et que ce lien passe par le cerveau. Quand le cerveau meurt, ce lien disparaît mais le Moi ne meurt pas. Cette dernière solution peut sembler acceptable mais ne me satisfait pas. Examinons-la sous un autre angle. Si l'homme est composé d'une âme et d'un corps, tout attribut humain doit appartenir soit à l'un soit à l'autre. Qu'en est-il des maladies ? On sait que certaines d'entre elles sont d'origine psychosomatique et concernent par conséquent à la fois le corps et l'âme. L'effet placebo ne saurait non plus s'expliquer à partir d'une dissociation de ces deux éléments. Ne serait-il pas plus naturel de conclure que la complexité de l'être humain est telle que la dissociation entre une âme et un corps est au sens strict impossible. Cette façon de voir rejoint ici une idée du judaïsme qui ne manquera pas d'intéresser le psychiatre. Il faut savoir qu'en hébreu classique, aucun mot ne désigne le corps de l'homme vivant. Le mot gouf de l'hébreu tardif qui le désigne dérive du mot ancien goufah qui signifiait cadavre et donc représentait le corps après la mort. Pour le lecteur de la Bible, parler du corps à propos d'un homme vivant est une aberration. La distinction entre corps et âme chère à Descartes n'aurait vraiment de sens qu'après la mort, même si le psychiatre trouve commode de distinguer ces deux aspects pour l'homme vivant ; ce faisant, il décrit seulement une approximation commode valable sur le seul plan pratique. Bien entendu, la condition d'une telle distinction oblige implicitement la prise en considération d'une interaction entre le corps et l'âme, cela afin d'assurer une explication de l'unité de l'homme. Une comparaison avec la physique atomique nous aidera à mieux cerner le problème. Je rappellerai que cette théorie prétend que l'atome est composé d'un noyau positif et d'un nuage d'électrons négatifs indiscernables tournant autour. Cette façon de voir la nature est cependant insuffisante ; on est, en effet, obligé d'imaginer en plus une interaction électromagnétique entre le noyau et les électrons. Il faut savoir que le calcul complet de cette interaction est complexe ; le cas le plus simple est celui de l'atome d'hydrogène. Sa structure ne se déduit pas comme par magie d'une équation ; elle est le fruit d'approximations successives dont la plus fine est celle que les physiciens désignent sous le nom d' effet Lamb, effet qui n'est pas enseigné au niveau de la maîtrise de physique parce qu'il fait intervenir des notions non élémentaires d'électrodynamique quantique. Cette complexité du calcul est le reflet de celle de l'atome. La théorie atomique décrit une façon commode de comprendre la structure de l'atome d'hydrogène, mais la réduction en noyau et électron peut être qualifiée d'artificielle. Pour pouvoir parler du noyau d'hydrogène à partir de l'atome, il faut négliger toute la suite d'approximations à laquelle nous avons fait allusion. Avoir voulu considérer l'atome d'hydrogène comme composé d'un noyau et d'un électron est une opération aussi complexe que celle qui consiste à considérer l'homme comme composé d'une âme et d'un corps. Ce que fait réellement le physicien consiste à déshabiller l'atome pour découvrir le noyau qu'"il a introduit préalablement. De la même manière, n'est-ce pas le cadavre que l'homme introduit lorsqu'il considère l'être humain comme composé d'une âme et d'un corps ? Car, ne l'oublions pas, ce qu'il importe de comprendre dans l'homme, c'est comment l'on passe de l'homme au cadavre. Il s'agit vraiment là d'un mystère essentiel. Si l'on se rappelle les trois hypothèses de Descartes, voici nos conclusions : a) « L'homme est composé d'une âme et d'un corps ». Cette affirmation ne constitue qu'une approximation commode qui a l'inconvénient de donner du réel une interprétation déformée. b) « L'âme est localisable dans le corps ». Dans l'approximation précédente, l'âme est nécessairement extérieure au corps. c) Le problème de la localisation de l'âme et donc de sa symétrie ne se pose plus. Il serait intéressant de savoir ce que pense le matérialiste de notre analyse. Quoi qu'il en soit, une chose est certaine : le problème de la symétrie tel que le pose Descartes ne saurait être éludé. La symétrie interpelle le spécialiste du cerveau humain comme le philosophe. L'exemple que nous venons de traiter montre la puissance d'une analyse basée sur la symétrie. Les arguments tirés du passé (Descartes) et même du passé lointain (la Bible et l'oracle de Delphes) conservent un caractère indéniable d'actualité qu'on ne saurait négliger. La science moderne y apporte un éclairage précieux. Partant de considérations plutôt banales sur une symétrie, nous sommes amené tout naturellement à poser des questions fondamentales sur le sujet associé. D'autres exemples sont traités dans notre ouvrage[9] La symétrie dans tous ses états. Nous y renvoyons le lecteur.
[1] À la mémoire de mon maître ès symétries en physique, Louis Michel. [2] Trucs-en-vrac, Shell, Paris, 1977-1985. [3]Alphonse Allais, Allais... grement. [4] Les penseurs avant Socrate, p. 66, Paris, Garnier-Flammarion, 1964. [5]Karl Popper, op. cit., p. 268. [6]Soulignons, à propos de ce précepte, que la difficulté principale de l'injonction réside dans l'exigence d'aimer autant un persécuteur que le persécuté. Cette recommandation qui dépasse l'entendement peut être résolue en lisant correctement le verset de l'amour du prochain. Cf. H. Bacry, La Bible, le Talmud, la connaissance et la théorie du visage de Levinas, Pardes 26, 1999. [7] Commentaires du traité des pères, chapitre 4, Paris, Verdier, 1990. [8]Maharal de Prague (Yéhouda Loew ben Betsalel, connu sous le nom de), rabbin et commentateur, né à Posen (Pologne) vers 1512, mort à Prague en 1609. Il est connu pour être le créateur de son célèbre serviteur, le Golem. [9]Henri Bacry, La symétrie dans tous ses états, préface d'Alain Connes, Vuibert, 2000.

 

 DOCUMENT       canal-u.tv     LIEN

 
 
 
 

CALCUL SYMBOLIQUE

 


Calcul symbolique : automatisation en cours


autre - par Dominique Duval dans mensuel n°291 daté octobre 1996 à la page 64 (4470 mots)
Après l'automatisation du calcul numérique, l'informatique s'est attaquée à celle d'opérations mathématiques plus abstraites. Les logiciels de calcul formel sont désormais faciles d'accès. Ils épargnent aux scientifiques des heures, voire des années de travail... à condition de savoir les utiliser. Ces logiciels, qui ont déjà influencé plusieurs domaines de recherche, vont aussi conduire à une modification profonde de l'enseignement des mathématiques.

Pour évaluer, mettons, le volume d'une boule de rayon 5 cm, vous êtes conduit à effectuer un calcul dit « numérique ». Il suffit de connaître la formule V = 4p r3 / 3 , d'y r emplacer le symbole p par 3,14159... et le symbole r par 5 pour obtenir une valeur approximative du volume : V = 523,59... cm3. S upposons maintenant que vous souhaitiez exprimer le volume d'une boule en fonction de son aire S, celle-ci étant a priori inconnue. S achant que S vaut 4p r2 , il suffit d'exprimer le rayon r en fonction de S et de reporter cette expression dans la formule V = 4pr3/3, et vous trouvez facilement : V = S3/ 2 /6÷p. Vous venez de r éaliser un calcul « symbolique », que l'on qualifie aussi de « formel » et parfois encore d'« analytique », ou d'« algébrique » fig. 1.

Ces exemples très simples illustrent les deux principaux types de calcul auxquels les scientifiques sont confrontés. Dans la pratique, ces calculs peuvent s'effectuer avec un crayon et du papier, ou bien avec un ordinateur. L'utilisation de l'ordinateur - ou d'une calculette - pour le calcul numérique est maintenant familière. Comme il s'agit en général de calculs approximatifs le nombre de décimales étant fixé, on a pu en déduire que « les ordinateurs calculent faux »I. En fait, rien n'interdit aux ordinateurs de « calculer juste », et de manipuler symboles et expressions mathématiques. Mais l'existence de logiciels qui assurent ces tâches est un fait plus récent et beaucoup moins bien connu que l'automatisation des calculs numériques.

Des logiciels - on parle aussi de « systèmes » - de calcul formel ont fait leur apparition il y a plus de trente ans : dès 1958, aux Etats-Unis, John McCarthy utilisait le langage informatique Lisp pour obtenir les dérivées* d'expressions symboliques. Les physiciens, prolixes en calculs longs, ont joué un rôle important dans le développement des premiers systèmes. En France, beaucoup d'informaticiens et de mathématiciens ont découvert le calcul formel dans les années 1980 grâce à la mise en place au CNR S d'une structure de recherche sur le sujet, dirigée par Daniel Lazard. Mais c'est seulement au cours des dernières années que l'usage des systèmes de calcul formel a commencé à se répandre au-delà du cercle des spécialistes. Divers facteurs culturels certains jeunes ont eu l'occasion d'utiliser un tel logiciel, techniques progrès des ordinateurs en rapidité et espace mémoire, commerciaux publicité mieux faite et scientifiques augmentation considérable de la gamme des problèmes résolubles y ont contribué.

Mais ces logiciels sont encore très peu employés dans les entreprises, peut-être à cause des difficultés d'utilisation. Cette situation pourrait évoluer rapidement, grâce à l'introduction d'une initiation au calcul formel dans la plupart des enseignements scientifiques - lycées, classes préparatoires, universités, grandes écoles voir l'encadré « Enseignement et calcul formel », à son intégration dans les calculettes fig. 2 et dans les logiciels de calcul scientifique.

L'enjeu du calcul formel est considérable. L'utilisation des mathématiques dans les différentes sciences est en effet loin de se résumer à la détermination de valeurs numériques approchées. La simplification des formules, c'est-à-dire leur écriture sous une forme facilement lisible, est cruciale pour saisir leur signification. Le scientifique est souvent amené à résoudre ou, au moins, à étudier et manipuler des équations sous une forme non numérique. Et même pour mener à bien des calculs numériques, il faut savoir poser le problème sous la forme la plus adaptée, ce qui nécessite un traitement formel préalable. Ces manipulations mathématiques de toutes sortes requièrent en général beaucoup de temps et d'astuce, avec un risque d'erreurs non négligeable. Un logiciel de calcul symbolique peut alors se révéler un auxiliaire précieux.

On évoque fréquemment le calcul, par l'astronome français Charles Delaunay, de la position précise de la Lune en fonction du temps. Delaunay a publié son résultat en 1860 et 1867 en deux volumes, mais il lui avait fallu une vingtaine d'années pour l'obtenir et le vérifier. La formule occupe 128 pages de son livre La Théorie du mouvement de la Lune ! En 1970, le calcul a été réalisé sur ordinateur en moins d'une journée avec, en prime, la détection d'une petite erreur dans le résultat de Delaunay.

Les calculs symboliques longs, compliqués et fastidieux ne sont pas l'apanage de la mécanique céleste. On les rencontre en mathématiques, en chimie, dans les sciences de l'ingénieur, dans presque tous les domaines de la physique. Considérons par exemple le moment magnétique de l'électron. Les mesures expérimentales fournissent une valeur très précise. Mais pour déterminer avec autant de précision la valeur proposée par la théorie, et ainsi effectuer une comparaison, il faut faire un calcul symbolique extrêmement long et compliqué, ce qui serait difficilement imaginable sans logiciel de calcul formel.

Dans un registre légèrement différent, les systèmes de calcul symbolique rendent service en cryptographie et en codage pour les transactions bancaires, les communications et même les disques compacts. Ces domaines impliquent en effet des calculs dans le cadre de structures mathématiques quelque peu abstraites, appelées « corps finis ». Or contrairement au calcul numérique qui ne sait comment les représenter, le calcul formel s'en accommode facilement.

Il en est de même de la manipulation automatique des programmes informatiques : un programme, quel que soit le langage dans lequel il est écrit, est une donnée symbolique qu'un système de calcul formel peut lire, étudier, transformer, permettant de gagner du temps et d'éviter des erreurs.

La spécificité du calcul formel réside dans sa capacité à manipuler des symboles. V oici deux exemples tout à fait élémentaires, sur lesquels nous reviendrons :

1° Résoudre l'équation ax = b, où x est l'inconnue. Numériquement, on ne peut résou-dre cette équation que pour des valeurs données de a et b. Un système de calcul formel, lui, manipule directement les symboles a et b et fournit la solution x = b/a.

2° Evaluer l'expression 1 + x - 1/x. Pour un logiciel de calcul symbolique, cette expression vaut toujours 1, alors qu'un logiciel de calcul numérique ne peut l'évaluer que pour une valeur donnée de x, et répond 0 si la valeur de x est trop petite.

Le calcul numérique effectue des opérations sur des nombres « flottants », c'est-à-dire des approximations de nombres réels. Ainsi, 1/3 y est écrit 0,3333333333 le nombre de décimales dépend de la précision fournie par le logiciel ; par conséquent 3 fois 1/3 ne vaut pas tout à fait 1. Le calcul formel, au contraire, manipule les nombres de façon exacte : 1/3 demeure sous cette forme, et le logiciel connaît les règles de calcul sur les fractions, ce qui fait que 3 fois 1/3 vaut exactement 1.

De même, ÷2 reste sous cette forme symbolique, au lieu d'être représenté sous forme décimale. Le logiciel connaît les règles de calcul sur les radicaux, de sorte que le carré de ÷2 égale 2, sans approximation aucune. De même, le nombre p est considéré comme un symbole doté de diverses propriétés, comme sin p = 0.

Autre différence avec le calcul numérique, la taille des nombres entiers n'est pas limitée. Par exemple, 50 ! vaut : 30414093201713378043612608 166064768844377641568960512000000000000.

Un tel nombre n'est pas accepté dans un système de calcul numérique, car il dépasse de très loin la place mémoire qui peut lui être attribuée. On se contente alors d'une valeur approximative, du type 50 ! » 0,30414093 ? 1065. En fait, une telle valeur peut aussi être fournie par le système de calcul formel, et de plus l'utilisateur peut imposer la précision souhaitée, c'est-à-dire le nombre de chiffres significatifs.

Grâce à son exactitude, le calcul formel permet d'étudier des problèmes numériquement instables, comme la suite définie par : a0 = 11/2, a1 = 61/11, et an + 1 = 111 - 1130/an + 3000/anan - 1 pour n ³ 1 un exemple dû à Jean- Michel Muller, de l'Ecole normale supérieure de LyonII. Numériquement, quand on calcule les termes de la suite l'un après l'autre, ils semblent converger rapidement vers 100, quelle que soit la précision : avec une précision de 8 chiffres, an = 100 dès que n ³ 14, et avec une précision de 16 chiffres, an = 100 dès que n ³ 27. Mais ce résultat est faux. En effet, on sait démontrer rigoureusement que la limite de la suite vaut 6. Avec un logiciel de calcul formel, on peut pour tout n donné calculer exactement la valeur de an c'est un nombre rationnel, quotient de deux entiers puis en déduire une valeur approchée. On voit alors la suite converger lentement en croissant vers 6. On a par exemple 5,9999999 £ a100 £ 6. Autrement dit, le calcul numérique obtient vite un résultat faux a100 » 100 tandis que le calcul formel fournit, en un temps certes plus long, un résultat juste a100 » 6. Les capacités des systèmes de calcul formel ne s'arrêtent pas là, loin s'en faut. Ces logiciels permettent de développer des expressions algébriques comme a + ba - b, ou au contraire de les factoriser fig. 3. Ils savent manipuler les polynômes* en une ou plusieurs variables, les fractions rationnelles*, les fonctions usuelles exponen- tielle, logarithme, sinus, etc., les « fonctions spéciales » fonctions dites de Bessel, hypergéométriques, etc., les matrices multiplication, déterminant, matrice inverse, etc..

Ils savent résoudre de nombreux types d'équations et de systèmes d'équations, calculer les dérivées des fonctions usuelles et de leurs combinaisons, développer une fonction en une série de puissances de la variable par exemple cos x = 1 - x2/2 + x4/24 - x6/720 + ..., trouver des primitives, etc. Les manipulations mathématiques ainsi automatisées englobent à peu près toutes celles qu'apprennent les étudiants au cours des deux premières années d'université, voire bien au-delà.

La liste complète des possibilités offertes serait très longue. On peut s'en forger une idée en consultant le manuel ou l'aide « en ligne » d'un système de calcul formel. Cette liste dépend peu du logiciel considéré, du moins pour les systèmes généralistes comme Macsyma, Reduce, Maple, Mathematica, Axiom, MuPad, etc. Il existe aussi de nombreux systèmes qui fournissent des algorithmes spécialisés pour tel ou tel domaine. Par exemple Schoonschip pour la physique des particules élémentaires, Camal pour la mécanique céleste et la relativité, Magma et Gap pour la théorie des groupes, etc. voir aussi les encadrés.

La plupart des problèmes concrets nécessitent un traitement en deux ou trois étapes : d'abord une manipulation formelle d'expressions, voire de programmes, suivie d'une résolution formelle souvent partielle, qui peut dépendre de paramètres. Ensuite vient un calcul numérique, qui complète la résolution pour des valeurs fixées de ces paramètres. Enfin, une visualisation graphique des résultats s'avère souvent nécessaire. Si ces trois phases font appel à des logiciels étrangers l'un à l'autre, les problèmes de cohérence entre logiciels deviennent parfois un vrai casse-tête. C'est pourquoi les systèmes de calcul formel offrent de plus en plus de possibilités numériques traduction vers des langages comme Fortran ou C et graphiques tracé et animation de courbes ou surfaces. Ce sont maintenant de véritables systèmes de calcul scientifique au sens large, intégrant tous ses aspects.

Le tableau qui vient d'être brossé pourrait faire croire que les logiciels de calcul formel sont omnipotents, ne se trompent jamais et qu'il suffit d'appuyer sur quelques touches d'un clavier pour obtenir la réponse désirée. Il n'en est rien, et des systèmes idéaux de calcul formel n'existeront sans doute jamais. Les logiciels actuels sont certes interactifs, peu coûteux et faciles d'emploi pour des problèmes proches, par leur nature et par leur taille, des problèmes types. Mais pour tirer le meilleur profit de leurs nombreuses ressources, il faut avoir une idée de la façon dont ils fonctionnent, de leurs limites, et aussi des limites intrinsèques aux problèmes considérés.

Tout d'abord, il faut savoir que les possibilités offertes par un logiciel de calcul formel cachent habituellement des résultats mathématiques sophistiqués, une étude très fine des algorithmes et de leur implantation, et un choix judicieux de la représentation des données. Et comme on peut l'imaginer, obtenir de meilleurs temps de calcul est un leitmotiv. On prendra ici deux exemples, le premier concerne le calcul polynomial et le second concerne l'intégration des fonctions.

Les polynômes constituent des briques de base pour le calcul formel : ils sont construits à partir des nombres, des symboles et des opérations d'addition, soustraction et multiplication. Ils se retrouvent explicitement ou implicitement dans tous les calculs. Il est donc primordial de savoir les manipuler de la façon la plus efficace possible. Une opération fondamentale, par exemple lors de la simplification d'une fraction rationnelle, est le calcul du plus grand commun diviseur pgcd de deux polynômes. Rappelons que le pgcd de deux polynômes Ft et Gt est le polynôme de plus haut degré Qt qui factorise à la fois Ft et Gt c'est-à-dire Ft = F1tQt et Gt = G1tQt où F1 et G1 sont des polynômes. Pour trouver ce pgcd, il existe un algorithme simple dont le principe était connu d'Euclide. Il s'agit d'une généralisation élémentaire de l'algorithme que nous avons tous appris à l'école primaire pour effectuer les divisions. Et pourtant, la détermination du pgcd fait l'objet d'actives recherches dans le domaine du calcul formel. Pourquoi ? Considérons les deux polynômes :

Ft = t8 + t6 - 3t4 - 3t3 + 8t2 + 2t - 5

et Gt = 3t6 + 5t4 - 4t2 - 9t + 21

L'application directe de l'algorithme d'Euclide conduit au résultat :

Qt = pgcdF, G = 1288744821/543589225.

On constate que Qt ne dépend pas de t. Cela signifie que les polynômes F et G sont premiers entre eux ils n'ont aucun polynôme de degré supérieur ou égal à 1 comme facteur commun. Le résultat comporte 10 + 9 = 19 chiffres alors qu'il équivaut aussi à pgcdF, G = 1, puisque le pgcd de deux polynômes n'est défini qu'à un facteur constant près.

Non seulement le résultat obtenu ci-dessus est relativement compliqué, mais il est, de plus, à l'image des calculs intermédiaires effectués lors du déroulement de l'algorithme. Aussi, si l'on choisissait des polynômes de plus haut degré, les calculs « exploseraient ».

Les spécialistes du calcul formel ont donc déployé beaucoup d'efforts pour trouver un meilleur algorithme pour déterminer le pgcd. Parmi les solutions proposées figure un algorithme très sophistiqué, dont la preuve fait intervenir la théorie des matrices, mis au point en 1971 aux Etats-Unis par W.S. Brown et G.E. Collins. Entre autres qualités, il donne : pgcdF, G = 260708, ce qui est bien plus court que précédemment 6 chiffres au lieu de 19.

Tous ces algorithmes pour le calcul du pgcd sont très subtils, mais ils ne font intervenir que des mathématiques enseignées dans les premières années d'université. V oyons maintenant un problème plus ardu : déterminer les primitives des fonctions algébriques. Rappelons que la primitive d'une fonction fx est une fonction gx telle que sa dérivée g'x est égale à fx. Il s'agit donc de la notion inverse de celle d'une dérivée. On note : gx = ò fx. Connaître la primitive d'une fonction peut servir à calculer l'intégrale de cette fonction sur un intervalle.

La primitive d'un polynôme est un polynôme, mais la primitive d'une fraction rationnelle n'est en général pas une fraction rationnelle : on a besoin de logarithmes pour l'exprimer. Plus généralement, appelons « élémentaire » une fonction qui s'exprime en termes de fonctions usuelles radicaux, logarith-mes, exponentielles et fonctions trigonométriques. La primitive d'une fonction élémentaire est-elle, elle aussi, élémentaire ? La réponse est non. Prenons ainsi la fonction élémentaire fx = expx2 ; elle admet bien une primitive, mais celle-ci n'est pas élémentaire. C'est en fait le cas général : rares sont les fonctions admettant une primitive élémentaire.

Un problème se pose donc lorsqu'on cherche la primitive d'une fonction donnée : s'exprime-t-elle à l'aide des fonctions familières, et si oui, de quelle façon ? Bien entendu, on souhaite aussi un algorithme efficace pour répondre à cette question. Ce problème est étudié depuis le XIXe siècle. L'apparition des logiciels de calcul formel lui a donné un second souffle : en effet, les calculs sont trop complexes pour être mis en oeuvre sans l'aide d'un ordinateur.

Un cas particulier important est celui des primitives des fonctions algébriques, qui sont de la forme Px, y/Qx, y où P et Q sont des polynômes et où y dépend algébriquement de x, c'est-à-dire que Rx, y = 0 pour un certain polynôme R. Ainsi, l'expression :

y2 + xy + 1/y + 3x, avec

y4 + x2y + x3 = 0, constitue une fonction algébrique. Une étape fondamentale fut franchie par Joseph Liouville en 1833. Ce mathématicien français démontra que si une primitive élémentaire existe, alors elle a forcément une forme très simple faisant intervenir peut-être des logarithmes, mais pas d'exponentielles ni de fonctions trigonométriques, ni même de logarithmes de logarithmes.

En 1969, l'Américain R.H. Risch en déduisit une méthode qui répond au problème des primitives des fonctions algébriques. Elle repose sur un « calcul » appliqué aux points de la courbe plane d'équation Rx, y = 0. Mais comme on ne savait pas automatiser ce calcul, il ne s'agissait pas encore d'un algorithme. Ce n'est que grâce aux travaux du Britannique James Davenport en 1981, et de l'Américain Barry Trager en 1984, que l'on est parvenu à implanter la méthode de Risch.

On est allé plus loin encore dans le cas particulier des fonctions dites hyperelliptiques. Ce sont des fonctions algébriques de la forme :

fx = Px, ÷rx/Qx, ÷rx, où rx est un polynôme ; elles correspondent à Rx, y = y2 - rx. Les scientifiques les rencontrent souvent dans la pratique. Un exemple d'une telle fonction est :

fx =

21x5 + 5x4 - 3x3 + 12x2 + 2x + 2/2xy où y = ÷x3 + 1 ici, on a donc rx = x3 + 1 et Rx, y = y2 - x3 + 1,

Cette fonction admet une primitive élémentaire, à savoir :

ò fx =

3x2 + x - 1 y + 1/3 Log y - 13 y + 1/x6 .

En 1994, Laurent Bertrand, à l'université de Limoges, a implanté un algorithme réservé aux fonctions hyperelliptiques, mais d'une bien meilleure efficacité que les précédents, grâce à une meilleure représentation de la courbe Rx, y = 0. Par exemple, pour la fonction fx ci-dessus, il obtient le résultat dix fois plus vite qu'auparavant environ cinq secondes au lieu de cinquante avec Maple sur une machine IBM RS 6000.

Par ailleurs, un chercheur français travaillant chez IBM aux Etats-Unis, Manuel Bronstein, réussissait en 1990 à appliquer la méthode de Risch à certains types de fonctions non algébriques. Au vu des progrès accomplis au cours des ans, on peut parier sans risque sur de prochaines améliorations et généralisations de ces résultats.

Malgré leur convivialité, les logiciels de calcul formel ne sont pas toujours faciles à utiliser. Généralement, les calculs doivent être guidés. Le choix de la représentation, de l'algorithme, des méthodes de simplification, sont fondamentaux. Et, malheureusement, celui que fait automatiquement le logiciel n'est pas toujours le mieux adapté au problème particulier posé.

Imaginons par exemple que l'on souhaite connaître les deux derniers chiffres du nombre 1996919969. On peut demander au logiciel de calculer ce nombre puis de le diviser par 100 : le reste de la division est formé des deux chiffres cherchés, à savoir 29. Mais quelques connaissances de base en arithmétique montrent qu'on peut remplacer chacun des résultats intermédiaires du calcul par le reste de sa division par 100. On manipule ainsi des nombres beaucoup plus petits, ce qui fait gagner un temps appréciable un facteur 1 000 dans cet exemple.

Plus généralement, on peut rencontrer au moins trois types d'écueils dans l'utilisation d'un système de calcul formel.

Une première difficulté est qu'une méthode valable pour un problème de petite taille ne l'est habituellement plus pour un problème analogue mais de taille plus grande. En effet, les algorithmes sont en général d'une grande complexité, au sens où le temps de calcul croît très vite avec la taille des données d'entrée : les temps de calcul exponentiels - durées élevées au carré lorsque la taille des données est multipliée par deux - sont fréquents, les temps doublement exponentiels exponentielle d'une exponentielle ne sont pas rares. Souvenons-nous que les calculs formels procèdent de ma- nière exacte, avec des entiers « arbitrairement longs ». Par conséquent, avec l'accroissement de la taille des données, non seulement le nombre d'opérations augmente, mais aussi la taille des coefficients sur lesquels ces opérations sont effectuées voir l'encadré « Robotique et systèmes polynomiaux : le logiciel GB ».

C'est pourquoi une grande partie des recherches en calcul formel sont consacrées à l'étude de la complexité des algorithmes : combien de temps et d'espace mémoire faut-il pour les exécuter, en fonction de la taille des données d'entrée ? Il est important aussi, quoique d'habitude encore plus difficile, de connaître la complexité « intrinsèque » d'un problème. On a longtemps cru, par exemple, que la factorisation des polynômes à coefficients entiers était un problème de complexité exponentielle. Or un algorithme polynomial* a été découvert en 1982, grâce aux travaux des Hollandais A.K. Lenstra et H.W. Lenstra Jr. et du Hongrois L. Lovacz. Cependant, les systèmes de calcul formel utilisent toujours les anciennes méthodes de factorisation : c'est seulement pour des polynômes de degré très élevé de l'ordre de quelques centaines, qu'on est incapable de traiter actuellement, que le nouvel algorithme devrait s'avérer plus efficace. Cet exemple montre que les études théoriques de complexité constituent, lors du choix et de l'implantation des algorithmes, un guide extrêmement utile, mais qui doit être complété par une expérimentation soignée.

Une seconde difficulté tient à la façon de poser le problème. Si l'on sait à peu près ce que signifie « résoudre » un système d'équations linéaires, qu'en est-il pour un système d'équations polynomiales ou différentielles ? Certains utilisateurs souhaitent simplement savoir s'il y a au moins une solution, d'au-tres voudront savoir si le nombre de solutions est fini, etc. Et même lorsque le nombre de solutions est fini, un choix est nécessaire. Par exemple, que signifie résoudre l'équationE :

x4 - 2x3 + x - 1 = 0 ? Si l'on s'intéresse aux solutions appartenant à l'ensemble des nombres complexes*, il y en a quatre et voici plusieurs réponses « raisonnables » :

- une valeur approchée des quatre solutions i = ÷ - 1 :

1,866760400 ; - 0,8667604000 ; 0,5000000000 ± 0,6066580495i.

C'est satisfaisant en fin de calcul, mais cela interdit de continuer à faire des calculs exacts : si l'on note a = 1,866760400 la valeur approchée de la première solution, alors a4 - 2a3 + a ne vaut pas 1, mais 1,000000010

- une expression par radicaux des solutions :

1/2 ± 1/2÷3 + 2÷5 et 1/2 ± 1/2÷3 - 2Ã5.

C'est un résultat exact, avec lequel on peut continuer à faire des calculs exacts. Mais il est assez compliqué, et n'est pas généralisable. Ainsi, les solutions d'une équation de degré ³ 5 comme x5 - x + 1 = 0 ne s'expriment généralement pas avec des radicaux

- une règle de calcul : les solutions de l'équation E sont les nombres a tels que :

a4 = 2a3 - a + 1.

Cela permet de simplifier toutes les expressions dépendant d'une solution a, en remplaçant a4 par 2a3 - a + 1, a5 par 4a3 - a2 - a + 2, etc. De plus, le symbole a représente une racine quelconque de l'équation E, et englobe par conséquent les quatre solutions à la fois. Malgré son apparente naïveté, cette méthode est souvent la meilleure pour les calculs intermédiaires.

Troisième difficulté : la représentation des résultats obtenus, qui dépend beaucoup du logiciel considéré. Par exemple, dans le système Maple, la commande :

p : = x - 1 * x - 2Ù2 * x - 3Ù3 est suivie de la réponse

x - 1x - 22x - 33. Il faut faire appel à une fonction de simplification pour obtenir la forme développée x6 - 14x5 + 80x4 - 238x3 + 387x2 - 324x + 108. Dans le système Axiom, c'est au contraire la forme développée qui est affichée par défaut, et une commande est nécessaire pour passer à l'écriture factorisée.

Parfois aussi, le résultat est si gros qu'il est tout à fait inutilisable directement. Le logiciel GB voir l'encadré peut fournir un résultat occupant plusieurs centaines de mégaoctets, et ce n'est certainement pas en l'imprimant qu'on aura « résolu » quoi que ce soit. Seul un traitement ultérieur de ce résultat est susceptible d'apporter des informations intéressantes sur les solutions.

Avant de terminer, revenons sur la manipulation des symboles. Nous avons vu qu'il s'agit d'une spécificité des systèmes de calcul formel : ces derniers sont capables de résoudre l'équation ax = b résultat : x = b/ a sans rien savoir de a ni de b , et d'év a luer l'expression 1 + x - 1/x résultat : 1 sans connaître la valeur de x. Ces résultats sont justes, mais pas toujours : les cas particuliers ne sont pas pris en compte. En effet, le système ne « voit » pas que l'équation ax = b possède une infinité de solutions lorsque a = b = 0, et n'en possède aucune si a = 0 et b ? 0. Il ne voit pas plus que l'e x pression 1 + x - 1/x n'est pas définie quand x = 0.

Divers travaux en cours visent à traiter automatiquement tous les cas possi b les d a ns les calculs symboliques. Une méthode générale est l'« évaluation dynamique », fondée sur l'automatisation de la méthode naïve : au fur et à mesure que l'algorithme se déroule, toutes les possibilités sont prises en compte et les différents calculs qui s'ensuivent sont e x écutés parallèlement. Cette méthode a été implantée en A x iom par la mathématicienne espagnole Teresa Gómez Diaz, à l'université de Limoges, pour certains types de problèmes. Mais il reste beaucoup à faire dans cette direction.

Toutes ces difficultés, et d'autres dont on n'a pu parler ici, font l'objet de recherches actives, à cheval sur les mathématiques et l'informatique, avec des progrès dus à un va-et-vient entre théorie et pratique. Certes, le calcul formel constitue un merveilleu x instrument, auquel les scientifiques n'osaient rêver il y a seulement quelques décennies. Mais pour éviter des désillusions, ils doivent se souvenir qu'un logiciel de calcul formel, sous son apparence très conviviale, cache des outils très puiss an ts et donc parfois difficiles à ma n ier.

Enfin, il ne faudrait pas croire que le calcul formel représente seulement un instrument. Si l'objectif premier consiste effectivement à mettre au point des procédures automatiques de calcul symbolique, le chemin pour y parvenir traverse plusieurs champs de l'informatique et des mathématiques. Il n'a pas été possible de le faire apparaître pleinement d an s cet article, mais le thème du calcul formel constitue, pour ces disciplines, une source de nouvelles problématiques de recher-che. Ce que voit u n utilisateur sur son écr an d'ordinateurn'est que la partie émergée d'u n gros iceberg.

Par Dominique Duval

 

DOCUMENT       larecherche.fr       LIEN

 
 
 
 

LES DISTANCES CONSERVÉES EN TROIS DIMENSIONS

 


MATHÉMATIQUES
Les distances conservées en trois dimensions


mathématiques - par Simon Modeste, Philippe Pajot dans mensuel n°467 daté septembre 2012 à la page 22 (599 mots) | Gratuit
Construire un tore plat en trois dimensions tout en préservant les distances était possible théoriquement. La visualisation de l'objet vient seulement d'être réalisée.

À quoi ressemble un tore plat en trois dimensions ?

F.L. Le tore plat est un carré dont on « identifie » les bords opposés. Imaginons une table de billard sur laquelle toute boule qui frapperait un bord disparaîtrait pour réapparaître sur le bord opposé. En collant deux à deux les bords opposés de ce tore plat, on obtient sa représentation tridimensionnelle : un tore de révolution (une chambre à air). Seulement, dans ce tore de révolution, les distances sont déformées : deux segments de même longueur sur le tore plat ne le sont plus forcément après sa transformation en tore de révolution. Des techniques pour corriger les distances existaient, mais les outils mathématiques étaient tellement abstraits qu'ils laissaient peu d'espoir de parvenir un jour à visualiser ces images. En revisitant ces outils, nous avons obtenu une représentation qui respecte les distances, une représentation « isométrique » [1].

Quel est l'intérêt de cette représentation isométrique ?

F.L. Tout d'abord, elle permet de mieux connaître l'objet. Une question que l'on se pose souvent sur un objet abstrait est de savoir si l'on peut le représenter comme objet de notre espace usuel sans changer ses propriétés. Pour le tore plat, on savait que c'était possible en théorie notamment depuis les travaux de John Nash dans les années 1950, mais aucune visualisation n'existait. Finalement, en obtenant ces images, c'est une barrière psychologique que nous avons fait sauter. Maintenant, d'autres chercheurs devraient pouvoir adapter nos idées dans d'autres situations où les mêmes méthodes géométriques interviennent, comme la résolution de certaines équations aux dérivées partielles.

Au début du projet, imaginiez-vous à quoi ressembleraient vos images ?

F.L. Pas du tout. J'ai découvert le problème en assistant à un séminaire en 2007. Avec une équipe de mathématiciens et d'informaticiens de Grenoble et de Lyon, Boris Thibert, Damien Rohmer, Saïd Jabrane et Vincent Borrelli, nous avons alors monté le projet Hévéa pour visualiser les représentations isométriques de tores plats. Non seulement nous n'avions aucune idée de ce que cela donnerait, mais nous craignions vraiment que le projet n'aboutisse à rien.

Comment vous y êtes-vous pris pour obtenir ces images ?

F.L. L'idée consiste à utiliser l'intégration convexe, une méthode géométrique mise au point dans les années 1970 par Mikhaïl Gromov, justement pour étudier les représentations isométriques de variétés (comme le tore plat) dans les espaces euclidiens (tel l'espace à trois dimensions). Après nous être familiarisés avec ces mathématiques, nous avons pu implémenter ces méthodes de manière algorithmique, et nous avons obtenu les altérations de la surface - que nous appelons des corrugations - qui aboutissent au tore plat tridimensionnel (lire « Implémenter l'intégration convexe », ci-dessus). Sans nos compétences diverses, nous n'aurions pu obtenir de résultat. Il fallait maîtriser le problème mathématique, les méthodes utilisées dans le domaine et les algorithmes d'imagerie tridimensionnelle. Chacun est intervenu à tous les niveaux du processus.

En quoi l'objet obtenu est-il une nouveauté ?

F.L. Notre tore a une propriété qu'on retrouve souvent dans les fractales : l'autosimilarité. Autrement dit, on peut zoomer autant que l'on veut sur un morceau du tore, on verra les mêmes structures de corrugations qu'au départ. Toutefois, l'objet obtenu n'a que des aspérités lisses, contrairement aux exemples connus de fractales. C'est-à-dire qu'en tout point la surface du tore admet un plan tangent. Ce tore est à la fois un objet d'apparence lisse et possède les propriétés d'une fractale en étant infiniment « cabossé ». Ce nouvel objet pourrait être qualifié de « fractale lisse ».

Par Simon Modeste, Philippe Pajot

 

DOCUMENT      larecherche.fr     LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 ] Précédente - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales /confidentialité

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon