ecole de musique piano
     
menu
 
 
 
 
 
 

Comment les algorithmes envahissent notre quotidien

 

 

 

 

 

 

 

Comment les algorithmes envahissent notre quotidien
Vincent Glavieux dans mensuel 511
daté mai 2016 -

Réseaux sociaux, management d'entreprise, politiques publiques... Les algorithmes investissent de plus en plus de domaines de la société. Une tendance qui fascine certains, attise les critiques des autres, mais surtout met en évidence le manque de connaissances du grand public sur le sujet.

Connaissez-vous Deep Knowledge Ventures ? Ce nom est celui d'une société de Hong Kong, qui investit dans des entreprises - en l'occurrence, celles qui mettent au point des médicaments luttant contre des maladies liées à l'âge ou des projets de médecine régénérative - en espérant un lucratif retour sur sa mise. Mais si cette entreprise a fait parler d'elle en 2014, ce n'est pas pour son activité. C'est parce qu'elle a pris une décision étonnante : nommer comme membre de son conseil d'administration... un algorithme !
Baptisé Vital, le programme possède, comme tous les autres membres du conseil d'administration, un vote sur les futurs investissements de l'entreprise. Pour prendre sa décision, il se fonde sur l'analyse de nombreuses données de la société dans laquelle Deep Knowledge Ventures envisage d'investir : son état financier, le type et le nombre d'essais cliniques qu'elle mène, les droits de propriété intellectuelle qu'elle possède (brevets, marques commerciales, etc.) ou encore les résultats de ses précédentes levées de fonds.
Un algorithme qui participe aux prises de décisions stratégiques d'une entreprise ? L'exemple semble - pour le moment du moins - un cas isolé. Mais il est révélateur d'une tendance forte, qui s'accentue ces dernières années : les techniques de calcul et d'analyse des données se complexifient, et s'immiscent dans les moindres aspects de notre vie quotidienne. Bien évidemment, cette emprise croissante suscite de nombreuses interrogations, crée de nouveaux enjeux. Faut-il pour autant redouter le fait qu'un jour les algorithmes puissent devenir les maîtres du monde ?
Les algorithmes sont un outil très ancien. Si le premier algorithme reconnu est celui établi par Euclide, vers - 300 avant J.-C., pour calculer le plus grand commun diviseur, les recherches archéologiques montrent que les Babyloniens, qui peuplaient une région située dans l'Irak actuel, en comprenaient déjà le fonctionnement. La tablette d'argile « YBC 7289 » (« Yale Babylonian Collection n° 7289 »), datée entre -1800 et -1600 avant J.-C. et aujourd'hui conservée à l'université Yale, aux États-Unis, en est un exemple : d'après les spécialistes, il s'agit de la plus ancienne représentation connue de la racine carrée de 2 ; un résultat qu'elle donne avec une précision de six décimales (1,414212, au lieu de 1,414213), grâce à l'utilisation d'un algorithme d'approximation (1).
Aujourd'hui, les algorithmes se retrouvent partout. Les plus répandus sont aussi ceux qui ont le fonctionnement « le plus primitif », juge Serge Abiteboul, directeur de recherche à Inria, professeur affilié à l'École normale supérieure de Cachan. Parmi eux figure le PageRank du moteur de recherche Google, qui référence les pages web en fonction du nombre de fois où des utilisateurs ont cliqué dessus, ou l'algorithme de Facebook qui, jusqu'à l'année dernière, déterminait la place d'un post dans le fil d'actualité de ses utilisateurs en fonction du nombre de mentions « j'aime » (les « like »), de commentaires et de partages avec les autres membres du réseau social.
Depuis un an, l'algorithme du site créé par Mark Zuckerberg prend aussi en compte les préférences des utilisateurs, notamment en se fondant sur le temps qu'ils passent à regarder chacun des contenus. Une évolution qui vise à mieux épouser leurs demandes... mais aussi à mieux mettre en valeur les partenaires commerciaux de Facebook, via la technique de ciblage publicitaire. Cette méthode de marketing digital s'appuie en effet beaucoup sur les recherches des internautes - donc ce qui est censé les intéresser -, pour leur proposer des produits ou des sites dans le même champ.

IDIOTS OU EXPERTS
« On parle ici d'algorithmes peu sophistiqués, idiots et intrusifs, reprend Dominique Cardon, sociologue au laboratoire des usages d'Orange Labs, professeur associé de l'université de Marne-la-Vallée (lire p. 86). D'ailleurs, leur efficacité reste toute relative. Ce problème est en partie dû au fait que les données qu'ils traitent sont de natures variées - un souci qui n'existe pas pour des sites comme Spotify, bien plus efficaces dans leurs conseils car ils traitent de données homogènes : en l'occurrence, les goûts musicaux d'une personne. »
À côté de ces algorithmes basiques, il existe des algorithmes plus élaborés, complexes, qui cherchent à apporter une expertise, voire remplacent carrément la décision humaine. Ces algorithmes, on les retrouve dans la gestion des lignes de métro - la ligne 14 du réseau parisien, qui est entièrement automatique, par exemple - ou en médecine, pour les diagnostics médicaux. Leur domaine d'application privilégié reste néanmoins la finance, où ils sont utilisés à des tâches qui ne requièrent pas nécessairement d'intervention humaine. Il est loin, en effet, le temps où les transactions boursières se faisaient à la main. Ce système cède de plus en plus la place à la gestion systématique par ordinateur et au trading algorithmique. Ici, les différents aspects de l'ordre de transaction, tels que l'instant d'ouverture ou de clôture, le prix ou le volume de l'ordre, sont décidés par des algorithmes - il en existe des dizaines, qui possèdent tous un nom évocateur : Iceberg, Sumo, Shark, etc. (2). Ce qui n'empêche pas des défaillances, comme lorsqu'un algorithme dit de « trading à haute fréquence » a provoqué la chute brutale du cours de la Bourse de Wall Street, et la disparition de près de 860 milliards de dollars de capitalisation boursière (lire p. 84).
Et ce qui est vrai pour des processus automatisables l'est aussi, de plus en plus, dans d'autres domaines où l'on penserait pourtant que les hommes sont incontournables. Ainsi, le management des entreprises s'ouvre lui aussi aux algorithmes. Deux chercheurs américains en sciences sociales, Alex Rosenblat, de l'institut de recherche Data & Society, et Luke Stark, de l'université de New York, ont par exemple montré récemment comment la société Uber, qui développe et exploite des applications mobiles pour mettre en relation ses utilisateurs avec des conducteurs, se sert de son programme de calcul pour exercer sur les chauffeurs le même genre de contrôle managérial qu'un être humain. Parmi les paramètres de leur algorithme figurent des indicateurs de performance, des systèmes de planification ou encore une tarification évolutive, qui varie en fonction de la note de satisfaction attribuée au conducteur (3).
Le domaine de la recherche scientifique lui-même n'est pas à l'abri. Face au développement de l'analyse des données massives - le Big Data -, certains se posent ainsi la question de savoir si cette évolution ne va pas remettre en cause la méthode scientifique traditionnelle, fondée sur les hypothèses et les modèles d'une part, et l'expérimentation pour confirmer ou infirmer des hypothèses d'autre part.
Autre domaine visé par cette logique algorithmique : la politique. Dans l'ouvrage collectif Beyond Transparency, les auteurs - tous impliqués dans des projets appliquant l'open data à la politique - décrivent ainsi les bénéfices que nous pourrions tirer de méthodes de gouvernement dérivées de ces outils de calcul : plus de réactivité, plus de pragmatisme, plus d'efficacité aussi. Pour illustrer leur propos, ils mentionnent entre autres la ville de New York où, selon eux, la création d'une cellule d'analytique prédictive a permis à la municipalité d'améliorer sensiblement la lutte contre la fraude et d'optimiser de nombreuses politiques publiques, notamment l'inscription des enfants dans les établissements d'enseignement secondaire de la ville (4).
Mais parmi tous les projets exploitant des algorithmes, un se détache par son ambition universelle : il s'agit du projet Ethereum, lancé en novembre 2013 et opérationnel depuis juillet 2015. Ses deux cofondateurs, Vitalik Buterin et Joseph Lubin, visent par son biais à étendre l'utilisation des programmes de calcul à tous les pans de la société, selon un même mode de fonctionnement - d'abord dans la finance, puis dans l'Internet des objets, dans la musique, dans la location de voitures, etc. Concrètement, le projet Ethereum est un système de transactions à l'échelle mondiale. Son architecture est celle d'un réseau pair à pair, c'est-à-dire qu'il permet l'échange et le partage direct de fichiers entre ordinateurs, sans intermédiaire. Dans ce système, des algorithmes, dits « de consensus », régissent le fonctionnement : ils ont pour rôle de garantir la fiabilité des transactions (5).

CALCULS BIAISÉS
On le voit, non seulement les algorithmes s'immiscent dans tous les espaces de notre vie quotidienne, afin de nous dégager de tâches non essentielles, mais ils s'infiltrent jusque dans nos processus de décision, et peuvent prendre des aspects hégémoniques. Faut-il pour autant en avoir peur ? Pour Buterin et Lubin, la réponse est clairement non. Les deux hommes sont convaincus de la nature bienfaisante de leur projet, et des algorithmes de manière générale. Lors d'une présentation à Genève, en février de cette année, Joseph Lubin a ainsi défendu Ethereum en mettant en avant ses capacités à « court-circuiter les constructions politiques et légales, qui reposent sur la subjectivité et peuvent conduire à concentrer du pouvoir » et en le définissant comme « un substrat pour construire des systèmes économiques, sociaux et politiques globaux qui soient transparents, configurables de manière privée, profondément sécurisés, non censurables, non répudiables, et nativement interopérables ». Autrement dit : il ne faut pas redouter Ethereum, mais l'accueillir comme un moyen de lutter contre les discriminations, un outil profondément égalitaire et émancipateur.
Mais tout le monde ne pose pas le même regard bienveillant sur cette emprise croissante des algorithmes. Les doutes portent par exemple sur leur loyauté : rendent-ils le service qu'ils prétendent offrir, ou pas ? Pour Serge Abiteboul, les risques liés aux algorithmes sont de trois ordres. « Premièrement, ils peuvent être injustes ou, plus exactement, ils peuvent reproduire une injustice si les concepteurs y introduisent des biais, explique-t-il. Par exemple, il serait injuste d'utiliser un ensemble de données sur la criminalité, dans lequel certains quartiers sont sous-représentés, ou de biaiser un calcul en utilisant les valeurs de certaines variables cachées, comme l'origine ethnique, reconstruites pour l'occasion. De tels biais peuvent refléter les intérêts commerciaux, les préférences politiques, religieuses, ou autres des concepteurs des algorithmes. Qu'ils soient intentionnels ou pas, ils peuvent être immoraux, voire illégaux. »
Le deuxième risque est celui de l'opacité : les algorithmes sont souvent des dispositifs opaques, qui accèdent à nos données - parfois très personnelles - sans que l'on sache vraiment ce qu'ils en font, ni comment. « À ce titre, les "boîtes noires" adoptées l'année dernière dans la loi sur le renseignement sont un exemple particulièrement frappant de ce qu'il faut absolument éviter », estime le directeur de recherche à Inria. La législation française prévoit en effet désormais, pour les services de renseignement, la possibilité d'imposer des dispositifs d'analyse automatique des données - ce qu'on appelle les boîtes noires - dans les réseaux des fournisseurs d'accès et de certains grands sites internet (6). Ces dispositifs sont censés permettre de détecter des comportements suspects de potentiels terroristes en croisant ces données à l'aide d'algorithmes. Sauf que les détails et le périmètre de cette détection automatique sont encore très vagues.

APPRIVOISER LA TECHNOLOGIE
Enfin, il y a le risque que les algorithmes encouragent l'uniformité. « Les algorithmes de recommandation qu'utilisent les sites internet (d'information, de pages web, de films, etc.) donnent en priorité les informations les plus populaires, celles que vous avez l'habitude de voir, commente Serge Abiteboul. Le risque, c'est donc qu'ils nous poussent à occulter une grande partie des choix possibles, et qu'ils nous enferment dans des territoires intellectuels de plus en plus étroits. »
Alors, faut-il s'inquiéter de la (toute) puissance des algorithmes ? « Tous les risques que je viens d'énumérer ne sont pas des défauts intrinsèques à cette technologie, termine le chercheur. Tout dépend de la manière dont nous, êtres humains, les concevons et les utilisons, et cela s'applique y compris aux programmes les plus complexes, dont le fonctionnement ressemble de plus en plus à celui d'un être humain, comme la voiture autonome. » Ce qui implique selon lui de mettre en place des instances indépendantes, chargées de contrôler que les algorithmes sont utilisés de manière responsable. Pour David Monniaux, directeur de recherche dans l'unité mixte Verimag, spécialisée dans la conception d'outils entrant dans le développement de systèmes embarqués, les peurs - comme les espérances - liées aux algorithmes sont surtout révélatrices d'une « pensée magique à l'oeuvre ». Autrement dit, elles reflètent le manque de connaissances du grand public sur le sujet, ce qui empêche d'en faire « une analyse objective et informée ». Dans ce contexte, les chercheurs ont, selon lui, un rôle important à jouer auprès de la population : charge à eux de démystifier les argumentations trompeuses et les concepts présentés comme mystérieux. De cette manière, assure-t-il, nous parviendrons à apprivoiser les algorithmes, comme nous l'avons fait avec chaque grande rupture technologique, comme l'électricité par exemple.

QUAND UN ALGORITHME PROVOQUE UN KRACH BOURSIER ÉCLAIR
En quelques minutes, le 6 mai 2010, la Bourse de New York s'effondre : de - 2 %, son cours passe à - 10 %. Le cours se redresse quelques minutes plus tard mais le mal est fait : environ 860 milliards de dollars de capitalisation boursière ont disparu. Très rapidement, les autorités fédérales de régulation des marchés américains, la Securities and Exchange Commission et la Commodity Futures Trading Commission, sont chargées d'enquêter sur ce qui s'est passé. Dans le rapport qu'elles rendent en octobre de la même année, les agences mettent en cause un courtier et... les algorithmes de trading à haute fréquence (1). D'après elles, le courtier aurait donné, à travers son programme informatique, un ordre de vente de 4,1 milliards de dollars. L'algorithme était paramétré pour vendre 9 % du volume réalisé à la minute précédente, sauf qu'il n'avait aucune indication de prix ou de temps pour effectuer cette tâche. Résultat, il a accompli en vingt minutes une opération qui, normalement, se déroule sur plusieurs heures. L'extrême rapidité de la manoeuvre a surpris, provoquant un effet domino : d'autres algorithmes de courtage ultrarapides se sont mis, mécaniquement, à vendre en masse eux aussi, sans qu'il y ait d'acheteurs, ce qui a fait plonger les cours brutalement.
(1) Collectif, « Findings regarding the market events of May 6th, 2010 », http://tinyurl.com/SEC-and-CFTC-report


 DOCUMENT   larecherche.fr    LIEN

 
 
 
 

LES ALGORITHMES

 

 

 

 

 

 

 

algorithme
(latin médiéval algorithmus, latinisation du nom d'un mathématicien de langue arabe, avec influence du grec arithmos, nombre)


Ensemble de règles opératoires dont l'application permet de résoudre un problème énoncé au moyen d'un nombre fini d'opérations. Un algorithme peut être traduit, grâce à un langage de programmation, en un programme exécutable par un ordinateur.

Origines et principe
Le principe des algorithmes, mot dérivant du nom du mathématicien perse al-Kharezmi, est connu quasiment depuis l'origine des mathématiques. Dès l'Antiquité sont proposés des procédés ou méthodes de calcul qualifiables aujourd'hui d'algorithmes (par exemple, calcul du PGCD ou résolution de certaines équations algébriques). Mais le concept ne sera développé et étudié qu'avec l'émergence, au xxe s., des sciences et techniques de l'informatique, puisque les algorithmes sont l'un des outils de base de la programmation. Ainsi, on appelle algorithme tout processus qui décompose une tâche globale en un nombre fini d'actions élémentaires (les primitives), susceptibles d'être effectuées par l'entité à laquelle en sera confiée l'exécution (le processeur), et qui en décrit explicitement l'ordonnancement temporel.


Algorithmes et logique formelle
La réflexion sur les algorithmes n'est pas seulement d'ordre pratique : elle rejaillit sur les études de logique formelle, en particulier chez David Hilbert et Kurt Gödel. Avant d'écrire l'algorithme de résolution d'un problème (de calcul ou de décision), il faut se demander si un tel algorithme existe (problème de la calculabilité ou de la décidabilité), puis dans quels délais le processeur (homme ou machine) sera à même de produire le résultat. Cela conduit, dans un deuxième temps, à déterminer la complexité algorithmique du problème. Pour ce faire, on range les problèmes par classes, sachant qu'un algorithme qui permet de résoudre un problème fournit la solution de tous ceux de la même classe.
Calculabilité et décidabilité

Avant de se lancer dans la recherche d'un algorithme de résolution d'un problème, on doit savoir si ce dernier peut être résolu en un nombre fini d'étapes. C'est ce que sous-entendent les termes de calculabilité et de décidabilité.
En 1928, David Hilbert formula le problème de la décidabilité : dans un système formel, on doit pouvoir, sans en faire la démonstration, décider si une proposition est vraie. « Tout problème mathématique défini doit nécessairement appeler une conclusion : soit une réponse effective à la question posée, soit une preuve de l'impossibilité de la solution et donc de l'échec inévitable de toute tentative. »
Or des travaux publiés dans les années 1930 vont établir l'indécidabilité de certaines propositions de la théorie élémentaire des nombres et montrer qu'il existe des problèmes qui ne comportent pas de solution. Le problème de la décidabilité n'est donc pas calculable, en ce sens qu'il n'existe pas d'algorithme qui permette de déterminer pour une proposition donnée, dans un système formel, si cette proposition est vraie ou fausse. Ainsi, en 1931, Kurt Gödel publie la preuve du théorème d'incomplétude de l'arithmétique : il existe des propositions qui, bien que vraies, ne peuvent être ni démontrées ni infirmées.
Puis, en 1936, Alonzo Church établit l'insolubilité de certains problèmes de théorie des nombres. Ces résultats marquent, d'une certaine façon, les limites de la pensée formaliste. En mettant en évidence des énoncés pour lesquels il n'existe pas d'algorithme permettant de décider s'ils sont vrais ou faux, ces travaux vont en susciter d'autres en vue de préciser ce que l'on entend par algorithme, par méthode effective et par calculabilité.

Complexité des algorithmes
Selon le type d'algorithme utilisé, tous les problèmes ne sont pas équivalents : certains sont plus faciles (ou rapides) à résoudre que d'autres. Les problèmes sont ainsi rangés par classes. Il est démontré qu'un algorithme qui permet de résoudre un problème fournit la solution de tous les problèmes de la même classe. Par ailleurs, des algorithmes distincts peuvent résoudre le même problème. Quels critères peuvent alors guider un utilisateur dans le choix d'un algorithme ? Les exigences sont fréquemment contradictoires : d'une part, simplicité et transparence du schéma de calcul qui fournit la solution du problème donné ; d'autre part, utilisation optimale des ressources disponibles, c'est-à-dire, le plus souvent, rapidité d'exécution du code de l'algorithme par les moyens informatiques.

La classification des solutions algorithmiques d'un problème peut s'effectuer sur la base du nombre d'opérations élémentaires nécessaires à leur exécution ; cette mesure s'appelle complexité algorithmique ou complexité théorique. Cette notion devrait être indépendante du processeur sur lequel l'algorithme est mis en œuvre, alors que son temps d'exécution fait intervenir, outre sa propre complexité, d'autres facteurs : nature des données utilisées et du processeur, vitesse d'exécution des instructions par celui-ci, etc. Pour évaluer cette complexité, on en simplifie le calcul en ne retenant que les ordres de grandeur du nombre d'opérations élémentaires les plus significatives.
Dans la pratique, les informaticiens estiment que les algorithmes dont le temps d'exécution croît de façon exponentielle avec le nombre de données ne sont pas utilisables. En revanche, ceux de type « polynomial » – dont le temps d'exécution croît en suivant une fonction polynôme (de la taille n des données) – sont considérés comme exploitables.

 

DOCUMENT   larousse.fr    LIEN

 

 
 
 
 

CASSEURS D'ATOMES : UN PAS DE PLUS VERS LE BIG BANG

 

VIDEO     canal U       LIEN 

 

 

CASSEURS D'ATOMES : UN PAS DE PLUS VERS LE BIG BANG
Les Casseurs d'atomes, plus communément appelés Accélérateurs, sont les outils de tous les jours de nombreux physiciens des particules qui sondent la matière infiniment petite. Il y a de ça un peu plus d'un siècle, en 1894, Albert Michelson - qui étudia le comportement de la lumière - n'aurait jamais imaginé se retrouver devant un monde incroyablement plus complexe qu'il l'aurait cru lorsqu'il déclara que tout ce qu'il restait à faire en physique était de déterminer jusqu'à la sixième décimale les valeurs connues en ce temps là. Il ne se doutait pas que la structure entière de la physique serait complètement révolutionnée dans les 20 années qui allaient suivre. Les premiers accélérateurs sont apparus au début du 20e siècle et ce qui fut dévoilé au fil des années a permis de construire un modèle théorique cohérent, le Modèle Standard (MS). Les particules prédites par ce modèle furent presque toutes observées, les prédictions sur leur comportement furent testées, mais effectivement le plus important manquait et manque toujours. Le boson de Higgs, auquel est associé le champs de Higgs qui permet à toutes les particules d'acquérir une masse, reste encore aujourd'hui inobservé. Les expériences du futur nous permettront de vérifier si cette particule existe vraiment, et si d'autres modèles théoriques au-delà du MS sont viables i.e. la Super Symétrie, l'existence de dimensions supplémentaires. Il faut toutefois garder les pieds sur terre, ou peut-être pas, car la physique des particules aux accélérateurs, résumé sur l'échelle universelle du temps depuis le Big Bang jusqu' aujourd'hui, ne correspond qu'à un tout petit pas. Le terrain à défricher reste encore énorme, et les Casseurs d'atomes joueront un rôle clef dans la compréhension de cet Univers de l'infiniment petit. Je tenterai donc, dans cette présentation, de faire un survol historique de la théorie, des accélérateurs, des découvertes et de parler du futur de la physique aux accélérateurs.

 

Texte de la 529e conférence de l’Université de tous les savoirs donnée le 16 juin 2004
Les casseurs d’atomes Helenka Przysiezniak
Plus communément appelés accélérateurs de particules, les « casseurs d’atomes » permettent de sonder l’infiniment petit avec des particules extrêmement énergétiques. La relation de Broglie
E=h/λ
relie l’énergie E à la longueur d’onde λ d’une particule (reliée à sa taille). Plus l’énergie des
particules incidentes est grande, plus les distances sondées sont petites.
Dans la figure 1, l’ordonnée représente l’échelle de temps en secondes allant de 10-43 seconde après le Big Bang à 1017 secondes (1010 années), l’âge de notre Univers. L’abscisse représente la température : de 0 à 1032 Kelvin (0o Celsius = 273 Kelvin).
Figure 1
Référence: From Quarks to the Cosmos de Lederman et Schramm.
L’Univers aujourd’hui est très froid (~10 Kelvin), alors qu’au moment du Big Bang, sa température est de 1032 Kelvin, et il est infiniment petit (il mesure 10-33cm i.e. beaucoup plus petit qu’un noyau d’atome 10-13 cm) et lourd. La densité d’énergie atteinte dans les accélérateurs de particules aujourd’hui est semblable à celle dans l’Univers environ 10-13 secondes après le Big Bang (T~1016 Kelvin). Comment et pourquoi en sommes nous arrivés à construire de telles machines ?
1
Contexte historique
Au 19ème siècle, James Maxwell (1831-1879) unifie deux interactions fondamentales, l’électricité et le magnétisme, dans sa théorie de l’électromagnétisme. Les deux ne sont que des représentations différentes d’une seule et même interaction. Une conséquence de ses équations est que les ondes doivent de propager à 3x108 (300 000 000) m/s, ce qui est exactement la vitesse de la lumière.
En 1894 Albert Michelson (prix Nobel de physique 1907 pour ses travaux sur la lumière) déclare, en parlant de la physique, qu’il ne reste plus qu’à mesurer tout ce que l’on connaît déjà jusqu’à la sixième décimale. En fait, la structure entière de la physique sera complètement révolutionnée dans les 20 années qui suivent.
Un premier bouleversement survient en 1896, quand Henri Becquerel (Nobel 1903) découvre accidentellement la radioactivité. Il enveloppe de papier noir des plaques photographiques et les placent dans un tiroir avec des sels d’uranium. Quand il les développe, elles sont devenues toutes noires ! Il pense que l’uranium a émis un certain type de radiation. On comprend que cette nouvelle radioactivité est l’émission spontanée de trois types de radiations : les rayons gamma γ (photons), les particules alpha α chargées (noyau d’atome d’hélium), et les particules beta β (électrons).
Ernest Rutherford (1871-1937 ; Nobel 1908) découvre en 1888 que les particules alpha sont des atomes d’hélium sans leur électron. Les particules alpha sont éjectées des matériaux radioactifs à grande vitesse : 10 000 km/s. En 1910, il reconnaît que ces particules peuvent être utilisées pour sonder les atomes.
Dans ce qui devient le prototype de l’expérience de diffusion, Rutherford vise un faisceau de particules alpha sur une plaque très fine d’or (figure 2). Celle-ci est entourée d’écrans recouverts d’une fine couche de sulfate de zinc (ZnS). En traversant cette fine couche, la particule alpha perturbe les molécules de ZnS, et celles-ci émettent des photons de lumière. L’éclat est à peine visible à l’œil nu. L’expérience doit être répétée plusieurs fois pour se convaincre de la validité du résultat qui est saisissant : la plupart des particules α passent à travers l’or en subissant de petites déviations par rapport à leur direction initiale, mais quelques unes rebondissent vers l’arrière. La particule α rapide et massive doit rencontrer quelque chose d’encore plus massif. De simples calculs montrent qu’il doit y avoir un champ électrique énorme à l’intérieur de l’atome d’or. Un champ aussi puissant ne peut exister que si la charge positive est concentrée dans un
volume extrêmement petit. Rutherford évalue que la charge positive occupe moins de 10-14 du volume de l’atome. Il découvre ainsi le noyau atomique !
figure 2
Expérience de diffusion sur l’or de Rutherford. Référence: From Quarks to the Cosmos de Lederman et Schramm.
2
En 1911, quand Niels Bohr (1885-1962 ; Nobel 1922) arrive au laboratoire de Rutherford, l’atome est considéré comme étant constitué d’un cœur minuscule de charge positive exactement égale à la charge négative des électrons gravitant autour. Pourtant, on ne comprend pas comment les constituants de l’atome tiennent ensemble et pourquoi l’atome est un objet stable. L’électron ne peut rester immobile, sinon il plongerait dans le noyau ; pourtant s’il gravite autour du noyau comme la terre autour du soleil, selon les équations de l’électromagnétisme de Maxwell il émettrait de la radiation synchrotron perdant son énergie, et plongerait en spirale dans le noyau. Existe-il d’autres lois dans la nature? Niels Bohr propose une solution révolutionnaire: seules certaines orbites sont permises aux électrons d’un atome et leur énergie est quantifiée. La théorie quantique est née, aussi bouleversante soit-elle !Une autre théorie révolutionnaire est conçue par Albert Einstein (1879-1955 ; Nobel 1921). Selon lui, notre expérience de l’espace et du temps dépend de notre propre état de mouvement, d’où la relativité de toute observation. La seule exception concerne la vitesse de la lumière (=c), qui est constante en toutes circonstances. Einstein reconnaît d’ailleurs la constance de la vitesse de la lumière comme un fondement de sa théorie. Il étend ses idées à la force gravitationnelle, construisant sa fameuse théorie de la relativité générale.
Les découvertes de la radioactivité et du noyau atomique, ainsi que les révolutions théoriques de la mécanique quantique et de la relativité générale, redonnent vie à la physique et notamment à la physique des particules élémentaires.
Les particules élémentaires
Le terme particule élémentaire désigne une particule indivisible, fondamentale et constituante de la matière environnante. En cette fin du 19ème, début du 20ème siècle, on commence à observer de nouveaux phénomènes qui indiquent que nous n’avons pas encore tout compris. Plusieurs découvertes vont permettre par la suite de poser les bases du Modèle Standard des particules élémentaires tel qu’il est connu aujourd’hui.
Les rayons cosmiques
En août 1912, Victor Hess (1883-1963) envoie dans l’atmosphère un ballon rempli d’hydrogène équipé d’un compteur à ionisation. Cet appareil mesure l’intensité de l’ionisation qui résulte quand des particules énergétiques séparent les atomes normalement neutres d’un gaz en électrons libres et un résidu chargé. Les charges sont récupérées et la quantité de charges est une mesure d’intensité de l’ionisation. Hess observe d’abord un certain taux d’ionisation sur terre, puis plus le ballon s’élève, plus le taux augmente. Il effectue l’expérience de jour comme de nuit, et n’observe aucune différence entre les deux mesures. Il a donc la preuve que le soleil n’en est pas la source. Comme le taux d’ionisation augmente au fur et à mesure que le ballon s’élève, il sait aussi que cela ne peut provenir de la radioactivité naturelle de la terre. Hess argumente que les particules viennent de l’espace, mais 15 années s’écoulent avant que leur origine extra-terrestre ne soit acceptée : Hess a découvert les rayons cosmiques.
UnitésPour décrire ces nouveaux rayonnements et particules microscopiques, on utilise des unités adaptées. L‘énergie et la masse sont reliées par la relation E=mc2 où m = m0/[1-(v2/c2)]
1/2. L’unité utilisée pour l’énergie ou la masse d’une particule est l’électron-Volt, qui équivaut à l’énergie acquise par un électron lorsqu’il traverse la brèche entre deux électrodes connectées à une pile d’un Volt. En comparaison, un joule, l’énergie potentielle d’une masse de 1kg élevée à
une hauteur de 1m, équivaut à 6 X 1018 eV, et un kilowatt-heure, ce par quoi notre facture d’électricité est calculée, équivaut à 3,600,000 joules !
Aux accélérateurs, les particules peuvent atteindre des énergies de l’ordre du MeV (1 Méga-
électron-Volt = 106eV), du GeV (= 109eV) et même du TeV (= 1012eV). Toutefois, les particules 3
les plus énergétiques que l’on connaisse sont les rayons cosmiques, dont l’énergie peut atteindre
1020eV, c’est à dire l’énergie d’une balle de tennis au service, ou encore 100 millions de fois l’énergie des particules dans le plus grand des accélérateurs.
La découverte du neutrino
James Chadwick (1891-1974) est l’étudiant le plus productif de Rutherford. Son premier travail significatif concerne l’étude de l’émission des particules β (électrons) par des noyaux radioactifs.
Il veut savoir si les particules β ont toutes la même énergie ou si leur énergie a une certaine distribution. Chadwick utilise un type de compteur Geiger pour mesurer l’énergie et l’impulsion d’électrons émergeant du radium. Il voit que les électrons ont un spectre d’énergie continu, ce qui semble violer la loi de la conservation de l’énergie pour une désintégration en deux particules. Une particule invisible est elle émise? En 1929, l’expérience a déjà été répétée plusieurs fois et les résultats sont très gênants. Niels Bohr suggère que la loi de la conservation de l’énergie ne s’applique peut être pas aux noyaux !Wolfgang Ernst Pauli (1900-1958) est un brillant théoricien suisse qui fait sa réputation à l’âge de 19 ans lorsqu’il écrit une revue de la théorie de la relativité générale. Il est aussi l’auteur, à 25 ans, du fameux principe d’exclusion de Pauli qui explique la structure en orbites des électrons dans l’atome et le tableau périodique. Pauli ne peut accepter l’idée de Bohr de la non-conservation de l’énergie, et il propose en 1930 l’existence d’une nouvelle particule qui s’échappe, ne laissant aucune trace et ne déposant aucune énergie dans les détecteurs. Cette particule doit être neutre, très pénétrante, et de très petite masse. Pauli prédit ainsi le neutrino, comme Enrico Fermi devait la surnommer plus tard. Le neutrino n’est observé directement qu’en 1959. Néanmoins, cette évidence indirecte, déduite à partir des lois de conservation, mène à l’acceptation générale de l’idée du neutrino.
La découverte du neutron
Durant la période de la course effrénée mondiale pour comprendre la radioactivité, plusieurs substances radioactives sont découvertes et utilisées comme des sources de radiation. En 1928 en Allemagne, des particules α issues du polonium sont dirigées sur du béryllium. Une radiation pénétrante sans charge électrique est observée. Cette radiation est aussi observée à Paris. Tout ceci attire l’attention de Rutherford et de Chadwick. Ce dernier utilise un mélange de polonium et de béryllium, puis parvient à mesurer la masse de la nouvelle radiation, à peu près égale à la masse du proton. Il découvre ainsi le neutron.
La force forteCette dernière découverte permet de clarifier la structure du noyau atomique, qu’on conçoit rapidement comme composé de neutrons et de protons. La force qui lie les neutrons et protons entre eux doit être très forte et de très courte portée, sinon la force électrique poussant les charges positives hors du noyau feraient exploser le noyau. Graduellement, suite à plusieurs expériences, on parvient à décrire quantitativement cette nouvelle force qu’on appelle la force forte.
Le positron et l’antimatière
En 1927, un théoricien de Cambridge Paul Dirac tente de marier la relativité restreinte à la mécanique quantique. Il étudie l’électron sujet aux champs électromagnétiques. Avant Dirac, ces deux théories sont considérées comme des révolutions séparées. La mécanique quantique a été appliquée à des électrons circulant lentement dans l’atome. La relativité restreinte s’applique au contraire à des particules circulant à la vitesse de la lumière. Personne n’a encore réussi à rendre les équations du mouvement de l’électron en accord avec la relativité. Les efforts de Dirac mènent à une nouvelle équation gouvernant le comportement de l’électron en présence de champs. Une fois résolue, elle donne quelques prédictions saisissantes : l’électron a un spin (moment angulaire quantifié ; mesure de l’activité de rotation d’un objet) de 1⁄2 . L’autre
4
prédiction est complètement inattendue: une particule de charge positive doit exister, avec la même masse et le même spin que l’électron. Dirac prédit ainsi l’existence de l’antimatière. Il faut attendre 1933 pour que Carl Anderson découvre le positron expérimentalement.
La force faible
Enrico Fermi (1901-1954) est considéré comme un des génies du siècle. Il contribue autant à la physique expérimentale qu’à la physique théorique. Il donne une interprétation du principe d’exclusion de Pauli en termes de la nature statistique des électrons. Les particules de spin 1⁄2 sont surnommées fermions et se comportent selon la statistique de Fermi. Les particules de spin entier (photons de spin 1 ; particules α de spin 0), que l’on surnomme bosons, obéissent à un ensemble de règles complètement différentes : la statistique de Bose Einstein.
En 1931, Pauli suggère que la désintégration β (i.e. n → p+ + β) soit associée à l’émission d’électrons et de neutrinos (i.e. n → p+ + β → p+ + e- + ν). En mécanique quantique, les champs des forces classiques sont remplacés par des particules qui transportent l’influence des champs d’un point à l’autre, dans l’espace et le temps. Dans le cas du champ électromagnétique, le transmetteur est le photon, le quantum d’énergie de la lumière (Einstein). La force entre deux particules chargées survient à cause de l’échange de photons. En 1933, Fermi adopte cette idée pour la désintégration β. Il est le premier à formuler clairement l’existence d’une nouvelle force fondamentale. Certains appellent la nouvelle interaction de Fermi la force faible.
En 1933, Fermi décrit correctement les distributions en énergie des électrons émergeant des désintégrations β, mais prédit aussi les temps de vie et autres caractéristiques de noyaux radioactifs. L’interaction de Fermi est la composante clef du Modèle Standard des particules des années 1980.
Lemuonμetlepion π
En 1935, Hideki Yukawa prédit l’existence d’une particule ayant 200 fois la masse de l’électron qui expliquerait à la fois la force forte entre les protons et neutrons et la force faible induisant les désintégrations radioactives. Il pense que cette nouvelle particule serait le transmetteur de la force forte. Quand en 1937, Carl Anderson découvre le muon en détectant des rayons cosmiques, beaucoup pensent que c’est la particule prédite par Yukawa. Bruno Rossi en mesure le temps de
vie, 2 X 10-6s, ce qui est trop long pour être une particule de Yukawa forte, dont le temps de vie
doit être de l’ordre de 10-8s. De plus, une particule forte interagit fortement avec la matière qu’elle traverse, alors que le muon ne laisse presque aucune trace.
Le mystère de la particule de Yukawa est résolu avec la découverte du pion en 1947. Il a toutes les bonnes propriétés. Il est découvert accidentellement en détectant des rayons cosmiques avec des émulsions photographiques. Cecil Powell et Giuseppe Occhialini. apportent au pic du Midi dans les Pyrénées de toutes nouvelles émulsions fabriquées par Illford à leur demande. Le taux des rayons cosmiques est dix fois plus élevé à 3000m qu’au niveau de la mer. Les plaques révèlent un foisonnement d’activité jamais vue auparavant. Une particule d’une masse
intermédiaire de 140 MeV et d’un temps de vie fort de 10-8s est observée. Elle se désintègre en un muon et un neutrino. On l’appelle le pion.
En bref
Les découvertes et théories issues de cette période changent radicalement le paysage de la physique des particules élémentaires. Les interactions fondamentales se résument à quatre forces : gravitationnelle, électromagnétique, nucléaire faible et nucléaire forte. Le transmetteur de la force électromagnétique est le photon γ alors que celui de la force forte est relié d’une certaine manière au pion π. Quant aux deux autres forces (faible et gravitationnelle), aucun candidat transmetteur n’a encore été identifié. Les leptons sont définis comme des particules qui
5
ne subissent pas la force forte : on connaît l’électron e-, son anti-particule le positron e+, le muon μ± et le neutrino ν. Les fermions ont un spin demi-entier, et les bosons ont un spin entier. Finalement, à chaque particule est associée son anti-particule.
Pour sonder en profondeur les propriétés de la matière, on comprend qu’il faut utiliser des particules plus énergétiques et abondantes que celles produites dans la nature. Les accélérateurs de particules vont grandement contribuer à compléter le tableau des particules élémentaires tel que nous le connaissons aujourd’hui.
Les accélérateurs de particules
En 1919 Rutherford démontre que le noyau de nitrogène se désintègre si on le bombarde de particules α. Ceci marque le début d’un tout nouveau champ, la physique nucléaire, et d’un niveau d’observation plus profond. L’habileté des particules de grande vitesse à provoquer des désintégrations nucléaires mène à des tentatives de produire des particules encore plus énergétiques que celles émergeant naturellement de substances radioactives. Un appareil pouvant générer un faisceau intense de particules très énergétiques permettrait de sonder les propriétés de la matière.
Pour accélérer une particule chargée, un simple champ électrique suffit. L’accélération a lieu quand la particule en mouvement traverse une brèche où une tension électrique est appliquée : la particule est tirée vers l’avant par une charge de signe opposé, et poussée par derrière par une charge de même signe. Chaque fois qu’elle traverse la brèche, elle est accélérée par l’élan électrique qu’elle reçoit. En partant de ce principe très simple, les tout petits accélérateurs de particules des années 1920 (d’une dizaine de cm de diamètre ; figure 3), se muent en machines gigantesques dans les années 1980 (de plusieurs km de diamètre ; figure 4), des millions de fois l’énergie des particules α de Rutherford.
figure3
Chambre accélératrice de 28cm de diamètre du cyclotron construit en 1937 au Laboratoire Lawrence Berkeley. Référence: From Quarks to the Cosmos de Lederman et Schramm.
6
figure 4
Large Electron Positron Collider (LEP) de 27km de circonférence au CERN (France-Suisse) construit de 1983 à 1989. Référence : CERN.
Un accélérateur de particules est caractérisé par l’énergie E des particules circulant à des vitesses frôlant celle de la lumière, par l’intensité I, le nombre de particules passant en un point donné par seconde, et par la luminosité L, le nombre de particules passant en un point donné par seconde et par unité de surface.Il existe aujourd’hui deux conceptions différentes d’accélérateurs: ceux à cible fixe et ceux dits collisionneurs. Dans le premier cas, les particules sont accélérées et entrent en collision avec une cible fixe. Quelques particules vont frapper les atomes de la cible et vont, s’ils sont assez énergétiques, libérer un jet de neutrons, protons, et autres particules, toutes pouvant être identifiées correctement par des détecteurs placés adéquatement. En compilant les résultats de milliers voire de millions de telles collisions, on acquiert des connaissances sur la structure du noyau.
Dans le cas des collisionneurs, deux paquets de particules circulent en sens opposé. Chaque paquet est accéléré au maximum des possibilités de la machine, puis on les fait entrer en collision frontale. Le gain en énergie par rapport à une collision sur cible fixe est important. En effet, l’énergie dans le centre de masse Ecm, (en quelque sorte l’énergie utile) pour un proton de 1000 GeV qui entre en collision avec une cible fixe est de 42 GeV, alors que l’énergie dans le centre de masse pour deux faisceaux de protons de 1000 GeV qui entrent en collision l’un avec l’autre est de 2000 GeV !
Le tube cathodique et la découverte de l’électron
Le tout premier appareil ayant accéléré des particules est le tube cathodique. Le principe est le suivant : une tension est appliquée à un gaz raréfié en scellant des fils, appelés électrodes, aux deux bouts d’un tube en verre. L’électrode connectée à la source négative d’électricité est la cathode et le terminal positif est l’anode. Des décharges électriques luminescentes spectaculaires sont observées. Elles émanent de la cathode et foudroient le verre autour de l’anode, illuminant le verre. Les rayons des cathodes sont en fait des faisceaux d’électrons accélérés, découverts par J.J.Thomson (1856-1940) en 1896.
Accélérateur électrostatique
En 1932, John D.Cockroft et Ernest T.S.Watson réussissent pour la première fois à accélérer des protons jusqu’à 770 KeV (770⋅103eV) d’énergie, dans une machine électrostatique (champ électrique accélérateur) faisant usage d’une tension fixe et stable. La machine électrostatique la plus réussie est développée par Robert Van de Graaff en 1931 et atteint 1.5 MeV d’énergie.
Le cyclotronLa percée technologique donnant naissance aux accélérateurs modernes vient grâce à Ernest O.Lawrence (1901-1958) de Berkeley en Californie, aux environs de 1930. Il reçoit d’ailleurs le prix Nobel en 1957 pour la mise en application de ce tout nouveau principe d’accélération. En 1929, il tombe sur l’article d’un Norvégien autodidacte Rolf Wideroe. Celui- ci imagine à 21 ans un accélérateur atteignant 100 MeV d’énergie. L’idée est d’utiliser plus qu’une brèche accélératrice, ou d’utiliser la même brèche plusieurs fois.
Lawrence ajoute au concept de Wideroe l’idée de confiner le mouvement des particules accélérées avec un champ magnétique. Dans un champ vertical, une particule chargée en
7
mouvement horizontal trace un cercle et le temps du circuit est indépendant de la vitesse de la particule. Plus la vitesse augmente, plus le rayon de sa trajectoire circulaire augmente, et le parcours plus long compense exactement la vitesse plus élevée. Ainsi, une tension électrique oscillante (champ alternatif), de radio-fréquence (RF ; haute fréquence) exactement égale à la fréquence de rotation de la particule, donne l’élan dans la brèche. La tension radio fréquence est simplement une tension qui alterne entre tension positive et négative de manière synchrone avec le parcours circulaire de la particule. Chaque passage de la particule dans la brèche donne un nouvel élan à la particule. La particule gagne en énergie, et le rayon augmente, mais la période de l’orbite est constante.
Le premier modèle de Lawrence construit avec son étudiant Stanley Livingston a un aimant dont les pièces circulaires mesurent quelques cm de diamètre. Des protons y sont accélérés jusqu’à 80 KeV. Son deuxième modèle atteint 1.2 MeV et les particules produisent des désintégrations nucléaires. La tension de radio-fréquence n’est que de 1000 Volts, mais les protons effectuent plus de 1000 tours en effectuant des spirales de plus en plus grandes. Il appelle ses machines des cyclotrons (figure 5).
Figure 5
Schéma de cyclotron. Référence: From Quarks to the Cosmos de Lederman et Schramm
Focalisation
Lawrence a beaucoup de chance. Une condition connue sous le nom de focalisation (focusing) est nécessaire pour empêcher les particules de se disperser loin des orbites circulaires propres. Toute petite déviation d’un tir parfait augmente graduellement au cours des centaines de milliers de tours, donnant un faisceau de particules complètement dispersés dans le cyclotron. Mais, et voici la chance de Lawrence, la convergence nécessaire est naturellement donnée par le fait que le champ magnétique est plus faible vers l’extérieur de l’orbite, proche du bord de l’aimant. Une analyse mathématique par un autre jeune étudiant, R.R.Wilson, montre que cet affaiblissement du champ magnétique, plus tard connu sous le nom de gradient du champ magnétique, fournit une force qui rétablit les particules déviées sur l’orbite idéale.
Synchrocyclotron
8
Hans Bethe (1906-) se rend compte, en ce qui concerne le cyclotron de Lawrence, que quand la masse des particules accélérées augmente, tel que décrit dans la théorie de la relativité, la période de l’orbite change et la particule n’est plus synchronisée avec la radio-fréquence dans la brèche accélératrice. Ceci pose une limite supérieure sur l’énergie à laquelle les particules peuvent être accélérées dans un cyclotron. L’obstacle soulevé par Bethe donne lieu à une nouvelle invention, le synchrocyclotron, dans lequel la radio-fréquence varie pour tenir compte de l’augmentation de la masse. Après la deuxième guerre mondiale, des synchrocyclotrons de diverses énergies sont construits, et opèrent dans le domaine de quelques centaines de MeV, le plus puissant a 600 MeV. Il faut construire des aimants de plus en plus grands, de 60 à 500 cm de diamètre, en fer et pesant plusieurs milliers de tonnes. Ces aimants deviennent de plus en plus difficile à construire, et pour atteindre des énergies plus élevées, il faut imaginer une approche différente.
Synchrotron
La solution vient avec le synchrotron. Le rayon de l’orbite est maintenu constant, et le champ magnétique est augmenté en synchronisant avec le gain en impulsion. La radio-fréquence est variée aussi puisque les orbites sont complétées de plus en plus rapidement. Puisque l’orbite est fixe, un champ magnétique est requis seulement autour de l’orbite, nécessitant un volume d’aimant beaucoup plus petit. Les synchrotrons à protons et à électrons construits dans les années 1950 atteignent le GeV (109eV) et ainsi débute l’ère moderne des grands accélérateurs !
Focalisation forte
Dans les accélérateurs circulaires, les particules tournent des dizaines de millier de fois durant le cycle d’accélération. La stabilité des orbites est un facteur crucial. Toute petite déviation de la trajectoire, par exemple due à une collision avec un atome de gaz résiduel, augmenterait en taille avec chaque tour effectué et mènerait éventuellement à la perte de la particule, à moins que des forces convergentes soient utilisées. En 1952, une découverte sur la convergence magnétique est faite au laboratoire de BNL (Brookhaven National Laboratory). Stanley Livingston, Ernest Courant, Hartland Snyder et d’autres découvrent que si le champ magnétique est ajusté pour alternativement focaliser et dé-focaliser le faisceau (principe du gradient alternatif ; se dit alternating gradient en anglais), la stabilité des orbites augmente. L’effet net est une focalisation qu’ils surnommeront la focalisation forte. Les variations autour de l’orbite circulaire idéale sont ainsi minimisées, réduisant aussi l’ouverture requise des aimants, leur taille et leur coût. La focalisation et la dé-focalisation peut être induite en façonnant des aimants dipôles, ou grâce à une nouvelle invention de BNL, les aimants quadrupoles : deux pôles nord et deux pôles sud sont arrangés de manière à générer des forces perpendiculaires à la trajectoire, poussant les particules vers ou loin du centre de l’axe de mouvement. Un PS (Proton Synchrotron) de 25 GeV est construit au CERN en 1959, puis BNL construit le leur de 30 GeV en 1960 (AGS : Alternating Gradient Synchrotron ; figure 6).
Les deux plus grands synchrotrons à protons construits sont le SPS (Super PS) de 450 GeV du CERN et le PS de 1000 GeV de Fermilab, de 6.9km et 6.3km de circonférence respectivement, datant du milieu des années 1970.
9
figure 6
Schéma de l’AGS, le synchrotron à protons à Brookhaven National Laboratory. Référence: BNL.
Accélérateur linéaire
Les accélérateurs linéaires utilisent le même principe d’accélération que les synchrotrons, c’est à dire un champ électrique alternatif de haute fréquence (RF). Celui-ci est établi dans l’axe d’un long tube rectiligne. Des sources puissantes de haute fréquence n’apparaissent qu’après la Seconde Guerre mondiale. Dès le lendemain de la guerre, un accélérateur à protons de 32 MeV entre en service aux États Unis. L’accélérateur à protons de Los Alamos au Nouveau Mexique atteint 800 MeV d’énergie. Le plus grand accélérateur linéaire à électrons est construit à l’Université de Stanford en Californie, mesure 3km de long et atteint 30 GeV d’énergie!
Collisionneurs
Dans les années 1960, des anneaux de stockage sont conçus. Des paquets de particules (électrons et positrons ; protons et anti-protons) circulent autour d’un anneau magnétique en directions opposées. Les paquets se rencontrent à des endroits précis. Aux points de rencontre, deux particules entrent occasionnellement en collision, et une variété de particules sont créées: photons, pions, kaons, protons, anti-protons, etc... On appelle aussi ces anneaux de stockage des collisionneurs. La collision frontale entre deux paquets de particules permet d’atteindre des énergies dans le centre de masse plus élevées que si un seul faisceau entre en collision avec une cible fixe. Au fur et à mesure que la technique mûrit, la densité des paquets et les taux de collisions augmentent.
En bref
L’évolution des accélérateurs est spectaculaire. Tout commence avec Rutherford qui sonde l’atome d’or avec des particules α de 5 MeV (5⋅106eV). Cent années plus tard, des électrons d’énergie 10000 fois supérieure sont produits. Évidemment, les découvertes en physique des particules ponctuent, voire même motivent le développement des accélérateurs, et permettent de mettre en place le Modèle Standard des particules élémentaires.
La construction du Modèle Standard
Le tableau périodique des éléments est une liste ordonnée des atomes et ses mystérieuses régularités ne sont comprises que lorsque l’électron est découvert et la théorie quantique construite. Dans les années 80, l’organisation correspondante des particules de base est appelée le Modèle Standard des particules élémentaires.
Découverte du neutrino muonique
La première découverte majeure au synchrotron à protons de BNL, l’AGS, arrive avec l’expérience aux deux neutrinos, menée en 1961 par trois physiciens (prix Nobel 1988) Jack Steinberger, Leon Lederman et Melvin Schwartz. Ils cherchent à étudier la force faible, la seule qui affecte les neutrinos. Mais les neutrinos interagissent très peu avec la matière : un neutrino passant dans 100 millions de km d’acier a une chance sur deux d’être arrêté ou défléchi. À l’Université de Columbia (ville de New York), Schwartz suggère de créer des faisceaux de neutrinos énergétiques. Des protons de 15 GeV sont précipités sur une cible de béryllium, produisant ainsi des protons, neutrons, et pions. Ces derniers se désintègrent presque tout le temps en muon et neutrino. Toutes ces particules fuient vers l’avant dans la même direction que
10
le faisceau de protons incidents. Pour filtrer tout sauf les neutrinos, ils mettent un obstacle : une barrière d’acier d’une dizaine de mètres d’épaisseur. L’acier arrête presque toutes les particules, permettant aux neutrinos seulement de passer. Le résultat est le premier faisceau de neutrinos énergétiques ! Même si la probabilité d’interaction des neutrinos est extrêmement faible, il y en a tellement qu’ils arrivent à observer, en 8 mois de prises de données, 56 interactions dans leur détecteur de 10 tonnes.
Le neutrino de Pauli, né avec un électron, peut produire des électrons. La désintégration d’un pion en un muon et un neutrino signifie que ce neutrino peut produire des muons dans une collision. Mais ces deux neutrinos sont ils identiques? S’ils l’avaient été, l’expérience aurait produit autant d’électrons que de muons. Cependant, seuls des muons sont observés. Ainsi, le groupe de Columbia découvre un nouveau type de neutrino, ce qui aura des conséquences profondes sur la structure du Modèle Standard.
Avant l’expérience aux deux neutrinos, le seul neutrino connu est celui produit par les désintégrations β- →e- ν. Les neutrinos produits par l’expérience de Columbia sont qualifiés de muoniques. On suggère, de manière pas tout à fait sérieuse, qu’ils diffèrent de saveur : l’un est de saveur électronique, l’autre de saveur muonique. Ce concept de saveur devient finalement crucial pour l’élaboration du Modèle Standard. Dans cette généralisation, nous verrons qu’il existe 6 saveurs de quarks (i.e. composants des protons, neutrons, pions), et de manière équivalente, 6 saveurs de leptons (particules qui n’interagissent pas fortement). À chaque membre expérimentalement distinct d’une classe de particules (quarks ou leptons) est assigné une saveur. L’idée simple de saveur est reconnue dans le cas des deux saveurs de neutrinos, où la distinction est subtile.
Gell-Mann et la classification des nouvelles particules
Au début des années 1960, une centaine de nouvelles particules ont été découvertes dans les accélérateurs. La plupart sont des produits de la force forte, et on les surnomme des hadrons, du mot grec pour « fort ». En 1962, un faisceau de kaons chargés négativement (nouvelles particules de type fortes découvertes) est produit par l’AGS. Le but de l’expérience est de tester une hypothèse de Murray Gell-Mann (1929-), de CalTech (California Institute of Technology). Gell-Mann parvient à organiser tous les hadrons connus par groupe de 8 (octets) ou de 10 (décuplets) particules. Il surnomme son modèle L’Octuple Sentier en se référant au terme bouddhiste. Dans le cadre d’un de ces décuplets, neuf particules ont été découvertes et ordonnées. La symétrie de la théorie exige l’existence d’une 10ème particule, qu’on surnomme Ω- (oméga moins). Le but de l’expérience est de découvrir cette particule. En décembre 1963, l’expérience prend ses premières données, elles sont défrichées, et le comble, l’Ω- est découvert ! Cette organisation des nouvelles particules nous rappelle celle du tableau périodique. Celui-ci n’acquiert tout son sens que lorsqu’on comprend la sous-structure de l’atome : un noyau composé de protons et de neutrons entouré d’électrons. Existe-t-il donc une physique sous- jacente à cette nouvelle classification? Gell-Mann et George Zwieg (de CalTech) proposent de manière indépendante une structure fondamentale et sous-jacente : un triplet de particules qui composeraient tous les hadrons. Bien que ce triplet explique les octets et décuplets, il a des conséquences plutôt farfelues : les particules du triplet ont des charges fractionnelles de celle de l’électron, et transportent 1/3 des propriétés du neutron ou du proton. Gell-Mann surnomme ces nouvelles particules des quarks, ce qui signifie absurdité en argot allemand.
Il existerait trois saveurs de quarks : up (u), down (d), strange (s) de charges +2/3, -1/3 et –1/3 respectivement. Les baryons (i.e. neutron, proton) sont constitués de trois quarks (i.e. neutron : udd, proton : uud, Ω-=sss). Les mésons, qui ont d’abord été proposés comme des particules d’échange pour tenir les nucléons ensemble, sont constitués d’un quark et d’un anti-quark (i.e. pions π- = anti-u d, π+ = u anti-d, π0 = (u anti-u + d anti-d)/√2, kaons K- = anti-u s, K+ = u anti- s).
11
Il est important de noter que l’hypothèse de l’existence des quarks est motivée par l’existence des baryons et mésons qui s’arrangent parfaitement selon l’octuple sentier. Le fait que les trois saveurs de quarks reproduisent bien tous les baryons et mésons connus est un point très favorable à leur hypothèse, mais il manque l’évidence expérimentale.
La vérification expérimentale des quarks, une longue histoire
On imagine alors des expériences pour sonder le proton, en quelque sorte des versions modernes de l’expérience de Rutherford. En 1953, lors d’expériences de diffusion d’électrons d’environ 100 MeV sur des protons (atomes d’hydrogène), Robert Hofstadter (Nobel 1961) comprend que la charge est distribuée uniformément à l’intérieur du proton.
En 1961, l’accélérateur linéaire de Stanford (SLAC) est construit. Il mesure 3km de long, et accélère des électrons jusqu’à 20 GeV. Dans les années 1960 et 1970, on y reprend des expériences de diffusion d’électrons sur des protons, et les résultats sont époustouflants et apparemment contradictoires avec les résultats de Hofstadter. On ne comprend plus rien ! Kendall et Friedman (Nobel avec Taylor en 1990) mènent une des expériences (1968). Deux théoriciens jouent un rôle déterminant dans l’interprétation des résultats : James Bjorken (de SLAC) et Richard Feynman (de CalTech ; Nobel 1965). Ils suggèrent que le proton est composé d’objets ponctuels qui diffusent les électrons. Feynman appelle ces objets des partons (partie du proton). Pourquoi pas des quarks? Feynman est convaincu que quelque chose d’autre accompagne les quarks dans le proton.
Quarks et gluons
L’intuition de Feynman lui donne raison. De nouvelles expériences au milieu des années 1970 confirment les résultats observés à SLAC et confirment l’idée de l’existence d’autres constituants que l’on nomme les gluons, dont le rôle est de transmettre la force forte. Au bout de quelques années, il devient clair que les partons de Feynman sont effectivement les quarks et gluons.
Les quarks ont une nature ponctuelle et sont apparemment indivisibles. Un nombre infini de quarks peuvent entrer dans un volume limité, tel un trou noir. Cette nature ponctuelle est en fait essentielle pour expliquer les densités incroyablement élevées au début de l’Univers.
De plus, les quarks semblent confinés dans les protons et neutrons. La notion de confinement est inventée par des théoriciens après que les expérimentateurs aient échoué de nombreuses fois à observer des quarks de charge 1/3. Les quarks sont donc confinés en permanence dans les hadrons et il n’est pas plus possible d’isoler un quark que de séparer les pôles nord et sud d’un aimant. Le confinement nous apprend quelque chose de fondamental sur la force entre les quarks.
Charge de couleur
En 1971 à l’anneau de stockage ADONE, dans des collisions d’électrons avec des positrons, le taux de production des pions est trois fois plus élevé que prédit. Un nouveau nombre quantique est proposé, analogue à la charge électrique pour la force électromagnétique, mais dans ce cas ci relié à la force forte. La nouvelle charge doit avoir trois états, et Gell-Mann choisit la couleur pour les définir : rouge, bleu, vert. Chaque couleur de quark peut produire un pion, ce qui multiplie par un facteur trois la probabilité qu’un pion soit produit !
L’idée de la couleur est acceptée assez rapidement, puisqu’elle donne une réponse à plusieurs questions restées en suspens i.e. pourquoi les quarks ne se combinent qu’en mésons (quark et anti-quark) et baryons (trois quarks) ? En fait, ils se combinent en objets incolores, de manière à annuler la charge de couleur: soit couleur-anti-couleur, soit les trois couleurs en un même objet. La force forte entre les quarks est donc liée à la propriété de couleur, d’où l’appellation de la théorie de la Chromo Dynamique Quantique.
Révolution de Novembre 1974
12
Une véritable révolution se trame au collisionneur électron-positron SPEAR (Stanford Positron Electron Asymmetric Ring). Burton Richter joue un rôle important dans la construction de la machine entre 1970 et 1973. Les résultats obtenus à des énergies de centre de masse entre 2.5 et 4 GeV sont intrigants.
Les 9 et 10 novembre, le groupe décide de répéter des mesures pour explorer une anomalie vers 3.1 GeV (2 X 1.55 GeV). L’énergie de SPEAR peut être ajustée très précisément, et un balayage par pas de 0.001 GeV est effectué. Ce qui est observé est impressionnant. Le nombre de collisions augmente d’un facteur 100 entre 3.100 GeV et 3.105 GeV, puis chute très rapidement à 3.120 GeV. On se rend vite compte que plusieurs expériences par le passé ont raté de peu ce pic de masse lourd mais étroit, qui correspondrait à une nouvelle particule.
En mécanique quantique, un pic étroit correspond à une particule dont le temps de vie est long, alors qu’une particule massive possède en général un temps de vie court. Mais la nouvelle particule découverte, qu’on surnomme psi ψ, est massive (trois fois la masse du proton), ce qui semble incompatible avec le fait qu’elle possède un pic étroit. La seule explication plausible est que cette nouvelle particule soit constituée de nouvelle matière, attribuée à un nouveau type de quark, élégamment surnommé le quark charmé.
Une partie de l’excitation vient du fait que la découverte a lieu simultanément et indépendamment à deux endroits : à SLAC (côte ouest des États Unis) par l’équipe de Burt Richter, et à BNL (côte est des États Unis) par Sam Ting et son équipe qui étudient les paires électron-positron sortantes dans les collisions protons sur noyaux. Finalement on surnomme la particule J/ψ (J dans certains dialectes chinois se prononce ting ; les traces laissées dans le détecteur à SLAC ont la forme d’un ψ).
En fait, le quark charmé est prédit par J.D.Bjorken et Sheldon Glashow dès 1964, puis par Glashow, lliopoulos et Maiani en 1970. A ce moment là, un triplet de quarks est connu (u,d,s), mais l’expérience aux deux neutrinos a établi un schéma à quatre leptons: (e,νe) et (μ,νμ). La découverte du quark charmé établit le schéma correspondant pour les quarks : (u,d) et (c,s), et aussi la forme du Modèle Standard. Ainsi, les quarks et leptons viennent par paires : la première, et plus légère, génération constituée de (u,d) et (e,νe), puis la deuxième génération plus lourde
(c,s) et (μ,νμ). La troisième génération ne se fera pas attendre.
Le Modèle Standard à trois générationsOn observe les premiers candidats à la troisième génération peu de temps après. En 1976, à SPEAR, le cinquième lepton, le tau τ, est découvert. Puis en 1978 à Fermilab, dans un accélérateur à protons de 400 GeV, du même type que l’expérience de Ting, un cinquième quark est découvert. Trois pics rapprochés sont observés. C’est l’upsilon Υ à 10 GeV et ses états excités. Ce sont des états liés d’un quark et d’un anti- quark que l’on surnomme beauté. Le sixième quark, le top, n’est observé qu’en 1994, et le sixième lepton, le neutrino associé au τ, en 2000.
Ainsi, à la fin des années 1970, le Modèle Standard des particules à trois générations, avec ses paires de quarks et de leptons, est presque complètement dévoilé, puisque cinq (sur six) des quarks et des leptons ont été observés. Combien de générations y aura-t-il encore ? Il faut attendre les résultats du LEP (Large Electron Positron Collider) et du SLC (Stanford Linear Collider) dans les années 1990 pour avoir la réponse.
Gluons et la force forte
Feynman a vu juste en suggérant la notion de partons qui englobe les quarks et cet autre chose que sont les gluons. L’évidence directe pour les gluons vient en 1978, à l’anneau de stockage d’électrons et de positrons PETRA de 30 GeV, au laboratoire de DESY (Deutsches Elektron Synkrotron) à Hambourg.
Les interactions dues aux forces fondamentales ont lieu via des échanges de particules de spin entier qu’on surnomme les bosons. La particule d’échange de la force électromagnétique est le
13
photon (la lumière) et celle de la force forte est le gluon. Les gluons et les photons sont des bosons de spin 1 et ont une masse nulle. Les gluons diffèrent des photons par le fait qu’ils transportent la charge forte de couleur, alors que le photon a une charge électrique nulle. C’est ce qui explique que la force entre les quarks augmente au fur et à mesure qu’on les sépare : la densité de gluons, et donc de charges fortes, augmente, avec pour conséquence une augmentation de l’intensité de la force forte, ce qui provoque une augmentation de la densité de gluons ! Les gluons viennent en 8 saveurs qui diffèrent par la charge de couleur transportée : chaque gluon est caractérisé par une couleur et une anti-couleur.
L’unification électrofaible
De 1916 (fin de ses travaux sur la Relativité Générale) jusqu’à sa mort en 1955, Einstein fut obsédé par l’idée d’une théorie des champs unifiée, en vain. Il faut attendre la théorie électrofaible de Sheldon Glashow (1961), Abdus Salam (1968) et Steven Weinberg (1967), qui leur valut un prix Nobel en 1979, dans laquelle deux des quatre forces fondamentales sont unifiées : les interactions électromagnétique et nucléaire faible.
La force électromagnétique et la force nucléaire faible semblent à première vue assez dissemblables. La première a une portée infinie alors que la seconde a une portée si courte qu’elle n’agit pas en dehors du noyau atomique. Celle-ci interagit avec tous les fermions (quarks et les leptons) de spin 1⁄2. Elle peut convertir une saveur de quark en une autre, et peut donc transformer des neutrons en protons, ou vice versa. Elle est responsable des désintégrations nucléaires associées à la radioactivité (i.e. désintégration β).
Alors que les photons et les gluons (tous les deux des bosons de spin 1) sont les transmetteurs de la force électromagnétique et de la force nucléaire forte respectivement, qui sont au juste les transmetteurs de la force nucléaire faible ? La réponse vient en 1967 quand Weinberg et Salam reprennent un concept développé plus tôt par Glashow et l’appliquent aux interactions faible et électromagnétique. Les deux forces sont une seule et même interaction, qui diffèrent par le fait que le boson transmetteur de la force électromagnétique (le photon) a une masse nulle alors que celui de la force faible est massif.
La théorie d’unification électrofaible prédit l’existence de bosons transmetteurs chargés et neutre, les W± et le Z0 respectivement, ayant des masses de l’ordre de 100 fois la masse du
proton. Le photon (γ) est le transmetteur neutre associé à l’interaction électromagnétique. Quand une interaction implique un changement de charge, on dit qu’il y a un courant chargé, et quand la charge est conservée, un courant neutre. Les courants associés au boson neutre massif (Z0) tout comme les bosons W± n’ont encore jamais été observés.
Gargamelle et la découverte des courants neutres
En 1972 au CERN, un événement historique est capturé par Gargamelle, une grande chambre à bulles remplie de fréon. Elle détecte le processus suivant : νμ e- → νμ e-, qui ne peut avoir lieu que par l’intermédiaire d’un Z0 (les neutrinos n’interagissent que par la force faible) et est donc la première preuve de l’existence des courants neutres faibles.
Gargamelle est initialement conçue pour la détection des neutrinos. Une chambre à bulles contient un liquide sous pression qui révèle les traces de particules chargées comme des traînées de petites bulles quand la pression est réduite. Les neutrinos n’ont pas de charge et ne laissent pas de traces, mais le but est de les voir en rendant visible toute particule chargée mise en mouvement par l’interaction de neutrinos dans le liquide. Comme les neutrinos interagissent très rarement, la chambre doit être la plus grande possible et fonctionner avec un liquide très dense i.e. le fréon, dans lequel les neutrinos ont le plus de chance d’interagir. Gargamelle mesure
finalement 4.8m de long et 1.85m de large, constitue un volume de 12 m3, et contient 18 tonnes de fréon. Le faisceau de neutrinos provient du PS (Proton Synchrotron) du CERN.
14
Le SPS (Super Proton Synchrotron) du CERN et la découverte du W
À la fin des années 1970, le CERN lance le projet de convertir un synchrotron de 400 GeV en un anneau de stockage pouvant accélérer, stocker et faire entrer en collision des faisceaux de protons et d’anti-protons. Ce projet est motivé par Carlo Rubbia, impressionné par les ISR (Intersecting Storage Rings au CERN ; construit en 1971 ; 31 GeV par faisceau) où des protons entrent en collision avec des protons. Il est aussi stimulé par l’idée de découvrir le boson W prédit par la théorie électrofaible. Un accélérateur suffisamment puissant doit être construit. Un faisceau de protons de 400 GeV sur cible fixe ne suffit pas pour produire le W dont la masse est prédite aux environs de 100 GeV.
Les problèmes techniques sont formidables. Il faut produire des anti-protons (considérés il y a peu comme des particules exotiques !) en nombre sans précédent, les injecter dans le complexe accélérateur, les accélérer soigneusement, et tout cela en même temps que les protons. Les faisceaux ont finalement 260 GeV d’énergie, ce qui est suffisant pour produire une nouvelle particule massive de 100 GeV. Il ne faut que quatre années à Carlo Rubbia, Simon Van der Meer et leur équipe pour construire le nouvel accélérateur !
En 1983, les premiers W± et Z0 sont observés ! Les expériences UA1 et UA2 (Underground Area 1 et 2) mesurent la masse des bosons, respectivement 83 GeV et 92 GeV, en accord avec les prédictions de la théorie électrofaible. Une année plus tard, Rubbia et Van der Meer se partagent le prix Nobel.
Récapitulatif
figure 7
Au fil des découvertes effectuées aux accélérateurs de particules, le Modèle Standard se met en place. Les particules élémentaires qui le composent sont résumées dans les tableaux ci-dessus (figure 7), tout comme les quantités (masse, charge électrique) qui les définissent. Le Modèle n’est toutefois pas encore complet. Il manque même quelque chose de fondamental, qui concerne l’origine de la masse.
15
Le boson de Higgs et l’origine de la masse
Quel mécanisme, dans la théorie électrofaible, génère la masse des bosons W± et Z0 ? Pourquoi le photon n’acquiert pas de masse ? Les masses des fermions sont-elles reliées à ce mécanisme ? Pourquoi les masses des quarks sont elles si différentes les unes des autres ? Pour tenter de répondre à ces questions, on doit introduire la notion de symétrie, et de sa brisure, dans la théorie électrofaible.
Les symétries
Les régularités dans le comportement des particules sont appelées symétries et elles sont étroitement reliées aux lois de conservation. Par exemple, la loi de conservation de la charge électrique a été vérifiée dans plusieurs expériences depuis fort longtemps. La symétrie associée, appliquée

 
 
 
 

Darwin revisité par la sélection artificielle

 

Darwin revisité par la sélection artificielle
Dario Floreano dans mensuel 350
daté février 2002 -

Un robot peut-il évoluer de manière autonome ? Tel est le champ d'étude de la robotique évolutionniste, qui s'attache à mettre au point des robots capables de s'adapter à leur environnement. Aujourd'hui, les performances de certains types de réseaux de neurones artificiels résultent effectivement d'un processus de sélection darwinien.

En dépit des progrès immenses que la robotique a connus au XXe siècle grâce aux développements de l'électronique, de l'informatique et des capteurs artificiels, la plupart des robots actuellement en fonction dans les usines ne diffèrent pas beaucoup des anciens automates. Ils sont toujours programmés pour accomplir exactement des séries d'actions prédéfinies. Peut-on dire de ces machines qu'elles sont intelligentes ? Pas vraiment : elles se bornent à traduire l'intelligence des ingénieurs qui les ont conçues et programmées. Dans son passionnant petit ouvrage intitulé Véhicules. Expériences de psychologie de synthèse , le neurophysiologiste Valentino Braitenberg envisageait a contrario , dès 1984, la possibilité d'aboutir à des robots « intelligents » par l'intermédiaire d'un processus évolutionniste voir l'encadré : « A l'origine de la robotique révolutionnaire ». Il voulait ainsi appliquer à la robotique l'idée de Darwin selon laquelle l'évolution de la vie biologique sur Terre résulte d'un processus de copie sélective avec erreurs aléatoires, sans participation d'un créateur conscient. C'est ce concept de robotique évolutionniste que certains chercheurs ingénieurs, biologistes et spécialistes des sciences cognitives tentent depuis quelques années de développer, en essayant de mettre au point des formes de vie robotique capables de s'adapter de manière autonome à leur environnement.
Au printemps 1994, deux équipes de chercheurs -la nôtre à l'Ecole polytechnique fédérale de Lausanne EPFL et celle dirigée par Inman Harvey à l'université du Sussex, à Brighton1 - ont réalisé les premiers robots ayant développé, par simulation mais sans intervention humaine, divers types de circuits neuronaux leur permettant de se déplacer de manière autonome dans des environnements réels. A la base de ces réalisations, deux postulats communs. Premièrement, la conception planifiée d'un robot ne permet pas de faire face à la complexité des interactions entre le robot et son environnement physique, ni d'élaborer les circuits neuronaux nécessaires à ces interactions. Au lieu de tenter de formaliser ces interactions pour ensuite structurer le cerveau du robot, pourquoi ne pas les laisser, sous la pression de certains critères de sélection, guider elles-mêmes l'évolution de ce dernier ? Deuxièmement, le processus évolutionniste appliqué aux robots est susceptible d'aboutir à des circuits neuronaux beaucoup plus simples que ceux en général dessinés par les ingénieurs appliquant des méthodes d'analyse formelle. La nature n'est-elle pas riche en exemples de circuits nerveux simples et pourtant responsables de comportements apparemment très complexes ?

Réseaux de neurones. Pour expérimenter l'évolution sans intervention humaine, notre équipe de l'EPFL a créé un robot mobile miniature baptisé Khepera à présent distribué par la société K-Team SA. Doté d'un corps circulaire de 6 centimètres de diamètre pour un poids de 70 grammes, il est équipé de deux roues et de huit capteurs lumineux simples répartis autour de son corps six à l'avant et deux à l'arrière fig. 1. Khepera est relié à un ordinateur par l'intermédiaire d'un câble suspendu au plafond et de contacteurs rotatifs spécialement conçus pour assurer sans rupture son alimentation électrique. L'enregistrement permanent de tous les mouvements du robot et de la structure de ses circuits neuronaux au cours de l'évolution permet d'analyser a posteriori le processus évolutionniste.

Par circuits neuronaux, il faut bien sûr comprendre « réseaux de neurones artificiels ». Ces derniers sont soit matérialisés sous forme de composants électroniques, soit, comme c'est le cas ici, simulés par informatique. Comme dans le monde du vivant, ces circuits sont composés d'un certain nombre de neurones interconnectés de façons diverses. Ce sont du reste ce nombre et la nature des interconnexions qui définissent la structure d'un circuit neuronal. L'analogie ne s'arrête pas là, puisque chaque neurone reçoit des signaux des neurones voisins via la propagation unidirectionnelle des signaux en question dans ses dendrites, et envoie ensuite son propre signal à d'autres neurones, via son unique axone.
Certains neurones sont activateurs - ils émettent un signal positif - tandis que d'autres sont inhibiteurs - ils émettent un signal négatif. Quelle que soit sa nature, ce signal de sortie est construit par comparaison entre la somme de signaux reçus par un neurone, et la valeur seuil qui a été attribuée à ce dernier pour qu'il réponde. Enfin, un « poids » est attribué à chaque point de connexion synapse entre un axone et une dendrite, poids qui selon les cas amplifie ou diminue le signal transitant à cet endroit. Le nombre et le type de neurones valeur seuil, nature du signal engendré, le profil des connexions et le poids attribué à chaque synapse sont codés informatiquement dans ce que l'on appelle le chromosome du robot - seconde analogie avec le monde du vivant. Ce chromosome est une chaîne de bits se succédant en séquences dénommées « gènes », dont chacune représente une propriété du circuit de neurones. Le premier gène, composé, par exemple, de 8 bits, code la présence et la connectivité d'un neurone donné dans le circuit. Le second gène, composé, par exemple, de 20 bits, code le poids attribué à chacune des connexions synaptiques au niveau des dendrites de ce même neurone. C'est l'ordinateur lui-même qui produit, de façon aléatoire, une première population de ces chromosomes artificiels. Chacun d'eux sert ensuite à programmer le réseau de neurones qui est relié, en entrée, aux capteurs sensoriels du robot, et en sortie, à ses roues, de façon à en gérer la vitesse de rotation. Chaque configuration est ensuite testée sur le robot pendant quelques minutes, au cours desquelles l'ordinateur évalue ses performances.
Sélection et reproduction. Dans une première expérience2, nous avons voulu développer la capacité du robot à avancer en ligne droite et à éviter les obstacles. Nous avons donc demandé à l'ordinateur de sélectionner, pour reproduction, les individus dont les roues tournaient à peu près dans la même direction mouvement en ligne droite et dont les capteurs étaient peu activés ce qui reflète l'éloignement du robot par rapport aux obstacles. Ces paramètres sont du reste les seules données injectées par la main humaine : tout le processus ultérieur est autogéré par un algorithme. Après avoir testé le chromosome de chaque individu de la population initiale sur un robot physique, les chromosomes les plus performants sont sélectionnés, puis reproduits de façon à obtenir une population de même taille que la population initiale. Ces copies sont alors, au hasard, agencées par paires : le chromosome de l'individu 8 est par exemple apparié au chromosome de l'individu 67. Un point est aléatoirement fixé le long de ces deux chromosomes, autour duquel ont lieu des échanges de séquence, sorte d'équivalent des mutations par recombinaison du monde vivant. De plus, la valeur des bits de chaque chromosome est basculée de 0 à 1 ou inversement suivant une probabilité très faible, créant ainsi des mutations ponctuelles. On obtient alors une nouvelle génération de chromosomes, à son tour testée et reproduite plusieurs fois fig. 2.

Premiers cas d'adaptation. Au bout de 50 générations ce qui correspondait à environ deux jours d'activité en continu, nous avons observé un robot capable de faire le tour complet du labyrinthe-test sans jamais heurter un obstacle. Le circuit obtenu par ce processus d'évolution s'est révélé être relativement simple, mais malgré tout plus complexe que les circuits conçus à la main pour accomplir des tâches similai-res : il mettait en effet à profit des connexions non linéaires entre les neurones moteurs pour empêcher le robot de se retrouver bloqué dans les coins. De plus, ce Khepera parfaitement circulaire comme tous ses confrères se déplaçait toujours dans la direction correspondant au plus grand nombre de capteurs. Pourtant, les premières générations étaient capables de se déplacer dans les deux sens. Mais les individus roulant avec la majeure partie des capteurs à l'arrière ont eu tendance à rester bloqués dans des coins parce qu'ils ne les percevaient pas bien : ils ont donc disparu de la population. Ce résultat a représenté un premier cas d'adaptation d'un réseau de neurones artificiels à la morphologie d'un robot dans un environnement donné.
Etait-il possible, par la voie de l'évolution, de développer des aptitudes cognitives plus complexes en exposant simplement les robots à des environnements plus stimulants ? Pour tenter de répondre à cette question, nous avons mis Khepera dans une enceinte où un chargeur de batterie est placé dans un coin, sous une source lumineuse2 ; nous l'avons ensuite laissé évoluer jusqu'à déchargement de ses batteries. Pour accélérer l'obtention des résultats du processus évolutif, nous avons procédé par simulation tant des batteries et de leur durée de charge seulement 20 secondes, que du chargeur, figuré quant à lui par une zone peinte en noir. Lorsque le robot y passait, ses batteries se rechargeaient automatiquement. Le critère d'adaptation était le même que dans l'expérience de navigation en ligne droite : rester en mouvement le plus possible tout en évitant les obstacles. Les robots qui parvenaient à trouver le chargeur de batterie vivaient plus longtemps et accumulaient donc davantage de capacités adaptatives. Au départ, la « rencontre » avec le chargeur de batterie découlait du hasard. Mais au bout de 240 générations, soit une semaine d'activité en continu, nous avons trouvé un robot capable de rejoindre le poste de charge deux secondes seulement avant le déchargement complet de ses batteries, puis de retourner immédiatement vers la partie centrale de l'enceinte, éloignée des parois. En analysant l'activité du circuit neuronal de ce robot lors de ses déplacements, nous avons observé que l'un de ses neurones, et un seul, présentait une caractéristique très particulière : son activation dépendait de la position et de l'orientation du robot dans l'environnement. Il ne dépendait pas, en revanche, du niveau de charge de la batterie. Autrement dit, ce neurone codait une représentation spatiale de l'environnement ce que les psychologues appellent parfois une « carte cognitive », tout comme certains neurones découverts par les neurophysiologistes dans le cerveau des rats qui explorent leur milieu. Dans un cas comme dans l'autre, il est tout aussi difficile d'expliquer pourquoi une telle évolution a eu lieu...
Encouragés par ces expériences, nous avons décidé de rendre l'environnement encore plus complexe en faisant évoluer simultanément deux robots en compétition l'un avec l'autre. Le groupe du Sussex avait déjà commencé à étudier, en simulation, la coévolution de prédateurs et de proies afin de voir s'il apparaissait dans les deux espèces des comportements de plus en plus complexes. Il avait ainsi montré que cette coévolution de deux populations en compétition modifie massivement le processus d'évolution, mais n'avait pu observer de résultats vraiment marquants quant au stade évolutif final. De notre côté, nous avons choisi de travailler en grandeur nature sur des robots morphologiquement différents3 : le robot prédateur est doté d'un champ visuel de 36 degrés et le robot proie, s'il est seulement muni de capteurs simples capables de déceler un objet distant de 2 centimètres, peut se déplacer deux fois plus vite que le prédateur. Ces robots sont mis à « coévoluer » dans une enceinte carrée, chaque paire proie-prédateur se déplaçant librement pendant deux minutes ou moins si le prédateur parvient à atteindre son but, le critère de sélection étant le délai précédant la collision fig. 1. Les résultats sont très surprenants. Au bout de 20 générations, le prédateur a acquis la capacité de rechercher la proie et de la poursuivre pendant que celle-ci s'échappe en se déplaçant dans toute l'enceinte. Cependant, comme la proie est plus rapide que lui, cette stratégie n'est pas toujours payante. Après 25 générations supplémentaires, il repère la proie à distance, puis finit par l'attaquer en anticipant sur sa trajectoire. Dès lors, la proie se met à se déplacer si vite le long des parois que le prédateur la manque souvent et va s'écraser sur une paroi. Encore 25 générations plus tard, le prédateur a mis au point la « stratégie de l'araignée ». Il se déplace lentement jusqu'à une paroi et attend la proie, qui bouge trop vite pour déceler à temps le prédateur et donc pour l'éviter !
Cependant, lorsque nous avons laissé coévoluer les deux espèces de robots encore plus longtemps, nous avons constaté qu'elles redécouvraient de vieilles stratégies qui se révélaient efficaces contre celles utilisées au même moment par l'opposant. Ce constat n'est pas surprenant : étant donné la simplicité de l'environnement, le nombre des stratégies possibles pour les deux espèces de robots est en effet limité. Même dans la nature, on observe que des hôtes et des parasites évoluant ensemble par ex-emple, des plantes et des insectes recyclent au fil des générations de vieilles stratégies. Stefano Nolfi, qui a travaillé avec nous sur ces expériences, a remarqué qu'en rendant l'environnement plus complexe par exemple, en ajoutant des objets dans l'enceinte, la diversité des stratégies mises au point par les robots était beaucoup plus grande et qu'il fallait plus longtemps avant que les deux espèces en reviennent à des stratégies anciennes. Des équipes de plus en plus nombreuses travaillent aujourd'hui sur les systèmes de coévolution, et je pense que c'est une voie très prometteuse d'une part pour développer l'intelligence du comportement chez les robots et d'autre part pour comprendre comment les espèces biologiques ont évolué jusqu'à leur stade actuel ou ont disparu au cours de l'histoire de la Terre.

Autres supports d'évolution. Dans les expériences décrites jusqu'ici, le processus d'évolution s'exerçait sur les caractéristiques du logiciel de commande du robot. Mais de fait, on peut envisager d'appliquer aux circuits électroniques eux-mêmes le processus évolutionniste permettant d'obtenir des comportements intéressants. Malheureusement, les électroniciens ont plutôt tendance à éviter les circuits trop complexes, fortement non linéaires et au comportement difficilement prévisible, alors que c'est justement de ce type de circuits dont une machine capable de comportements autonomes aurait sans doute besoin !
A l'université du Sussex, Adrian Thompson a développé des systèmes affranchis des contraintes usuelles de structure4. Il a utilisé un nouveau type de circuit électronique, le FPGA Field Programmable Gate Array, dont l'architecture des connexions internes peut être entièrement modifiée en quelques nanosecondes, en jouant sur le voltage traversant le circuit. La configuration d'un FPGA étant une chaîne binaire de 0 et de 1, A. Thompson a considéré cette chaîne comme un chromosome et l'a fait évoluer pour diverses applications, telles la discrimination des sons et même la commande de robots. Les circuits obtenus grâce à ce processus d'évolution demandent cent fois moins de composants que les circuits électroniques classiques conçus pour des tâches similaires, et font intervenir de nouveaux types de connexions. De plus, ces circuits sont sensibles à certains paramètres environnementaux tels que la température. Cette caractéristique, défavorable en électronique classique, constitue par contre un atout dans une optique évolutionniste, puisque cette sensibilité est une caractéristique de tous les organismes vivants. Le domaine de l'électronique évolutionniste était né et plusieurs chercheurs à travers le monde utilisent aujourd'hui l'évolution artificielle pour découvrir de nouveaux types de circuits, ou laissent les circuits évoluer vers de nouvelles conditions de fonctionnement.

Nous avons, jusqu'à présent, essentiellement traité de l'évolution du « système nerveux » des robots. Or, dans la nature, la forme du corps et la configuration sensori-motrice sont, elles aussi, soumises à évolution. Est-il possible que la répartition des capteurs d'un robot s'adapte à un circuit neuronal fixe et relativement simple ? L'équipe de Rolf Pfeifer a créé, au laboratoire d'intelligence artificielle de Zurich, le robot Eyebot dont l'oeil peut changer de configuration5. Le système visuel d'Eyebot, analogue dans son principe à celui de la mouche, est composé de plusieurs photorécepteurs directionnels dont l'angle peut être modifié par des moteurs fig. 3. Une fois Eyebot implémenté avec un circuit neuronal fixe et simple, les auteurs ont observé l'évolution de la position relative de ses capteurs dans une situation où le critère de sélection était de se maintenir à une distance donnée d'un obstacle. Les résultats expérimentaux ont confirmé les prédictions théoriques : l'évolution a conduit à une distribution des photorécepteurs plus dense vers l'avant du robot que sur les côtés. Les enseignements de cette expérience sont très importants : d'une part, la forme du corps joue un rôle majeur dans le comportement d'un système autonome, et il faut lui permettre d'évoluer en même temps que d'autres caractéristique du système ; d'autre part, une morphologie adaptée à l'environnement et aux comportements du robot permet d'alléger la complexité des calculs.

L'idée de faire évoluer simultanément la morphologie et les circuits neuronaux d'un robot autonome avait, elle, déjà été explorée en 1994 par Karl Sims, par simulation. Il n'y a pas longtemps qu'elle a été concrétisée sous forme matérielle6. Jordan Pollack et son équipe de Brandeis University ont fait coévoluer la morphologie et le circuit de neurones moteurs de robots composés de tiges de longueur variable, dont le critère d'adaptation est d'avancer le plus loin possible. Les chromosomes de ces robots contiennent les paramètres de commande d'une « imprimante » en trois dimensions, laquelle fabrique des corps de robots à partir d'un matériau thermoplastique. Ces derniers sont alors équipés de moteurs, et on les laisse évoluer librement tout en mesurant leur taux d'adaptation. L'évolution artificielle a produit des formes extérieures souvent innovantes qui évoquent des morphologies biologiques comme celles de poissons fig. 3.
Conditions d'amélioration. Quels que soient les progrès décrits ci-dessus, ils ne valent pourtant que dans un environnement assez simple. Si ce dernier ou les aptitudes requises pour y évoluer sont trop complexes, de telle sorte que tous les individus de la première génération ont une adaptation nulle, l'évolution ne peut pas sélectionner les bons éléments et donc accomplir le moindre progrès. L'une des solutions possibles consisterait à travailler avec des environnements et des critères d'adaptation initialement simples, mais se complexifiant au fil du temps. Cette solution suppose toutefois de consacrer davantage d'efforts à la mise au point de méthodes incrémentales d'évolution par étapes, méthodes qui seraient, dans une certaine mesure, capables de préserver les premières solutions découvertes et de bâtir à partir d'elles. Cela implique que nous sachions déterminer les paramètres initiaux convenables et le codage génétique à partir duquel l'évolution artificielle pourra produire des structures plus complexes. Un autre défi est, on l'a entrevu, celui de la fabrication matérielle. Malgré les résultats encourageants obtenus dans le domaine de l'évolution des circuits électroniques, nous sommes nombreux à considérer qu'il faut repenser radicalement le type de composants sur lesquels faire agir l'évolution artificielle. Dans cette optique, un renforcement des efforts de développement de circuits auto-assembleurs, qui imposent moins de contraintes au système en évolution, pourrait accélérer les progrès de la robotique évolutionniste.

 I. Harvey et al., Robotics and Autonomous Systems, 20 2-4, 205, 1997.
2 F. Mondada et D. Floreano, Robotics and Autonomous Systems, 16, 183, 1995.
3 S. Nolfi, S. et D. Floreano, Artificial Life, 4 4, 311, 1998.
4 A. Thompson, « Hardware evolution : automatic design of electronic circuits in reconfigurable hardware by artificial evolution », Distinguished Dissertations Series, ISBN 3-540-76253-1, Springer-Verlag, 1998.
5 L. Lichtensteiger et P. Eggenberger, « Evolving the morphology of a compound eye on a robot », Proceedings of the Third European Workshop on Advanced Mobile Robots Eurobot '99, Cat. No.99EX355. IEEE, Piscataway, NJ, USA, p.127-134, 1999.
6 H. Lipson et J. B. Pollack, Nature, 406, 974, 2000.NOTES
Ce texte a été traduit par Philippe Brenier.
Les expériences menées à l'EPFL ont été rendues possibles grâce à la collaboration de Francesco Mondada, Stefano Nolfi, Joseba Urzelai, Jean-Daniel Nicoud et André Guignard. L'auteur exprime sa reconnaissance à la Fondation nationale suisse pour la science pour le soutien permanent qu'elle a apporté au projet.

A L'ORIGINE DE LA ROBOTIQUE ÉVOLUTIONNISTE
En 1984, Valentino Braitenberg imagine une expérience qui, à l'époque, reste fictive. Plusieurs robots simples, montés sur roues et équipés de différents capteurs connectés par des fils électriques et autres circuits électroniques aux moteurs commandant les roues, sont posés sur une table. Ils vont bien sûr avoir des comportements divers aller tout droit, s'approcher de sources de lumière, s'arrêter un moment, puis s'éloigner rapidement, etc.. La tâche de l'ingénieur consistera à prélever de temps à autre l'un des robots, à le recopier et à poser la copie sur la table ; il devra aussi remplacer par l'une de ces copies les robots tombés par terre, pour que le nombre de robots en présence demeure constant. Or, lors de la construction de la copie, il se produira inévitablement de petites erreurs, comme l'inversion de la polarité d'une connexion électrique ou la pose d'une résistance différente. Certaines de ces erreurs induiront des comportements nouveaux grâce auxquels un robot restera plus longtemps sur la table. Selon le principe de « sélection naturelle », les copies modifiées qui parviendront à rester longtemps sur la table auront un grand nombre de descendants, alors que celles qui tomberont disparaîtront pour toujours de la population.
SAVOIR
:
-S. Nolfi et D. Floreano, Evolutionary Robotics. The Biology, Intelligence and Technology of Self-Organizing Machines, MIT Press, 2000.
-V. Braitenberg, Vehicles. Experiments in Synthetic Psychology, MIT Press, 1984.
-R. Pfeifer et C. Scheier, Understanding Intelligence, MIT Press, 1999.

 

   DOCUMENT   larecherche.fr    LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 ] Précédente - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales /confidentialité

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon