|
|
|
|
|
|
INTELLIGENCE ARTIFICIELLE |
|
|
|
|
|
L'intelligence artificielle progresse à StarCraft
Dès 1997, l'ordinateur Deep Blue battait le champion d'échecs Garry Kasparov. Mais il reste encore du chemin avant que l'intelligence artificielle puisse rivaliser avec un être humain dans un jeu de stratégie en temps réel (RTS) comme StarCraft. Ces dernières années, un tournoi s'est mis en place pour donner aux scientifiques l'occasion d'évaluer les progrès dans le domaine et de comparer leurs IA respectives. Lors de la dernière rencontre en date, la médaille de bronze a été attribuée à AIUR 2.1, une création de Florian Richoux, chercheur de l'équipe projet Tasc au Lina, à Nantes.
Le Secteur Kropulu ? Un recoin sombre de la Voie Lactée où Protoss, Terrans et Zergs se livrent une guerre aux proportions cosmiques. Apparu en 1998, StarCraft incarne le jeu de stratégie en temps réel par excellence. Avec onze millions d'exemplaires vendus sur la planète Terre, il reste à ce jour indétrôné.
“Le jeu propose trois races très différentes et conserve un excellent équilibre entre elles, explique Florian Richoux. Aucune n'a le dessus sur les autres. De plus, il existe des professionnels, des tournois télévisés, quantités d'informations et beaucoup de matchs à analyser. On peut ainsi toucher une grande communauté de joueurs, de sponsors et de spectateurs. Rien de tel pour promouvoir la recherche en Intelligence Artificielle. ”
De fil en aiguille, StarCraft est devenu l'étalon à l'aune duquel se mesurent les avancées scientifiques dans le domaine. Chaque année, en Amérique du Nord, un tournoi machine contre machine se déroule durant la conférence AIIDE (Artificial Intelligence and Interactive Digital Entertainment). “Je m'y suis intéressé à partir de 2010, se souvient Florian Richoux. Cette année-là, Overmind, l'IA de l'Université de Berkeley, avait remporté le tournoi. Au vu des matchs, elle semblait complètement scriptée. Elle appliquait systématiquement la même stratégie —certes efficace— quelque soit l'adversaire. Je me suis dit que je pouvais faire mieux. Et c'est comme ça que je me suis lancé. ”
Une dose d'aléatoire
Le chercheur a donc développé AIUR (Artificial Intelligence Using Randomness). Cette AI a remporté la médaille de bronze au tournoi organisé durant AIIDE 2013. “L'idée de base c'est de laisser certains choix stochastiques afin de la rendre plus difficilement prédictible. Surtout ne pas toujours appliquer la même stratégie. Toutes les IA, y compris la mienne, demeurent bien trop scriptées. Cependant, AIUR comporte une touche d'aléatoire à deux niveaux. Premièrement, et c'est le plus important, elle dispose de 5 stratégies très différentes. ” On les appelle aussi des "humeurs". Durant les premiers matches contre un joueur, l'IA les essaye chacune tour à tour et observe laquelle marche le mieux. “De cette phase initiale d'apprentissage, AIUR déduit une distribution de probabilité de sélection de stratégies contre cet adversaire. Elle favorise les stratégies gagnantes sans s'interdire des stratégies moins efficaces mais qui peuvent porter leurs fruits de temps en temps. Deuxièmement, certaines actions sont pondérées par de l’aléatoire : timing de la première attaque, nombre d'unités affectées à la prochaine offensive... ”
Comme dans la réalité, le fameux brouillard de guerre théorisé par Clausevitz s'invite sur le champ de bataille. “Et c'est là que réside tout l'intérêt. Ce brouillard recouvre toute la carte. Il ne se dissipe qu'à proximité de vos unités. Au-delà, vous ignorez ce que trame l'adversaire. Que ce soient des humains ou des machines, les joueurs doivent deviner et anticiper les coups adverses à partir des quelques bribes d'informations qu'ils ont pu collecter. ”
L'humain meilleur décideur
Quand il s'agit de spéculer à partir d'une information aussi fragmentaire, l'être humain reste inégalé. “On ne connaît pas encore de bons algorithmes pour prendre des décisions efficaces dans les jeux de stratégie en temps réel. Toutes les techniques appliquées jusque là pour les échecs ou le go... échouent. ” Et aucune solution n'est à espérer du côté de la puissance de calcul. “Pour StarCraft, une estimation optimiste du nombre d'états de jeu possibles et valides par minute avoisine 2.10690. Mener des simulations classiques de Monte Carlo est pratiquement sans espoir. Même sur les meilleurs super-calculateurs. Aussi puissante soit-elle, aucune machine ne peut explorer efficacement le gigantesque espace de recherche des choix menant à autant d'états du jeu. Il faut en quelque sorte lire entre les lignes. Or, l'ordinateur n'est pas très doué pour cela. ”
D'où le besoin de nouvelles techniques aptes à contourner cet obstacle. Actuellement, à StarCraft, les meilleurs IA perdent face à de bons débutants. "Mais au jeu de go, nous commençons à avoir des IA qui battent des joueurs professionnels partant avec seulement 4 pierres de handicap. Je suis certain que d'ici 2 ou 3 ans, même sans handicap, les pros devront s'incliner. ”
Cela dit, l'intelligence artificielle en RTS demeure un domaine de recherche relativement nouveau. “Tout reste à construire. Ce qui est passionnant. ” La discipline va-t-elle contribuer à lever des verrous scientifiques ? “J'en suis convaincu, répond Florian Richoux. Devant un problème qu'on ne sait pas résoudre, la démarche scientifique habituelle consiste à simplifier ce problème. Je vois StarCraft comme une simplification du monde réel qui, à l'instar du jeu, est lui aussi un environnement dynamique à information incomplète. Des algorithmes efficaces de prise de décisions pour StarCraft devraient pouvoir s'appliquer avec succès à des problématiques plus ambitieuses comme la robotique, la gestion automatique du trafic aérien, la finance... ”
DOCUMENT inria.fr LIEN |
|
|
|
|
|
|
MÉCANISME DE REPLIEMENT DES MOLÉCULES |
|
|
|
|
|
Textede la 595ème conférencede l'Universitéde tous les savoirs prononcée le 17 juillet 2005
ParDidier Chatenay: « Le mécanisme de repliement des molécules »
Le thème de cette conférence vous fera voyager aux confins de plusieurs sciences : physique, chimie et biologie bien évidemment puisque les macromolécules dont nous parlerons sont des objets biologiques : des protéines.
Le plan de cet exposé sera le suivant :
- Quelques rappels sur la structure de la matière (atomes, liaisons chimiques, molécules, macromolécules).
- Qu'est-ce qu'une protéine (la nature chimique de ces macromolécules, leur mode de synthèse, leurs structures et leurs fonctions biologiques) ?
- Le problème du repliement (d'où vient le problème, paradoxe de Levinthal).
- Résolution du paradoxe et interactions inter intra moléculaires (échelles des énergies mises en jeu).
Rappels sur la structure de la matière.
La matière est constituée d'atomes eux-mêmes étant constitués d'un noyau (composé de particules lourdes : protons, chargés positivement, et neutrons non chargé) entouré d'un nuage de particules légères : les électrons chargés négativement. La taille caractéristique d'un atome est de 1 Angström (1 Angström est la dix milliardième partie d'un mètre ; pour comparaison si je prends un objet de 1 millimètre au centre d'une pièce, une distance dix milliards de fois plus grande représente 10 fois la distance Brest-Strasbourg).
Dans les objets (les molécules biologiques) que nous discuterons par la suite quelques atomes sont particulièrement importants.
Par ordre de taille croissante on trouve tout d'abord l'atome d'hydrogène (le plus petit des atomes) qui est le constituant le plus abondant de l'univers (on le trouve par exemple dans le combustible des fusées). L'atome suivant est le carbone ; cet atome est très abondant dans l'univers (on le trouve dans le soleil, les étoiles, l'atmosphère de la plupart des planètes. Il s'agit d'un élément essentiel comme source d'énergie des organismes vivants sous forme de carbohydrates). On trouve ensuite l'azote, constituant essentiel de l'air que nous respirons. L'atome suivant est l'oxygène, également constituant essentiel de l'air que nous respirons, élément le plus abondant du soleil et essentiel au phénomène de combustion. Le dernier atome que nous rencontrerons est le souffre que l'on trouve dans de nombreux minéraux, météorites et très abondants dans les volcans.
Les atomes peuvent interagir entre eux pour former des objets plus complexes. Ces interactions sont de nature diverse et donnent naissance à divers types de liaisons entre les atomes. Nous trouverons ainsi :
- La liaison ionique qui résulte d'interactions électrostatiques entre atomes de charges opposées (c'est par exemple ce type de liaison, qu'on rencontre dans le chlorure de sodium, le sel de table). Il s'agit d'une liaison essentielle pour la plupart des minéraux sur terre, comme par exemple dans le cas des silicates, famille à laquelle appartient le quartz.
- Un autre type de liaison est la liaison covalente. Cette liaison résulte de la mise en commun entre 2 atomes d'un électron ou d'une paire d'électrons. Cette liaison est extrêmement solide. Ce type de liaison est à l'origine de toute la chimie et permet de former des molécules (l'eau, le glucose, les acides aminés). Ces acides aminés sont constitués de carbone, d'azote, d'hydrogène et d'oxygène. Dans ces molécules on retrouve un squelette qu'on retrouve dans tous les acides aminés constitué d'un groupement NH2 d'un côté et COOH de l'autre ; la partie variable est un groupement latéral appelé résidu. Un exemple d'acide aminé est constitué par la méthionine qui d'ailleurs contient dans son résidu un atome de soufre. La taille caractéristique des distances mises en jeu dans ce type de liaison n'est pas très différente de la taille des atomes eux-mêmes et est de l'ordre de l'angström (1.5 Angström pour la liaison C-C, 1 Angström pour une liaison C-H).
Ces liaisons ne sont pas figées et présentent une dynamique ; cette dynamique est associée aux degrés de libertés de ces liaisons tels que par exemple un degré de liberté de rotation autour de l'axe d'une liaison C-C. Ces liaisons chimiques ont donc une certaine flexibilité et aux mouvements possibles de ces liaisons sont associés des temps caractéristiques de l'ordre de la picoseconde (mille milliardième partie de seconde) ; il s'agit de temps très rapides associés aux mouvements moléculaires.
A ce stade nous avons 2 échelles caractéristiques importantes :
- 1 échelle de taille : l'angström
- 1 échelle de temps : la picoseconde.
C'est à partir de cette liaison covalente et de petites molécules que nous fabriquerons des macromolécules. Un motif moléculaire, le monomère, peut être associé par liaison covalente à un autre motif moléculaire ; en répétant cette opération on obtiendra une chaîne constituée de multiples monomères, cette chaîne est une macromolécule. Ce type d'objets est courant dans la vie quotidienne, ce sont les polymères tels que par exemple :
- le polychlorure de vinyle (matériau des disques d'antan)
- le polytétrafluoroéthylène (le téflon des poêles)
- le polyméthacrylate de méthyl (le plexiglas)
- les polyamides (les nylons)
Quelle est la forme d'un objet de ce type ? Elle résulte des mouvements associés aux degrés de libertés discutés plus haut ; une chaîne peut adopter un grand nombre de conformations résultant de ces degrés de liberté et aucune conformation n'est privilégiée. On parle d'une marche aléatoire ou pelote statistique.
Les protéines
Quelles sont ces macromolécules qui nous intéressent particulièrement ici ? Ce sont les protéines qui ne sont rien d'autre qu'une macromolécule (ou polymère) particulière car fabriquée à partir d'acides aminés. Rappelons que ces acides aminés présentent 2 groupes présents dans toute cette famille : un groupe amine (NH2) et un groupe carboxyle (COOH) ; les acides aminés diffèrent les uns des autres par la présence d'un groupe latéral (le résidu). A partir de ces acides aminés on peut former un polymère grâce à une réaction chimique donnant naissance à la liaison peptidique : le groupement carboxyle d'un premier acide aminé réagit sur le groupement amine d'un deuxième acide aminé pour former cette liaison peptidique. En répétant cette réaction il est possible de former une longue chaîne linéaire.
Comme nous l'avons dit les acides amines diffèrent par leurs groupes latéraux (les résidus) qui sont au nombre de 20. On verra par la suite que ces 20 résidus peuvent être regroupés en familles. Pour l'instant il suffit de considérer ces 20 résidus comme un alphabet qui peut donner naissance à une extraordinaire variété de chaînes linéaires. On peut considérer un exemple particulier : le lysozyme constitué d'un enchaînement spécifique de 129 acides aminés. Une telle chaîne comporte toujours 2 extrémités précises : une extrémité amine et une extrémité carboxyle, qui résultent de la réaction chimique qui a donné naissance à cet enchaînement d'acides aminés. Il y a donc une directionnalité associée à une telle chaîne. La succession des acides aminés constituant cette chaîne est appelée la structure primaire. La structure primaire d'une protéine n'est rien d'autre que la liste des acides aminés la constituant. Pour revenir au lysozyme il s'agit d'une protéine présente dans de nombreux organismes vivants en particulier chez l'homme où on trouve cette protéine dans les larmes, les sécrétions. C'est une protéine qui agit contre les bactéries en dégradant les parois bactériennes. Pour la petite histoire, Fleming qui a découvert les antibiotiques, qui sont des antibactériens, avait dans un premier temps découvert l'action antibactérienne du lysozyme ; mais il y a une grosse différence entre un antibiotique et le lysozyme. Cette molécule est une protéine qu'il est difficile de transformer en médicament du fait de sa fragilité alors que les antibiotiques sont de petites molécules beaucoup plus aptes à être utilisées comme médicament.
Pour en revenir au lysozyme, présent donc dans les organismes vivants, on peut se poser la question de savoir comment un tel objet peut être fabriqué par ces organismes. En fait, l'information à la fabrication d'un tel objet est contenue dans le génome des organismes sous la forme d'une séquence d'acide désoxyribonucléique (ADN) constituant le gène codant pour cette protéine. Pour fabriquer une protéine on commence par lire l'information contenue dans la séquence d'ADN pour fabriquer une molécule intermédiaire : l'ARN messager, lui-même traduit par la suite en une protéine. Il s'agit donc d'un processus en 2 étapes :
- Une étape de transcription, qui fait passer de l'ADN à l'ARN messager,
- Une étape de traduction, qui fait passer de l'ARN messager à la protéine.
Ces objets, ADN et ARN, sont, d'un point de vue chimique, très différents des protéines. Ce sont eux-mêmes des macromolécules mais dont les briques de base sont des nucléotides au lieu d'acides aminés.
Ces 2 étapes font intervenir des protéines ; l'ARN polymérase pour la transcription et le ribosome pour la traduction. En ce qui concerne la transcription l'ARN polymérase se fixe sur l'ADN, se déplace le long de celui-ci tout en synthétisant l'ARN messager. Une fois cet ARN messager fabriqué un autre système protéique, le ribosome, se fixe sur cet ARN messager, se déplace le long de cet ARN tout en fabriquant une chaîne polypeptidique qui formera la protéine. Il s'agit d'un ensemble de mécanismes complexes se produisant en permanence dans les organismes vivants pour produire les protéines.
Ces protéines sont produites pour assurer un certain nombre de fonctions. Parmi ces fonctions, certaines sont essentielles pour la duplication de l'ADN et permettre la reproduction (assure la transmission à la descendance du patrimoine génétique). Par ailleurs ce sont des protéines (polymérases, ribosomes) qui assurent la production de l'ensemble des protéines. Mais les protéines assurent bien d'autres fonctions telles que :
- Des fonctions de structure (la kératine dans les poils, les cheveux ; le collagène pour former des tissus),
- Des fonctions de moteurs moléculaires (telles que celles assurées par la myosine dans les muscles) ; de telles protéines sont des usines de conversion d'énergie chimique en énergie mécanique.
- Des fonctions enzymatiques. Les protéines de ce type sont des enzymes et elles interviennent dans toutes les réactions chimiques se déroulant dans un organisme et qui participent au métabolisme ; c'est par exemple le cas du mécanisme de digestion permettant de transformer des éléments ingérés pour les transformer en molécules utilisables par l'organisme.
Pour faire bref toutes les fonctions essentielles des organismes vivants (la respiration, la digestion, le déplacement) sont assurés par des protéines.
A ce stade nous avons donc introduit les objets essentiels de cet exposé que sont les protéines. Pour être complet signalons que la taille de ces protéines est très variable ; nous avons vu le lysozyme constitué d'une centaine d'acides aminés mais certaines protéines sont plus petites et certaines peuvent être beaucoup plus grosses.
Nous allons maintenant pouvoir aborder le problème de la structure et du repliement de ces objets.
La structured'une protéine
Tout d'abord quels sont les outils disponibles pour étudier la structure de ces objets. Un des outils essentiels est la diffraction des rayons X. L'utilisation de cet outil repose sur 2 étapes. La première (pas toujours la plus facile) consiste à obtenir des cristaux de protéines. Ces protéines, souvent solubles dans l'eau, doivent être mises dans des conditions qui vont leur permettre de s'arranger sous la forme d'un arrangement régulier : un cristal. C'est ce cristal qui sera utilisé pour analyser la structure des protéines qui le composent par diffraction des rayons X. A partir du diagramme de diffraction (composé de multiples tâches) il sera possible de remonter à la position des atomes qui constituent les protéines. Un des outils essentiels à l'heure actuelle pour ce type d'expérience est le rayonnement synchrotron (SOLEIL, ESRF).
Il existe d'autres outils telle que la résonance magnétique nucléaire qui présente l'avantage de ne pas nécessiter l'obtention de cristaux mais qui reste limitée à l'heure actuelle à des protéines de petite taille.
Finalement à quoi ressemble une protéine ? Dans le cas du lysozyme on obtient une image de cette protéine où tous les atomes sont positionnés dans l'espace de taille typique environ 50 Angströms. Il s'agit d'un cas idéal car souvent on n'obtient qu'une image de basse résolution de la protéine dans laquelle on n'arrive pas à localiser précisément tous les atomes qui la constituent. Très souvent cette mauvaise résolution est liée à la mauvaise qualité des cristaux. C'est l'exemple donné ici d'une polymérase à ARN. Néanmoins on peut obtenir des structures très précises même dans de le cas de gros objets.
Repliement,dénaturation et paradoxede Levinthal
Très clairement on voit sur ces structures que les protéines sont beaucoup plus compactes que les chaînes désordonnées mentionnées au début. Cette structure résulte du repliement vers un état compact replié sur lui-même et c'est cet état qui est l'état fonctionnel. C'est ce qui fait que le repliement est un mécanisme extrêmement important puisque c'est ce mécanisme qui fait passer de l'état de chaîne linéaire déplié à un état replié fonctionnel. L'importance de ce repliement peut être illustrée dans le cas d'un enzyme qui permet d'accélérer une réaction chimique entre 2 objets A et B ; ces 2 objets peuvent se lier à l'enzyme, ce qui permet de les approcher l'un de l'autre dans une disposition où une liaison chimique entre A et B peut être formée grâce à l'environnement créé par l'enzyme. Tout ceci ne peut se produire que si les sites de fixation de A et B sont correctement formés par le repliement de la longue chaîne peptidique. C'est la conformation tridimensionnelle de la chaîne linéaire qui produit ces sites de fixation.
Il y a une notion associée au repliement qui est la dénaturation. Nous venons de voir que le repliement est le mécanisme qui fait passer de la forme dépliée inactive à la forme repliée active ; la dénaturation consiste à passer de cette forme active repliée à la forme inactive dépliée sous l'influence de facteurs aussi variés que la température, le pH, la présence d'agents dénaturants tels que l'urée.
La grande question du repliement c'est la cinétique de ce phénomène. Pour la plupart des protéines où des expériences de repliement-dénaturation ont été effectuées le temps caractéristique de ces phénomènes est de l'ordre de la seconde. Comment donc une protéine peut trouver sa conformation active en un temps de l'ordre de la seconde ?
Une approche simple consiste à développer une approche simplifiée sur réseau ce qui permet de limiter le nombre de degrés de liberté à traiter ; on peut par exemple considérer une protéine (hypothétique) placée sur un réseau cubique. On peut considérer le cas d'une protéine à 27 acides aminés. On peut alors compter le nombre de conformations possibles de telles protéines ; à chaque acide aminé on compte le nombre de directions pour positionner le suivant. Sur un réseau cubique à chaque étape nous avons 6 possibilités ce qui fera pour une chaîne de 27 acides aminés 627 possibilités. Cela n'est vrai qu'à condition d'accepter de pouvoir occuper 2 fois le même site du réseau ce qui, bien sur, n'est pas vrai dans la réalité ; si on tient compte de cela on arrive en fait à diminuer quelque peu ce nombre qui sera en fait 4,727. Plus généralement pour une chaîne de N acides aminés on obtiendra 4,7N possibilités. Si on part d'une chaîne dépliée on peut alors se dire que pour trouver le « bon état replié » il suffit d'essayer toutes les conformations possibles. Cela va s'arrêter lorsqu'on aura trouvé une conformation stable, c'est-à-dire une conformation énergétiquement favorable. Pour passer d'une conformation à une autre il faut au moins un mouvement moléculaire élémentaire dont nous avons vu que l'échelle de temps caractéristique est la picoseconde (10-12 seconde). I faut donc un temps total (afin d'explorer toutes les conformations) :
Trepliement= 4,7N * Tmoléculaire.
Si on prend N=100, Tmoléculaire= 1picoseconde=10-12seconde, alors :
Trepliement= 1055 secondes !!!
C'est beaucoup car on cherche 1 seconde et on trouve quelque chose de beaucoup plus grand que l'âge de l'univers (de l'ordre de 1027 secondes). Avec cette approche il faut plus de temps à une protéine pour se replier et met plus de temps que l'âge de l'univers.
C'est le paradoxe de Levinthal.
Comment s'en sortir ?
Il faut revenir aux acides aminés et en particulier aux résidus qui permettent de différencier les 20 acides aminés. Ces 20 acides aminés peuvent se regrouper en famille selon la nature de ce résidu.
Une première famille est constituée par les acides aminés hydrophobes. Qu'est ce qu'un acide aminé hydrophobe ou l'effet hydrophobe ? Il s'agit de l'effet qui fait que l'eau et l'huile ne se mélangent pas. Si sur une chaîne on dispose des acides aminés hydrophobes alors ceux-ci vont faire « collapser » la chaîne afin de se regrouper et de se « protéger » de l'eau, tout comme l'eau et l'huile ont tendance à ne pas se mélanger. Ce mécanisme tend à créer ainsi une poche hydrophobe qui permet à ces acides aminés d'éviter l'eau. On commence ainsi à avoir une amorce de solution au paradoxe de Levinthal : la protéine ne va essayer que toutes les conformations, elle va commencer à utiliser dans un premier temps ce mécanisme qui à lui seul va éliminer un grand nombre de conformations possibles.
Mais il y a d'autres familles d'acides aminés et parmi celles-ci celle des acides aminés chargés (+ ou -) qui vont être soumis aux interactions électrostatiques classiques (les charges de même signe se repoussent, les charges de signe contraire s'attirent). Ainsi, si le long de la chaîne nous avons 2 acides aminés de signe opposé ils vont avoir tendance à s'attirer ; cet effet a là encore tendance à diminuer le nombre de conformations possibles pour la chaîne.
Dernière famille, un peu plus complexe mais au sein de laquelle les interactions sont de même nature que pour les acides aminés chargés, à savoir des interactions de type électrostatique. Cette famille est constituée par les acides aminés polaires qui ne portent pas de charge globale mais au sein desquels la distribution des électrons est telle qu'il apparaît une distribution non uniforme de charges ; cette asymétrie dans la répartition des charges va permettre par exemple de créer des liaisons hydrogènes entre molécules d'eau (interactions qui donnent à l'eau des propriétés particulières par rapport à la plupart des autres liquides).
Au total l'image initiale que nous avions des chaînes polypeptidiques doit être un peu repensée et l'on doit abandonner l'idée d'une marche au hasard permettant d'explorer toutes les conformations possibles puisque les briques de base de ces chaînes interagissent fortement les unes avec les autres. On peut ainsi récapituler l'ensemble des interactions au sein d'une chaîne (effet hydrophobe, liaison ionique, liaison hydrogène, sans oublier un mécanisme un peu particulier faisant intervenir des acides aminés soufrés qui peuvent former un pont disulfure ; il s'agit néanmoins d'une liaison un peu moins générale que les précédentes et qui par ailleurs est beaucoup plus solide).
La structure globale de nos protéines résulte de la présence de toutes ces interactions entre les acides aminés présents le long de la chaîne. Lorsque l'on regarde attentivement de telles structures on observe la présence d'éléments répétitifs assez réguliers : hélices, feuillets. Ces feuillets sont des structures locales au sein desquelles la chaîne est organisée dans un plan au sein duquel la chaîne s'organise. Ces éléments de régularité résultent des interactions entre acides aminés et pour la plupart il s'agit des fameuses liaisons hydrogènes entre atomes spécifiques. Bien évidemment certaines régions sont moins organisées et on retrouve localement des structures de type marche au hasard.
Si on récapitule ce que nous avons vu concernant la structure des protéines, nous avons introduit la notion de structure primaire qui n'est rien d'autre que l'enchaînement linéaire des acides aminés. Nous venons de voir qu'il existait des éléments de structure locale (hélices, feuillets) que nous appellerons structure secondaire. Et ces éléments associés aux uns aux autres forment la structure globale tridimensionnelle de la protéine que nous appellerons structure tertiaire.
Il faut noter que cette structure des protéines résulte d'interactions entre acides aminés et il est intéressant de connaître les ordres de grandeur des énergies d'interactions mises en jeu. Ces énergies sont en fait faibles et sont de l'ordre de grandeur de l'énergie thermique (kBT). C'est le même ordre de grandeur que les énergies d'interaction entre molécules au sein d'un liquide comme l'eau ; on peut s'attendre donc à ce que de tels objets ne soient pas rigides ou totalement fixes. Ces mouvements demeurent faibles car il y a une forme de coopérativité (au sens ou plusieurs acides aminés coopèrent pour assurer une stabilité des structures observées) qui permet néanmoins d'observer une vraie structure tridimensionnelle. Ainsi, au sein d'un feuillet ou d'une hélice, plusieurs liaisons sont mises en jeu et à partir de plusieurs éléments interagissant faiblement, on peut obtenir une structure relativement stable de type feuillet ou hélice ; il suffit néanmoins de peu de chose pour détruire ces structures, par exemple chauffer un peu.
Si on revient au mécanisme de repliement on doit abandonner notre idée initiale de recherche au hasard de la bonne conformation. Si on part d'un état initial déplié, un premier phénomène a lieu (essentiellement lié à l'effet hydrophobe, qui vise à regrouper les acides aminés hydrophobes) qui fait rapidement collapser la chaîne sur elle-même. D'autres phénomènes vont alors se mettre en route comme la nucléation locale de structures secondaires de type hélices ou feuillets qui vont s'étendre rapidement le long de la chaîne. Le processus de Levinthal est donc complètement faux et l'image correcte est beaucoup plus celle donnée ici de collapse essentiellement lié à l'effet hydrophobe et de nucléation locale de structures secondaires.
Les protéines n'essaient donc pas d'explorer l'ensemble des conformations possibles pour trouver la bonne solution mais plutôt utiliser les interactions entre acides aminés pour piloter le mécanisme de repliement.
En fait la composition chimique de la chaîne contient une forme de programme qui lui permet de se replier correctement et rapidement.
Au sein des organismes vivants il y a donc plusieurs programmes ; un programme au sein du génome qui permet la synthèse chimique des protéines et un programme de dynamique intramoléculaire interne à la chaîne protéique qui lui permet d'adopter rapidement la bonne conformation lui permettant d'assurer sa fonction.
Il faut noter qu'il existe d'autres façons de s'assurer que les protéines se replient correctement qui font intervenir d'autres protéines (les chaperons).
Notons enfin les tentatives effectuées à l'heure actuelle de modélisation réaliste sur ordinateurs.
VIDEO CANAL U LIEN
( si la vidéo n'est pas visible,inscrivez le titre dans le moteur de recherche de CANAL U ) |
|
|
|
|
|
|
ROBOT VOLANT ... |
|
|
|
|
|
Paris, 26 février 2015
Le tout premier robot à voler au gré du relief sans accéléromètre grâce à son oeil bio-inspiré
Des chercheurs en biorobotique de l'Institut des sciences du mouvement - Etienne-Jules Marey (CNRS/Aix-Marseille Université) ont mis au point le premier robot aérien capable de suivre un terrain accidenté sans accéléromètre. Baptisé BeeRotor, il règle sa vitesse et sait éviter les obstacles grâce à des capteurs de flux optique inspirés de la vision des insectes. Il peut ainsi se déplacer dans un tunnel aux parois inégales et en mouvement, sans aucune mesure de vitesse ni d'altitude. Cette étude est publiée le 26 février 2015 dans la revue Bioinspiration & Biomimetics.
Tous les aéronefs, des drones à la fusée Ariane, sont actuellement équipés d'accéléromètres afin de connaître la direction de la gravité, et donc du centre de la Terre. Cela leur permet de mesurer leur degré de roulis et de tangage et, à partir de ces données, de stabiliser leur vol. Cet outil indispensable n'a pourtant pas son équivalent chez les insectes, qui volent librement sans ces informations.
Les chercheurs Fabien Expert et Franck Ruffier se sont donc inspirés des insectes ailés pour créer BeeRotor : un robot volant captif1 capable pour la première fois d'ajuster sa vitesse et de suivre le terrain sans accéléromètre ni mesure de vitesse et d'altitude. Avec ses 80 grammes et ses 47 centimètres de long, il évite tout seul des obstacles verticaux dans un tunnel dont les parois sont en mouvement. Pour cela, les chercheurs ont mimé l'aptitude des insectes à se servir du défilement du paysage lors de leurs déplacements. On parle de flux optique, dont le principe s'observe facilement en voiture : sur l'autoroute le monde devant nous est assez stable, mais dès que l'on regarde sur les côtés, le paysage défile de plus en plus vite, jusqu'à atteindre un maximum à un angle de 90 degrés par rapport à la trajectoire du véhicule.
Pour mesurer le flux optique, BeeRotor est équipé de seulement 24 photodiodes (ou pixels) réparties sur le bas et sur le haut de son œil. Cela lui permet de détecter les contrastes de l'environnement et leurs mouvements. Comme chez l'insecte, la vitesse de passage d'un élément du décor d'un pixel à l'autre va livrer la vitesse angulaire de défilement. Lorsque le défilement augmente, c'est que la vitesse du robot augmente ou que la distance par rapport aux obstacles diminue.
En guise de cerveau, BeeRotor dispose de trois boucles de rétroaction2, comme autant de réflexes qui utilisent directement le flux optique. La première lui fait changer son altitude pour suivre le plancher ou le plafond. La seconde gère la vitesse du robot pour l'adapter à l'encombrement du tunnel dans lequel il navigue. Avec la dernière boucle, l'œil se stabilise par rapport à la pente locale grâce à un moteur dédié. Cela permet au robot de toujours obtenir le meilleur champ de vision possible, indépendamment de son degré de tangage. BeeRotor évite alors des obstacles très pentus (cf. vidéo) sans accéléromètre ni mesure de vitesse et d'altitude. Cette technologie a fait l'objet d'un dépôt de brevet fin 2013.
BeeRotor propose ainsi une nouvelle hypothèse biologiquement plausible pour expliquer comment les insectes volent sans accéléromètre : les insectes ailés pourraient utiliser les indices du flux optique pour se stabiliser, grâce à des boucles de rétroaction similaires à celles du robot.
Il existe également des applications industrielles à cette première mondiale. Les accéléromètres, et donc les centrales inertielles3 qui les contiennent, sont trop lourds et encombrants pour les robots de toute petite taille. Avec une masse de l'ordre du gramme, ils ne conviennent pas à ces engins d'une dizaine de grammes qui pourraient être utilisés, par exemple, pour inspecter les tuyauteries. Cette quête de la légèreté se retrouve également dans l'industrie spatiale, où chaque kilo envoyé hors de notre atmosphère a un coût considérable. Sans forcément remplacer les accéléromètres, des capteurs de flux optique pourraient servir de système de secours ultra léger en cas de défaillance sur des missions spatiales4.
DOCUMENT CNRS LIEN |
|
|
|
|
|
|
1905 - LA PHYSIQUE MODERNE |
|
|
|
|
|
1905, l’année où Einstein bouleverse la physique moderne
PENSEE. Il y a 110 ans tout juste, un très jeune chercheur – même pas 26 ans – allait révolutionner en un an seulement, notre compréhension de l’Univers et ce pour des décennies ! De sorte qu’encore aujourd’hui les physiciens sont chaque jour épatés par le brio de ses démonstrations, la justesse de ses prédictions, et les épistémologues n’en finissent pas d’étudier le cheminement de sa pensée. Son nom : Albert Einstein …
L’essentiel se passe en cette année 1905 – qui a été par la suite baptisée "année miraculeuse". L’ensemble de cet ouragan de pensée est présenté ci-dessous au cours d’une conférence TED, en 5 mn chrono…
Après des études de maths et de physique, l’élève Einstein préfère le labo aux cours théoriques et obtient un emploi à l’Office des brevets suisse… grâce à l’aide d’un des amis de son père. Six jours par semaine il y travaille mais le septième jour est souvent consacré à sa passion : discuter avec quelques amis, refaire le monde à sa manière c’est-à-dire le comprendre d’abord, et consigner les quelques idées qui naissent lors de ces discussions dans des articles qu’il envoie sans trop y croire à des publications scientifiques. Ce travail n’est pas très remarqué.
1-La lumière est à la fois onde et particule
Mais en mars 1905, le vent tourne : Einstein propose quatre articles qui vont coup sur coup révolutionner la physique ! Le premier avance une hypothèse étonnante. Alors que depuis quelques décennies, les physiciens ont admis que la lumière est une onde, Einstein propose que la lumière soit considérée comme une particule. Cela permet, affirme-t-il, d’expliquer un phénomène encore mystérieux –l’effet photoélectrique, le fait que lorsqu’un matériau reçoit de la lumière, il perd un électron, une des particules de matière que renferment les atomes. La communauté scientifique mettra vingt ans avant de comprendre fondamentalement cette idée. En avance sur son temps, le travail d’Einstein n’a pas été apprécié à sa juste valeur. Aujourd’hui, la dualité de la lumière – le fait qu’elle puisse être considérée à la fois comme onde et particule – est la base même de la physique quantique.
2-La matière est faite d’atomes
Deux mois plus tard, en mai 1905, Einstein soumet un second article et s’attaque à une des questions les plus brûlantes de la physique de l’époque : est-ce que les atomes existent vraiment ? A l’époque, en effet, la plupart des chercheurs admettait que la matière était constituée d’un ensemble d’éléments indivisibles… mais nombreux étaient ceux qui se demandaient si ces minuscules bouts de matière étaient une vue de l’esprit, une hypothèse commode ou… une réalité à l’image des objets macroscopiques de la physique que l’on peut toucher et sentir ? Dans ce second article, Einstein l’affirme sans aucun doute : oui les atomes existent et il propose même une expérience pour appuyer son affirmation : le mouvement désordonné d’une poignée de particules dans l’eau – que l’on appelle mouvement brownien, comme par exemple une poignée de pollen que l’on éparpille dans un verre d’eau, peut être précisément prédit si l’on suppose que la matière est faite d’atomes. En effet, ces particules que nous observons rentrent en collision avec des milliards d’atomes invisibles du liquide et rebondissent sur eux à chaque fois, comme lorsque deux boules de billard s’entrechoquent. Très vite, des calculs ont été effectués et les mouvements de pollen – devenu prévisibles – ont prouvé l’existence des atomes.
3-La vitesse de la lumière est constante
En quelques mois, les physiciens allaient de surprise en surprise : ce très jeune scientifique, travaillant au rythme d’un jour par semaine, avait déjà à son actif deux conclusions essentielles. Mais Einstein n’allait pas s’arrêter en si bon chemin… Il restait encore 6 mois à cette année miraculeuse de 1905. Le troisième article paru en juin. Il concernait une incompatibilité entre deux principes physiques – d’une part, la loi du mouvement qui remontait à Galilée considérait que le mouvement absolu ne pouvait exister : en effet le mouvement d’un objet dépend de la position de l’observateur. Par exemple, lorsqu’un train passe sans s’arrêter le long d’un quai, ceux qui attendent sur le quai voient passer le train à 100 km/heure, alors que le voyageur installé dans le wagon, ne ressent aucun mouvement. Ce n’est que s’il regarde le paysage qui défile, qu’il se rend compte du mouvement du train. Si un autre voyageur se déplace dans le train à une vitesse de 6 km/h – une marche rapide – l’observateur sur le quai le voit se déplacer à une vitesse de 106 km/h (c’est ce que l’on appelle la règle d’addition des vitesses), tandis que le voyageur assis lui attribue une vitesse de 6 km/h. Le mouvement ne peut être défini que par rapport à un référentiel. Ce principe avait fait ses preuves à maintes reprises!
Mais, parallèlement, la théorie électromagnétique, qui décrit les déplacements de charges électriques et magnétiques, stipule que ces charges se déplacent toujours à la même vitesse et ce, quelle que soit la position de l’observateur. Alors laquelle des deux dit vrai ? Ce genre de dichotomie énerve les physiciens au plus haut point tant ils considèrent que leur discipline est universelle, une et inséparable. Mais un jour en mai, une idée géniale germe dans l’esprit d’Einstein : il y a une seule manière d’éliminer cette contradiction, c’est de supposer que la vitesse de la lumière est constante, quel que soit le référentiel considéré ! Un principe qu’il suppose, comme un coup de bluff – en utilisant des « expériences de pensées » – ces expériences que l’on peut imaginer et non réaliser concrètement. Admettons qu’un train se déplace à la vitesse de la lumière, le voyageur qui marche dans le train ira – aux yeux de l’observateur sur le quai – toujours à la vitesse de la lumière et non pas à la vitesse de la lumière plus 6 km/h !
4- La masse et l’énergie sont équivalentes
C’est en septembre que le quatrième article fut envoyé. Pendant tout l’été Einstein a réfléchi aux conséquences de la relativité restreinte et annonce ce qui lui semble une conséquence directe: la masse et l’énergie, ces deux entités qui semblent si différentes – l’une matérielle, l’autre non – sont en fait équivalentes. Un petit fragment de masse représente même une quantité immense d’énergie car, pour passer de l’une à l’autre il faut tout bonnement appliquer la formule E=Mc2. (c étant la vitesse de la lumière dans le vide, soit 300 000 km/s)
La formule deviendra célèbre – elle est l’équation la plus connue de toute la physique – Aujourd’hui sans cesse utilisée en physique des particules et atomique, mais Einstein ne sera reconnu qu’en 1919. Cette année-là, lors d’une éclipse solaire, les prédictions de sa théorie de la relativité générale furent vérifiées par l’expérience. Le Nobel de physique n’arrivera qu’en 1921… couronnant ses tous premiers travaux sur l’effet photoélectrique.
Mais revenons en 1905, la folle année où fut annoncé l’essentielle de la physique moderne : la lumière est à la fois onde et particule, les atomes existent bel et bien, la vitesse de la lumière est finie, la masse et l’énergie sont équivalentes !
Cette année-là, le prix Nobel fut attribué à l’allemand Philipp Lenard, pour la découverte des rayons cathodiques, ces faisceaux d’électrons que l’on observe dans les tubes à vide. Lenard deviendra plus tard, pendant le régime nazi, un des défenseurs de la science « aryenne », la « deutsche physic ». Antisémite et nationaliste, il s’opposera à Einstein, pacifiste et pro-européen. Il qualifiera Einstein de représentant de la physique juive et l’accusera de vouloir dominer l’ensemble de la physique.
DOCUMENT sciencesetavenir.fr LIEN |
|
|
|
|
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 ] Précédente - Suivante |
|
|
|
|
|
|