ecole de musique piano
     
menu
 
 
 
 
 
 

L'INNÉ ET L'ACQUIS

 

L'inné et l'acquis dans la structure du cerveau
Jean-Pierre Changeux dans mensuel 331


Nous sommes génétiquement programmés pour apprendre, c'est-à-dire pour échapper à un strict déterminisme génétique. Mais jusqu'à quel point pouvons-nous nous adapter ? Quelles sont les limites du cerveau humain et peut-on les modifier ?
Quelle part de notre comportement, de nos actes, de nos idées, de notre conscience est déterminée par le contenu chromosomique de l'oeuf fécondé dont nous sommes issus - en un mot, est innée ? Quelle part au contraire est acquise lors de l'interaction de l'individu avec son environnement immédiat : physique, social ou culturel ? Cette question a donné lieu au cours de l'histoire à des prises de position passionnées où les idées préconçues d'inspiration morale, religieuse ou philosophique l'emportaient souvent sur la stricte objectivité scientifique1.

Mon propos n'est pas de trancher ce débat, mais plutôt d'essayer de définir les limites dans lesquelles il doit être tenu. Pour ce faire, je rapporterai quelques observations récentes d'anatomistes, psychobiologistes, généticiens ou neurobiologistes qui s'intéressent à la morphogenèse fonctionnelle du système nerveux central des vertébrés supérieurs. Je ne ferai qu'occasionnellement référence à l'espèce humaine, me limitant aux problèmes déjà fort complexes posés par l'organisation cérébrale de petits mammifères comme la souris. Le lecteur sera évidemment tenté d'extrapoler à l'homme les résultats obtenus chez l'animal. Cette démarche est souvent légitime mais, en certains cas, une extrapolation hâtive risque de mener à des simplifications abusives masquant un problème fondamental plus complexe. Rappelons toutefois, comme l'écrivait Buffon : « S 'il n'existait pas d'animaux, la nature de l'homme serait encore plus incompréhensible » .

Avant d'en venir à la description des faits d'actualité, il n'est pas inutile d'évoquer le point de vue d'un grand naturaliste du siècle « philosophique », Jean-Baptiste de Lamarck. Dans le second tome de sa Philosophie zoologique 1809, tome consacré presque exclusivement à des questions de neurobiologie et de psychologie, il tente une première conciliation rationnelle entre les données scientifiques et les idées philosophiques de son époque. Il écrit : « Il appartient principalement au zoologiste qui s'est appliqué à l'étude des phénomènes organiques de rechercher ce que sont les idées, comment elles se produisent, comment elles se conservent. [...]

Je suis persuadé que tous les actes d'intelligence sont des phénomènes naturels et, par conséquent, que ces actes prennent leur source dans des causes uniquement physiques. [...] On ne saurait douter maintenant que les actes d'intelligence ne soient uniquement des faits d'organisation, puisque, dans l'homme même, qui tient de si près aux animaux par la sienne, il est reconnu que des dérangements dans les organes qui produisent ces actes en entraînent dans la production des actes dont il s'agit, et dans la nature même de leurs résultats . » Ces faits d'organisation, Lamarck ne les conçoit pas de façon statique. Introduisant une distinction capitale, il ajoute en effet : « On peut, sans doute, apporter en naissant les dispositions particulières pour des penchants que les parents transmettent par l'organisation mais, certes, si l'on n'eût pas exercé fortement et habituellement les facultés que ces dispositions favorisent, l'organe particulier qui en exécute les actes ne se serait pas développé. »

Depuis le début du XIXe siècle, d'immenses progrès ont été accomplis dans une discipline dont le fondateur de la « biologie » avait saisi la richesse ; mais, aujourd'hui encore, ces vues de Lamarck sont vivantes par leur lucidité presque prophétique. On sait maintenant que l'« organisation » dont parle Lamarck est constituée par un ensemble complexe de milliards de cellules nerveuses, ou neurones, en contact les unes avec les autres par leurs prolongements axoniques ou dendritiques. Comme l'exprime avec beaucoup d'exactitude J.Z. Young dans son livre A M odel of the ß/IIßrain : « Le cerveau constitue une sorte d'ordinateur qui donne des ordres qui sont eux-mêmes traduits en actes et permettent à l'organisme de survivre, comme un "homéostat", dans un environnement particulier. Cet ordinateur est de type analogique, et non pas digital, en ce sens qu'il est lui-même une représentation physique du monde extérieur perçu par les organes des sens. [...] La machine analogique du cerveau est présélectionnée pour effectuer des opérations avec l'environnement de l'organisme [...] . Sa construction s'effectue en partie ou largement par l'hérédité, mais l'apprentissage peut influencer cette construction. Le cerveau est donc un ordinateur capable de s'automodifier 2 . »

A l'exception d'une mince frange structurale constituée par les arborisations terminales de certains neurones corticaux, la mise en place de l'organisation cérébrale résulte de l'expression séquentielle, de l'oeuf à l'adulte, d'un programme génétique parfaitement déterminé. Il est clair que, dans un certain nombre de cas bien établis, une interaction avec l'environnement est nécessaire au déroulement de ce programme, mais il est non moins clair que ce programme a été sélectionné compte tenu de cette interaction.

Certains comportements élémentaires sont programmés dès l'oeuf et feront l'objet d'un « exercice fonctionnel » qui les stabilisera ; mais ils n'ont pas à être appris. Ils sont innés ou instinctifs. C'est le cas de la construction du nid chez les oiseaux, du comportement sexuel, de certaines formes d'agressivité, etc.3. Nous avons même vu que l'aptitude à apprendre est, chez la souris, conditionnée par des facteurs héréditaires. Placées dans le même environnement, les souris nées « intelligentes » apprendront plus vite que celles nées moins intelligentes.

Toutefois, on ne saurait trop insister sur le fait que, si la capacité à apprendre est génétiquement programmée, les « réussites » de l'apprentissage ne s'inscrivent pas immédiatement dans le programme de leurs auteurs. En aucun cas, ce qui a été appris chez l'adulte n'est transmissible directement par l'hérédité. On trouvera une excellente discussion de ce problème par A. Weismann dans ses Réflexions sur la musique chez les animaux et chez l'homme 4 . En revanche, la réussite de l'apprentissage peut indirectement , par le jeu des mutations et de la sélection, entraîner une modification du programme génétique. Par exemple, la capacité d'apprentissage présente une valeur sélective considérable pour l'animal qui la possède : dans une population hétérogène de souris, les mutants capables d'apprendre à fuir plus vite que leurs congénères ont plus de chances d'échapper à leurs prédateurs, et donc de survivre. « Il n'y a aucune difficulté à admettre , écrit Darwin dans l' Evolution des espèces , que la sélection naturelle puisse conserver et accumuler constamment les variations de l'instinct aussi longtemps qu'elles sont profitables aux individus . »

Cet élargissement, par mutations, de la capacité d'apprendre se poursuit jusqu'à l'homme. « L'adaptabilité "infinie" du cerveau de l'homme lui confère une valeur sélective exceptionnelle » , écrit Haeckel dans son Histoire de la création naturelle . Cette adaptation s'effectue, comme le souligne J.Z. Young, beaucoup plus rapidement que par l'entremise du système génétique. Ce qui semble donc très caractéristique des vertébrés supérieurs, c'est précisément la propriété d'échapper au déterminisme génétique absolu menant aux comportements stéréotypés du type de ceux décrits par l'excellent zoologue K. Lorenz3 ; c'est la propriété de posséder à la naissance certaines structures cérébrales non déterminées qui, par la suite, sont spécifiées par une rencontre le plus souvent imposée, parfois fortuite, avec l'environnement physique, social ou culturel. Mais, comme le suggèrent les expériences chez les souris, cette adaptabilité n'est pas « infinie », même chez l'homme, contrairement à ce qu'écrit Haeckel. Les limites de cette adaptabilité phénotypique sont, je l'ai déjà dit, déterminées génétiquement.

La nature des modifications biochimiques associées avec le comportement d'apprentissage est encore fort mal connue. J'ai signalé l'accroissement des épines dendritiques chez le jeune rat soumis à un environnement « riche ». Mais on ne sait pratiquement rien des mécanismes intervenant chez l'adulte lors d'un apprentissage particulier. Il n'est même pas certain qu'un accroissement du nombre de synapses soit nécessaire. La modification de synapses existantes pourrait suffire, et il a été suggéré que les modifications de ce genre seraient très discrètes : des changements conformationnels au niveau de membranes synaptiques, par exemple5.

Une des manières d'accroître l'interaction structurante avec l'environnement afin de spécifier des synapses non déterminées est, nous l'avons vu, de prolonger la maturation du cerveau après la naissance. Une autre est le maintien chez l'adulte d'une plasticité fonctionnelle permettant l'adaptation d'une structure donnée à une fonction différente mais en général voisine de celle pour laquelle elle a été programmée génétiquement, donc sélectionnée, au cours de l'évolution. Il se produirait en quelque sorte un « transfert » de fonction : les résultats spectaculaires des « rééducations » obtenues après des lésions graves du système nerveux ou des organes des sens montrent que cette plasticité du cerveau de l'adulte est réelle, bien qu'elle soit limitée et inférieure à celle du sujet jeune.

Cette capacité à apprendre, cette plasticité fonctionnelle confèrent à l'homme sa valeur sélective exceptionnelle. Elles lui permettent de tirer profit, en s'y adaptant très rapidement, de l'environnement culturel et social qui de son côté évolue et progresse avec une vitesse beaucoup plus grande que ses structures génétiques. Il est alors légitime de se demander si, compte tenu de ce progrès accéléré, les limites de l'adaptabilité du cerveau humain fixées par l'hérédité ne se révéleront pas dans quelques années insuffisantes. En fait, il n'est pas impensable que l'homme lui-même compense cette dysharmonie et « élargisse » artificiellement ces limites : par exemple, en enrichissant l'environnement de l'enfant ou en contrôlant l'expression des gènes, peut-être au niveau de certains relais hormonaux. On sait déjà l'importance des hormones sexuelles6 ou thyroïdiennes7 dans l'établissement de certains comportements et dans la différenciation d'importantes structures cérébrales. Pourquoi ne pas imaginer qu'à l'aide d'effecteurs chimiques bien choisis et d'un environnement adéquat on obtienne prochainement ne serait-ce qu'un doublement du nombre des épines dendritiques du cortex de l'homme ?
1 Le film de François Truffaut, L'Enfant sauvage , pose le problème avec acuité. Voir le livre de L. Masson, Les E nfants sauvages , 10/18.

2 J.Z. Young, A M odel of the ß/IIßrain , Oxford University Press, 1964.

3 K. Lorenz, L' A gression , Flammarion, 1969.

4 A. Weismann, Essais sur l'hérédité et la sélection naturelle , Paris, 1968.

5 J.-P. Changeux et J. Thiéry, in « Regulatory functions of biological membranes », Jarnefelt éd., 1968.

6 S. Levine et R. Mullins, Science , 1585 , 1966.

7 J. Legrand, Arch. Anat. Micr ., 56 , 205, 1967.
SOMMES-NOUS PILOTÉS PAR NOS GÈNES ?
Septembre 1999. Des chercheurs de l'université de Princeton créent des souris génétiquement modifiées « plus intelligentes » : possédant davantage de récepteurs d'un type particulier, elles dépassent leurs congénères dans la plupart des tests d'apprentissage... Trente ans plus tôt, J.-P. Changeux craignait que l'espèce humaine ne butte rapidement sur les limites héréditaires de l'adaptabilité de son cerveau et proposait l'utilisation d' « effecteurs chimiques bien choisis » pour franchir ces frontières biologiques. Son projet serait-il devenu réalisable ? Les progrès de la biologie permettraient-ils d'envisager un « dopage génétique » ? Entre-temps, le neurobiologiste est devenu président du Comité consultatif national d'éthique, et ne poserait probablement pas le problème dans les mêmes termes... Quant au débat entre inné et acquis, malgré des développements considérables, la génétique moderne n'est pas parvenue à clarifier une discussion toujours passionnée. O.B.
SAVOIR
A lire :

-Ramón y Cajal, Histologie du système nerveux de l'homme et des vertébrés, Madrid, 1909.

-J.-P. Changeux, L'Homme neuronal, Fayard, 1983.

 

   DOCUMENT       larecherche.fr       LIEN

 
 
 
 

HEURISTIQUE (adj .et subs. fém)

 

HEURISTIQUE, EURISTIQUE, adj. et subst. fém.


I. Adjectif
A. − PHILOS. Qui sert à la découverte. Méthode heuristique. Même si finalement il faut les intégrer [les faits qui font partie de la méthode de l'analyste] à une psychologie du sujet, cette psychologie du sujet n'a aucun moyen de les découvrir; tout le pouvoir heuristique est du côté du naturalisme (Ricœur, Philos. volonté,1949, p. 358).
♦ Hypothèse heuristique. Hypothèse adoptée provisoirement comme idée directrice indépendamment de sa vérité absolue. Je puis me demander à quelles conditions je pourrais me penser comme créé. Seulement ce n'est là qu'une méthode heuristique, parce que ce dont je recherche les conditions peut être pensé comme hypothèse pure et gratuite (G. Marcel, Journal,1914, p. 6).


B. − Spécialement
1. LOG., MATH. Qui procède par approches successives en éliminant progressivement les alternatives et en ne conservant qu'une gamme restreinte de solutions tendant vers celle qui est optimale. Méthode heuristique p. oppos. à méthode algorithmique. En insérant dans le programme d'une machine un grand nombre de règles heuristiques (...) on peut échapper au problème de l'augmentation exponentielle (Pappertds Log. et connaissance sc.,1967, p. 838 [Encyclop. de la Pléiade]).
2. ENSEIGN. Qui consiste à faire découvrir par l'élève ce qu'on veut lui enseigner. Il est indispensable (...) d'accorder la préférence à l'investigation heuristique des questions plutôt qu'à l'exposé doctrinal des théorèmes (Piaget et Coudray1973).


II. − Subst. fém.
A. − Art de trouver, de découvrir. Il y a bien une critique des valeurs et des moyens de la science, mais l'art de trouver (quoiqu'on l'ait baptisé euristique), demeure aussi personnel que tous les autres arts (Valéry, Entretiens [avec F. Lefèvre], 1926, p. 133).
B. − Spécialement
1. PHILOS. Discipline qui étudie les procédés de recherche pour en formuler les règles, et qui effectue une réflexion méthodologique sur cette activité. L'heuristique se distingue de la méthodologie en ce sens qu'elle est plus une réflexion sur l'activité intellectuelle du chercheur que sur les voies objectives de solution (Birou1966).
2. HIST. ,,Partie de la science qui a pour objet la recherche de documents`` (Lal. 1968).
Prononc. et Orth. : [øʀistik]. Vx : hévristique à côté de heu- ds Littré ,,parce-que l'u grec se rend d'ordinaire par v et quelquefois par u``. Étymol. et Hist. 1. 1845 adj. philos. méthode heuristique (Besch.); 2. 1845 subst. l'heuristique de la science (ibid.). Vraisemblablement empr. à l'all. heuristik, heuristisch de même sens 1750 (A. G. Baumgarten, Aesthetica, § 574 ds Historisches Wörterbuch der Philosophie, éd. J. Ritter, t. 3, p. 1117) par l'intermédiaire du lat. sc. du domaine all. heuristica [artificia] 1734 (J. P. Reusch, ibid.) dér. irrégulier du gr. ε υ ̔ ρ ι ́ σ κ ω « je trouve » sur le modèle des verbes en -ι ́ ζ ω qui donnent des adj. en -ι σ τ ι κ ο ́ ς : cf. ε ̓ ρ ι ́ ζ ω > ε ̓ ρ ι σ τ ι κ ο ́ ς, v. éristique; heuristica existe parallèlement à heuretica 1622 (J. Jungius, ibid.) empr. au gr. ε υ ̔ ρ ε τ ι κ ο ́ ς « propre à découvrir » dér. régulier de ε υ ̔ ρ ι ́ σ κ ω; l'ε υ ̔ ρ ε τ ι κ ο ́ ς λ ο ́ γ ο ς « discours propre à découvrir » s'oppose à l'α ̓ π ο δ ε ι κ τ ι κ ο ́ ς λ ο ́ γ ο ς « discours propre à convaincre (Galien, 4, 650 ds Liddell-Scott).

 

DOCUMENT  cnrtl.fr    LIEN

 
 
 
 

L'INCROYABLE EFFICACITÉ DES MATHÉMATHIQUES

 

L'incroyable efficacité des mathématiques
mensuel 316


En 1905, peu après avoir écrit l'article fondateur de la relativité restreinte, une conséquence de son travail précédent vient à l'esprit d'Albert Einstein: la masse serait une mesure de l'énergie contenue dans un corps. " La chose est plaisante et séduisante à considérer; mais Dieu n'est-il pas en train d'en rire et me mène-t-il par le bout du nez ? ", écrit-il. Quelques semaines plus tard, Einstein publie la démonstration d'une formule au destin imprévisible: E = mc2. Dieu y a bien sûr laissé la place aux mathématiques... Au-delà de cet exemple, comment renouveler l'examen de la vieille question de l'efficacité des mathématiques dans les sciences de la nature?
Les succès de la physique classique, puis de la relativité et de la mécanique quantique, ont mis en pleine lumière la fécondité des mathématiques. Aujourd'hui, cette efficacité s'étend progressivement à un grand nombre de disciplines relevant d'au- tres sciences de la nature ou même des sciences humaines. En biologie, par exemple, on parvient à expliquer et à classer les formes qui apparaissent sur les ailes des papillons ou sur le pelage des mammifères en utilisant des équations aux dérivées partielles1. En économie, les divers types d'équilibre des marchés se caractérisent par des méthodes sophistiquées issues de la théorie des systèmes dynamiques, de la théorie des jeux ou de la topologie. Comment rendre compte de ces nouveaux succès ?

En 1960, le physicien Eugene Wigner avait publié un célèbre article au titre provocateur : « La déraisonnable efficacité des mathématiques dans les sciences naturelles2 ». Si l'efficacité des mathématiques pose aux scientifiques et aux philosophes des sciences un problème profond, est-il vraiment judicieux, comme l'indique l'adjectif choisi par E. Wigner, de le transformer en un mystère complet ? Voire de le résoudre par une position philosophique a priori, sans avoir exploré toutes les pistes que la raison nous propose ?

Avant de nous engager sur l'une de ces pistes, attardons-nous sur cette notion d'efficacité. Comment l'appliquer aux mathématiques ? Elle signifie en premier lieu une « capacité prédictive » : les mathématiques sont efficaces dans la mesure où elles suggèrent la réalisation d'expérimentations ou d'observations, et fournissent des résultats numériques qui, à une certaine marge d'erreur près, rejoignent les résultats empiriques issus de ces expérimentations ou observations. La prédiction, par la relativité générale, de la courbure des rayons lumineux au voisinage d'une étoile est un bel exemple de cette sorte d'efficacité3.

Mais l'efficacité peut être seulement liée à une « capacité rétrodictive » : dans ce sens, les mathématiques sont efficaces parce qu'elles reproduisent des résultats déjà connus en les organisant dans un formalisme concis. Les mathématiques fournissent ici des outils servant seulement à « sauver les phénomènes* ». L'illustration la plus éclairante de cette capacité se manifeste sans doute dans les techniques de moindres carrés, grâce auxquelles on recherche des courbes passant au plus près des points expérimentaux. Pourtant, la prédiction, et encore moins la rétrodiction, ne suffisent pas à donner une caractérisation assez fine des formalismes mathématiques que l'on voudrait qualifier d'efficaces. En effet, l'efficacité signifie aussi une « capacité explicative » et, selon le mot très juste de René Thom4, « Prédire n'est pas expliquer » . Pour qu'une théorie mathématique soit vraiment efficace en science, il faut qu'elle rende manifeste une explication des phénomènes, c'est-à-dire une suite d'inférences reliant leur description à des principes reconnus comme fondamentaux. La théorie de jauge qui décrit l'interaction faible en physique des particules, par exemple, n'est pas efficace seulement parce qu'elle reproduit certains résultats obtenus à la sortie des détecteurs. Elle l'est aussi parce qu'elle fournit une explication de l'existence même de cette interaction en la reliant à celle d'une symétrie localeI. Remarquons que cette capacité explicative va de pair avec une capacité unificatrice : expliquer c'est aussi ramener la diversité des phénomènes à un très petit nombre de principes.

L'efficacité des mathématiques se limite-t-elle aux trois caractéristiques que nous venons d'évoquer ? Pas nécessairement. En effet, comment comprendre qu'un certain nombre de formalismes soient, à un moment donné, reconnus efficaces sans être immédiatement prédictifs ? Ils le sont alors parce qu'ils suggèrent des concepts nouveaux ou des stratégies inédites pour résoudre des problèmes difficiles. En 1918, la théorie élaborée par Hermann Weyl tentait par exemple d'unifier la gravitation et l'électromagnétisme en étendant la relativité générale : elle ne fut pas directement efficace au niveau des prédictions expérimentales, mais elle ouvrit la voie à ce qui devait devenir les théories de jauge, pierres angulaires de la physique des particules actuelle. Aujourd'hui, les prédictions issues du formalisme mathématique de la théorie des cordes ou de la géométrie non commutativeII ne sont pas encore ? empiriquement vérifiées. Cependant, on ne peut contester qu'il s'agisse là de domaines engendrant des idées ou des concepts potentiellement riches. Une théorie mathématique efficace en science est donc aussi, à un degré ou à un autre, un formalisme doué d'une sorte de « générativité conceptuelle5 ».

En résumé, une théorie mathématique entièrement efficace est un formalisme doué de capacités prédictives, explicatives et génératives, autrement dit un langage permettant de décrire, d'expliquer et de maîtriser les phénomènes. Après ce détour par les définitions, nous voici confrontés de nouveau à notre question fondamentale : comment un ensemble de symboles abstraits, articulés par un jeu de règles précises, issu très souvent d'une activité purement intellectuelle, peut-il posséder de telles capacités d'adaptation au monde empirique, au monde des résultats expérimentaux ? Une telle question ne date évidemment pas d'aujourd'hui.

Depuis l'aube de l'histoire des mathématiques, tous les grands systèmes philosophiques ont tenté de répondre à cette question, à partir de conceptions différentes de la nature même des mathématiques voir les divers encadrés traitant des principales philosophies mathématiques.

Que sont les mathématiques pour nous aujourd'hui ? Comment les caractériser ? A première vue, elles nous apparaissent donc comme des systèmes de symboles régis par des règles, ce que les logiciens appellent des langages formels. La programmation informatique ou les jeux de société mettent également en oeuvre de tels langages. Cependant, une telle description n'est pas entièrement satisfaisante. Il est impossible de comprendre vraiment ce que font les mathématiciens en ne considérant que les expressions formelles qu'ils couchent sur le papier. Celles-ci ne sont souvent que des traductions d'intuitions, d'idées guidant leurs réflexions. D'ailleurs, les mathématiciens utilisent souvent différents types de systèmes d'axiomes pour décrire ce qu'ils estiment être la même « réalité » mathématique : un ensemble, un nombre, un espace, etc.

Ainsi, nous distinguerons les mathématiques écrites, qui peuvent être vues comme des langages plus ou moins formalisés, de la pensée mathématique qui en constitue la source. A l'évidence, pensée et langage sont étroitement liés. Nous dirons donc que le mathématicien peut, d'une part de la pensée vers le langage, exprimer une intuition par des systèmes axiomatiques ou, d'autre part du langage vers la pensée, capter une idée à partir de ce qu'il observe et expérimente en manipulant ses systèmes de formules. Mais distinguer entre « mathématiques-langage » et « mathématiques-pensée » ne suffit pas. Il faut ici introduire une autre distinction, surgie de l'analyse des pratiques des mathématiciens, entre « mathématiques signi- ficatives » et « mathématiques vides », selon l'expression de Jean Dieudonné6. Les premières permettent de résoudre des problèmes compliqués ou fournissent des méthodes ou des idées fécondes la théorie des groupes ou la théorie des fonctions d'une variable complexe par exemple. Les secondes sont produites par simple extension ou généralisation artificielle de théories mathématiques déjà connues, mais qui n'apportent plus d'idée nouvelle, ni ne résolvent aucun problème ou conjec- ture importants.

Les mathématiques peuvent donc être vues comme une véritable pensée qui s'exprime, plus ou moins adéquatement, dans un langage formalisé, et qui s'organise autour de ce que nous appelons, à la suite de Dieudonné, les mathématiques significatives. Mais comment expliquer que certaines théories soient très significatives, très fécondes, très unificatrices au niveau strictement mathématique, et d'autres moins ou même pas du tout ? Cette question n'est plus tout à fait la nôtre : il s'agit en effet de l'efficacité « mathématique » des mathématiques ! L'aborder de front est délicat, car une théorie ne se révèle féconde qu'après coup.

Pour évaluer a priori la fécondité mathématique potentielle d'une théorie, on peut tout de même risquer une caractérisation des théories significatives que nous connaissons déjà : la plupart de ces théories et, parmi elles, celles qui sont reconnues comme les plus fécondes pour aborder des problèmes compliqués, mettent en évidence de riches classes d' invariants relativement à des opérations, des transformations, des relations. Illustrons ce propos à l'aide de quelques exemples.

Considérons tout d'abord la théorie des noeuds. Pour se faire une idée de ce qu'est un noeud mathématique, il suffit d'imaginer un morceau de ficelle sur lequel on a fait un noeud plus ou moins compliqué et dont on a joint les deux bouts. Cette théorie possède aujourd'hui de nombreuses connexions avec des domaines apparemment très éloignés. Or, ce qui rend cette théorie intéressante, c'est précisément la présence d'un grand nombre d'objets mathématiques qui restent invariants lorsqu'on déforme continûment le noeud. Ces objets peuvent être des nombres, des fonctions ou des structures. La théorie des noeuds est une illustration particulièrement éclairante de la topologie qui, justement, étudie les propriétés d'objets mathématiques restant invariants lorsqu'on leur fait subir une déformation « plastique » déformation qui, dans le cas où ces objets sont des surfaces par exemple, n'introduit aucune déchirure ni trou voir l'encadré « La théorie des noeuds ».

La théorie des fonctions à une variable complexe se révèle être un autre cadre extrêment fécond. Or, de nouveau, nous constatons qu'elle est liée à des théories très riches en invariants, par exemple la théorie dite du groupe conforme à deux dimensions : celui-ci étudie les transformations planes qui laissent invariants les angles, mais non les longueursIII. Ce groupe entretient des liens étonnants avec certains systèmes intégrables*, des systèmes qui peuvent être intégrés justement en raison même de l'existence d'invariants caractéristiques : les « intégrales premières ».

Prenons ensuite un exemple algébrique. Les nombres complexes x + iy sont formés à partir de deux nombres réels x et y par une sorte de processus de « doublement » de l'algèbre des réels. En continuant le processus, on engendre, par doublements successifs, toute une série d'algèbres de nombres processus dit de Cayley-Dickson. On obtient les quaternions découverts par William Rowan Hamilton, les octonions découverts par Arthur Cayley et John T. Graves, puis toute une série d'autres algèbres. Au-delà des octonions, l'analogue de la théorie des fonctions à une variable complexe n'a plus du tout la même fécondité parce que, entre autres, tout lien avec des transformations riches en invariants des groupes par exemple est perdue7 voir l'encadré « Les nombres complexes et leurs généralisations ».

Enfin, un exemple récent nous est offert par la spectaculaire démonstration du théorème de Fermat par Andrew WilesIV. On sait que l'intérêt mathématique de cette démonstration réside dans le fait qu'elle réunit un grand nombre de méthodes mathématiques très fécondes. Or, sans entrer dans les détails techniques, il est intéressant de constater qu'elle repose sur la considération d'invariants associés à diverses entités mathématiques8.

Changeons maintenant de point de vue et, en regardant les mathématiques « de haut », essayons de repérer certaines caractéristiques très générales de l'activité du mathématicien contemporain. Qu'observons-nous ? Qu'elle comporte notamment une importante dimension de classification systématique. La classification consiste à déterminer des classes d'objets que l'on peut considérer comme équivalents « à une certaine transformation près ». On classe par exemple des groupes à un isomorphisme près, on classe des surfaces à un homéomorphisme près c'est-à-dire à une transformation « plastique » près : le beignet devient alors équivalent à une tasse à café à une anse, etc. Classer, c'est donc aussi mettre en évidence des invariants caractéristiques de transformations déterminées.

Nous pouvons maintenant mieux caractériser les mathématiques : d'un côté, il y a les mathématiques « vides », définies à partir d'un jeu de relations entre symboles, ne produisant aucun ou peu d'invariants caractéristiques ; de l'autre, les mathématiques « significatives » ou « profondes » parvien- nent au contraire à exhiber des classes de relations ou de transformations riches en invariants. Cette caractérisation évite de con- fondre l'activité spé- cifique du mathématicien avec un jeu, gratuit et artificiel, sur des symboles, comme on a parfois tenté de le faire dans une approche par trop formaliste. Voyons maintenant comment cette analyse des mathématiques peut nous être utile pour aborder, enfin, le problème de leur efficacité dans les sciences naturelles ou humaines.

L'efficacité des mathématiques, aux divers sens repris ci-dessus, signifie au fond leur capacité à représenter de façon adéquate un fragment de réalité en anticipant son comportement. Mais comment reconnaissons-nous que quelque chose est réel ? Qu'est-ce qui confère une charge de réalité à ce que nous percevons9 ?

C'est dans l'expérience usuelle, mais combien complexe, de la perception visuelle qu'il nous semble possible de trouver un élément de réponse. Celle-ci nous apprend que nous identifions un objet en tant que réalité, et non comme une pure illusion, à partir du moment où nous le reconnaissons comme un invariant d'une série d'opérations physiques ou mentales. Par exemple, lorsque nous voulons savoir si ce que nous voyons est réellement un cube ou bien un autre objet, il nous suffit, pour en décider, de bouger la tête ou le corps et d'évaluer la persistance de nos sensations visuelles tout au long de ces mouvements.

La persistance d'une série d'informations lors des transformations induites par le mouvement est un critère de reconnaissance de la réalité. Les techniques d'imagerie virtuelle utilisent ce lien entre transformations spatiales et invariance pour suggérer la présence d'objets réels.

De fait, la perception n'est en aucune façon une réception immédiate et passive d'informations. Elle est élaborée sur une activité cérébrale intense du sujet percevant. Bart M. Ter Haar Romeny et Luc Florack ont montré récemment que la vision pouvait être comprise comme une opération qui utilise des invariants géométriques caractéristiques d'une image10. A un niveau plus élémentaire, la reconnaissance d'un cercle, masqué partiellement par un carré, demande que l'on prolonge mentalement les arcs de cercle, ce qui signifie que l'on maintient invariant le rayon de courbure de la courbe. On pourrait ainsi montrer que, pour identifier le réel, la perception ordinaire fait un usage intensif des invariants relatifs à des transformations physiques.

Il en va de même pour les sciences en général. Par exemple, c'est la répétabilité, la stabilité d'un signal qui fait penser à la présence d'une réalité. Au niveau théorique, on parle, en termes techniques, de la covariance des lois, c'est-à-dire de l'invariance de leur forme sous des changements de référentiels : transformations de Galilée en mécanique classique, transformation de Poincaré en relativité restreinte... C'est cette covariance qui rend des « lois » susceptibles de décrire une réalité physique et de manifester qu'il ne s'agit pas d'un effet lié à un choix particulier de point de vue.

Toute reconnaissance et toute description d'un élément de réalité nécessitent donc la mise en évidence d'invariants caractéristiques d'un ensemble de transformations. Or, nous avons vu que les mathématiques significatives étaient précisément caractérisées par l'existence de riches classes d'invariants. Ces mathématiques prolongent en quelque sorte le processus qui est déjà en jeu dans la perception ordinaire, c'est-à-dire la reconnaissance des éléments de réalité. Elles offrent ainsi la clé permettant l'accès à l'intuition d'une réalité qui n'est plus nécessairement visible ou tangible immédiatement. Lorsque la réalité se dérobe à notre regard, les mathématiques significatives nous en offrent encore une intuition par la puissance d'un langage riche en invariants.

Si nous comprenons maintenant la raison profonde pour laquelle les mathématiques significatives peuvent être, en principe, douées d'efficacité, notre explication est-elle parfaitement satisfaisante ? Pas tout à fait, puisque toutes les théories mathématiques significatives n'ont pas nécessairement des applications dans le domaine expérimental. Il suffit de penser ici aux multiples essais infructueux d'extension de la relativité générale faisant appel à des théories géométriques profondes, mais ne débouchant sur aucune confirmation expérimentale importante11. Comment en rendre compte ? La perspective historique est ici d'un grand secours. En réalité, les mathématiques ne sont pas du tout « neutres empiriquement ». Au cours de leur histoire, elles se sont petit à petit coadaptées à la description de pans entiers du monde des phénomènes. Une théorie mathématique n'est jamais efficace de manière isolée et du premier coup. Elle ne l'est pas du premier coup, parce qu'il faut souvent tout un travail de traduction ou d'adaptation pour qu'un formalisme significatif puisse décrire un champ de phénomènes. Elle ne l'est pas de manière isolée, parce que son efficacité provient souvent d'un lien qu'elle entretient avec d'autres théories qui ont été efficaces à leur niveau.

Pourquoi, par exemple, la relativité générale s'est-elle révélée efficace pour décrire la gravitation ? D'une part, parce qu'elle se fonde sur un formalisme décrivant des invariants le calcul tensoriel ; mais aussi parce que son équation fondamentale a été établie en référence à celle de Poisson, qui avait déjà amplement fait ses preuves dans la théorie classique du potentiel. Autre exemple, le formalisme de la mécanique quantique : il est efficace parce qu'il se fonde d'une part sur certaines mathématiques significatives la théorie des algèbres d'opérateurs, la théorie des espaces de Hilbert, etc., mais aussi parce que la mécanique quantique s'enracine, à l'origine, dans la description effective, et réussie, des spectres d'atomes par J.J. Balmer et J.R. Rydberg. On sait par ailleurs, entre autres grâce aux profonds travaux d'Alain Connes du Collège de France12, que la structure formelle de la mécanique quantique peut être obtenue en « déformant » celle qui caractérise la mécanique classique. Contrairement à l'opinion couramment répandue, l'efficacité de la mécanique quantique n'est pas étrangère à celle de la mécanique classique.

Plus généralement, l'efficacité des mathématiques significatives ne devient donc effective que par le biais d'infiltrations empiriques qui adaptent progressivement certaines parties de ces mathématiques mais non pas toutes probablement à la description des régularités phénoménales. Nous avons établi plus haut un rapprochement entre les mathématiques significatives et la perception. Ce que nous venons de décrire le confirme. En effet, l'efficacité de la perception usuelle n'est pas non plus immédiate. La réussite de l'acte perceptif n'est acquise qu'au terme d'un apprentissage par le contact avec le monde extérieur. De la même manière, on pourrait dire que les formalismes mathématiques « apprennent » à saisir des morceaux de réalités empiriques au cours d'un processus historique. On apprend à reconnaître un champ gravifique sous une métrique, un champ électromagnétique sous des formes différentielles, une particule élémentaire sous une représentation d'un groupe, etc. Mais cela ne s'est pas fait immédiatement par une sorte de dérivation a priori , comme celle dont rêvait Arthur Eddington dans sa Fundamental Theory . Celui-ci espérait déduire la forme des lois, et même la valeur des constantes physiques fondamentales, à partir de pures considérations algébriques13.

Pour comprendre l'efficacité des mathématiques, il est donc important de maîtriser le processus de produc- tion de représentations mentales idées, concepts, images, etc. susceptible de se traduire en formalismes riches en invariants. Un apport considérable à cette dimension du problème a été offert ces derniers temps par les travaux de Stanislas Dehaene14 et de Jean-Pierre Changeux15, qui ont ouvert des voies pour la compréhension du substrat neuronal à partir duquel germent les capacités mathématiques élémentaires représentation des nombres naturels, opérations arithmétiques....

Mais il convient aussi de saisir les dédales du processus historique qui, progressivement, tisse des liens bilatéraux étroits entre les mathématiques et les sciences naturelles ou humaines. La perception usuelle est affaire d'inné et d'acquis, la découverte du monde empirique par le biais des mathématiques significatives l'est également : elle procède d'une part, d'une capacité mentale, innée et conditionnée par l'évolution, qui permet à l'être humain de s'accrocher à des éléments de réalité empiriques, et, d'autre part, d'une capacité acquise par un long apprentissage historique, par une lente genèse qui, par infiltrations d'informations empiriques, coadapte les mathématiques à une description des champs phénoménaux.

L'efficacité des mathématiques ou son inefficacité, que l'on oublie trop souvent de prendre en considération, selon les divers sens que nous lui avons donnés, ne semble ni déraisonnable ni mystérieuse. En tout cas elle ne paraît pas plus mystérieuse que la réussite ou l'échec de la perception usuelle ou du processus d'acquisition de connaissances en général. L'activité mathématique significative nous apparaît, au fond, comme une sorte d'extension de la capacité perceptive, trouvant son expression spécifique dans un langage formalisé.

Comme dans la perception, où l'on croit accrocher des éléments de réalité alors qu'il ne s'agit que d'illusions d'optiques, il existe des domaines significatifs des mathématiques qui n'appréhendent aucun élément de réalité empirique. Pour percevoir, il faut d'abord tourner son regard vers l'objet, il faut en quelque sorte préparer la perception. De même, les mathématiques significatives ne deviennent efficaces que si elles sont préparées à rencontrer les données empiriques. Tout un travail d'adaptation et de traduction est souvent utile pour qu'une théorie mathématique abstraite puisse rejoin-dre les objectifs des sciences. Dans ce contexte, on comprend aisément que certains domaines soient l'objet de mathématisations moins efficaces que d'autres. En effet, pour qu'une mathématisation soit efficace, il faut que le domaine étudié exhibe des invariants naturels associés à des ensembles de relations, de transformations,... On comprend dès lors que la physique soit mathématisable efficacement, car les observations qu'elle considère sont établies sur de nombreux invariants : énergie, moment angulaire,... Par contre il n'est pas évident d'affirmer que l'économie ou la sociologie soient entièrement mathématisables, sauf dans les domaines de phénomènes où l'on peut précisément mettre en évidence des invariants caractéristiques les points fixes définissant l'équilibre des marchés, par exemple. Aujourd'hui, une compréhension profonde de l'origine des mathématiques, de leur nature et de leur efficacité ne peut plus s'obtenir en partant d'une philosophie toute faite. Il nous faut rebâtir un cadre philosophique qui s'enracine dans une analyse détaillée des mathématiques elles-mêmes et des conditions concrètes de leur production.

En résumé, celles-ci se donnent à nous d'abord par une étude du processus historique qui a engendré les mathématiques que nous connaissons à l'heure actuelle16 ; elles se révèlent aussi en tenant compte du fait que les mathématiques ne naissent pas n'importe où, mais bien dans des cerveaux possédant certaines caractéristiques qui, maintenant, sont à portée de la méthodologie scientifique elle-même. Cet essai est une invitation à reprendre ce problème classique en suivant conjointement l'axe historique et celui de la neurobiologie de la connaissance. L'origine des domaines les plus significatifs, les plus profonds, des mathématiques pourrait bien être l'extension progressive - coadaptée, de temps à autre, à des domaines empiriques - de capacités cognitives élémentaires permettant à l'humain de reconnaître et de se représenter des éléments de réalité. Cela expliquerait pourquoi il existe une étonnante connivence entre les arts plastiques et les mathématiques. L'origine des mathématiques n'est peut-être pas à chercher d'abord et avant tout en Grèce, mais dans tous ces lieux où l'homme, s'éveillant à la pensée, a tracé sur la pierre les symboles qui « font voir » le réel auquel il se retrouvait confronté...

Le problème de l'efficacité des mathématiques relève donc de disciplines qui débordent fortement les limites des mathématiques ou de la physique théorique proprement dites. C'est peut-être pour cela que le scientifique qui se cantonne au strict domaine des formalismes aura toujours tendance à lui reconnaître un parfum de mystère ou de déraison !
1J.D. Murray, Mathematical Biology , Berlin, Springer-Verlag, 1989.

2E.P. Wigner, « The unreasonable effectiveness of mathematics in the natural sciences », Communications on Pure and Applied Mathematics , XIII 1960 1-14.

3G. Cohen-Tannoudji, M. Spiro, La M atière espace-temps , Paris, Gallimard, 1986 ; E. Klein, M. Lachièze-Rey, La Q uête de l'unité. L'aventure de la physique , Paris, Albin Michel, 1996.

4R. Thom, Prédire n'est pas expliquer , Paris, EsHel, 1991.

5J.-P. Changeux, A. Connes, Matière à pensée , Paris, Odile Jacob, 1989, p. 91.

6J. Dieudonné, « Mathématiques vides et mathématiques significatives » in Penser

les mathématiques . Séminaire de philosophie et mathématiques de l'Ecole normale supérieure J. Dieudonné, M. Loi, R. Thom, Paris, Seuil, 1982, p. 15-38.

7F. Gürsey, Ch.-H. Tze, On the R ole of D ivision, Jordan and R elated A lgebras in P article P hysics , Singapore, World Scientific, 1996.

8Y. Hellegouarch, Invitation aux mathématiques de Fermat-Wiles , Paris, Masson, 1997.

9M. Bitbol, L' A veuglante proximité du réel , Paris, Flammarion, 1998.

10B.M. Ter Haar Romeny, L. Florack, « A Multiscale Geometric Model of Human Vision » in The Perception of Visual Information , W.R. Hendee, P.N.T. Wells, eds, Berlin, Springer, 1993-1997, p. 87-126.

11M.-A. Tonnelat, Les Théories unitaires de l'électromagnétisme et de la gravitation , Paris, Gauthier-Villars, 1965.

12A. Connes, Géométrie non commutative , Paris, InterEditions, 1990.

13C.W. Kilmister, Eddington's Search for a Fundamental Theory , Cambridge University Press, 1994.

14S. Dehaene, La ßosse des maths , Paris, Odile Jacob, 1997.

15J.-P. Changeux, A. Connes, Matière à pensée , Paris, Odile Jacob, 1989.

16H. Sinaceur, Jean Cavaillès. Philosophie mathématique , Paris, PUF, 1994.

17H. Sinaceur, Corps et modèles. Essai sur l'histoire de l'algèbre réelle , Paris, Vrin, 1991.


 DOCUMENT      larecherche.fr      LIEN

 
 
 
 

UNE SCIENCE POUR RENDRE LE PASSÉ PLUS PRÉSENT

 

« Une science pour rendre le passé plus présent »
Olivier Dessibourg dans mensuel 475


LA RECHERCHE : Vous occupez depuis l'été 2012 la chaire des « humanités digitales » nouvellement créée à l'école polytechnique fédérale de Lausanne. Que recouvre ce domaine ?

FRÉDÉRIC KAPLAN : L'idée est d'appliquer les savoir-faire des technologies de l'information aux questions de sciences humaines et sociales. Cela ne fait qu'une dizaine d'années que l'on nomme cette démarche « humanités digitales », mais elle correspond à une dynamique aussi ancienne que l'informatique ; les premiers ordinateurs ont, par exemple, déjà été utilisés pour indexer des textes. Depuis une décennie, les chercheurs en sciences humaines et sociales ont été de plus en plus nombreux à utiliser de grandes bases de données pour leurs recherches. Peu à peu, ils ont commencé à mettre en commun certaines méthodes d'organisation numérique de leurs ressources. Ils se sont mis à discuter des meilleures manières de coder tel fait historique incertain, de documenter une source, des systèmes et langages de stockage de ces informations. Ils se sont alors aperçus qu'ils apprenaient tout autant, voire davantage, que lors des colloques de leurs disciplines respectives - les sciences humaines et sociales sont encore plus segmentées que les autres sciences.

Pouvez-vous nous donner un exemple ?

F.K. Dans l'oeuvre de Rousseau, déjà entièrement numérisée, nous avons extrait les liens entre de multiples personnes du XVIIIe siècle, ce qui a fini par constituer un « Facebook » de cette époque. En appliquant des techniques d'analyse actuelles des réseaux sociaux, nous avons identifié les personnes centrales dans la société que décrit l'écrivain, et comparer leur rôle et leur influence. Or, ce type de démarche est aussi intéressant pour l'analyse littéraire que pour l'analyse historique. Les méthodes numériques ont donc ouvert des brèches dans ces disciplines cloisonnées. Aujourd'hui, des projets interdisciplinaires de grande ampleur commencent ainsi à être discutés. C'est une transformation similaire à celle qu'ont vécue les sciences du vivant.

Sur quoi se focalise votre travail ?

F.K. Dans mon laboratoire, l'une de mes priorités est de développer des technologies permettant de mieux prendre conscience du temps long : l'explosion actuelle des informations nous donne l'impression de vivre dans un éternel présent. Cependant, il est aussi possible de numériser et de structurer des archives immenses et disparates, à partir desquelles on peut reconstituer et ausculter précisément le passé.

C'est dans ce cadre que vous lancez, avec l'université Ca'Foscari de Venise, la « Venice Time Machine », vaste projet de simulation numérique de la Cité des Doges à travers les âges ?

F.K. Oui, l'histoire de Venise, celle d'un village de pêcheurs, protégé par une lagune, qui devient le plus grand empire maritime de la Méditerranée, est fascinante à reconstituer. Nous disposons de données innombrables pour le faire, car le développement de Venise s'est vite accompagné d'un système bureaucratique dans lequel tout était documenté ; les archives d'État à Venise, qui s'étalent sur douze siècles, contiennent aujourd'hui l'équivalent d'une pile de 80 kilomètres de documents ! Une mine d'informations fabuleuses et riches des savoirs issus de tous les comptoirs de l'empire vénitien.

Le développement de la ville elle-même est documenté selon divers paramètres. Le premier est environnemental : l'évolution de la lagune, au centre de toutes les attentions actuelles, a toujours joué un rôle crucial dans l'histoire de la ville ; la cité s'est construite au fur et à mesure que des îlots étaient créés sur les marécages.

Le deuxième facteur est urbain et architectural : nous possédons des informations suffisamment précises pour reconstruire la morphogenèse de la ville. Le troisième aspect regroupe les activités humaines. Nous pouvons reconstituer des informations démographiques assez détaillées, mais aussi modéliser les échanges au sein de la lagune, puis dans l'empire maritime, sur une grande partie de la Méditerranée. Enfin, la dernière dimension concerne les productions humaines, linguistiques, culturelles et artistiques, résultant des influences du fantastique réseau socio-économique de Venise sur le Vieux Continent. En outre, toutes ces dimensions s'imbriquent les unes dans les autres.

Pouvez-vous citer un exemple que seule une analyse multidimensionnelle peut expliquer ?

F.K. Aux XVe et XVIe siècles, Venise dominait le marché des partitions imprimées. Mais les changements musicaux introduits par le baroque, globalement à l'époque de Monteverdi, ont posé des problèmes techniques à l'industrie typographique. Cette crise se conjugue avec un déclin économique, au moment où la Cité des Doges perd du terrain en Méditerranée face aux Ottomans. Les partitions redeviennent alors manuscrites - un phénomène peut-être unique dans l'histoire des médias -, et cette musique cesse d'être populaire pour conquérir les élites. Dans ces relations imbriquées, quelles sont les causes, et les conséquences ? Y répondre nécessite de combiner les points de vue artistique, technique, sociologique et économique. Le défi de la Venice Time Machine sera d'articuler ces recherches, de façon à livrer une vision globale de la ville et de ses réseaux à travers mille deux cents ans d'histoire.

Comment allez-vous procéder ?

F.K. L'objectif est de créer des outils aussi efficaces que ceux du présent (Google Maps, pour les cartes géographiques sans cesse actualisées, ou Facebook, pour décrire les liens sociaux), dans le but de retourner à n'importe quel moment précis de l'histoire et d'y recréer un contexte riche en détails.

Les archives d'État de Venise sont encore trop peu exploitées. Sur les deux cents dernières années, elles sont parfaitement structurées, avec de nombreuses cartes, notamment grâce au passage de Napoléon. Il « suffit » d'inventer des stratégies de digitalisation efficaces et, dans certains cas, de nouvelles méthodes pour transformer ces informations analogiques en données pouvant être traitées informatiquement.

Évidemment, plus on remonte le temps, moins on a d'informations à disposition. Il faut extrapoler à partir de cas particuliers. Par exemple, un carnet de bord d'un capitaine de navire vénitien indique bien plus qu'un itinéraire particulier, il informe sur les routes commerciales d'une époque. De même, une gravure représentant une façade vénitienne décrit plus que ce seul bâtiment, elle renseigne sur les « grammaires architecturales » jadis utilisées. Les historiens extrapolent très souvent de cette façon. Notre démarche sera simplement plus formelle et systématique. Chaque « grammaire » extraite sera associée à ses sources et aux nouvelles formes qu'elle permet d'extrapoler. Nous pourrons ainsi qualifier le « régime épistémique » de chacune des représentations produites par la Venice Time Machine, en distinguant en particulier les informations déduites d'une source directe de celles obtenues par extrapolation.

Comment seront exploités ces résultats ?

F.K. Selon le public visé - chercheurs ou touristes -, il faut transformer ces modèles en « expériences ». Nous construirons des interfaces pour le Web et les mobiles, mais aussi des dispositifs muséographiques. Il s'agira de donner à voir à la fois le « temps long », avec des systèmes de visualisation permettant d'explorer une histoire de plusieurs siècles, mais aussi le « temps dense », pour se replonger à une date et un lieu donnés et obtenir un maximum d'informations.

Avec des sources souvent lacunaires, éparpillées voire contradictoires, cela ne sera pas simple...

F.K. Face à un document historique, nous procédons en deux étapes. Nous modélisons d'abord son « espace documentaire » : origine et nature de la source, information sur son auteur présumé ou son éventuel traducteur. Puis nous codons informatiquement l'« espace fictionnel » créé par ce document : dans notre approche, tout document historique produit des informations fictionnelles, par exemple, sur des personnes, des lieux et des événements. Ce n'est que par l'articulation d'espaces fictionnels émanant de divers documents que nous pouvons produire un passé « probable ». Ce qui signifie qu'il n'y a pas un passé, pas une organisation de Venise, mais de multiples mondes possibles, dont nous tâchons d'évaluer la plausibilité ; la reconstruction de Venise que nous proposerons n'en sera donc qu'une parmi des milliers d'autres, et nous devrons dans l'idéal donner accès à cette riche diversité. On le voit, la gestion de l'incertitude est le coeur du défi scientifique de ce projet. Il s'agit de raisonner dans des espaces où se côtoient des incertitudes de nature très diverse (fiabilité des sources, erreurs d'interprétation, extrapolations fondées sur de fausses hypothèses, erreurs dues aux procédés de digitalisation). Or depuis cinquante ans, les sciences de l'information n'ont cessé de développer ce type d'approches (calculs probabilistes, logique floue, apprentissage artificiel, etc.). Des méthodes qui n'ont jusque-là pas reçu suffisamment d'attention en histoire. La rencontre de ces approches formelles et des mondes historiques incertains promet de grandes découvertes.

Le sens profond de la démarche est-il de faire revivre la culture et le passé, ou de façonner une nouvelle forme d'humanisme ?

F.K. Grâce à Twitter ou Facebook, vous pouvez aujourd'hui passer votre vie à vous intéresser à l'infinie richesse du présent. À tout moment, vous pouvez décider de vous promener dans les rues de n'importe quelle ville grâce à Google Street View. Avec ces outils, vous vous réveillez le matin et vous sentez que le monde a tourné ; vous percevez d'un coup cette extraordinaire « mondialité », plutôt que mondialisation, pour reprendre le terme de l'écrivain suisse Daniel de Roulet. Le présent est tellement passionnant qu'on risque de moins s'intéresser au passé, tant celui-ci reste difficile d'accès. L'un de nos objectifs est donc de rendre le passé aussi intéressant que le présent, de montrer, avec ces outils numériques, qu'il a, potentiellement, la même richesse. Et qu'on peut le regarder sous différents angles, avec des questionnements propres à chacun, de la même manière que des services de recherche tels ceux proposés par Google ne fournissent pas une explication du monde, mais des réponses à nos questions.

Si on pousse cette logique, sera-t-il encore nécessaire de préserver le patrimoine, puisque celui-ci aura été entièrement numérisé ?

F.K. Plus que jamais, il suffit de se pencher sur ces deux dernières décennies : quantité de données numériques ont été perdues ou ne sont plus lisibles, ni exploitables. La conservation à long terme de données digitales sur des supports fiables est encore un problème non résolu. Le patrimoine est toujours en danger. Les événements autour des manuscrits détruits à Tombouctou nous le rappellent. La numérisation ne permettra en aucun cas de se passer du patrimoine, au contraire elle ouvre la voie à de meilleures restaurations ou des mises en valeur.

Construire la pérennité des données digitales est un défi en tant que tel, qui pose de nombreuses interrogations. Actuellement, les stratégies les plus efficaces consistent à recoder de manière pragmatique les données dans de nouveaux formats à intervalles réguliers. Nous devons nous interroger sur ce qu'est alors un original ; la meilleure manière de le pérenniser consiste à le retranscrire régulièrement. Nous retrouvons d'ailleurs ici de vieilles interrogations.

Des enjeux scientifiques et pédagogiques apparaissent. En quoi sont-ils importants, en particulier pour l'Europe ?

F.K. L'Europe est la mieux placée pour être en pointe dans les humanités digitales : il y a ici une histoire millénaire, riche et complexe, les meilleurs spécialistes de ce passé et le multilinguisme comme culture profonde. Évidemment, des recherches similaires existent aussi en Amérique du Nord, notamment à l'université Stanford. La Chine développe ses propres programmes, pour le moment tournés vers la modélisation de son histoire millénaire. Mais si l'Europe se donne les moyens d'investir maintenant ce nouveau champ de recherche, elle peut devenir le leader mondial pour les cinquante ans à venir.

La réussite passera aussi par des programmes éducatifs ambitieux. Il s'agit de former une nouvelle génération de digital humanists, capables d'apprendre et de faire des projets sur le terrain, en contact direct avec le patrimoine.

Au fait, vous utilisez l'anglicisme digital plutôt que « numérique » pour qualifier ces humanités. Une forme d'internationalisation ?

F.K. En parlant d'humanités « digitales » plutôt que « numériques », certains pensent que nous commettons un anglicisme. Pourtant, le terme « digital » est riche, polysémique, et en plus de désigner les grandes transformations de notre époque, il est lié à la culture du doigté, du savoir-faire manuel. À l'inverse, le qualificatif « numérique » est pauvre, et dit, simplement, que tout se traduit en 0 et 1. Sans être des tenants de l'impérialisme anglo-saxon, à l'école polytechnique et à l'université de Lausanne, nous préférons ainsi parler de « digital », et nous sentons que ce terme commence à s'imposer dans la francophonie.
* Frédéric Kaplan a été nommé à l'été 2012 professeur de la chaire des humanités digitales, à l'école polytechnique fédérale de Lausanne (EPFL), une première en Suisse. Âgé de 38 ans et ingénieur de l'École nationale supérieure des télécommunications, à Paris, il s'est d'abord spécialisé en robotique et en intelligence artificielle à l'université Pierre-et-Marie-Curie, à Paris. Il a ensuite travaillé dix ans chez Sony. Il a rejoint l'EPFL en 2006, où il a développé ses recherches en humanités digitales, en lien avec des chercheurs de l'université de Lausanne.

 

 DOCUMENT      larecherche.fr      LIEN

 
 
 
Page : [ 1 2 3 4 5 6 ] Précédente - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales /confidentialité

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon