L’Emergence : Une limite au réductionnisme ? Une porte ouverte au libre arbitre ? Par Rémy Lestienne

1
L’Emergence : Une limite au réductionnisme ?
Une porte ouverte au libre arbitre ?
Rémy Lestienne
Directeur de Recherche honoraire, CNRS
remy.lestienne@bbox.fr
On doit en effet se rendre compte que la base de la pensée objective chez Descartes est trop étroite pour expliquer les phénomènes phy-siques. La méthode cartésienne est réductive, elle n’est point inducti-ve. Une telle réduction fausse l’analyse et entrave le développement extensif de la pensée objective. Or il n’y a pas de pensée objective, pas d’objectivation, sans cette extension. Comme nous le montrerons, la méthode cartésienne qui réussit si bien à expliquer le Monde, n’arrive pas à compliquer l’expérience, ce qui est la vraie fonction de la re-cherche objective. Gaston Bacherlard, Le Nouvel Esprit Scientifique (1934)
1. Une brève histoire de l’émergence
Dans le sens scientifique donné à cette notion, l’émergence est l’apparition soudaine de qualités nouvelles, inattendues, au cours du comportement d’objets naturels ou artificiels suffisamment compliqués. C’est l’idée que lorsqu’on considère des systèmes de plus en plus complexes, par exemple lorsque l’on passe des particules élémentaires aux molécules, puis des molécules inertes aux cellules vivantes – et donc que l’on franchit le seuil de l’apparition de la vie –, et plus tard des systèmes nerveux simples au cerveau de l’Homme – et donc que l’on franchit le seuil de l’apparition de la conscience –, lorsque donc on gravit les échelles de complexité, des propriétés nouvelles apparaissent, qui n’étaient pas attendues et ne sont pas explicables à partir des lois connues régissant les phénomènes à une échelle plus petite.
Bref, l’idée d’émergence conduit à une vision étagée de la nature, par paliers, et avec des effets de cliquet, dans la mesure où les propriétés émergentes une fois acquises sont stabilisées. Mais ne croyez pas qu’il s’agit là d’évènements rares ou qui ne nous concernent pas directement. L’idée peut même s’appliquer dans les sociétés humaines, telle une décision volontaire, ou la réalisation d’une oeuvre d’art par un artiste.
Voyons comment elle est apparue dans l’histoire. Cette idée a une histoire très ancienne, puisque Aristote lui-même expliquait que « le tout est plus que la somme de ses parties ». Mais du point de vue scientifique et philosophique elle a surtout pris son essor au
2
début du XXe siècle en Angleterre, sous la plume de philosophes comme Charles Broad, qui publia en 1925 « The Mind and its place in Nature » et Samuel Alexander, auteur de « Space Time and Deity », ou du biologiste Conwy Lloyd Morgan, qui publia sur la question les importants ouvrages « Emergent Evolution » en 1923 et « The Emergence of Novelty » dix années plus tard.
Dans les décades qui suivirent, l’idée s’estompa sous les coups du matérialisme philosophique, du positivisme logique et du behaviorisme, sans jamais disparaître tout à fait. Le matérialisme philosophique ne pouvait évidemment s’accommoder de l’idée que des phénomènes puissent échapper à l’enchainement habituel des causes et des effets. Le positivisme logique plaidait ardemment pour une hiérarchie des sciences et la réduction finale de toutes les sciences à la physique (Rudolf Carnap, The Unity of Science, 1934). Le behaviorisme, de son côté, tenait le système nerveux des animaux supérieurs et de l’Homme pour une espèce de boite noire trop complexe pour qu’on puisse dépasser l’observation systématique des corrélations entre les stimulations sensorielles et les réponses motrices. De ce fait, la conscience était exclue du champ de la recherche scientifique.
2. L’Emergence aujourd’hui
2.1. L’apport de la physique du solide
Après les années 1960, l’idée d’émergence reprit de la vigueur et ce mouvement se poursuit aujourd’hui. Une proportion encore minoritaire mais de plus en plus importante de scientifiques : physiciens du solide, biologistes, chimistes, spécialistes de neuroscience, la reprennent en compte, accompagnés par de nombreux philosophes, frappés par des exemples variés et parfois nouveaux qui plaident en faveur d’une limitation du réductionnisme.
Brian Josephson découvre l’effet éponyme en 1972 ; c’est l’émission d’ondes par un sandwich de supraconducteurs séparés par une mince couche isolante, dont la fréquence est une fonction simple de plusieurs constantes fondamentales (e, h, c). Il obtiendra la Prix Nobel pour cette découverte en 1973.
Klaus von Klitzing de son côté découvre à Grenoble en 1980 l’effet Hall quantique. A basse température, le potentiel de Hall prend des valeurs quantifiées qui sont aussi une fonction simple des constantes fondamentales. Il obtiendra le Prix Nobel en 1985.
Grâce à ces découvertes, la valeur des constantes fondamentales ne sont plus mesurées directement (comme Millikan l’avait fait pour la charge de l’électron), mais par ces effets qui
3
permettent de les atteindre avec une précision inégalée, d’autant mieux que la température est plus basse et que l’échantillon de semi conducteurs étudié est plus volumineux.
Aux yeux de certains scientifiques, tel Robert Laughlin (un physicien du solide américain qui a obtenu le Prix Nobel en 1988), le paradigme de l’émergence appelle un véritable renversement de notre vision du monde, une révolution de la pensée : les propriétés les plus fondamentales (la charge de l’électron par exemple, ou les lois de la nature) ne seraient plus données arbitrairement, elles ne préexisteraient pas au monde, comme on le pense généralement maintenant ; au contraire, elles dépendraient de l’organisation du tout, elles seraient un reflet de ses propriétés émergentes. C’est une idée très forte, une forme de holisme qui n’est pas sans rappeler le relativisme de la relativité générale d’Einstein (pour laquelle, rappelons-le, les propriétés géométriques de l’Univers dépendent de son contenu en matière et énergie). Elle semble cependant se heurter à l’invariance apparente des lois de la physique et de ses constantes fondamentales tout au long de l’évolution de l’Univers. Certains scientifiques, plus ou moins iconoclastes, se posent cependant sérieusement la question, tel Rupert Sheldrake, autour du livre « Réenchanter la Science », dont Muddock, le patron de Nature, a dit qu’il faudrait le brûler.
2.2. La vie et l’émergence de la biologie de synthèse
L’apparition de la vie sur la Terre est évidemment un excellent candidat à l’émergence. Une émergence longtemps préparée, car la terre, formée il y a quatre milliards et demi d’années, a selon nos connaissances actuelles attendu plus d’un milliard d’années l’apparition de la première cellule vivante, capable de reproduction et de métabolisme interne.
Mais ces propriétés : reproduction, métabolisme interne, sont-elles des propriétés émergentes exceptionnelles ? Je veux dire, peut-on penser faire franchir de nouveau, au laboratoire, le seuil de l’apparition du vivant, en construisant un être vivant de toutes pièces, à partir de composants totalement inertes ?
Ce défi prométhéen, la science d’aujourd’hui a décidé de l’affronter. La biologie de synthèse est la branche de la science correspondante. De nombreuses équipes de chercheurs se lancent dans l’aventure. Mais le laboratoire qui a le plus fait parler de lui ces dernières années est sans doute celui de Craig Venter, un chercheur américain qui s’était déjà illustré dans la course au déchiffrement complet de l’ADN humain, il y a une dizaine d’années.
Celui-ci a fait une grande publicité autour d’une expérience réussie en 2010, qu’il a annoncée comme le premier exemple de cellule vivante réellement synthétique. De fait, il a
4
réussi à synthétiser entièrement, brique par brique, l’ADN d’une bactérie vivante, à partir de la séquence publiée des nucléotides de cet ADN, et à transférer cet ADN dans une cellule d’une espèce voisine de bactérie (Mycoplasma Capricolum). Par une astuce de biologie moléculaire, l’ADN synthétique était programmée pour déplacer l’ADN de la bactérie originale et prendre sa place. La cellule ainsi reconstituée s’est effectivement remise à fonctionner, avec un métabolisme et une capacité de reproduction restaurée. Il a baptisé cette nouvelle espèce Mycoplasma Laboratorium !
Il faut remarquer cependant que Craig Venter n’a pas vraiment créé un être vivant synthétique, et ceci pour deux raisons au moins. D’une part, l’enchainement complet des nucléotides pour faire l’ADN synthétique n’est possible aujourd’hui qu’en s’aidant de levures chargées de raccorder entre eux les brefs brins d’ADN que nous savons produire en laboratoire. D’autre part cet ADN ‘synthétique’ n’a fonctionné que replacé dans une cellule déjà vivante. Mais l’étape franchie est importante, et certains spécialistes de la biologie de synthèse n’hésitent pas à prédire que la création d’êtres vivants réellement synthétiques aura certainement lieu dans un avenir pas très lointain.
Ouvrant la porte à de nouvelles révolutions industrielles, mais aussi à de redoutables défis éthiques.
2.3 le cerveau bayésien et émergent
Voyons maintenant si l’on peut regarder le cerveau, dans ses fonctions perceptives puis de conscience active, comme un agent émergentiste.
Et pour entrer directement dans le vif du sujet, laissez-moi vous poser une question. Vous savez que notre oeil fonctionne, en somme, comme un appareil photographique qui saisit la scène présente et l’apparence des objets qui la compose. Mais croyez-vous que votre système visuel vous donne juste une image fidèle de la réalité extérieure ? N’y ajoute-il pas quelque chose ? Comment caractériser ce quelque chose ?
Examinons l’image ci-dessous. Que voyez-vous ? Je pense que, comme moi, vous voyez ici cinq bosses, des demi-sphères comme des billes, en relief, et une en creux. Bien.
5
Figure 1. Un domino de boutons en relief…
Faisons maintenant pivoter cette image de 180 degrés, de telle sorte que le bord haut de l’image devienne maintenant le bord bas. On obtient l’image ci-dessous. Que voyez-vous maintenant ? Toujours cinq bosses et un creux ? Non, mais je pense, au moins pour la plupart d’entre vous, cinq demi-sphères en creux, et une en relief. Pourtant, c’est la même image ! Si vous n’êtes pas convaincus, reprenez la Figure 1, retournez le document, et observez le changement d’interprétation de l’image que fait votre esprit.
Figure 2. … et le domino complémentaire, ou bien est-ce le même ?
L’interprétation de l’image a changé brusquement, bien que le substrat soit resté rigoureusement le même. Nous pouvons dire, précisément, que l’interprétation des images a émergée par le traitement des données visuelles par le cerveau. En fait, dans le cas d’espèce, celui-ci a composé les données visuelles brutes avec ses souvenirs, qui lui disent qu’en général, la lumière vient presque toujours du haut. Il a éliminé l’ambiguïté de l’image et fait émerger une seule réalité.
6
Le cerveau, une machine à créer des cohérences
Car le cerveau est une formidable machine à créer des cohérences, à faire émerger des sensations éparses et parfois ambigües ou contradictoires une réalité subjective cohérente. De nombreux exemples d’illusions visuelles s’expliquent ainsi. Vous connaissez sans doute l’illusion de perspective de profondeur. Un exemple célèbre est celui des deux tables dont les plateaux sont identiques, mais orientées différemment (Figure 3). L’une a son grand côté presque horizontal, l’autre presque vertical, donnant l’idée de perspective de profondeur. Il est difficile de croire que les deux plateaux sont exactement superposables, mais c’est pourtant le cas. Le cerveau a interprété la scène en lui donnant une cohérence qui manque dans les détails (par exemple, le bord supérieur des tables dans le dessin devraient être un peu plus courts que ceux du bas. On reviendra plus loin sur d’autres exemples encore plus frappants de construction de cohérence dans une réalité qui en est dépourvue.
Figure 3. Le cerveau interprète cette image en lui restituant une profondeur qu’elle n’a pas, de sorte que la table de gauche paraît plus longue et plus étroite que celle de droite. En réalité les deux plateaux (grisés) sont exactement identiques et superposables.
La sélection de l’interprétation la plus probable parmi plusieurs possibles évoque un problème bien connu de la théorie de probabilités. Celui de l’évaluation de la probabilité des causes, avec son théorème fondateur qui est le théorème de Bayes. Sans entrer dans les détails de la théorie des probabilités, rappelons que ce théorème indique que pour évaluer la probabilité qu’un effet E observé soit la conséquence d’une cause donnée, disons C, on doit non seulement connaître la probabilité que la cause C entraîne l’effet en question, mais aussi la probabilité à priori que la cause C soit effectivement présente dans le contexte prévalent.
7
Le cerveau, qui n’est pas un appareil photographique mais une machine probabiliste bayésienne, sélectionne les interprétations évidentes des images présentées plus haut. Parce qu’il sait, grâce à son expérience acquise et à ses souvenirs mémorisés, que la lumière du jour vient presque toujours du haut, il sélectionne cette hypothèse et propose donc que dans la première image cinq des six boutons doivent être interprétés en relief. Dans ce mécanisme de sélection bayésienne, le cerveau a besoin non seulement des données sensibles, mais doit aussi avoir accès, à tout moment, d’un répertoire étendu de souvenirs qui lui permet d’évaluer les probabilités à priori des différentes causes possibles de ce qu’il voit ou ressent. D’une façon plus générale, le cerveau semble évaluer les probabilités des diverses interprétations du monde extérieur, et sélectionne la plus probable pour l’amener, et elle seule, à la conscience. Nous examinerons plus loin les fonctions volitives et nous examinerons les arguments pour étayer cette hypothèse du point de vue des neurosciences cognitives.
La minimisation de l’énergie libre, un principe bayésien d’organisation et de fonctionnement du cerveau
Ces dernières années, l’approche bayésienne du fonctionnement du cerveau a connu de nouveaux développements. Un groupe de l’University College de Londres, parmi lesquels en particulier Geoffrey Hinton et Karl Friston, ont proposé un paradigme général, qui semble très puissant pour expliquer le fonctionnement bayésien du cerveau et même beaucoup de détails de sa structure architecturale.
Comme nous l’avons vu, pour évaluer quelle est la cause la plus probable C d’un stimulus sensoriel E, il est d’abord nécessaire de calculer la distribution de probabilité P(C│E) en inversant la distribution de probabilité connue P(E│C), en utilisant la règle de Bayes. Toutefois, à l’exception de cas extrêmement simples, cette inversion directe n’est en général pas possible, parce qu’elle exige, comme nous l’avons rappelé plus haut, une évaluation précise des probabilités a priori de la présence des diverses causes possibles. La proposition de Friston et de ses collègues est que le cerveau, en fait, tirant avantage de l’information qu’il a mémorisée de ses expériences passées, propose une distribution Q(C) d’essai, calcule la distribution P(E’│C) résultante, et par itérations successives affine E’ pour la faire tendre vers E, la véritable distribution des stimulus (avec ses propres incertitudes).
Cette minimisation progressive de l’écart entre E’ (les données sensorielles reconstruites) et E (les données sensorielles réellement perçues) obéit, selon la théorie, a un paradigme général
8
de minimisation de l’énergie libre, définie en théorie de l’information, pour sa ressemblance formelle avec la définition de l’énergie libre en thermodynamique.
La théorie permet de comprendre pourquoi, dans le cerveau, les données sont traitées en de nombreux stages successifs (par exemple, pour la vision, en la séquence d’aires successives V1, V2, V3, etc.), et pourquoi les fibres qui suivent l’ordre descendant de ces stages sont bien plus nombreuses que les fibres ascendantes : ce sont les fibres descendantes qui apportent les modulations de l’activité cérébrale nécessaire à la correction progressive du modèle de causes proposé par le cerveau.
3. Les conditions d’apparition de l’émergence
Revenons aux conditions d’apparition des propriétés émergentes. Pour que de telles propriétés apparaissent, il faut du temps, car les systèmes complexes ne se construisent pas instantanément ; cette émergence est qualifiée de diachronique. L’un des critères souvent évoqués pour décider si un système a acquis des propriétés émergentes consiste à le désosser, à le séparer en ses constituants, et à essayer de le reconstruire par un simple réassemblage. Généralement, cette reconstruction instantanée échoue à reproduire les propriétés du système global ! Parfois les intervalles de temps nécessaires à cette création sont très brefs, comme pour l’apparition d’une pensée nouvelle, et parfois fort étalés dans le temps, comme pour la survenue d’une espèce nouvelle.
Une autre condition de l’apparition de propriétés émergentes est l’ouverture du système considéré sur l’environnement. Les systèmes fermés, isolés, ne s’organisent pas, contraints comme ils le sont par la loi de l’entropie croissante. Du point de vue de la philosophie de l’émergence, le temps et l’environnement sont donc les vrais universaux de la nature, même si leurs modes d’action sur les systèmes restent parmi les questions les plus délicates à traiter d’un point de vue scientifique.
Les degrés de l’émergence
Par ailleurs, les philosophes émergentistes ont distingué plusieurs degrés d’émergence. Les niveaux les plus bas sont qualifiés d’émergence faible, ou épistémique, car ils portent davantage sur les relations entre l’observateur et les systèmes que sur les systèmes eux-mêmes. Par exemple, pour raisonner commodément on peut faire appel à des noms nouveaux désignant un système dans sa globalité sans que cela implique nécessairement des ruptures dans le réductionnisme. On parlera par exemple de molécules en chimie sans prétendre que
9
leurs propriétés ne sont pas réductibles à celle d’atomes ; ou bien on parlera d’organes en médecine, sans prétendre que leurs propriétés transcendent celle de leurs cellules constituantes. On parlera encore d’émergence faible quand on évoquera des systèmes dont on ne savait pas prédire à l’avance les propriétés que l’on a observé avec surprise, mais que l’on peut finalement expliquer après-coup par les lois qui régissent ses constituants. Un exemple préféré des fondateurs de l’émergentisme anglo-saxon et celui de de la liquidité de l’eau, très surprenante bien sûre pour des chimistes qui, dans les conditions ordinaires de leur laboratoire, comme Lavoisier, n’auraient connu l’hydrogène et l’oxygène que sous la forme gazeuse.
Il existe cependant une catégorie spéciale d’émergence que l’on qualifie d’émergence forte. C’est une émergence radicale en ce sens que les propriétés du tout ne sont plus explicables, même à posteriori, par les lois qui règlent leurs composants. Comme Lloyd Morgan y insistait, pour que les exemples correspondants échappent à une explication réductionniste, il faut admettre que dans ces systèmes le tout exerce un pouvoir spécifique sur leurs constituants. C’est ce qu’on appelle la causalité descendante, ou ‘top-down’ comme disent les Anglo-Saxons.
4. Conscience et émergence
Le corps et la pensée : l’exemple paradigmatique d’émergence forte ?
Le cas d’émergence le plus souvent discuté par les philosophes, et aujourd’hui par les neurobiologistes, est celui des rapports entre le corps et la pensée, entre le cerveau et l’esprit : c’est le pas de la conscience, entendue ici comme conscience de soi et du monde, et de la possibilité d’action sur le monde par un usage libre de la raison. C’est l’exemple paradigmatique d’émergence forte proposé par Morgan et défendu par des philosophes comme Karl Popper ou Alfred North Whitehead, et bien d’autres aujourd’hui (David Chalmers, Jerry Fodor, Paul Davies), car l’émergence forte semble nécessaire à l’existence d’un libre arbitre.
On connaît la solution proposée à ce problème par Descartes : à la différence du corps, la pensée ne serait pas une propriété du monde matériel, de l’étendue. Mais le dualisme cerveau et esprit pose la redoutable question des interactions entre ces deux entités. Comment la volonté peut-elle commander mon corps ? La solution suggérée par Descartes (la petite glande pinéale, ou épiphyse, au centre du cerveau, serait l’organe de liaison entre les deux réalités) est une pure spéculation, totalement abandonnée aujourd’hui.
10
La solution spinoziste pose qu’il n’y a qu’une seule sorte de réalité, car « l’esprit et le corps, c’est une seule et même chose, qui se conçoit sous l’attribut tantôt de la pensée, tantôt de l’étendue ». Pour les spinozistes, pensée et états du cerveau jaillissent de conserve de cette même réalité, ce qui explique leur parallélisme constant. Cette solution est bien plus attrayante que celle de Descartes et inspire, encore aujourd’hui, de nombreux philosophes et de nombreux neurobiologistes. A mon avis, elle n’en continue pas moins de poser des problèmes à propos des interactions entre esprit et cerveau, dans la mesure où, selon Spinoza, ces deux attributs sont totalement étrangers l’un à l’autre. Rappelons que pour lui, le libre arbitre n’est qu’une illusion, réductible à l’acquiescement tacite que nous donnons à nos déterminations intérieures.
Un point de vue moniste mais interactionniste a été brillamment défendu par le neuroscientifique Roger Sperry (Prix Nobel 1981), à la suite des observations minutieuses qu’il avait effectuées sur des patients dont on avait sectionné, pour des raisons médicales, le corps calleux — cet épais faisceau de fibres qui assure les échanges nerveux entre les deux hémisphères du cerveau (pour une présentation plus détaillée, voir Lestienne, 2013).
En coupant le corps calleux (ou commissure centrale), ainsi que deux autres commissures mineures entre les deux hémisphères cérébraux, les neurochirurgiens isolent totalement ceux-ci : désormais, chacun d’eux traite de façon tout à fait indépendante les données sensorielles qu’il reçoit. Or, à cause du croisement général des fibres nerveuses du système nerveux central à l’entrée et à la sortie du cerveau, l’hémisphère gauche traite les informations visuelles, auditives, tactiles, et motrices de la partie droite du champ visuel, de l’oreille droite et des membres de la partie droite du corps. Le cerveau droit, quant à lui, traite les informations visuelles, auditives, tactiles, et motrices de la partie gauche du champ visuel, de l’oreille gauche et des membres de la partie gauche du corps. Cependant, c’est le cerveau gauche – et, chez la grande majorité des personnes, lui seul – qui traite de l’élaboration de la parole. Privés de relations entre les deux hémisphères, les patients commissurotomisés ne peuvent pas parler de ce qui leur est présenté dans la partie gauche de leur champ visuel, ni décrire les objets qu’ils effleurent de la main gauche, même s’ils sont tout à fait capable de les identifier, de les mémoriser, de ressentir à leur sujet des émotions, etc.
11
Figure 5. Le cerveau humain, vu par en dessus. Le corps calleux, l’épais faisceau de fibres qui assure les échanges d’information entre les hémisphères droit et gauche a été sectionné chez les patients étudiés par l’équipe de Roger Sperry. Celui-ci a résumé sur cette figure les spécialisations observées de chaque hémisphère. Les patients commissurotomisés, dont le centre du langage est situé à gauche, sont incapables de rendre compte oralement des sensations perçues par le cerveau droit (on notera que l’olfaction fait exception à la règle générale du croisement des fibres sensorielles dans le cerveau). Après Sperry, 1968.
Figure 6. Dispositif expérimental utilisé par Sperry et son équipe pour tester les spécificités des hémisphères cérébraux chez les patients commissurotomisés. Le projecteur projette des images éventuellement différentes sur les parties droite et gauche de l’écran. Les objets soumis à l’exploration tactile du patient sont cachés à sa vue par le rebord de l’écran. Après Sperry, 1968.
12
Roger Sperry et son équipe ont constaté que chez ces patients les cerveaux droits et gauche, chacun pour leur compte et indépendamment l’un de l’autre, montraient des capacités cognitives semblables : la capacité de percevoir, de s’émouvoir, de mémoriser, etc… Mais, comme les centres de la parole sont, chez la grande majorité des personnes, localisés uniquement dans le cerveau gauche, ces patients sont incapables de décrire par des paroles ce qu’ils voient dans l’espace gauche de leur champ visuel, qui est traité par leur cerveau droit.
Pourtant, chez ces patients il n’y a pas de dédoublement de la conscience : l’unité de conscience est préservée. Au besoin, ils affabulent au sujet des sensations ressenties par le cerveau droit, pour conserver la cohérence de leur conscience. Par exemple, si on montre sur le côté gauche du champ visuel un tableau coquin, tel l’origine du monde de Courbet, le patient rougit. Si on lui demande pourquoi il rougit, il répondra par exemple qu’il est sujet à des bouffées de chaleur.
Pour Roger Sperry en effet, l’unité de la conscience chez ces patients comme chez les sujets normaux, l’apparition d’états psychologiques bien identifiés comme celui de la douleur, ou encore la continuité parfaite du champ de vision entre le champ visuel droit et le champ visuel gauche, tous ces exemples ne peuvent s’expliquer que par la capacité du cerveau dans sa globalité à provoquer la survenue de bifurcations dans les états des réseaux nerveux sous-jacents, de les organiser en un ensemble cohérent, bref d’une action causale top-down de la pensée sur les processus neurophysiologiques.
Peut-on dire pour autant que tous les problèmes liés à l’émergence forte soient résolus ? Les philosophes logiciens disputent cette question. Le problème le plus délicat est celui des ruptures temporelles que l’émergence forte implique, comme y insiste Jaegwon Kim, un épistémologue américain actuel. Mais cette difficulté n’est peut-être pas insurmontable, car le temps garde ses mystères, et le statut épistémologique de cette notion et sa transposition dans les sciences exactes ne sont pas encore complètement éclaircis (pour une discussion plus détaillée, voir Lestienne 2012).
Finalement, l’idée proposée par les avancées nouvelles des sciences cognitives est bien celle d’un cerveau émergentiste, en deux étapes :
– Un cerveau émergentiste faible et bayésien pour les stades perceptifs et automatiques,
– Un cerveau émergentiste fort possible pour la conscience volitive, peut-être réservée aux mamifères supérieurs.
13
Dans un article relativement récent, cette situation est illustrée par le schéma ci-dessous (Figure 4)
Figure 4. L’intentionnalité humaine dans une perspective bayésienne. Après la sélection bayésienne de l’interprétation la plus probable des données sensorielles, grâce à leur comparaison avec un répertoire mémorisé et sélection selon les règles de Bayes, cette interprétation est transmise aux centres de décision où elle est comparée au répertoire des actions possibles (où la mémoire joue également un grand rôle). La décision prise dépend de l’évaluation des gains attendus pour chaque décision possible. Après Ernst et Bülthoff, 2004, et le cours du Collège de France de S. Dehaenne, 2012.
Emergence, liberté et création
La création artistique, la découverte scientifique, l’invention technologique, les consensus sociaux suivent probablement des chemins semblables à ceux que nous avons évoqués jusqu’ici. Parce qu’ils impliquent un moment critique d’inventivité diachronique, et parce qu’ils sont sous l’influence indispensable d’apports environnementaux extérieurs, ces exemples semblent bien obéir aux canons de l’émergence et même de l’émergence forte. Cela dit, ces moments de liberté créatrice, particulièrement dignifiants, sont peut-être rares. Rappelez-vous ce qu’écrivait à ce sujet Henri Bergson :
« … Les actes libres sont rares, même de la part de ceux qui ont le plus coutume de s’observer eux-mêmes et de raisonner sur ce qu’ils font […] Nous sommes libres quand nos
14
actes émanent de notre personnalité entière, quand ils l’expriment, quand ils ont avec elle cette indéfinissable ressemblance qu’on trouve parfois entre l’oeuvre et l’artiste ».
Comment pourrais-je mieux conclure cette intervention que par cette citation ?
Références
Bergson, H., 1889. Les Données Immédiates de la Conscience, réed. Paris:PUF, 1988, p:126.
Dehaenne, S. 2012. Le cerveau bayésien : la révolution bayésienne dans les sciences cognitives. Cours du Collège de France 2012. Les cours sont téléchargeables à l’adresse http://www.college-de-france.fr/site/stanislas-dehaene Ernst MO, Bülthoff HH., 2004. Merging the senses into a robust percept, Trends Cogn. Sci.:162-169. Friston, K., 2003, Learning and inference in the brain, Neural Networks, 16: 1325-1352. Friston, K., 2010, The free-energy principle : a unified brain theory ?, Nat. Rev. Neurosci., 11:127-138. Kim, J, 2008. The nonreductivist’s troubles with mental causation, in: Mark A. Bedau & Paul Humphreys (éds.) Emergence : Contemporary Readings in Philosophy and Science, Cambridge (Mass.), MIT Press.
Lestienne E., 2012. Dialogues sur l’Emergence. Paris: Editions Le Pommier.
Lestienne R., 2013. Emergence and the mind-body problem in Roger Sperry’s studies, Kronoscope, 13: 112-26.
Massin M., 2007. La Pensée Vive, essai sur l’inspiration philosophique. Paris: Armand Colin.
Sperry, R., 1968. Hemispheres deconnection and unity in conscious awareness. American Psychologist, 23:723-733.
Sperry, R. 1980. Mind-Brain interaction: mentalism, yes; dualism, no, Neuroscience, 5:195-206.
Sperry, R. 1981. Some effects of disconnecting the cerebral hemispheres, Nobel lecture of 12/8/1981, The Nobel Foudation.

Publicités

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s