Academia.eduAcademia.edu

De l'intelligence artificielle à l'organologie de l'esprit

Communication lors des Entretiens du Nouveau Monde Industriel « Prendre soin de l'informatique et des générations » 22-23 décembre 2020 Ce texte est une version préparatoire du texte suivant : « Vers une organologie de l’esprit : peanser l’exosomatisation de la noèse à l’époque du  screen new deal. » in A. Alombert, V. Chaix, M. Montévil, V. Puig (dir), Prendre soin de l’informatique et des générations, Paris, FYP, 2021.

De l’intelligence artificielle à l’organologie de l’esprit : peanser l’exosomatisation de la noèse à l’époque du screen new deal Anne Alombert (Université Paris 8) Communication lors des Entretiens du Nouveau Monde Industriel « Prendre soin de l’informatique et des générations » 22-23 décembre 2020 Ce texte est une version préparatoire du texte suivant : « Vers une organologie de l’esprit : peanser l’exosomatisation de la noèse à l’époque du screen new deal. » in A. Alombert, V. Chaix, M. Montévil, V. Puig (dir), Prendre soin de l’informatique et des générations, Paris, FYP, 2021. Introduction : le contexte du « screen new deal », « de l’utopie numérique au choc social ». Le 8 mai 2020, alors que la pandémie de Covid-19 s’était généralisée dans tous les pays, donnant lieu à différentes formes de confinements et augmentant considérablement le temps passé devant les écrans, le magazine américain The Intercept publiait un article de la journaliste Naomi Klein, intitulé « The screen new deal1 » et traduit en français sous le titre « La stratégie du choc du capitalisme numérique2 ». Dans cet article, Naomi Klein montrait comment les entreprises technologiques planétaires tentaient de s’emparer du choc sanitaire afin d’étendre leur pouvoir et leur portée, dans le contexte d’une guerre économique opposant les Etats-Unis à la Chine. Elle rapprochait ce phénomène de la « stratégie du choc » qui caractérise selon elle le néolibéralisme, et qui consiste à profiter des chocs psychologiques provoqués par les catastrophes de tous types pour imposer aux sociétés des réformes économiques visant à soumettre la puissance publique aux règles du marché. Selon Naomi Klein, les entreprises numériques issues de la Silicon Valley seraient actuellement en train de profiter de la situation pandémique pour imposer leurs dispositifs technologiques et leur modèles économiques, notamment dans les champs de la télémédecine et du téléenseignement mais aussi de la surveillance de masse et de la ville intelligente. Cette stratégie relève de ce que le chercheur Evgeny Morozov avait décrit comme un « solutionnisme technologique3 », qui consiste à imposer aux populations des systèmes industriels dits « intelligents » (smart) dans le but de régler des problèmes sociaux et politiques, mais indépendamment néanmoins de toute délibération collective concernant le fonctionnement de ces systèmes, dont la plupart constituent ce que le philosophie Gilbert Simondon décrivait comme des objets industriels fermés4, indéchiffrables et automatisés, qui 1 Naomi Klein, “Screen New Deal”, The Intercept, 8 May 2020. URL: https://theintercept.com/2020/05/08/andrew-cuomo-eric-schmidt-coronavirus-tech-shock-doctrine/ 2 Christophe Bonneuil et Hélène Tagand, « La stratégie du choc du capitalisme numérique », Terrestres, 17 mai 2020. URL : https://www.terrestres.org/2020/05/17/la-strategie-du-choc-du-capitalisme-numerique/ 3 Evgeny Morozov, Pour tout résoudre, cliquer ici. Les aberrations du solutionnisme technologique, FYP, Paris, 2014. 4 Gilbert Simondon, Du mode d’existence des objets techniques, Aubier, Paris, 1958. sont aujourd’hui souvent au service d’une économie des données. En temps de confinement, cette data economy tend à devenir une shut-in economy, c’est-à-dire, une économie exclusivement basée sur la consommation de services à la demande, médiatisés par des plateformes numériques, qui requiert le travail invisible et précaire d’individus pour des entreprises extra-territoriales, au détriment du développement des activités économiques locales, dans un contexte où les emplois traditionnels tendent eux-mêmes à disparaître sous l’effet de l’automatisation. Outre son insolvabilité intrinsèque5, ce modèle technologique et économique pose aussi un certain nombre de problèmes sur les plans environnementaux et sociaux. La collecte de quantité massive de données et leur traitement algorithmique en temps réel suppose leur stockage dans des serveurs dont la consommation énergétique semble accélérer la catastrophe écologique. De plus, l’économie de l’attention qui caractérise le fonctionnement des applications engendre des usages addictifs fondés sur la satisfaction immédiate des pulsions, qui tendent à épuiser les énergies psychiques des individus et à disséminer leurs attentions. Cette dispersion attentionnelle et cette économie pulsionnelle tendent elle-même à courtcircuiter les temps au cours desquels les pulsions se socialisent en se sublimant, et à perturber ainsi les processus d’individuation psychique et collective constitutifs des sociétés humaines. C’est dans ce contexte triplement problématique, à la fois du point de vue de l’écologie environnementale, de l’écologie mentale et de l’écologie sociale 6, que Bernard Stiegler propose de repenser le modèle économique actuel sur la base d’une nouvelle conception de l’informatique théorique7. 1. Retour aux fondements théoriques de l’informatique : information, cognition, computation Dans ses derniers travaux8, Bernard Stiegler soutient en effet que la seule manière de faire face à nouvelle stratégie du choc mise en œuvre par les entreprises numériques de la Silicon Valley consiste à revenir aux origines théoriques des modèles économiques et des dispositifs technologiques contemporains. Il rappelle que la stratégie du choc décrite par Naomi Klein depuis une dizaine d’années, et qui se poursuit aujourd’hui, est avant tout une doctrine du choc, au sens d’une matrice conceptuelle, logique et théorique, notamment élaborée dans les années 1970, à travers les travaux de Friedrich Hayek et de Herbert Simon, deux auteurs pionniers dans les champs de l’économie de l’information (thématisée par Hayek dès 19459) et de l’économie de l’attention (thématisée par Simon en 197110). Mais Hayek et Simon n’étaient pas seulement des économistes : ils sont aussi connus pour leurs travaux en psychologie cognitive, une discipline qui s’est particulièrement développée entre les années 1950 et les années 1970 et qui a pour principal but d’expliquer objectivement le fonctionnement de l’esprit humain, et plus précisément de la cognition, à partir des notions d’information et de traitement d’information. Outre leurs théories économiques, Hayek et Simon sont en effet les auteurs d’ouvrages pionniers dans ce 5 Sur ce point, voir Bernard Stiegler, La société automatique, t.1 L’avenir du travail, Fayard, Paris, 2015. 6 Nous reprenons ici les trois écologies décrites par Félix Guattari dans Les trois écologies, Galilée, Paris, 1989. 7 Bernard Stiegler, « Noodiversity, technodiversity. Elements of a new economic foundation based on a new foundation for theoretical computer science», trans. Daniel Ross, in Angelaki, n°25, 2020, pp. 67-80. 8 Nous nous référons ici à l’article susmentionné, ainsi qu’aux dernières séances du séminaire Pharmakon 2020, dont les enregistrements sont consultables en ligne : https://iri-ressources.org/collections/season-59.html. 9 Friedrich Hayek, “The use of knowledge in society”, The American Economic Review, Vol. 35, N° 4., 1945, pp. 519-530. 10 Herbert Simon, “Designing organizations for an information rich world”, in M. Greenberger (ed.), Computers, communications, and the public interest., The Johns Hopkins Press, Baltimore, 1971. champ.Dans The sensory order11, publié en 1952, Hayek propose une conception de l’esprit comme système de classification permettant de connecter les stimuli sensoriels (ou objets) à des états mentaux (ou catégories) : il anticipe ainsi la conception connexionniste de l’esprit qui se développera par la suite dans le champ des sciences cognitives. Dans Models of thought12, un recueil d’articles datant des années 1950 aux années 1970, Simon tente quant à lui d’expliquer les processus mentaux (de la perception à la prise de décision) à partir d’un petit nombre de mécanismes de traitement d’information, dont la combinaison permet d’effectuer des tâches de plus en plus complexes, et qui peuvent être modélisés dans des systèmes informatiques, qualifiés « d’intelligence artificielle ». L’économie de l’information et l’économie de l’attention qui émergent alors, et qui aboutiront à l’économie des données actuelle, semblent ainsi se fonder sur des théories « informationnelles » ou « computationnelles » de la cognition et du comportement, théories qui ont elles-mêmes vu le jour sur la base des découvertes techniques et des travaux scientifiques alors émergents. En effet, la notion d’information, qui est alors mobilisée pour penser la cognition, est une notion qui vient tout juste de faire son apparition dans le champ scientifique et technique des années 1950, notamment à travers le développement de l’informatique et de la théorie de l’information. Comme le rappelle Giuseppe Longo dans un article intitulé « Complexité, science et démocratie13 », « la notion d’information peut être spécifiée au moins par deux théories scientifiques, rigoureuses et importantes : l’élaboration de l’information, à partir des travaux Turing, et la transmission de l’information à partir des travaux Shannon. ». Ce qui caractérise cette notion d’information, précise Giuseppe Longo, c’est qu’elle ne dépend ni du code, ni du support : « Cette invention ancienne, formalisée de façon révolutionnaire par Turing en 1936 et essentielle ensuite à Shannon, a permis de distinguer le logiciel (software) du matériel (hardware) et de proposer une théorie autonome de la programmation, ou de la transmission, indépendante du support matériel, grande richesse de la pratique informatique. » Il semble néanmoins que cette distinction entre information et support ou entre logiciel et matériel, qui fait donc la grande richesse de la pratique informatique, ait eu un certain nombre de conséquences idéologiques problématiques : comme le souligne Mathieu Triclot dans un article intitulé « La notion d’information dans la cybernétique 14 », ce dualisme entre information et support ou entre logiciel et matériel va progressivement se voir transposé dans le champ des sciences humaines, et servir pour penser les rapports entre esprit et cerveau. Alors même que les tenants de la théorie informatique, de la théorie de l’information ou de la cybernétique ne soutiennent pas de tels propos, le paradigme cognitiviste, qui servira de base aux futures sciences cognitives, se développe en effet à partir de l’idée selon laquelle il existe le même rapport entre l’esprit et le cerveau qu’entre le logiciel (software) et le matériel (hardware) ou qu’entre le programme et la machine - si bien que les processus cognitifs, assimilées à des opérations logiques effectuées sur des symboles élémentaires, pourraient finalement être réalisés par n’importe quel dispositif matériel (peu importe que sa structure soit mécanique, électronique ou organique). L’esprit est ainsi assimilé à un système 11 Friedrich Hayek, The sensory order. An inquiry into the foundations of theoretical psychology, The University of Chicago Press, Chicago, 1952. 12 Herbert Simon, Models of thought, Yale University Press, Yale, 1979. 13 Giuseppe Longo, “Complexité, science et démocratie”, trans. S. Longo, MEGAchip, Democrazia nella comunicazione. URL: https://www.glass-bead.org/research-platform/complexite-science-et-democratie-entretien-avec-giuseppelongo/?lang=enview 14 Mathieu Triclot, « La notion d’information dans la cybernétique. », Journée ”Histoire et didactique des sciences”, Lirdhist, Lyon 1, 2004. URL: https://hal.archives-ouvertes.fr/hal-01526661 computationnel transformant des entrées (input) en sorties (output), qui peut se réaliser dans des machines très différentes, le cerveau ou le corps humain n’étant qu’un des supports possibles parmi d’autres. De là découlera le mythe de l’intelligence artificielle 15, selon lequel une machine pourrait penser, ou inversement, mais ce n’est que le revers de la même idée, le mythe du téléchargement de l’esprit, selon lequel l’esprit pourrait être téléchargé sur un support électronique et conservé après la mort de l’individu biologique, comme le prétendent certains discours transhumanistes, et comme le tentent certaines start ups de la Silicon Valley16. Outre qu’elles reposent sur un dualisme problématique (entre information et support, logiciel et matériel, esprit et cerveau), ces conceptions cognitivistes de l’esprit ont surtout pour caractéristique de prendre l’informatique, et plus précisément le fonctionnement des ordinateurs, comme modèle général de la pensée, alors même que l’informatique et les ordinateurs constituent une technologie très spécifique et singulière, qui s’inscrit elle-même dans un processus d’évolution technique millénaire. 2. Repenser les rapports entre cerveaux, techniques et esprits : de l’analogie à l’organologie Cette tendance à penser l’esprit sur le modèle des dernières inventions techniques n’est pas nouvelle. En 1925, vingt-cinq ans avant l’apparition du premier ordinateur, Freud tentait déjà de penser les rapports entre conscience et mémoire sur le modèle du bloc magique, un « petit instrument » qui venait alors d’être « lancé sur le marché » pour remplacer la feuille et l’ardoise, et qui lui semblait correspondre à la représentation qu’il se faisait de l’appareil psychique17. Néanmoins, comme le précisera Canguilhem dans les années 198018, si elles peuvent servir de « modèles heuristiques » dans le cadre de réflexions scientifiques ou d’expérimentations techniques, ces métaphores ou ces analogies entre machine et esprit courent toujours le risque de se répandre dans la société, alors qu’elles posent un certain nombre de difficultés. En effet, comment une technologie particulière pourrait-elle servir de modèle général pour concevoir la pensée ? Comment le pourrait-elle a fortiori, puisque son invention elle-même présuppose la pensée qu’elle est censée modéliser ? Quelle est la valeur d’un modèle quand le modèle prétend modéliser ses propres conditions de possibilités ? Tant que de telles questions ne sont pas posées, selon Canguilhem, les notions de « cerveau conscient », « machine consciente », « cerveau artificiel » ou « intelligence artificielle » risquent de demeurer des expressions non pertinentes, voire des métaphores trompeuses, dans la mesure où elles tendent à nous faire oublier que la machine informatique, tout comme le bloc magique, constitue une étape dans un processus d’extériorisation technique au cours duquel des systèmes d’écritures et de numération de plus en plus complexes se sont développés, ainsi que des instruments de calculs, d’abord mécaniques puis électroniques et numériques, mais dont la structure n’a aucun rapport avec celle des organismes vivants auxquels on attribue la capacité de penser. Lorsque Bernard Stiegler affirme la nécessité de repenser l’informatique théorique hors du paradigme computationnel et sur la base d’une nouvelle considération de l’évolution technique, qui s’appuie elle-même sur les réflexions de Canguilhem, sans doute suggère-t-il donc de ne plus prendre une technologie particulière, l’ordinateur, comme métaphore pour 15 Ray Kurzweil, The age of intelligent machines, MIT Press, Cambridge, 1990. 16 https://siecledigital.fr/2018/03/29/nectome-startup-vous-rendre-immortel/ 17 Voir le commentaire du texte de Freud par Derrida dans Jacques Derrida, « Freud et la scène de l’écriture » in L’écriture et la différence, Seuil, Paris, 1967. 18 Georges Canguilhem, « Le cerveau et la pensée » (1980) in G. Canguilhem, philosophe, historien des sciences, 1992, pp. 11-33. expliquer le fonctionnement de l’esprit, mais de penser plutôt la co-évolution des organismes biologiques et des organes artificiels, donc la co-évolution des fonctions motrices et sensorielles, mais aussi des fonctions cognitives, psychiques et mémorielles, et des supports matériels qui constituent leurs conditions de possibilités. Il s’agirait ainsi de passer d’un paradigme analogique (qui prend une technologie comme modèle général de la pensée) à un paradigme organologique, qui interroge la manière dont les dispositifs techniques affectent et transforment les organismes psychosomatiques, et en particulier, leurs fonctions psychiques, intellectuelles, cognitives et noétiques - bref, les fonctions qui leurs permettent de connaître et de penser, mais aussi, et indissociablement, de rêver et de désirer. Derrida ne suggérait pas autre chose en commentant la note de Freud sur le bloc magique : il invitait lui aussi à considérer les appareils techniques non pas comme des modèles de l’appareil psychique, mais comme des bouleversements de sa structure elle-même19. Ce bouleversement des structures psychiques par les dispositifs techniques, cette coévolution entre facultés mentales, cognitives ou noétiques et supports artefactuels ou hypomnésiques est ce que Bernard Stiegler décrit comme une « exosomatisation de la noèse »20. Il soutient ainsi que la faculté de connaître ou de penser n’est pas une faculté universelle et homogène, mais évolue et se diversifie en fonction des dispositifs exosomatiques qui lui permettent de s’exercer, et à travers lesquels les fonctions noétiques (comme la mémoire, l’intuition, l’entendement et l’imagination) sont extériorisées ou exosomatisées. 3. Vers une conception organologique de l’informatique : peanser l’exosomatisation des fonctions noétiques Cette notion d’exosomatisation n’est elle-même pas nouvelle : elle est mobilisée pour la première fois en 1945 par le mathématicien et biologiste Alfred Lotka, cinq ans avant la construction du premier ordinateur, alors que les technologies de l’information et de la communication sont en plein développement. Dans un article publié dans la revue scientifique Human Biology21, Lotka souligne alors la multiplication des « méthodes d’enregistrements » qui permettent aux hommes de son époque d’accumuler des connaissances en les stockant dans ce qu’il décrit alors comme des « organes exosomatiques », c’est-à-dire des organes techniques situé hors des organismes. Pour Lotka en effet, l’espèce humaine se caractérise par la production d’organes artificiels, qui servent d’auxiliaires aux organes biologiques, en augmentant notamment les fonctions perceptives, effectives et motrices. Chez l’homme, ces fonctions ne sont plus exercées seulement par les organismes, mais à travers un couplage entre organes vivants et organes artificiels (par exemple, la vue peut s’exercer à travers un couplage entre les yeux et les lunettes, l’audition à travers un couplage entre les oreilles et les téléphones, l’action ou les déplacements à travers un couplage entre les muscles et les outils ou les véhicules). 19 « Car si les bouleversements en cours affectaient les structures mêmes de l’appareil psychique, par exemple dans leur architecture spatiale et dans leur économie de la vitesse, dans leur traitement de l’espacement et de la temporalisation, il ne s’agirait plus d’un simple progrès continu dans la représentation, dans la valeur représentative du modèle, mais d’une toute autre logique. », Jacques Derrida, Mal d’archive, Galilée, Paris, 1994, p. 32. 20 Sur cette question, voir Bernard Stiegler, « Le nouveau conflit des facultés et des fonctions dans l’Anthropocène » in La technique et le temps, Fayard, Paris, 2018, p. 847. 21 Alfred Lotka, “The Law of Evolution as a Maximal Principle”, Human Biology 17, 1945, pp. 167–194. Vingt ans plus tard, les découvertes de la paléoanthropologie semblent venir confirmer l’idée de Lotka. Dans Le geste et la parole22, Leroi-Gourhan suggère en effet que si l’on s’en tient aux données paléoanthropologiques, l’homme ne se caractérise ni par une propriété intelligente qui lui épargnerait un comportement instinctif, ni par la supériorité de son volume cérébral qui lui conférerait une place à part parmi les autres espèces animales. Il se caractérise plutôt par sa bipédie et sa station debout, qui libère ses mains pour la fabrication d’outils et sa bouche pour le langage. A travers leurs productions techniques, les humains extériorisent les chaînes opératoires caractéristiques de leurs conduites. A travers toutes sortes de proverbes et de préceptes, le langage servira de support pour une mémoire sociale, qui se sédimentera aussi à travers différents types d’inscriptions écrites, pictographiques, mythographiques, puis alphabétiques. L’homme se caractérise ainsi par sa capacité à « placer sa mémoire en dehors de lui-même », dans les artefacts et les systèmes d’écritures, qui transforment à chaque fois en retour le fonctionnement de son cerveau et ses capacités mémorielles, intrinsèquement liées aux supports artificiels. Dix ans plus tard, le rôle de cette mémoire artificielle sera souligné dans le champ de l’épistémologie cette fois, par le philosophe Karl Popper23 qui remarque lui-aussi l’évolution « exosomatique » ou « extra-personnelle » de la mémoire humaine, à travers le papier, les crayons, les stylos, les machines à écrire, les dictaphones, les presses d’imprimerie, les bibliothèques et les ordinateurs. Cela ne signifie pas, pour Popper, que les stylos, les machines à écrire ou les ordinateurs puissent penser, réfléchir ou se souvenir, mais que la faculté de connaître qui fait l’objet de l’épistémologie, résulte d’un couplage entre les organes endosomatiques ou biologiques (notamment les cerveaux) et les organes exosomatiques ou techniques. La connaissance n’est donc pas une simple faculté cognitive qui se déroulerait dans les esprits individuels à travers la manipulation de représentations mentales, ni une simple faculté biologique, qui se déroulerait dans le cerveau à travers des connexions neuronales. Si elle défie tout réductionnisme, une telle thèse ne s’oppose pas pour autant aux découvertes neuroscientifiques, qui sont alors en plein développement. En effet, cinq ans plus tard, c’est dans le champ des neurosciences que l’idée d’une « mémoire exosomatique » se voit mobilisée, notamment dans le célèbre livre de Jean-Pierre Changeux intitulé L’homme neuronal24. Paradoxalement, après avoir tenté d’identifier activités mentales et activités cérébrales, Jean-Pierre Changeux lui-même décrit l’écriture comme une mémoire « extra-cérébrale », qui donne aux images et aux concepts une « durée de vie supérieure à celle du système nerveux qui les a produits », et qui permet ainsi la constitution d’une mémoire culturelle, perpétuée de génération en génération, sans être inscrite dans les gènes. L’homme neuronal s’achève ainsi sur la nécessité de confronter les acquis des neurosciences à ceux des sciences humaines. Pendant ce temps, depuis les années 50, dans le champ des sciences humaines justement, le rôle de l’environnement, et en particulier des objets techniques, dans le développement psychique et dans les activités de pensée a été largement réévalué. Dans le champ de la psychanalyse tout d’abord, à travers les travaux de Donald Winnicott, qui insiste sur la fonction des objet transitionnels dans la constitution des capacités de perception et d’imagination, depuis les activités de jeu de l’enfant jusqu’aux activités culturelles, qui ne se situent ni dedans ni dehors, ni « dans la tête » ni « dans le monde », mais dans l’espace potentiel que constitue les relations entre individus et environnements25. 22 André Leroi-Gourhan, Le geste et la parole, t. 1 Technique et langage, Albin Michel, Paris, 1964 et André Leroi-Gourhan, Le geste et la parole, t. 2 La mémoire et les rythmes, Albin Michel, Paris, 1965. 23 Karl Popper, La connaissance objective (1965 – 1971), trad. Jean-Jacques Rosat, Flammarion, Paris, 2009. 24 Jean-Pierre Changeux, L’homme neuronal (1983), Fayard, Paris, 2012, p. 341. 25 Donald Winnicott, Jeu et réalité, trad. Claude Monod et J.-B. Pontalis, Gallimard, Paris, 1975. Dans le champ de l’anthropologie sociale et de l’ethnologie ensuite, à peu près au même moment, les travaux de Jack Goody26 soulignent le rôle des supports, des instruments ou des outils dans l’activité de pensée. Selon Goody en effet, les « méthodes d’enregistrement » décrites par Lotka ne servent pas seulement à conserver les idées, les récits ou les raisonnements, mais contribuent aussi et surtout à les transformer. D’où la description de l’écriture comme une « technologie intellectuelle », expression mobilisée par Goody pour montrer que l’inscription écrite ne permet pas seulement d’enregistrer le discours ou la parole, mais aussi d'en décomposer les éléments, d’examiner l’enchaînement des arguments, de classer les mots sous des catégories, et de développer ainsi des facultés d’abstraction, d’analyse et d’objectivation caractéristique de la pensée rationnelle, jusqu’au principe de noncontradiction lui-même. Selon Goody, les opérations ou règles logiques ne sont donc pas à l’œuvre de manière universelle dans l’esprit de sujets cognitifs, elles sont les produits d’une « raison graphique » intrinsèquement liée au système d’écriture alphabétique, qui constitue moins un code permettant de transmettre une information déjà constituée, que le milieu même dans lequel se constitue un certain type logique de pensée. Conformément aux espoirs formulés par Jean-Pierre Changeux à la fin des années 1980, ces découvertes anthropologiques et ethnologiques se verront bientôt confrontées aux découvertes neuroscientifiques, à travers les travaux de Maryanne Wolf 27, qui montrent, dans les années 2000, comment le fonctionnement des structures cérébrales se transforme selon les technologies intellectuelles pratiquées. Maryanne Wolf montre que l’apprentissage de l’écriture et de la lecture correspondent à une profonde réorganisation du cerveau, mais aussi que, selon les langues et les écritures pratiquées, ce sont différentes connexions neuronales qui sont sollicitées, la diversité linguistique et scripturale engendrant ainsi une diversité neurologique, elle-même rendue possible grâce à la plasticité cérébrale. Ces recherches au croisement des neurosciences, des sciences humaines et de la littérature témoignent donc des interactions entre activités cérébrales et supports artefactuels, et conduit les neuroscientifiques eux-mêmes à s’interroger sur l’avenir du cerveau et de la pensée, à l’époque de l’informatique et des technologies numériques. Pendant ce temps, des années 1970 aux années 2010, les sciences cognitives ellesmêmes ont considérablement évolué : le paradigme computationnaliste qui dominait dans les années1970, s’est vu peu à peu critiqué par le paradigme externaliste, qui propose une conception incarnée, située et étendue de la cognition, selon laquelle l’esprit ne réside pas dans le cerveau ni même dans le corps, mais s’étend dans tout l’environnement, jusque dans les artefacts techniques qui participent aux processus cognitifs et fonctionnent comme des extensions de la cognition28. Selon cette perspective, l’ordinateur ne constitue plus le modèle de la pensée, mais bien l’une des parties d’un système plus global, qui comprend toujours l’humain et son environnement, comme le soulignait déjà Gregory Bateson dans ses réflexions sur l’ « écologie de l’esprit »29. Ce paradigme externaliste a rendu possible de nouvelles recherches en sciences cognitives et notamment leur articulation avec les sciences du vivant, mais aussi, plus récemment, avec l’anthropologie et l’archéologie, comme le tente 26 Jack Goody, La raison graphique, trad. Jean Bazin et Alban Bensa, Minuit, Paris, 1979. 27 Maryanne Wolf, Proust and the Squid: The Story and Science of the Reading Brain, Icon Books, Londres, 2008. 28 Ce courant des sciences cognitives est connu sous le nom de « cognition 4 E », les quatre « E » signifiant ici « embodied, embedded, enactive, and extended cognition ». Il trouve l’un de ses points de départ dans un article de Andy Clark et David Chalmers, publié en 1998 : Andy Clark and David Chalmers, « The extended mind », Analysis, vol. 58, n° 1, 1998, pp. 7-19. 29 Gregory Bateson, Vers une écologie de l’esprit (1972), Seuil, Paris, 1977 (tome I) et 1980 (tome II). Lambros Malafouris30, en s’interrogeant sur le rôle des cultures matérielles (les artefacts, les arts, l’architecture, les systèmes d’écritures) dans l’évolution de la cognition humaine. Conclusion Des années 1950 à aujourd’hui, dans de multiples champs scientifiques, il semble que la question centrale ne soit pas celle des machines pensantes ou des intelligences artificielles, mais bien de la mémoire exosomatique et des technologies intellectuelles. Si l’on souligne souvent le progrès des technologies de l’information, de la communication et de la computation qui n’ont cessé de se perfectionner dans la seconde moitié du XXème siècle, on remarque moins souvent que ces évolutions techniques sont solidaires d’un bouleversement dans la conception traditionnelle de l’esprit. Contrairement à ce que l’on pourrait croire au premier abord, ce bouleversement ne consiste sans doute pas à expliquer le fonctionnement de l’esprit en le comparant à un ordinateur ou en l’assimilant à celui du cerveau, selon des perspectives analogiques ou réductionnistes qui n’ont pas attendu le XXème siècle pour se développer, et qui reposent en fait sur des oppositions dualistes bien identifiées. Ce bouleversement ne consiste sans doute pas non plus à essayer de construire des machines dotées d’intelligence, d’émotion ou d’esprit : là encore, la construction de machines simulant des comportements humains n’est pas une nouveauté, et ce n’est que par abus de langage que nous leur accordons de telles capacités. Il semble plutôt que la grande nouveauté des soixante dernières années (depuis la biologie jusqu’aux sciences cognitives, en passant par la paléoanthropologie, l’ethnologie et les neurosciences) consiste à reconnaître que les facultés psychiques, cognitives et noétiques sont toujours conditionnées par des organes artificiels ou exosomatiques. Bref, que l’esprit ne peut être pensé qu’à partir d’une perspective organologique. Cette conception organologique de l’esprit invite à envisager la connaissance non plus comme un processus cognitif à travers lequel les individus manipuleraient des représentations mentales situées dans leurs têtes ou dans leurs cerveaux, mais comme une activité sociale, à travers laquelle les individus pratiquent collectivement des supports toujours à la fois techniques et symboliques. D’où l’impossibilité pour Bernard Stiegler, de réduire la connaissance à la cognition, d’où la nécessité aussi, selon lui, de localiser la pensée ou l’esprit non pas dans le cerveau des individus, mais entre les cerveaux qui se relient par l’intermédiaire des artefacts hypomnésiques31. Ces relations constituent des processus d’individuation toujours à la fois psychiques et collectifs, irréductibles à des calculs effectués sur des données, car ils requièrent toujours l’interprétation des données extériorisées, et leur extériorisation en retour, non pas sous forme d’informations, mais sous forme d’expressions qui donnent aux données leurs significations, en intensifiant leur singularité. Les données reçues ne sont pas traitées cognitivement, elles sont transformées singulièrement, exprimées exosomatiquement et partagées collectivement, dans un circuit de don et de contre-don irréductible à une boucle de rétro-action32. Au cours de ces circuits de transindividuation, à la fois sensibles, affectifs, collectifs et noétiques, se constituent les savoirs qui circulent entre les générations et qui permettent la diversification et l’évolution des sociétés, dans des directions non programmées, imprévues et inattendues. D’où la nécessité, pour Bernard Stiegler, de faire des technologies informatiques des supports de savoirs transindividuels et non des dispositifs de traitement de données, de 30 Lambros Malafouris, How things shape the mind, MIT Press, Cambridge, 2013. 31 Sur ce point, voir Bernard Stiegler, « Pharmacologie de l’épistemè numérique » in Digital Studies. Organologie des savoirs et technologies de la connaissance, FYP, Paris, 2014. 32 Sur ce point, voir Bernard Stiegler, De la misère symbolique (2004-2005), Flammarion, Paris, 2013, p. 206217 transmission d’information ou de captation des attentions 33. D’où la nécessité, pour lui, de valoriser la pratique de ces savoirs au sein d’un nouveau modèle économique, afin de bifurquer au-delà de l’économie de l’information, de l’économie de l’attention ou de l’économie des données. L’économie de la contribution proposée par Bernard Stiegler 34 peut ainsi être interprétée comme une manière de valoriser les circuits de dons et de contre-dons au sein desquels se partagent des significations sous forme de savoirs théoriques mais aussi pratiques et artistiques (savoir-faire, savoir-vivre, savoir rituels, savoirs culinaires, etc.) irréductibles à la cognition. Mais pour reconstituer ces savoirs à l’époque des technologies computationnelles et de l’intelligence réticulée, il faudra permettre aux supports artefactuels de faire communiquer les esprits, et non seulement de transmettre des informations ou de traiter des données. Il faudra repenser l’informatique par-delà les dualismes entre information et support, logiciel et matériel, pensée et cerveau, esprit et matière, qui recoupent en fait les oppositions métaphysiques les plus traditionnelles. Car comme le soulignait Gregory Bateson, si ces dualismes ont permis de développer une technologie très avancée, il n’est pas certain qu’ils suffisent aujourd’hui pour concevoir le monde, et encore moins pour le transformer35. 33 Sur ce point, voir Bernard Stiegler et al., Bifurquer, Les liens qui libèrent, Paris, 2020, chapitre 7. 34 Sur ce point, voir Bernard Stiegler et al., Bifurquer, Les liens qui libèrent, Paris, 2020, chapitre 3. 35 « Si nous continuons à opérer selon le dualisme cartésien : esprit contre matière, nous continuerons sans doute à percevoir le monde sous la forme d'autres dualismes encore : Dieu contre homme, élite contre peuple, race élue contre les autres, nation contre nation et, pour finir, homme contre environnement. Il est douteux qu'une espèce puisse survivre, qui possède à la fois une technologie avancée et cette étrange façon de concevoir le monde. », Gregory Bateson, « Cybernétique du soi », 1971.