De l’intelligence artificielle à l’organologie de l’esprit :
peanser l’exosomatisation de la noèse à l’époque du screen new deal
Anne Alombert
(Université Paris 8)
Communication lors des Entretiens du Nouveau Monde Industriel
« Prendre soin de l’informatique et des générations »
22-23 décembre 2020
Ce texte est une version préparatoire du texte suivant :
« Vers une organologie de l’esprit : peanser l’exosomatisation de la noèse à l’époque du screen new
deal. » in A. Alombert, V. Chaix, M. Montévil, V. Puig (dir), Prendre soin de l’informatique et des
générations, Paris, FYP, 2021.
Introduction : le contexte du « screen new deal », « de l’utopie numérique au choc
social ».
Le 8 mai 2020, alors que la pandémie de Covid-19 s’était généralisée dans tous les
pays, donnant lieu à différentes formes de confinements et augmentant considérablement le
temps passé devant les écrans, le magazine américain The Intercept publiait un article de la
journaliste Naomi Klein, intitulé « The screen new deal1 » et traduit en français sous le titre
« La stratégie du choc du capitalisme numérique2 ». Dans cet article, Naomi Klein montrait
comment les entreprises technologiques planétaires tentaient de s’emparer du choc sanitaire
afin d’étendre leur pouvoir et leur portée, dans le contexte d’une guerre économique opposant
les Etats-Unis à la Chine. Elle rapprochait ce phénomène de la « stratégie du choc » qui
caractérise selon elle le néolibéralisme, et qui consiste à profiter des chocs psychologiques
provoqués par les catastrophes de tous types pour imposer aux sociétés des réformes
économiques visant à soumettre la puissance publique aux règles du marché. Selon Naomi
Klein, les entreprises numériques issues de la Silicon Valley seraient actuellement en train de
profiter de la situation pandémique pour imposer leurs dispositifs technologiques et leur
modèles économiques, notamment dans les champs de la télémédecine et du téléenseignement mais aussi de la surveillance de masse et de la ville intelligente.
Cette stratégie relève de ce que le chercheur Evgeny Morozov avait décrit comme un
« solutionnisme technologique3 », qui consiste à imposer aux populations des systèmes
industriels dits « intelligents » (smart) dans le but de régler des problèmes sociaux et
politiques, mais indépendamment néanmoins de toute délibération collective concernant le
fonctionnement de ces systèmes, dont la plupart constituent ce que le philosophie Gilbert
Simondon décrivait comme des objets industriels fermés4, indéchiffrables et automatisés, qui
1 Naomi Klein, “Screen New Deal”, The Intercept, 8 May 2020.
URL: https://theintercept.com/2020/05/08/andrew-cuomo-eric-schmidt-coronavirus-tech-shock-doctrine/
2 Christophe Bonneuil et Hélène Tagand, « La stratégie du choc du capitalisme numérique », Terrestres, 17 mai
2020.
URL : https://www.terrestres.org/2020/05/17/la-strategie-du-choc-du-capitalisme-numerique/
3 Evgeny Morozov, Pour tout résoudre, cliquer ici. Les aberrations du solutionnisme technologique, FYP, Paris,
2014.
4 Gilbert Simondon, Du mode d’existence des objets techniques, Aubier, Paris, 1958.
sont aujourd’hui souvent au service d’une économie des données. En temps de confinement,
cette data economy tend à devenir une shut-in economy, c’est-à-dire, une économie
exclusivement basée sur la consommation de services à la demande, médiatisés par des
plateformes numériques, qui requiert le travail invisible et précaire d’individus pour des
entreprises extra-territoriales, au détriment du développement des activités économiques
locales, dans un contexte où les emplois traditionnels tendent eux-mêmes à disparaître sous
l’effet de l’automatisation.
Outre son insolvabilité intrinsèque5, ce modèle technologique et économique pose
aussi un certain nombre de problèmes sur les plans environnementaux et sociaux. La collecte
de quantité massive de données et leur traitement algorithmique en temps réel suppose leur
stockage dans des serveurs dont la consommation énergétique semble accélérer la catastrophe
écologique. De plus, l’économie de l’attention qui caractérise le fonctionnement des
applications engendre des usages addictifs fondés sur la satisfaction immédiate des pulsions,
qui tendent à épuiser les énergies psychiques des individus et à disséminer leurs attentions.
Cette dispersion attentionnelle et cette économie pulsionnelle tendent elle-même à courtcircuiter les temps au cours desquels les pulsions se socialisent en se sublimant, et à perturber
ainsi les processus d’individuation psychique et collective constitutifs des sociétés humaines.
C’est dans ce contexte triplement problématique, à la fois du point de vue de l’écologie
environnementale, de l’écologie mentale et de l’écologie sociale 6, que Bernard Stiegler
propose de repenser le modèle économique actuel sur la base d’une nouvelle conception de
l’informatique théorique7.
1. Retour aux fondements théoriques de l’informatique : information, cognition,
computation
Dans ses derniers travaux8, Bernard Stiegler soutient en effet que la seule manière de
faire face à nouvelle stratégie du choc mise en œuvre par les entreprises numériques de la
Silicon Valley consiste à revenir aux origines théoriques des modèles économiques et des
dispositifs technologiques contemporains. Il rappelle que la stratégie du choc décrite par
Naomi Klein depuis une dizaine d’années, et qui se poursuit aujourd’hui, est avant tout une
doctrine du choc, au sens d’une matrice conceptuelle, logique et théorique, notamment
élaborée dans les années 1970, à travers les travaux de Friedrich Hayek et de Herbert Simon,
deux auteurs pionniers dans les champs de l’économie de l’information (thématisée par Hayek
dès 19459) et de l’économie de l’attention (thématisée par Simon en 197110).
Mais Hayek et Simon n’étaient pas seulement des économistes : ils sont aussi connus
pour leurs travaux en psychologie cognitive, une discipline qui s’est particulièrement
développée entre les années 1950 et les années 1970 et qui a pour principal but d’expliquer
objectivement le fonctionnement de l’esprit humain, et plus précisément de la cognition, à
partir des notions d’information et de traitement d’information. Outre leurs théories
économiques, Hayek et Simon sont en effet les auteurs d’ouvrages pionniers dans ce
5 Sur ce point, voir Bernard Stiegler, La société automatique, t.1 L’avenir du travail, Fayard, Paris, 2015.
6 Nous reprenons ici les trois écologies décrites par Félix Guattari dans Les trois écologies, Galilée, Paris, 1989.
7 Bernard Stiegler, « Noodiversity, technodiversity. Elements of a new economic foundation based on a new
foundation for theoretical computer science», trans. Daniel Ross, in Angelaki, n°25, 2020, pp. 67-80.
8 Nous nous référons ici à l’article susmentionné, ainsi qu’aux dernières séances du séminaire Pharmakon 2020,
dont les enregistrements sont consultables en ligne : https://iri-ressources.org/collections/season-59.html.
9 Friedrich Hayek, “The use of knowledge in society”, The American Economic Review, Vol. 35, N° 4., 1945,
pp. 519-530.
10 Herbert Simon, “Designing organizations for an information rich world”, in M. Greenberger (ed.),
Computers, communications, and the public interest., The Johns Hopkins Press, Baltimore, 1971.
champ.Dans The sensory order11, publié en 1952, Hayek propose une conception de l’esprit
comme système de classification permettant de connecter les stimuli sensoriels (ou objets) à
des états mentaux (ou catégories) : il anticipe ainsi la conception connexionniste de l’esprit
qui se développera par la suite dans le champ des sciences cognitives. Dans Models of
thought12, un recueil d’articles datant des années 1950 aux années 1970, Simon tente quant à
lui d’expliquer les processus mentaux (de la perception à la prise de décision) à partir d’un
petit nombre de mécanismes de traitement d’information, dont la combinaison permet
d’effectuer des tâches de plus en plus complexes, et qui peuvent être modélisés dans des
systèmes informatiques, qualifiés « d’intelligence artificielle ».
L’économie de l’information et l’économie de l’attention qui émergent alors, et qui
aboutiront à l’économie des données actuelle, semblent ainsi se fonder sur des théories
« informationnelles » ou « computationnelles » de la cognition et du comportement, théories
qui ont elles-mêmes vu le jour sur la base des découvertes techniques et des travaux
scientifiques alors émergents. En effet, la notion d’information, qui est alors mobilisée pour
penser la cognition, est une notion qui vient tout juste de faire son apparition dans le champ
scientifique et technique des années 1950, notamment à travers le développement de
l’informatique et de la théorie de l’information. Comme le rappelle Giuseppe Longo dans un
article intitulé « Complexité, science et démocratie13 », « la notion d’information peut être
spécifiée au moins par deux théories scientifiques, rigoureuses et importantes : l’élaboration
de l’information, à partir des travaux Turing, et la transmission de l’information à partir des
travaux Shannon. ». Ce qui caractérise cette notion d’information, précise Giuseppe Longo,
c’est qu’elle ne dépend ni du code, ni du support : « Cette invention ancienne, formalisée de
façon révolutionnaire par Turing en 1936 et essentielle ensuite à Shannon, a permis de
distinguer le logiciel (software) du matériel (hardware) et de proposer une théorie autonome
de la programmation, ou de la transmission, indépendante du support matériel, grande
richesse de la pratique informatique. »
Il semble néanmoins que cette distinction entre information et support ou entre logiciel
et matériel, qui fait donc la grande richesse de la pratique informatique, ait eu un certain
nombre de conséquences idéologiques problématiques : comme le souligne Mathieu Triclot
dans un article intitulé « La notion d’information dans la cybernétique 14 », ce dualisme entre
information et support ou entre logiciel et matériel va progressivement se voir transposé dans
le champ des sciences humaines, et servir pour penser les rapports entre esprit et cerveau.
Alors même que les tenants de la théorie informatique, de la théorie de l’information ou de la
cybernétique ne soutiennent pas de tels propos, le paradigme cognitiviste, qui servira de base
aux futures sciences cognitives, se développe en effet à partir de l’idée selon laquelle il existe
le même rapport entre l’esprit et le cerveau qu’entre le logiciel (software) et le matériel
(hardware) ou qu’entre le programme et la machine - si bien que les processus cognitifs,
assimilées à des opérations logiques effectuées sur des symboles élémentaires, pourraient
finalement être réalisés par n’importe quel dispositif matériel (peu importe que sa structure
soit mécanique, électronique ou organique). L’esprit est ainsi assimilé à un système
11 Friedrich Hayek, The sensory order. An inquiry into the foundations of theoretical psychology, The
University of Chicago Press, Chicago, 1952.
12 Herbert Simon, Models of thought, Yale University Press, Yale, 1979.
13 Giuseppe Longo, “Complexité, science et démocratie”, trans. S. Longo, MEGAchip, Democrazia nella
comunicazione.
URL: https://www.glass-bead.org/research-platform/complexite-science-et-democratie-entretien-avec-giuseppelongo/?lang=enview
14 Mathieu Triclot, « La notion d’information dans la cybernétique. », Journée ”Histoire et didactique des
sciences”, Lirdhist, Lyon 1, 2004.
URL: https://hal.archives-ouvertes.fr/hal-01526661
computationnel transformant des entrées (input) en sorties (output), qui peut se réaliser dans
des machines très différentes, le cerveau ou le corps humain n’étant qu’un des supports
possibles parmi d’autres. De là découlera le mythe de l’intelligence artificielle 15, selon lequel
une machine pourrait penser, ou inversement, mais ce n’est que le revers de la même idée, le
mythe du téléchargement de l’esprit, selon lequel l’esprit pourrait être téléchargé sur un
support électronique et conservé après la mort de l’individu biologique, comme le prétendent
certains discours transhumanistes, et comme le tentent certaines start ups de la Silicon
Valley16.
Outre qu’elles reposent sur un dualisme problématique (entre information et support,
logiciel et matériel, esprit et cerveau), ces conceptions cognitivistes de l’esprit ont surtout
pour caractéristique de prendre l’informatique, et plus précisément le fonctionnement des
ordinateurs, comme modèle général de la pensée, alors même que l’informatique et les
ordinateurs constituent une technologie très spécifique et singulière, qui s’inscrit elle-même
dans un processus d’évolution technique millénaire.
2. Repenser les rapports entre cerveaux, techniques et esprits : de l’analogie à
l’organologie
Cette tendance à penser l’esprit sur le modèle des dernières inventions techniques n’est
pas nouvelle. En 1925, vingt-cinq ans avant l’apparition du premier ordinateur, Freud tentait
déjà de penser les rapports entre conscience et mémoire sur le modèle du bloc magique, un
« petit instrument » qui venait alors d’être « lancé sur le marché » pour remplacer la feuille et
l’ardoise, et qui lui semblait correspondre à la représentation qu’il se faisait de l’appareil
psychique17. Néanmoins, comme le précisera Canguilhem dans les années 198018, si elles
peuvent servir de « modèles heuristiques » dans le cadre de réflexions scientifiques ou
d’expérimentations techniques, ces métaphores ou ces analogies entre machine et esprit
courent toujours le risque de se répandre dans la société, alors qu’elles posent un certain
nombre de difficultés. En effet, comment une technologie particulière pourrait-elle servir de
modèle général pour concevoir la pensée ? Comment le pourrait-elle a fortiori, puisque son
invention elle-même présuppose la pensée qu’elle est censée modéliser ? Quelle est la valeur
d’un modèle quand le modèle prétend modéliser ses propres conditions de possibilités ?
Tant que de telles questions ne sont pas posées, selon Canguilhem, les notions de
« cerveau conscient », « machine consciente », « cerveau artificiel » ou « intelligence
artificielle » risquent de demeurer des expressions non pertinentes, voire des métaphores
trompeuses, dans la mesure où elles tendent à nous faire oublier que la machine informatique,
tout comme le bloc magique, constitue une étape dans un processus d’extériorisation
technique au cours duquel des systèmes d’écritures et de numération de plus en plus
complexes se sont développés, ainsi que des instruments de calculs, d’abord mécaniques puis
électroniques et numériques, mais dont la structure n’a aucun rapport avec celle des
organismes vivants auxquels on attribue la capacité de penser.
Lorsque Bernard Stiegler affirme la nécessité de repenser l’informatique théorique
hors du paradigme computationnel et sur la base d’une nouvelle considération de l’évolution
technique, qui s’appuie elle-même sur les réflexions de Canguilhem, sans doute suggère-t-il
donc de ne plus prendre une technologie particulière, l’ordinateur, comme métaphore pour
15 Ray Kurzweil, The age of intelligent machines, MIT Press, Cambridge, 1990.
16 https://siecledigital.fr/2018/03/29/nectome-startup-vous-rendre-immortel/
17 Voir le commentaire du texte de Freud par Derrida dans Jacques Derrida, « Freud et la scène de l’écriture » in
L’écriture et la différence, Seuil, Paris, 1967.
18 Georges Canguilhem, « Le cerveau et la pensée » (1980) in G. Canguilhem, philosophe, historien des
sciences, 1992, pp. 11-33.
expliquer le fonctionnement de l’esprit, mais de penser plutôt la co-évolution des organismes
biologiques et des organes artificiels, donc la co-évolution des fonctions motrices et
sensorielles, mais aussi des fonctions cognitives, psychiques et mémorielles, et des supports
matériels qui constituent leurs conditions de possibilités. Il s’agirait ainsi de passer d’un
paradigme analogique (qui prend une technologie comme modèle général de la pensée) à un
paradigme organologique, qui interroge la manière dont les dispositifs techniques affectent et
transforment les organismes psychosomatiques, et en particulier, leurs fonctions psychiques,
intellectuelles, cognitives et noétiques - bref, les fonctions qui leurs permettent de connaître et
de penser, mais aussi, et indissociablement, de rêver et de désirer. Derrida ne suggérait pas
autre chose en commentant la note de Freud sur le bloc magique : il invitait lui aussi à
considérer les appareils techniques non pas comme des modèles de l’appareil psychique, mais
comme des bouleversements de sa structure elle-même19.
Ce bouleversement des structures psychiques par les dispositifs techniques, cette coévolution entre facultés mentales, cognitives ou noétiques et supports artefactuels ou
hypomnésiques est ce que Bernard Stiegler décrit comme une « exosomatisation de la
noèse »20. Il soutient ainsi que la faculté de connaître ou de penser n’est pas une faculté
universelle et homogène, mais évolue et se diversifie en fonction des dispositifs
exosomatiques qui lui permettent de s’exercer, et à travers lesquels les fonctions noétiques
(comme la mémoire, l’intuition, l’entendement et l’imagination) sont extériorisées ou
exosomatisées.
3. Vers une conception organologique de l’informatique : peanser l’exosomatisation des
fonctions noétiques
Cette notion d’exosomatisation n’est elle-même pas nouvelle : elle est mobilisée pour
la première fois en 1945 par le mathématicien et biologiste Alfred Lotka, cinq ans avant la
construction du premier ordinateur, alors que les technologies de l’information et de la
communication sont en plein développement. Dans un article publié dans la revue scientifique
Human Biology21, Lotka souligne alors la multiplication des « méthodes d’enregistrements »
qui permettent aux hommes de son époque d’accumuler des connaissances en les stockant
dans ce qu’il décrit alors comme des « organes exosomatiques », c’est-à-dire des organes
techniques situé hors des organismes. Pour Lotka en effet, l’espèce humaine se caractérise par
la production d’organes artificiels, qui servent d’auxiliaires aux organes biologiques, en
augmentant notamment les fonctions perceptives, effectives et motrices. Chez l’homme, ces
fonctions ne sont plus exercées seulement par les organismes, mais à travers un couplage
entre organes vivants et organes artificiels (par exemple, la vue peut s’exercer à travers un
couplage entre les yeux et les lunettes, l’audition à travers un couplage entre les oreilles et les
téléphones, l’action ou les déplacements à travers un couplage entre les muscles et les outils
ou les véhicules).
19 « Car si les bouleversements en cours affectaient les structures mêmes de l’appareil psychique, par exemple
dans leur architecture spatiale et dans leur économie de la vitesse, dans leur traitement de l’espacement et de la
temporalisation, il ne s’agirait plus d’un simple progrès continu dans la représentation, dans la valeur
représentative du modèle, mais d’une toute autre logique. », Jacques Derrida, Mal d’archive, Galilée, Paris,
1994, p. 32.
20 Sur cette question, voir Bernard Stiegler, « Le nouveau conflit des facultés et des fonctions dans
l’Anthropocène » in La technique et le temps, Fayard, Paris, 2018, p. 847.
21 Alfred Lotka, “The Law of Evolution as a Maximal Principle”, Human Biology 17, 1945, pp. 167–194.
Vingt ans plus tard, les découvertes de la paléoanthropologie semblent venir confirmer
l’idée de Lotka. Dans Le geste et la parole22, Leroi-Gourhan suggère en effet que si l’on s’en
tient aux données paléoanthropologiques, l’homme ne se caractérise ni par une propriété
intelligente qui lui épargnerait un comportement instinctif, ni par la supériorité de son volume
cérébral qui lui conférerait une place à part parmi les autres espèces animales. Il se caractérise
plutôt par sa bipédie et sa station debout, qui libère ses mains pour la fabrication d’outils et sa
bouche pour le langage. A travers leurs productions techniques, les humains extériorisent les
chaînes opératoires caractéristiques de leurs conduites. A travers toutes sortes de proverbes et
de préceptes, le langage servira de support pour une mémoire sociale, qui se sédimentera aussi
à travers différents types d’inscriptions écrites, pictographiques, mythographiques, puis
alphabétiques. L’homme se caractérise ainsi par sa capacité à « placer sa mémoire en dehors
de lui-même », dans les artefacts et les systèmes d’écritures, qui transforment à chaque fois en
retour le fonctionnement de son cerveau et ses capacités mémorielles, intrinsèquement liées
aux supports artificiels.
Dix ans plus tard, le rôle de cette mémoire artificielle sera souligné dans le champ de
l’épistémologie cette fois, par le philosophe Karl Popper23 qui remarque lui-aussi l’évolution
« exosomatique » ou « extra-personnelle » de la mémoire humaine, à travers le papier, les
crayons, les stylos, les machines à écrire, les dictaphones, les presses d’imprimerie, les
bibliothèques et les ordinateurs. Cela ne signifie pas, pour Popper, que les stylos, les machines
à écrire ou les ordinateurs puissent penser, réfléchir ou se souvenir, mais que la faculté de
connaître qui fait l’objet de l’épistémologie, résulte d’un couplage entre les organes
endosomatiques ou biologiques (notamment les cerveaux) et les organes exosomatiques ou
techniques. La connaissance n’est donc pas une simple faculté cognitive qui se déroulerait
dans les esprits individuels à travers la manipulation de représentations mentales, ni une
simple faculté biologique, qui se déroulerait dans le cerveau à travers des connexions
neuronales. Si elle défie tout réductionnisme, une telle thèse ne s’oppose pas pour autant aux
découvertes neuroscientifiques, qui sont alors en plein développement.
En effet, cinq ans plus tard, c’est dans le champ des neurosciences que l’idée d’une
« mémoire exosomatique » se voit mobilisée, notamment dans le célèbre livre de Jean-Pierre
Changeux intitulé L’homme neuronal24. Paradoxalement, après avoir tenté d’identifier
activités mentales et activités cérébrales, Jean-Pierre Changeux lui-même décrit l’écriture
comme une mémoire « extra-cérébrale », qui donne aux images et aux concepts une « durée
de vie supérieure à celle du système nerveux qui les a produits », et qui permet ainsi la
constitution d’une mémoire culturelle, perpétuée de génération en génération, sans être
inscrite dans les gènes. L’homme neuronal s’achève ainsi sur la nécessité de confronter les
acquis des neurosciences à ceux des sciences humaines.
Pendant ce temps, depuis les années 50, dans le champ des sciences humaines
justement, le rôle de l’environnement, et en particulier des objets techniques, dans le
développement psychique et dans les activités de pensée a été largement réévalué. Dans le
champ de la psychanalyse tout d’abord, à travers les travaux de Donald Winnicott, qui insiste
sur la fonction des objet transitionnels dans la constitution des capacités de perception et
d’imagination, depuis les activités de jeu de l’enfant jusqu’aux activités culturelles, qui ne se
situent ni dedans ni dehors, ni « dans la tête » ni « dans le monde », mais dans l’espace
potentiel que constitue les relations entre individus et environnements25.
22 André Leroi-Gourhan, Le geste et la parole, t. 1 Technique et langage, Albin Michel, Paris, 1964 et André
Leroi-Gourhan, Le geste et la parole, t. 2 La mémoire et les rythmes, Albin Michel, Paris, 1965.
23 Karl Popper, La connaissance objective (1965 – 1971), trad. Jean-Jacques Rosat, Flammarion, Paris, 2009.
24 Jean-Pierre Changeux, L’homme neuronal (1983), Fayard, Paris, 2012, p. 341.
25 Donald Winnicott, Jeu et réalité, trad. Claude Monod et J.-B. Pontalis, Gallimard, Paris, 1975.
Dans le champ de l’anthropologie sociale et de l’ethnologie ensuite, à peu près au
même moment, les travaux de Jack Goody26 soulignent le rôle des supports, des instruments
ou des outils dans l’activité de pensée. Selon Goody en effet, les « méthodes
d’enregistrement » décrites par Lotka ne servent pas seulement à conserver les idées, les récits
ou les raisonnements, mais contribuent aussi et surtout à les transformer. D’où la description
de l’écriture comme une « technologie intellectuelle », expression mobilisée par Goody pour
montrer que l’inscription écrite ne permet pas seulement d’enregistrer le discours ou la parole,
mais aussi d'en décomposer les éléments, d’examiner l’enchaînement des arguments, de
classer les mots sous des catégories, et de développer ainsi des facultés d’abstraction,
d’analyse et d’objectivation caractéristique de la pensée rationnelle, jusqu’au principe de noncontradiction lui-même. Selon Goody, les opérations ou règles logiques ne sont donc pas à
l’œuvre de manière universelle dans l’esprit de sujets cognitifs, elles sont les produits d’une
« raison graphique » intrinsèquement liée au système d’écriture alphabétique, qui constitue
moins un code permettant de transmettre une information déjà constituée, que le milieu même
dans lequel se constitue un certain type logique de pensée.
Conformément aux espoirs formulés par Jean-Pierre Changeux à la fin des années
1980, ces découvertes anthropologiques et ethnologiques se verront bientôt confrontées aux
découvertes neuroscientifiques, à travers les travaux de Maryanne Wolf 27, qui montrent, dans
les années 2000, comment le fonctionnement des structures cérébrales se transforme selon les
technologies intellectuelles pratiquées. Maryanne Wolf montre que l’apprentissage de
l’écriture et de la lecture correspondent à une profonde réorganisation du cerveau, mais aussi
que, selon les langues et les écritures pratiquées, ce sont différentes connexions neuronales
qui sont sollicitées, la diversité linguistique et scripturale engendrant ainsi une diversité
neurologique, elle-même rendue possible grâce à la plasticité cérébrale. Ces recherches au
croisement des neurosciences, des sciences humaines et de la littérature témoignent donc des
interactions entre activités cérébrales et supports artefactuels, et conduit les neuroscientifiques
eux-mêmes à s’interroger sur l’avenir du cerveau et de la pensée, à l’époque de l’informatique
et des technologies numériques.
Pendant ce temps, des années 1970 aux années 2010, les sciences cognitives ellesmêmes ont considérablement évolué : le paradigme computationnaliste qui dominait dans les
années1970, s’est vu peu à peu critiqué par le paradigme externaliste, qui propose une
conception incarnée, située et étendue de la cognition, selon laquelle l’esprit ne réside pas
dans le cerveau ni même dans le corps, mais s’étend dans tout l’environnement, jusque dans
les artefacts techniques qui participent aux processus cognitifs et fonctionnent comme des
extensions de la cognition28. Selon cette perspective, l’ordinateur ne constitue plus le modèle
de la pensée, mais bien l’une des parties d’un système plus global, qui comprend toujours
l’humain et son environnement, comme le soulignait déjà Gregory Bateson dans ses
réflexions sur l’ « écologie de l’esprit »29. Ce paradigme externaliste a rendu possible de
nouvelles recherches en sciences cognitives et notamment leur articulation avec les sciences
du vivant, mais aussi, plus récemment, avec l’anthropologie et l’archéologie, comme le tente
26 Jack Goody, La raison graphique, trad. Jean Bazin et Alban Bensa, Minuit, Paris, 1979.
27 Maryanne Wolf, Proust and the Squid: The Story and Science of the Reading Brain, Icon Books, Londres,
2008.
28 Ce courant des sciences cognitives est connu sous le nom de « cognition 4 E », les quatre « E » signifiant ici
« embodied, embedded, enactive, and extended cognition ». Il trouve l’un de ses points de départ dans un article
de Andy Clark et David Chalmers, publié en 1998 : Andy Clark and David Chalmers, « The extended mind »,
Analysis, vol. 58, n° 1, 1998, pp. 7-19.
29 Gregory Bateson, Vers une écologie de l’esprit (1972), Seuil, Paris, 1977 (tome I) et 1980 (tome II).
Lambros Malafouris30, en s’interrogeant sur le rôle des cultures matérielles (les artefacts, les
arts, l’architecture, les systèmes d’écritures) dans l’évolution de la cognition humaine.
Conclusion
Des années 1950 à aujourd’hui, dans de multiples champs scientifiques, il semble que
la question centrale ne soit pas celle des machines pensantes ou des intelligences artificielles,
mais bien de la mémoire exosomatique et des technologies intellectuelles. Si l’on souligne
souvent le progrès des technologies de l’information, de la communication et de la
computation qui n’ont cessé de se perfectionner dans la seconde moitié du XXème siècle, on
remarque moins souvent que ces évolutions techniques sont solidaires d’un bouleversement
dans la conception traditionnelle de l’esprit. Contrairement à ce que l’on pourrait croire au
premier abord, ce bouleversement ne consiste sans doute pas à expliquer le fonctionnement de
l’esprit en le comparant à un ordinateur ou en l’assimilant à celui du cerveau, selon des
perspectives analogiques ou réductionnistes qui n’ont pas attendu le XXème siècle pour se
développer, et qui reposent en fait sur des oppositions dualistes bien identifiées. Ce
bouleversement ne consiste sans doute pas non plus à essayer de construire des machines
dotées d’intelligence, d’émotion ou d’esprit : là encore, la construction de machines simulant
des comportements humains n’est pas une nouveauté, et ce n’est que par abus de langage que
nous leur accordons de telles capacités.
Il semble plutôt que la grande nouveauté des soixante dernières années (depuis la
biologie jusqu’aux sciences cognitives, en passant par la paléoanthropologie, l’ethnologie et
les neurosciences) consiste à reconnaître que les facultés psychiques, cognitives et noétiques
sont toujours conditionnées par des organes artificiels ou exosomatiques. Bref, que l’esprit ne
peut être pensé qu’à partir d’une perspective organologique. Cette conception organologique
de l’esprit invite à envisager la connaissance non plus comme un processus cognitif à travers
lequel les individus manipuleraient des représentations mentales situées dans leurs têtes ou
dans leurs cerveaux, mais comme une activité sociale, à travers laquelle les individus
pratiquent collectivement des supports toujours à la fois techniques et symboliques. D’où
l’impossibilité pour Bernard Stiegler, de réduire la connaissance à la cognition, d’où la
nécessité aussi, selon lui, de localiser la pensée ou l’esprit non pas dans le cerveau des
individus, mais entre les cerveaux qui se relient par l’intermédiaire des artefacts
hypomnésiques31. Ces relations constituent des processus d’individuation toujours à la fois
psychiques et collectifs, irréductibles à des calculs effectués sur des données, car ils requièrent
toujours l’interprétation des données extériorisées, et leur extériorisation en retour, non pas
sous forme d’informations, mais sous forme d’expressions qui donnent aux données leurs
significations, en intensifiant leur singularité. Les données reçues ne sont pas traitées
cognitivement, elles sont transformées singulièrement, exprimées exosomatiquement et
partagées collectivement, dans un circuit de don et de contre-don irréductible à une boucle de
rétro-action32.
Au cours de ces circuits de transindividuation, à la fois sensibles, affectifs, collectifs et
noétiques, se constituent les savoirs qui circulent entre les générations et qui permettent la
diversification et l’évolution des sociétés, dans des directions non programmées, imprévues et
inattendues. D’où la nécessité, pour Bernard Stiegler, de faire des technologies informatiques
des supports de savoirs transindividuels et non des dispositifs de traitement de données, de
30 Lambros Malafouris, How things shape the mind, MIT Press, Cambridge, 2013.
31 Sur ce point, voir Bernard Stiegler, « Pharmacologie de l’épistemè numérique » in Digital Studies.
Organologie des savoirs et technologies de la connaissance, FYP, Paris, 2014.
32 Sur ce point, voir Bernard Stiegler, De la misère symbolique (2004-2005), Flammarion, Paris, 2013, p. 206217
transmission d’information ou de captation des attentions 33. D’où la nécessité, pour lui, de
valoriser la pratique de ces savoirs au sein d’un nouveau modèle économique, afin de
bifurquer au-delà de l’économie de l’information, de l’économie de l’attention ou de
l’économie des données. L’économie de la contribution proposée par Bernard Stiegler 34 peut
ainsi être interprétée comme une manière de valoriser les circuits de dons et de contre-dons au
sein desquels se partagent des significations sous forme de savoirs théoriques mais aussi
pratiques et artistiques (savoir-faire, savoir-vivre, savoir rituels, savoirs culinaires, etc.)
irréductibles à la cognition.
Mais pour reconstituer ces savoirs à l’époque des technologies computationnelles et de
l’intelligence réticulée, il faudra permettre aux supports artefactuels de faire communiquer les
esprits, et non seulement de transmettre des informations ou de traiter des données. Il faudra
repenser l’informatique par-delà les dualismes entre information et support, logiciel et
matériel, pensée et cerveau, esprit et matière, qui recoupent en fait les oppositions
métaphysiques les plus traditionnelles. Car comme le soulignait Gregory Bateson, si ces
dualismes ont permis de développer une technologie très avancée, il n’est pas certain qu’ils
suffisent aujourd’hui pour concevoir le monde, et encore moins pour le transformer35.
33 Sur ce point, voir Bernard Stiegler et al., Bifurquer, Les liens qui libèrent, Paris, 2020, chapitre 7.
34 Sur ce point, voir Bernard Stiegler et al., Bifurquer, Les liens qui libèrent, Paris, 2020, chapitre 3.
35 « Si nous continuons à opérer selon le dualisme cartésien : esprit contre matière, nous continuerons sans
doute à percevoir le monde sous la forme d'autres dualismes encore : Dieu contre homme, élite contre peuple,
race élue contre les autres, nation contre nation et, pour finir, homme contre environnement. Il est douteux
qu'une espèce puisse survivre, qui possède à la fois une technologie avancée et cette étrange façon de concevoir
le monde. », Gregory Bateson, « Cybernétique du soi », 1971.