Gilles Babinet - Green IA

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 197

Gilles Babinet

Green IA
L’intelligence artificielle au service du
climat
Inscrivez-vous à notre newsletter !

Vous serez ainsi régulièrement informé(e)


de nos nouvelles parutions et de nos actualités :

https://www.odilejacob.fr/newsletter

© ODILE JACOB, avril 2024


3, rue Auguste-Comte, 75006 Paris
www.odilejacob.fr
ISBN 978-2-4150-0830-7

Le Code de la propriété intellectuelle n’autorisant, aux termes


de l’article L. 122-5, 2o et 3oa, d’une part, que les « copies ou
reproductions strictement réservées à l’usage privé du copiste
et non destinées à une utilisation collective » et, d’autre part,
que les analyses et les courtes citations dans un but d’exemple
et d’illustration, « toute représentation ou reproduction
intégrale ou partielle faite sans le consentement de l’auteur ou
de ses ayants droit ou ayants cause est illicite » (art. L. 122-4).
Cette représentation ou reproduction, par quelque procédé que
ce soit, constituerait donc une contrefaçon sanctionnée par les
articles L. 335-2 et suivants du Code de la propriété
intellectuelle.
Cet ouvrage a été composé par
Le vent se lève… – 16210 Rioux-Martin
Sommaire

Avant-propos
Introduction. Du sentiment d’être un boomer
Première partie – Enjeux, idéologies et politiques
publiques
Chapitre 1. Décroissance ou techno-solutionnisme ?
Un débat idéologique
Changer notre façon de vivre
De l’effet rebond
Chapitre 2. L’approche politique
Le signal prix
Taxe carbone : marxiste ou capitaliste ?
Taxe carbone : proportionnelle ou progressive ?
Social rating et plateformisation
Deuxième partie – Ce que peut l’intelligence
artificielle
Chapitre 3. Vers un numérique plus responsable
Fabriquer les équipements
L’empreinte de l’usage des appareils numériques
Se séparer des équipements numériques
Une dynamique sectorielle mal orientée
Chapitre 4. L’IA pour une révolution verte
Chapitre 5. Les transports
Chapitre 6. Chaînes logistiques et économie circulaire
Gérer la complexité logistique
Qualification des fournisseurs
Économie circulaire
Vers une économie des services
Produire et industrialiser
Réindustrialiser
Chapitre 7. L’agriculture
Un potentiel inégalé pour l’IA
Robotique et IA
Chapitre 8. Produire et utiliser l’énergie
De l’offre à la demande
Troisième partie – Systèmes, nouveaux usages
et freins culturels
Chapitre 9. IA personnelles et Meta IA
L’assistant personnel ou AI companion
Les systèmes coordinateurs ou AI platform
Collaboration et compétition
Chapitre 10. Une journée dans la vie de Sophie
Vivre, habiter, travailler en 2040
Utopies d’aujourd’hui et de demain
Conclusion
Notes bibliographiques
Avant-propos

Saisit-on à sa juste mesure l’ampleur de la révolution


qu’initie l’intelligence artificielle ? A-t-on seulement une idée
de la vitesse avec laquelle celle-ci est en train de se propager ?
Envisage-t-on qu’elle puisse modifier la nature même de notre
civilisation ?
Car il s’agit bien de cela. L’intelligence artificielle (IA) est
un outil d’une puissance inégalée dans la mesure où sa
capacité adaptative permet désormais d’envisager de déléguer
à la machine des fonctions qui semblaient dévolues aux
humains de façon indéfinie. L’opportunité économique
mondiale, que l’IA ne fera qu’amorcer d’ici à 2030, aurait été
estimée à 15 700 milliards de dollars{1}.
Il est vrai qu’au cours des dernières années les innovations
dans cette discipline se sont succédé à un rythme
extraordinaire. Même la loi de Moore – prédisant depuis 1972
avec exactitude que la puissance des calculs des
microprocesseurs doublerait tous les deux ans – est désormais
dépassée par la vitesse de l’IA. Ainsi, le premier modèle
d’OpenAI (GPT-1) comportait 117 millions de paramètres lors
de son lancement en 2017, GPT-4, lancé début 2023, en
comptait plus de 1 billion (un millier de milliards). La quantité
de calcul utilisée pour entraîner les modèles d’IA les plus
puissants a été multipliée par 10 chaque année au cours des dix
dernières années. En d’autres termes, les modèles d’IA les plus
avancés d’aujourd’hui, également appelés modèles
« frontières », utilisent 5 milliards de fois la puissance de
calcul des modèles de pointe d’il y a dix ans. Un traitement qui
prenait autrefois des semaines s’effectue désormais en
quelques secondes. Des modèles capables de gérer des
dizaines de milliards de paramètres seront disponibles dans les
prochaines années. Les modèles « à l’échelle du cerveau »
comportant plus de 100 000 milliards de paramètres – soit à
peu près le nombre de synapses du cerveau humain – seront
vraisemblablement viables d’ici cinq ans{a}. Ces technologies
sont à haut degré de prolifération, parce qu’elles sont à base de
logiciel, parce qu’elles se distribuent par Internet, parce que la
pratique de l’open source est désormais généralisée et
de surcroît parce que le potentiel qu’on y pressent paraît
immense, suscitant un intérêt inégalé.
Cependant, le moins que l’on puisse dire, c’est que
l’intelligence artificielle n’a pas spontanément été mise par
nombre de médias, d’intellectuels, de personnalités politiques
et d’influenceurs de tout poil dans le camp des forces
permettant de résoudre nos enjeux environnementaux. Bien au
contraire, des acteurs visibles de la cause environnementale
ont – souvent d’ailleurs avec des arguments tout à fait
recevables – attaqué ces technologies comme des facteurs
premiers de l’aggravation du réchauffement climatique et
de l’atteinte à la biodiversité.
Rares sont ceux qui ont réellement considéré que l’IA
pourrait avoir le potentiel de juguler ces dynamiques
inquiétantes. Or ce potentiel est très probablement immense et,
s’il est sans doute audacieux d’envisager que d’ici quelques
années on puisse considérer l’IA comme l’un des facteurs
premiers de la transition environnementale, nous allons voir
que c’est cependant loin d’être exclu.
Sans même parler d’environnement, quelques entreprises
tirent déjà fortement leur épingle du jeu en ayant un recours
systématique à l’intelligence artificielle. Ainsi, dans les
processus productifs, les processus de maintenance préventive
sont en train de se généraliser. Ils sont rendus d’autant plus
efficaces lorsque l’entreprise a préalablement homogénéisé les
flux et structures de données.
Un équipementier automobile, par exemple, parvient à
réduire ses temps de maintenance sur les chaînes de
production de façon significative grâce à l’application
d’analyses multivariées{b} aux chaînes de production,
permettant de définir non pas le point de panne, mais plutôt
des cycles variables de maintenance, en fonction de modèles
statistiques qui optimisent les mises à l’arrêt. Mais cela
ne s’arrête pas là. Il est aussi possible de définir les
affectations d’outillages grâce auxquelles seront produites des
séries courtes en fonction de modèles estimant le meilleur
moment pour effectuer ces productions, en limitant au plus
juste le risque de perte de charge, soit en production, soit en
stockage.
Ce qui est frappant, c’est la variété des usages possibles de
l’intelligence artificielle. Cela concerne les domaines de la
création, en générant des images d’un niveau de détail
photographique qui aurait pris des jours entiers à un graphiste.
Elle est capable de traiter des processus administratifs
complexes et rébarbatifs. J’ai par exemple assisté à la
production d’un dossier permettant de bénéficier du crédit
impôt recherche en quelques dizaines de minutes, là où des
consultants mettaient auparavant plusieurs mois. À la
différence des automates, qui reproduisent le même scénario
en boucle de façon aussi parfaite que monotone, les
automatismes et robots mus par des systèmes à base d’IA
créent des scénarios dynamiques par rapport au contexte :
un véhicule qui parcourrait le trajet de la Défense à la place de
la Concorde à Paris aurait beau répéter ce trajet un millier de
fois, il lui faudrait s’adapter chaque fois à un contexte
particulier (position des autres véhicules, météo, feux rouges)
qui ne se répète jamais.
Pour réaliser cette prouesse, l’une des caractéristiques de
l’intelligence artificielle concerne sa capacité à traiter ces
environnements « multivariés », autrement dit sa capacité à
synthétiser beaucoup de facteurs simultanément (des
indications de natures très différentes survenant en même
temps : véhicules en mouvement, piétons, feux rouges…) et
séquentiellement (Que va faire le véhicule ? Comment va se
mouvoir le piéton ?, etc.). C’est pourquoi conduire une voiture
nécessite de prendre en compte les véhicules environnants, les
lignes au sol, les feux de signalisation, les passants, etc., soit
un grand nombre de variables ayant des niveaux d’incidences
aléatoires et qui peuvent apparaître de façon simultanée,
ou étalées dans le temps. Dans certains cas, ces variables
peuvent se chiffrer par centaines, donnant de ce fait un
avantage certain à l’intelligence artificielle sur le processus de
décision humain, qui est limité dans ses capacités de
traitement. Les champs d’application sont extrêmement
nombreux : chatbots de service après-vente (qui écoutent
l’émotion dans la voix de l’interlocuteur, prennent
connaissance d’une notice de réparation, commandent les
pièces manquantes en s’assurant de leur disponibilité),
supervision du contrôle aérien (qui traite également
simultanément l’émotion dans la voix du pilote,
la disponibilité des pistes, des slots d’accueil de l’avion, etc.),
optimisation des achats des entreprises, diagnostic médical,
etc.
L’une des caractéristiques structurelles de l’IA consiste
donc à pouvoir prendre en compte plus de facteurs
qu’auparavant. Par exemple, dans les opérations d’achat d’une
marchandise, il est possible de tenir compte du coût, mais
aussi du délai d’approvisionnement, de la criticité de ce délai,
et également d’externalités comme l’empreinte carbone du
produit considéré ainsi que celle de sa livraison, cela suivant
des facteurs de pondération constants d’un achat à l’autre.
Cette caractéristique particulière s’applique très bien aux
enjeux d’environnement qui sont essentiellement
multifactoriels. Ainsi, agir efficacement sur les émissions de
CO2 de l’agriculture passe par un contrôle simultané d’un très
grand nombre de facteurs : les données de température,
d’hygrométrie, de luminosité et le rayonnement UV,
la pluviométrie, les intrants de différentes natures, les
traitements mécaniques, les semences, etc. Chacun de ces
facteurs aura une incidence, parfois déterminante, sur la
productivité, la qualité des produits, mais également la
capacité du sol à émettre ou au contraire à retenir et même
capter du CO2. Or ces variables sont pour l’instant très
difficiles à contextualiser car elles sont tout simplement trop
nombreuses, et les données qui les composent n’ont souvent
pas été agrégées à une large échelle du fait de l’organisation
même du monde agricole.
Il est cependant faux de voir le monde agricole comme un
univers conservateur centré sur ses pratiques usuelles. Aux
États-Unis, la mise en œuvre de nouvelles techniques agricoles
inspirées de travaux de recherche recommandant par exemple
d’éviter le labourage a connu un fort développement ces
dernières années{c}. Rien ne semble s’opposer désormais à
l’utilisation de systèmes décisionnels à base d’intelligence
artificielle dont le potentiel est considérable à condition
d’accepter d’emprunter de nouvelles routes{d}. Or l’univers
agricole n’est pour l’instant pas organisé de façon à pouvoir
facilement valoriser ses données. Les agriculteurs rechignent
en effet à les partager, et les autres acteurs de filières
(coopératives, chambres, transformateurs…) n’y voient que
peu d’intérêt. En soi, cet univers n’est que symptomatique de
ce que l’on observe largement ailleurs.
Au sein des entreprises traditionnelles, les mêmes
opportunités font face aux mêmes embûches. Le fait de
pouvoir faire des arbitrages dans une supply chain entre mise
en production, accroissement ou baisse du stock, ou entre les
différents moyens de transport peut avoir des conséquences
drastiques en termes d’émissions de CO2. À titre d’exemple,
un opérateur de télécoms a considérablement baissé son
empreinte environnementale en accroissant ses stocks et en
arrêtant les transports de pièces par avion. Une décision
cependant complexe à prendre car induisant un risque plus
élevé de rupture de stock – du fait des aléas des transports, des
risques de défaillance d’un fournisseur qu’il devient plus
difficile de remplacer en raison du délai important de livraison,
etc. – qu’une intelligence artificielle serait plus à même
d’évaluer en raison de la nature très multifactorielle et
interdépendante de ces paramètres d’évaluation du risque de
défaillance.
La question reste de savoir pourquoi ces approches ne sont
pas plus répandues. Après tout, les technologies
d’intelligences artificielles sont désormais largement sorties
des laboratoires. La pratique de l’open source fait que les
meilleurs algorithmes sont accessibles à quiconque dispose
d’un bagage technique d’un niveau acceptable.
Il est intéressant d’observer ici que les deux grandes
révolutions de notre temps, l’une initiée par la technologie (la
révolution numérique), l’autre subie par l’inconséquence
humaine, sont remarquablement complémentaires.
La compréhension des mécanismes suscitant le réchauffement
climatique est d’une grande complexité : si nous savons qu’il
est d’origine humaine, nous avons du mal à comprendre
comment se décomposent les pratiques les plus émettrices de
gaz à effet de serre, et quelles seraient les pratiques vertueuses
que l’on pourrait leur substituer tant de nombreux facteurs
(techniques, usages, pratiques culturelles, facteurs
économiques…) entrent en jeu. Or la caractéristique première
de cette révolution technologique qu’est l’intelligence
artificielle est précisément d’être capable de traiter des sujets à
haut niveau de complexité.

{a}Ce qui ne signifie aucunement que ces machines seront d’un niveau comparable
aux capacités d’un cerveau humain.
{b} L’analyse multivariée est une méthode statistique qui consiste à analyser
simultanément plusieurs variables, c’est-à-dire des ensembles de données qui
comprennent plus d’une variable. Elle est utilisée pour comprendre les relations
complexes entre ces variables, pour extraire des informations significatives à partir
de données multidimensionnelles, et est couramment mise en œuvre dans divers
domaines, notamment la recherche, la finance, la sociologie, la biologie, la
psychologie et la gestion.
{c}No-till farming : aux États-Unis, l’abandon du labourage concerne désormais
35 % des terres agricoles.
{d} Entre 2023 et 2028, le marché de l’IA agricole devrait croître de 23 % par an
selon « Google’s Project Mineral in 2023 : Revolutionizing agriculture with AI »
(Market and Market, 30 juin 2023).
Introduction
Du sentiment d’être un boomer

Cela m’avait un peu pris par surprise. J’étais venu présenter


mon futur cours à HEC, parler des enjeux liant technologies et
environnement. La discussion allait bon train, il y avait là une
quarantaine d’élèves. Et puis quelqu’un m’a demandé si ce
n’était pas « un peu boomer d’expliquer que le numérique
pouvait être un facteur d’amélioration de l’environnement ».
Sur l’instant, j’ai plutôt pris cela de façon décontractée et
trouvé que la question avait le mérite de la franchise. On avait
largement débattu. Au fil des questions, le débat avait glissé
sur la question même de croissance. Cela me semblait
étonnant que l’on puisse penser que le développement
économique, quel qu’il soit, puisse être une mauvaise chose.
La discussion avait pris un tour plus intense ; ce n’était plus
un échange avec un élève isolé, mais une discussion tous
azimuts, avec de jeunes adultes qui semblaient acquis à des
thèses décroissantes, sinon sympathisants. Certains auteurs,
comme Timothée Parrique ou ceux du rapport Meadows,
surgirent dans le débat. D’amusé, je suis passé à décontenancé.
Je ne m’attendais pas à cela dans une école qui est
l’antichambre du capitalisme classique et de la nouvelle
économie. Les échanges durèrent encore une bonne heure et,
avec certains, nous nous sommes quittés sur un désaccord
franc.
Une fois rentré chez moi, je me suis procuré le livre de
Timothée Parrique Ralentir ou périr. L’économie de la
décroissance{2}, dont tout le monde parlait à l’époque. Ce
n’était pas le premier ouvrage que je lisais sur le sujet – et ce
ne sera pas le dernier –, mais je le lus avec d’autant plus
d’attention que l’hypothèse que ces thèses deviennent
dominantes ne me semblait désormais plus une impossibilité.
Mon intérêt pour l’environnement n’était pas récent. J’ai le
souvenir de mon parrain qui, dans les années 1970, me disait
qu’il ne fallait pas prendre l’avion car c’était de loin le moyen
de transport qui émettait le plus de CO2 par individu. J’avais
une douzaine d’années et c’était la première personne à me
parler de CO2. Je m’était dit que, de toutes les menaces
environnementales, c’était probablement la pire ; et j’ai bien
l’impression que j’avais alors malheureusement raison.
Pour moi, le sujet en était resté là et j’avais cessé d’y prêter
attention. Je me disais qu’on finirait bien par réagir et qu’on
limiterait les émissions de CO2. Lors du sommet de Rio en
1992, je me souviens distinctement d’avoir entendu pour la
première fois quelqu’un – je ne me rappelle plus qui –
expliquer à la radio qu’un réchauffement climatique de
plusieurs degrés était probable si rien n’était entrepris, et qu’il
fallait immédiatement passer à l’action. Devant tant
d’évidence, je me suis dit qu’on allait réagir. Je le pensais
d’autant plus que, quelques années plus tôt, en 1987, avait été
signé le protocole de Montréal qui interdisait les CFC, ces gaz
qui servaient à propulser le jet des pulvérisateurs de produits
ménagers, peintures, etc. Je ne savais pas alors que cet accord
fait partie des rares exceptions de réglementations
environnementales qui ont dans l’ensemble été respectées à
une échelle globale.
Puis je suis entré dans la vie active. Je prenais de plus en
plus l’avion, pour travailler et aussi pour partir en vacances.
En quelques années, j’avais accumulé 800 000 miles Air
France : une trentaine de fois le tour de la Terre. C’était parfois
fatigant, mais aussi fascinant de visiter des pays nouveaux,
d’avoir des amis un peu partout, de se sentir faire partie d’un
monde globalisé où l’on se retrouvait dans des conférences qui
se tenaient un mois à Séoul, un autre à Los Angeles et le
troisième à Helsinki. Et puis, un jour, je ne sais plus très bien
quand, vers 2011, j’ai fait le calcul de tout le CO2 que cela
représentait. Je suis arrivé à quelque chose comme 50 tonnes
en un an : vingt-cinq fois ce qu’un humain est censé émettre si
l’on veut garder une planète vivable en 2050. Cela m’a semblé
absurde. J’ai pris conscience que cela n’avait aucun sens de
prêter attention à l’environnement tout en continuant à
voyager autant. Dans un premier temps, je m’en suis sorti en
aidant une association dont la mission consiste à replanter de
la mangrove dans ce merveilleux endroit qu’est le delta du
Saloum au Sénégal. Il semblerait en effet que la mangrove soit
l’un des plus grands avaleurs de carbone, absorbant jusqu’à
cinq fois plus de CO2 à l’hectare que ne peut le faire la forêt
tropicale, elle-même plus efficace encore qu’une
forêt occidentale. J’ai commencé à compter le nombre de vols
que j’effectuais par mois : une dizaine. Je m’en tirais
à bon compte en plantant deux à trois fois plus de mangrove
que ce qui aurait théoriquement été nécessaire pour compenser
mes émissions de CO2.
Il y avait là toutefois un biais évident : dans combien de
temps la mangrove aurait-elle atteint une taille suffisante pour
réellement absorber autant de carbone que celui émis par mes
vols ? Et quelle part arriverait réellement à maturité ?
Une visite sur place m’avait rassuré : l’association existait bien
et semblait faire son travail avec un entrain et une efficacité
incontestables. En faisant un petit tour en pirogue, on voyait
effectivement un peu partout des plants de mangrove,
émergeant à distance régulière. Mais ceux-ci paraissaient bien
insignifiants et loin d’absorber plus que quelques kilogrammes
de carbone chacun, au moins durant les premières années.
Mais un peu plus loin, se trouvaient les pieds plantés quelques
saisons plus tôt ; ceux-là étaient déjà d’imposants
entrelacements de racines et de branches, nettement plus
crédibles en matière de captation de CO2.
Lorsqu’on pratique la compensation, la question que l’on
vient immanquablement à se poser c’est de savoir ce qui se
serait passé si on n’avait rien fait : l’association aurait-elle
réellement planté moins de pieds de mangrove ? En visitant le
Sine Saloum, on s’aperçoit vite qu’à l’entrée de chaque village
ou presque se trouvent un ou plusieurs panneaux stipulant que
l’ONU (ou plus particulièrement l’UNCCD, son agence dédiée
à la reforestation), l’Union européenne, la Banque mondiale
ou encore l’AFD, la DDC suisse, etc., sponsorisent des
initiatives de préservation et de plantation de mangrove.
Lorsqu’on quitte cette région par ailleurs magnifique, on repart
avec les mêmes questions que celles que l’on se posait en
arrivant : ma participation a-t-elle de l’impact ? L’action de ces
associations n’est-elle pas dérisoire, face à la salinisation des
eaux, la montée du niveau de la mer, le changement du climat
qui rend plus fragiles les jeunes pousses ?
Rentré à Paris, je continuai à échanger avec les responsables
de l’association et je compris peu à peu qu’eux-mêmes
n’avaient qu’une idée approximative du nombre de pieds qui
poussaient effectivement chaque année. Le changement
climatique, durement ressenti dans cette région, rendait les
estimations a minima hypothétiques, si ce n’est franchement
hasardeuses. J’avais eu la chance de pouvoir me rendre sur le
terrain, parler directement avec les acteurs associatifs, mais
que penser des crédits carbone que l’on peut acheter en ligne ?
Certains affichent des certificateurs avantageux. Rares sont
ceux qui n’ont pas un jour ou l’autre été mêlés à un scandale.
C’est ainsi que, peu à peu, on se rend compte que le plus
efficace est probablement d’éviter d’émettre tout ce CO2. En
redoublant de vigilance, je suis passé de près d’une centaine de
vols par an à quelques-uns. J’ai arrêté de faire six heures
d’avion pour participer à un séminaire d’une journée, parfois
pour intervenir quelques dizaines de minutes dans une
conférence, et autant que possible je me déplace en train
(j’écris ces quelques lignes dans un TGV qui me ramène de
Toulouse en quatre heures là où cinquante minutes suffisent en
avion). Avouons-le, pour les destinations à l’étranger, ce n’est
vraiment pas commode : le train de nuit qui allait à Berlin a été
supprimé en 2014 puis rétabli fin 2023. Milan et Barcelone
ont toutes deux des TGV directs, mais il faut accepter d’y
laisser une grosse après-midi.
La question qui m’obsédait était de savoir si nous avions
vraiment besoin de ces capacités de transport. Il ne fait pas de
doute que ceux qui visitent des pays étrangers, même lointains,
ont souvent des perspectives plus intéressantes sur le monde,
ils en appréhendent la complexité et cherchent probablement
moins que d’autres à imposer leurs points de vue. Mais cette
perspective est-elle remplaçable par autre chose ?
La technologie informationnelle par exemple ne nous
permettra-t-elle pas un jour d’échanger de façon plus intense
qu’en visioconférence avec des étrangers lointains ?
de comprendre plus finement des cultures et des
géographes que nous ne le faisons dans des expériences de
tourisme de masse, de plus en plus industrielles ?
Ce qui me fascinait également c’est qu’il arrivait qu’une
randonnée dans les bois après la pluie puisse susciter en moi
un sentiment de dépaysement équivalent à celui d’un voyage
lointain. Toutefois, la nature qui procurait cela était de plus en
plus difficile à atteindre. Il est rare de se promener en France
sans avoir le sentiment que le biotope est abîmé d’une façon
ou d’une autre. En Île-de-France, il est presque impossible de
faire une vraie randonnée sans entendre le bruit des avions,
sans tomber sur d’imposantes routes ou sur une forme de
mitage urbain dont la forêt ne sort jamais gagnante. Et je
n’étais pas le seul à trouver qu’il y avait moins d’oiseaux qu’il
y a vingt ou trente ans, moins d’insectes aussi. Ce sont la
totalité des rapports des associations consacrés à la faune et à
la flore, comme les travaux académiques, qui pointent ce qu’il
est difficile d’appeler autrement qu’un effondrement.
Et puis il y avait la technologie. À quelques maisons de
celle où j’ai passé mon enfance se trouvait celle de Youri. À
Noël, ses parents lui avaient laissé le choix, comme cadeau,
entre une cabane préfabriquée à construire dans un arbre et un
ordinateur. Nous avons passé des heures à en discuter. J’étais
plutôt pour la cabane, il était plutôt pour l’ordinateur. Je pense
que, secrètement, son père était aussi pour l’ordinateur ; et ce
sont eux qui l’ont emporté.
Le lendemain de Noël, je me rappelle que nous avons
commencé à déballer l’ordinateur et que nous avons réussi à
mettre en route le jeu de type Space Invaders qui
l’accompagnait. L’Oric 1 était pourvu de quelques
programmes sous forme de cartouches et d’un gros livre pour
apprendre à coder. Les jeux n’étaient pas compilés et leur code
était donc modifiable à volonté. Rapidement, nous
nous sommes amusés à modifier la couleur des briques,
la forme de la fusée, à accélérer le rebond des munitions…
jusqu’à rendre le jeu totalement différent de ce qu’il était à
l’origine. Et puis nous nous sommes peu à peu mis à
programmer. Après le langage Basic, nous sommes passés au
Turbo Pascal. En quelques années, nous avons changé deux ou
trois fois d’ordinateur et Youri s’est plongé ardemment dans le
langage C, le plus ardu, tandis que je décrochais largement.
À l’époque, j’avais une vision de l’informatique plutôt
différente de celle qui est aujourd’hui communément admise.
Il s’agissait alors essentiellement d’un hobby de geeks.
Un truc comparable à ceux qui construisaient des trains
miniatures électriques dans leur grenier le week-end. Si l’on
pressentait que cela allait prendre de l’importance, on ne savait
pas bien comment. Personnellement, je n’aurais jamais cru une
seconde que j’aurais pu en faire mon métier : c’était trop
besogneux, trop peu lié au réel, même si concevoir des jeux
vidéo resta longtemps un fantasme pour moi.
Quelques années plus tard, Youri est entré à Centrale.
On continuait à se voir de temps en temps, et il m’apprit qu’il
s’était spécialisé dans de nouveaux langages et qu’il
affectionnait particulièrement le LISP, essentiellement dédié à
l’intelligence artificielle. Je crois que l’une des dernières
conversations que nous avons eues, avant qu’il ne nous quitte,
concernait le nombre d’années qu’il faudrait avant que les
logiciels de reconnaissance de textes et de reconnaissance
vocale soient réellement efficaces. Nous étions au tout début
des années 1990. Ni lui ni moi ne savions alors que Yann Le
Cun et Yoshua Bengio – deux monstres désormais sacrés de
l’IA – venaient de faire l’un et l’autre des publications
scientifiques majeures à propos des réseaux de neurones{3},
provoquant un puissant électrochoc au sein de la communauté
cybernétique et ouvrant des perspectives tout à fait
remarquables. L’intelligence artificielle sortait de son second
hiver : dans la communauté académique, on se remettait à
rêver d’applications extraordinaires. Ce n’était pas encore pour
tout de suite, mais c’était un immense pas dans la bonne
direction… Mais, même dans ce contexte, il aurait été bien
audacieux de faire un lien avec les enjeux environnementaux.
Seuls les auteurs de science-fiction comme Philip K. Dick
(dans Les androïdes rêvent-ils de moutons électriques ?) ou
Isaac Asimov (dans Le Conflit évitable) et quelques autres
s’étaient risqués à envisager que des systèmes dotés
d’autonomie puissent gouverner les écosystèmes de cités
spatiales, quand ce n’était pas des planètes entières.
Curieusement, ce sujet ne sera que rarement traité par la
littérature SF durant des décennies, pour revenir en force au
cours des quinze dernières années{a}.

{a}Au travers d’auteurs comme : Paolo Bacigalupi avec La Fille automate (2009),
Neal Stephenson avec Seveneves (2015), Liu Cixin avec The Three-Body Problem
(2008) ou encore Kim Stanley Robinson avec 2312 (2012) et, plus récemment
encore, Annalee Newitz avec Autonomous (2017).
Première partie

Enjeux, idéologies et politiques


publiques
Chapitre 1
Décroissance ou techno-
solutionnisme ?

Le sujet de la décroissance n’est pas nouveau. Dès 1970,


le rapport Meadows fut explicite sur le fait qu’une croissance
infinie était peu soutenable. Avec le recul d’un demi-siècle,
il devient évident que certains postulats étaient faux : contre
toute attente, la démographie s’est brutalement affaissée,
faisant mentir les perspectives d’alors qui voyaient l’humanité
dépasser largement les 15 milliards d’habitants au milieu du
e
XXI siècle. De même, la croissance de la productivité générale
et agricole a mis à mal l’idée que nous ne parviendrions plus à
nourrir toute la planète, et ce dès le tournant du millénaire.
Néanmoins, au cours des Trente Glorieuses, une idée
émergea : celle que la croissance ne puisse être nécessairement
une fin en soi et que le consumérisme qui l’accompagne ne
soit plus une boussole orientant les politiques publiques. Cette
idée a cheminé au cours des années sans vraiment prendre de
consistance ; avec l’effondrement de l’URSS, puis
l’avènement de la globalisation facilité par les accords de
l’OMC, le modèle consumériste occidental est devenu
dominant. La Chine, l’Inde et ce que l’on appelait les pays non
alignés se sont sagement rangés dans le camp des pays
privilégiant les échanges marchands comme modèle
économique. Si ce camp domine depuis lors de façon plus ou
moins incontestée et si ses alternatives ne sont généralement
pas très appétissantes, d’importantes failles n’en apparaissent
pas moins au sein des sociétés néolibérales. Aux États-Unis,
la consommation de stupéfiants est devenue la première cause
de mortalité des 15-25 ans, suivie des morts violentes par
armes à feu et par accident de la route. La durée de vie a
brutalement perdu deux ans après l’année du confinement due
à la pandémie de Covid, et les perspectives démographiques
et de santé publique sont loin d’être bien orientées. Non
seulement ce modèle n’est pas, au moins pour l’instant,
résilient, mais de surcroît il est loin de garantir
l’épanouissement des peuples qui l’ont choisi.
On opposera facilement à cela que les modèles alternatifs ne
font preuve de rien, si ce n’est de maintenir de larges parts de
leurs populations dans la pauvreté (on pense par exemple à des
pays comme le Venezuela, dont l’effondrement économique
n’est plus contesté et où le taux de morts violentes est l’un des
plus élevés au monde), un argument qui ne doit toutefois pas
nous empêcher de réfléchir à d’autres modèles.

Un débat idéologique
Le débat sur la croissance et l’environnement est d’autant
plus compliqué qu’il cristallise des positionnements politiques
et idéologiques antagonistes. Il y a en premier lieu ceux qui se
revendiquent décroissants. Pour eux, la quantité de richesse
totale que l’humanité peut produire est atteinte et il faut
désormais redistribuer cette richesse si nous voulons faire
progresser le plus grand nombre. Ce sont les idées défendues
par Timothée Parrique, l’Institut de la décroissance en France
et, aux États-Unis, par Jason Hickel dans son très radical
ouvrage Mieux avec moins. Comment la décroissance va
sauver le monde{4} ou encore par Tim Jackson dans son Après
la croissance. La vie sans le capitalisme{5}. Les idées
marxistes de redistribution sont très largement présentes chez
ces auteurs ; un retour en vogue extraordinaire tant les
principes d’économie administrée ont été décrédibilisés par
leur inefficacité partout où ils ont été essayés tout au long du
e
XX siècle. Non seulement ils étaient inefficaces, mais ils ont
directement suscité d’effroyables dictatures, ayant peu ou pas
d’équivalents dans l’histoire humaine. Évidemment, tout cela
ouvre des débats passionnés : des journalistes, des acteurs
économiques, des acteurs politiques… accusent les
décroissants d’user du prétexte de la transition
environnementale pour imposer un agenda politique que l’on
croyait discrédité pour de bon{6}, tandis que d’autres sont
convaincus que le marché et l’innovation peuvent largement
répondre à ces enjeux de transition.
Il existe aussi des décroissants techno-solutionnistes, par
exemple Jean-Marc Jancovici et Jeremy Rifkin. S’ils
s’opposent sur les systèmes de production d’énergie –
Jancovici est pour le nucléaire et Rifkin est contre –, tous deux
voient dans les réseaux électriques intelligents une solution
compatible avec un scénario décroissant. Tous deux sont
également critiqués pour leur vision très autoritaire de la
décroissance, Jean-Marc Jancovici ayant été jusqu’à suggérer
que le modèle chinois était plus approprié à une transition
environnementale rapide.
De nombreux acteurs, incluant l’Américain Paul Hawken,
l’Indienne Vandana Shiva ou même l’activiste suédoise Greta
Thunberg, se situent eux dans une zone indistincte où, sans
prôner directement la décroissance, ils n’en invitent pas moins
à une autre forme de croissance. Ils se rejoignent souvent sur
des idées communes, comme les mobilités douces, les
systèmes de production de proximité, l’économie circulaire,
le réemploi, et souhaitent une évolution radicale de la façon
dont les systèmes politiques fonctionnent, afin de les
affranchir de l’influence qu’ils prêtent aux grandes entreprises.
Il est d’autant plus difficile de bien cerner leurs orientations
politiques qu’ils s’affranchissent largement du débat politique,
en récusant le cadre pour mieux faire résonner leurs idées.
Il n’est donc pas facile d’y voir clair tant les antagonismes
sont violents et les écoles nombreuses. Par-dessus le marché,
le sujet est en lui-même d’une grande complexité, les
méthodologies multiples, les interdépendances innombrables,
ce qui ébranle les certitudes les plus établies. À titre
d’exemple, au milieu des années 2010, l’idée qu’il faille
développer le nucléaire pour produire de l’électricité à basse
teneur en CO2 était particulièrement minoritaire. Cette
technologie était le symbole même d’une croissance
prométhéenne, faisant peser un risque fatal sur l’humanité,
Tchernobyl et Fukushima ayant pour les opposants au
nucléaire largement démontré les dangers d’une telle
technologie. Ainsi, seuls 25 pays envisageaient de construire
des centrales nucléaires en 2015.
Moins de dix ans plus tard, ce chiffre a presque que
doublé{7}, avec 44 pays envisageant un ou plusieurs
programmes nucléaires civils. Entre-temps, il y a eu les
tentatives de décarbonation de l’électricité reposant
essentiellement sur les sources renouvelables et nécessitant de
considérables investissements pour réussir à réduire les
émissions de CO2 des grids nationaux. L’Allemagne, par
exemple, a fermé ses centrales nucléaires, tout en investissant
plus de 500 milliards d’euros dans les énergies renouvelables,
mais semble néanmoins en butte à une forme de plateau dans
sa transition énergétique, étant même obligée de relancer de
nombreuses centrales à charbon pour passer l’hiver et l’été
sans heurts. Dans le même temps, une rationalisation des
risques-bénéfices du nucléaire a permis de démontrer qu’il
s’agit d’une des énergies les plus décarbonées, aux risques et
aux externalités (empreinte au sol, ressources minières et
même déchets…) très faibles.
En outre, la notion même de décroissance continue
d’apparaître comme particulièrement vague. Pour certains,
comme Hawken, il s’agit essentiellement de produire
différemment et en particulier plus localement, de protéger nos
écosystèmes et d’apprendre à mieux utiliser nos ressources
énergétiques. Même s’il n’est pas explicite à cet égard et prône
plus particulièrement une décroissance du consumérisme,
il n’en reste pas moins régulièrement classé dans les
décroissants.
Dans l’ensemble, il faut admettre que les techno-
solutionnistes se situent le plus souvent dans le camp
conservateur, dans la mesure où ils prétendent qu’il n’est pas
nécessaire de faire de grands changements économiques et
sociaux, et que le marché, la croissance de la productivité
permise par les innovations technologiques vont résoudre les
enjeux qui nous font face{8}. Le philosophe François Jarrige
observe que les techno-solutionnistes veulent généralement
maintenir leur mode de vie actuel et récusent l’action
collective{9}. Pour défendre ce point de vue, ils opposent des
évidences chiffrées. Par exemple que le PIB européen a
augmenté de 50 % par habitant depuis 1980 tandis que les
émissions de CO2 par individu reculaient de 37 %. Ils prennent
donc appui sur ce découplage net entre croissance et CO2
(prenant en compte le CO2 importé) pour expliquer qu’il suffit
d’accroître cette dynamique – sans faire évoluer les modes de
vie – pour parvenir à effectuer une transition environnementale
accomplie. Ce courant de pensée, minoritaire en Europe, est au
contraire très dominant aux États-Unis.
Mais une approche reposant exclusivement sur la
technologie sera-t-elle suffisante ? Désormais, le niveau de
baisse des émissions de CO2 doit aller cinq fois plus vite qu’au
cours des vingt dernières années pour tenir l’objectif de + 2 oC
en 2050{a}. Il devient plus difficile de contester l’idée que des
évolutions fortes des modes de vie seront nécessaires.
Dans le camp décroissant, en revanche, on privilégie le
changement de système politique, l’évolution vers un modèle
au sein duquel le principe de redistribution est central. Dans ce
même camp, on a logiquement tendance à sous-estimer le
potentiel des technologies, d’autant plus que, si elles étaient
efficaces, il n’y aurait plus de justification à effectuer un
changement de modèle politique. Les décroissants fustigent
ceux qui voient dans le découplage entre croissance et CO2
une raison de se réjouir. Ils affirment que celui-ci ne concerne
que des fonctions qu’il était simple d’améliorer, comme la
production d’électricité à base de charbon, sensiblement
réduite à l’échelle de l’Europe, et qu’une fois ces gains faciles
effectués, les vraies difficultés s’avéreront insurmontables.
Pour eux, réussir une réelle transition environnementale passe
par un changement radical de société, une forme de revanche
sur la domination sans partage du modèle capitaliste.
Il est intéressant d’observer les conclusions que tirent du
découplage CO2/PIB ces deux écoles de pensée : pour les
techno-solutionnistes, si le recul des émissions de CO2 est
insuffisant, c’est bien parce que l’on n’a pas assez mis à
l’échelle les technologies de décarbonation. Ils pointent du
doigt les fausses solutions des mouvements écologistes, qui
ont retardé la mise en chantier de nouvelles centrales
nucléaires et qui s’opposent parfois au développement du
véhicule électrique. Pour les décroissants, le faible niveau de
décarbonation de notre société consumériste est une
démonstration brutale que son modèle même est insoutenable
et qu’il faut en changer.

Changer notre façon de vivre


De fait, il n’est probablement pas possible de conclure ce
débat de façon consensuelle. Ce qui semble en revanche admis
par les protagonistes – raisonnables – des deux camps, c’est
qu’il sera vraisemblablement difficile de préserver les usages
les plus communément en vigueur dans notre société. À titre
d’exemple, les plastiques à usage unique pourraient
représenter 13 % des émissions de CO2{10} si nous
n’infléchissons pas les tendances actuelles. Non seulement ces
plastiques émettent du CO2 lors de leur fabrication, mais,
de surcroît, ils ont un impact profondément négatif sur la
faune, la flore et évidemment l’espèce humaine{11}. Même en
concevant des machines qui élimineraient à grande échelle les
plastiques des océans, qui trieraient les déchets ménagers et
industriels avec une grande efficacité, il est pour ainsi dire
impossible que l’on parvienne à recycler efficacement le
milliard de tonnes de plastiques jetables produits chaque
année. Et, par-dessus le marché, la mise en place d’une telle
infrastructure de services serait probablement plus coûteuse
que d’envisager d’autres formes d’usages.
Les plastiques sont en réalité symptomatiques d’une société
de consommation qui n’accorde aucune importance à ses
externalités et ce n’est pas nécessairement décroissant
d’avancer qu’il faille arrêter de les utiliser comme emballages
jetables, même si c’est en apparence moins pratique{b}.
Malheureusement, ce qui est pratique est le plus souvent très
clivant. Réduire la vitesse de 10 km/h sur les routes nationales
suffit à rendre les gens furieux, car ils en perçoivent
immédiatement les conséquences pour eux et
comprennent qu’il leur sera moins pratique d’effectuer leurs
déplacements quotidiens{c}.
De même, pour beaucoup d’entre nous, il est plus pratique
de consommer un nouveau sac en plastique chaque fois que
nous faisons nos courses et, d’une certaine façon, cela nous
semble inexorablement lié à notre qualité de vie. Tout cela
parce que nous ne pensons pas à ce que serait l’alternative, par
exemple la mise en place d’un processus de consigne sur une
vaste échelle, permettant de neutraliser une grande part de la
perte de confort et de valeur apparente. Certes, l’alternative
pourrait être que chacun lave des pots en verre, puis les
rapporte au supermarché et récupère un montant consigné par
emballage ou soit prélevé s’il ne le fait pas. Dit autrement :
quelque chose de beaucoup plus fastidieux que l’usage du pot
en plastique qui disparaît dans la poubelle une fois vidé. Mais
il y a d’autres voies, certaines aussi « pratiques » que de mettre
tout ce qui ne nous sert plus à la poubelle. Essayer de décrire
ces autres voies est l’un des objectifs de ce livre. Il ne s’agit
donc pas nécessairement de se positionner dans l’un ou l’autre
camp des fanatiques de la progression du PIB ou des
ayatollahs de la décroissance, mais plutôt d’évaluer les
perspectives qu’offrent les technologies numériques pour aider
la transition environnementale et, dans la mesure où ces
technologies induisent généralement de nouveaux usages,
d’essayer d’évaluer s’ils sont acceptables et à quelles
conditions.
Bien entendu, l’action politique est ici partout en
embuscade. Repenser les chaînes de fonctionnement des
grands services économiques et sociaux que nous utilisons le
plus souvent ne peut pas se faire efficacement et à grande
échelle sans une évolution du cadre légal et réglementaire,
voire plus largement de notre modèle de société. Mais tout
cela ne procède pas nécessairement d’un postulat initial de
redistribution ou, au contraire, d’un impératif de maintien de
l’ordo-consumérisme. Ainsi, si l’exercice n’est pas
initialement de nature politique, il le devient très vite.
Certains climatologues comme François Gemenne
considèrent désormais que l’enjeu de limiter le réchauffement
climatique en deçà des 1,5 oC est irréaliste{d}. Ce qu’il faut
viser, c’est 2 oC, en étant conscient que cette différence d’un
demi-degré aura des conséquences importantes sur la
fréquence des incidents climatiques, la quantité de terres qui
seront submergées par la montée des eaux, etc. Existe
également un consensus au sein des rapporteurs du GIEC sur
le fait que la technologie ne parviendra pas seule à atteindre
cet objectif.
En outre, on ne peut pas nier qu’existent d’incontestables
enjeux d’exemplarité, de solidarité, d’équité et de
redistribution. Ce ne sont pas eux qui ont, en premier lieu,
guidé l’écriture de ce livre. Taxer les pollueurs peut sembler en
apparence pertinent, sauf si le pollueur est tellement riche que
l’amende lui paraît insignifiante. Existe alors une iniquité face
aux efforts à effectuer qui peut aboutir à des ressentiments plus
forts encore que ceux qu’induisent les différences de revenus
ou de patrimoine. Si les pauvres sont de surcroît entravés dans
leurs capacités de déplacement ou de se chauffer l’hiver parce
qu’on a pris le parti de taxer le carbone, le risque c’est
d’accroître les inégalités et d’en rendre responsable
la transition environnementale.
C’est pourquoi, par exemple, la stratégie générale des
gouvernements français est de privilégier des approches
incrémentales, celles qui seront le mieux acceptées par les
gens. L’idée générale est de s’en remettre à 60 % à
l’innovation incrémentale (construire des centrales nucléaires,
passer au véhicule électrique, etc.), à 20 % à des innovations
de rupture (véhicule autonome, trains autonomes, carburants
de synthèse, etc.) et à 20 % seulement à la modification des
usages{12}. Il est intéressant d’observer que ce dernier chiffre
est probablement un marqueur de la nature politique du
pouvoir en place. Il est en effet probable que, si un jour un
gouvernement d’extrême gauche venait à être élu, ce chiffre lié
aux usages serait considérablement plus élevé : les véhicules
individuels seraient stigmatisés, de même que la plupart des
usages individuels. Dans la même logique, si un gouvernement
d’extrême droite ou même conservateur devait prendre le
pouvoir, ce chiffre serait probablement plus proche de zéro,
la préservation de notre mode de vie, et donc de nos usages
traditionnels, étant souvent avancée comme un marqueur de
ces camps politiques. Il n’en reste pas moins que les
gouvernements, quels qu’ils soient, se méfient des réactions à
l’égard des changements d’usages. Lorsqu’ils observent qu’un
simple abaissement de vitesse de 10 km/h sur l’autoroute peut
mettre un pays à feu et à sang, on peut comprendre qu’ils
prient chaque jour que Dieu fait pour que les solutions
technologiques permettent de réaliser le gros de la transition
environnementale… Certaines ont d’ailleurs de fortes
influences sur les usages. Différentes études montrent que les
jeunes générations ne souhaitent plus acheter mais souhaitent
préférablement utiliser : autrement dit, elles veulent de plus en
plus louer plutôt que d’être propriétaires{13}. Cela inquiète les
banquiers, qui se demandent si la vache à lait que représente le
crédit immobilier va se maintenir au fil du temps, mais cela
peut accroître les taux d’usage et donc participer à réduire
l’empreinte de nos modes de vie.
Apparaissent également d’importantes questions éthiques.
Une société en transition rapide doit certes faire preuve de
solidarité, en organisant des transferts sociaux pour financer la
transition écologique. Se posent encore des questions
d’exemplarité. Si les jets et avions privés ne pèsent pas lourd
en matière d’émissions de CO2, un seul vol peut induire une
empreinte par passager équivalente à celle de l’empreinte
annuelle de deux ou trois personnes{e}, et cela en seulement
quelques heures. Quelle que soit l’efficacité des technologies
et de l’intelligence artificielle, ces sujets vont
nécessairement devoir trouver une réponse.

De l’effet rebond
Il est incontestable que l’amélioration des techniques est
une cause de l’effet rebond. Ainsi du transport aérien, dont les
coûts d’exploitation ont été considérablement abaissés, ce qui
fait que, au cours des vingt-cinq dernières années,
la croissance moyenne de ce secteur a été de 5,4 % l’an, au
point qu’aujourd’hui il s’agit du huitième facteur de
réchauffement climatique à l’échelle planétaire{f}. Ou encore
de la taille et du poids des voitures : alors qu’en quarante ans
l’efficacité des moteurs thermiques a été pratiquement
multipliée par 2, la consommation de ces véhicules n’a connu
qu’une baisse marginale, la presque-totalité des gains
de performance ayant été absorbée par une augmentation de
leur taille et de leur poids. Un véhicule moyen dans les années
1980 pesait 950 kilos. Son équivalent en 2024 ferait plutôt
1 330 kilos. Bien entendu, tout le monde trouve de bonnes
raisons pour justifier cela : la sécurité et le confort seraient
largement accrus, et de quoi se plaint-on puisque la
consommation baisse, certes assez marginalement.
Le fait est que, jusqu’à présent, il y a eu une forte
corrélation entre progrès technique, croissance économique et
émissions de CO2, sans même parler des autres externalités
environnementales. En l’espace de deux cent cinquante ans,
l’économiste américain Paul Kennedy estime que le PIB par
Terrien a été multiplié par au moins 40. Il serait ainsi passé de
0,6 à 29,50 dollars par jour, si l’on s’en réfère aux chiffres les
plus récents (soit un facteur, encore supérieur, de 49). Si
Kennedy n’a pas calculé les émissions de CO2 que cette
remarquable croissance a induites, le GIEC, lui, l’a fait,
estimant que, entre l’ère préindustrielle et aujourd’hui,
la croissance par humain des émissions de CO2 est de l’ordre
d’un facteur 20. Il y a donc une corrélation relative, mais
largement insuffisante dans la mesure où nos émissions sont
en moyenne par humain deux fois et demie plus élevées que ce
qu’elles devraient être pour rester durablement dans un monde
viable.
Le problème de l’effet rebond, c’est qu’il est désormais
souvent présenté comme une règle ayant valeur de loi
physique, un cadre dont on ne peut s’extirper. C’est l’un des
arguments fondamentaux des décroissants : on n’a jamais
observé de développement économique, ni même de mise en
œuvre d’une technologie de masse, sans que celle-ci induise
de puissants effets rebond. Et il est vrai qu’ils ont largement
raison, l’amélioration de la performance énergétique des
avions commerciaux n’a aucune autre conséquence qu’un
accroissement du trafic aérien qui outrepasse largement ces
économies de fuel. Les SUV sont légitimement pointés du
doigt comme des absurdités : si les voitures d’aujourd’hui
avaient gardé le poids de celles d’il y a trente ans, il est
vraisemblable qu’elles consommeraient de l’ordre de deux fois
moins, particulièrement en ville où les effets d’inertie liée au
poids sont plus importants que sur la route. La performance
s’est ici traduite en taille, en hauteur, sans aucun autre bénéfice
qu’une forme de course aux armements entre ceux qui
souhaitent avoir le véhicule le plus imposant. Partout, nous
pouvons observer la trace de gains de productivité qui se
traduisent en effets rebond. Par exemple, dans la quantité des
emballages, conséquence de l’amélioration de la performance
des machines de production de packaging, sans même parler
de la livraison à domicile qui aurait accru de 10 % la quantité
d’emballages produits chaque année par le Royaume-Uni.
Ou dans la consommation de week-ends de loisirs, à la fois
conséquence de la baisse du coût du transport – en particulier
aérien – et de la simplification que les services numériques ont
permis lors des opérations de réservation.
Néanmoins, ce qu’oublient les décroissants, c’est que les
externalités environnementales n’étaient jusqu’à présent le
problème de pas grand monde, sinon des ONG et autres
activistes du climat. Personne ne s’est vraiment préoccupé
d’orienter les bénéfices des progrès technologiques au profit
de l’environnement. Ce n’est qu’au cours des toutes dernières
décennies que quelques réglementations sont apparues à ce
sujet. Et encore, les activités les plus carbonées, comme le
transport aérien, bénéficient (sauf quelques rares exceptions)
d’un régime particulièrement favorable, le kérosène n’étant
le plus souvent soumis à aucune taxe. Or aucune autre activité
ne dispose d’un bilan temps d’usage par heure aussi élevé que
l’avion. En moyenne, un passager émet 240 kilos de CO2
par heure d’avion, soit environ 2 fois plus qu’une heure de
voiture et 90 fois plus qu’une heure de train. Certes, on va plus
loin en avion, mais on n’y va pas toujours avec le souci d’être
attentif aux externalités que l’on induit. Et, malgré tout cela,
le simple progrès technique a suffi à réduire les émissions de
CO2 dans les pays développés. Il est vraisemblable que si nous
avions été plus exigeants, les technologies auraient fait des
progrès encore plus importants en matière de décarbonation.
L’effet rebond s’applique particulièrement bien au
numérique, d’autant plus nettement que le numérique est
gouverné par l’une des rares lois exponentielles qui soient.
Tous les deux ans, les microprocesseurs doublent de
puissance, donnant l’opportunité de mettre en œuvre de
nouveaux services qu’il aurait été tout simplement impossible
d’imaginer quelques années plus tôt. En conséquence, les
plateformes numériques et les constructeurs d’équipements
n’ont pas hésité à développer des usages très exigeants en
calcul et en données. Un service comme TikTok concentre à la
fois d’importants flux de données, du calcul effectué sur le
terminal de l’utilisateur (qui nécessite donc un smartphone
récent, ne serait-ce que pour afficher l’image) ainsi que sur le
serveur pour optimiser les propositions de courtes vidéos qui
sont personnalisées pour chaque utilisateur. L’objectif avoué
de l’ensemble de l’industrie numérique consistant à faire en
sorte que l’on passe le plus de temps possible sur ces
appareils, l’infinite scrolling (les « pages sans fin »), vise à
créer une addiction en jouant sur « la peur de manquer quelque
chose » (fear of missing out, ou FOMO). Cela induit
d’importants moyens de calcul pour une finalité qui est
largement discutable. De surcroît, les services les plus
impressionnants sont ceux qui sont optimisés pour les
dernières versions de smartphones, incitant ainsi les
consommateurs à changer fréquemment d’appareil, ce qui
constitue d’ailleurs de loin la plus grande source d’émission de
CO2 de l’industrie numérique.
Comment éviter les effets rebond ? Est-il seulement
possible d’orienter le fruit des progrès techniques vers autre
chose que des bénéfices souvent superflus pour les
utilisateurs ? Le moins que l’on puisse dire c’est que notre
organisation économique a jusqu’à présent largement failli à
répondre à cet objectif. Et, encore une fois, le numérique n’est
pas le secteur d’activité le moins critiquable lorsqu’il s’agit de
créer de nouveaux usages dont on peut se poser la question de
l’intérêt véritable pour l’usager. Il est difficile de contester le
fait qu’une brosse à dents fasse partie des produits de première
nécessité, mais une brosse à dents connectée devrait-elle en
faire partie ? Un véhicule dont le fauteuil s’ajuste
automatiquement au pilote, dont le véhicule reconnaît la voix
nous change-t-il vraiment la vie ?
Tout cela serait encore acceptable si ces innovations étaient
produites à périmètre constant de ressources, mais, on l’a vu,
une voiture a pris au moins 35 % de poids en trente ans{14},
et il en est de même de beaucoup de produits similaires. Cet
embonpoint signifie des ressources minérales supplémentaires,
des difficultés accrues de recyclage, notamment du fait
d’utilisations plus importantes de métaux spéciaux et de terres
rares, une consommation accrue. Et pour autant ce déluge
d’innovations n’est que très faiblement tourné vers la
production de produits plus résilients, plus écologiques.
Dans un tel contexte, les approches techno-solutionnistes ou
décroissantes sont-elles l’une et l’autre inadéquates ? Peut-on
parler des bienfaits de la croissance lorsque nous détruisons
nos habitats, notre biotope, pour y parvenir ? Et doit-on
envisager une décroissance qui dans certains cas reviendrait à
réduire considérablement nos capacités d’innovation,
de développement de nouvelles technologies médicales,
agricoles, productives, etc. ? Certains voient dans la right tech
une technologie qui serait tournée vers des usages raisonnables
et la résolution des grands problèmes environnementaux et
serait donc l’approche qu’il convient d’adopter. Un projet
malheureusement trop peu présent dans le débat. En réalité,
il ne faut pas s’étonner si la technologie est de plus en plus
prise pour cible par ceux – les purs, les durs, les radicaux – qui
prétendent appartenir à la vraie écologie. Leur argumentation
est en réalité imparable : la technologie nous entraîne dans une
course à la consommation, à l’exploitation des ressources
minières. Seule une culture de la parcimonie, de la
renonciation, pourrait nous permettre d’expier une part de nos
fautes. Une vision flagellante qui a le don d’exaspérer le camp
des rationalistes et techno-solutionnistes.
La condamnation structurelle de la technologie a différentes
origines{g}. Étymologique, d’abord : « technologie » naît de la
fusion des termes grecs tekhnê et logos, « technique » et
« raison ». Pour les penseurs romantiques, ils cristallisent la
faute originelle consistant à s’opposer à la nature en
s’émancipant de la production et de l’accès aux ressources
et par une connaissance qui serait indépendante de l’état de
nature.
Au cours des dernières années, la remise en cause de la
notion de progrès s’est généralisée du fait du dérèglement
climatique et d’une perception de montée des inégalités. À cet
égard, il est intéressant d’observer que les forces de gauche ne
voient plus dans le progrès technologique un facteur
d’émancipation. Le plus souvent, elles considèrent que celui-ci
s’est retourné contre la classe sociale qu’il était censé servir et
a choisi ses maîtres au sein des intérêts particuliers, des
gouvernements autoritaires, du camp réactionnaire…
Ce ne sont plus des forces de transformation politique, ce
qui peut expliquer l’attrait que suscite la notion de
décroissance, assez généralement associée à la notion de
redistribution des richesses. Dans son livre Leur progrès et le
nôtre. De Prométhée à la 5G, François Ruffin fait une critique
intéressante de l’accaparement des technologies par des
intérêts particuliers{15}. Il commet cependant une erreur : celle
de penser que ces technologies n’ont qu’un seul maître,
qu’elles y obéissent sans faille, et il n’envisage pas qu’elles
puissent être remises au service du bien commun.
Que l’on ne s’y trompe pas, cependant : mon livre ne se
veut pas être, à l’inverse, un plaidoyer pro domo de
l’intelligence artificielle. Je ne cherche pas à véhiculer l’idée
que l’IA va nécessairement résoudre nos enjeux
environnementaux. J’énonce simplement l’hypothèse que,
dans un contexte adapté, l’IA peut représenter un puissant
outil pour traiter nos enjeux climatiques et environnementaux.
Il y a d’importantes conditions préalables pour que cela soit
le cas. L’une d’entre elles est que nos usages du quotidien
évoluent profondément, que des consensus forts émergent à
cet égard.
Demain, il est possible que nous recourrions sensiblement
plus à des transports collectifs, il est également envisageable
que nos logements soient plus petits, que notre nourriture soit
différente, que notre utilisation de l’énergie soit, elle aussi, très
différente… et tout cela sans que nous renoncions vraiment au
confort auquel les sociétés développées sont habituées. Sans
renoncer, mais en acceptant que cela soit différent, et il faut
avouer que nul ne sait jusqu’à quel point cette capacité
d’adaptation sera possible. Ce qui est en revanche manifeste,
c’est qu’il sera difficile d’esquiver la nature politique de ces
enjeux. Modifier les usages, notre façon de nous déplacer,
d’habiter, de travailler peut difficilement se faire à large
échelle sans engager de vastes débats, eux-mêmes
suscitant désaccords, conflits, polémiques… Et parfois se
dégage un consensus pour aller de l’avant. Tout cela est avant
tout politique.

{a} L’objectif initial de 1,5 °C semble désormais hors de portée et pourrait être
atteint au cours de la décennie 2020 selon certaines projections (Gloria Dickie,
« Global warming will reach 1.5 C threshold this decade – report », Reuters,
novembre 2023).
{b} Le médecin Jean-David Zetoun observe dans son ouvrage Le Suicide de
l’espèce. Comment les activités humaines produisent de plus en plus de maladies
(Denoël, 2023) que les plastiques sont probablement « responsables de centaines de
milliers de morts par an, a minima ».
{c}Il ne faut cependant pas négliger l’opposition ruralité/métropole, qui a beaucoup
joué dans cette affaire.
{d} « L’objectif d’une augmentation de la température de 1,5 °C d’ici à la fin du
siècle est carrément hors d’atteinte. Il faut dire la vérité aux gens », appelle
François Gemenne, rapporteur du GIEC sur BFM (novembre 2022).
{e}Un vol de Paris à Tokyo en Gulfstream G650 nécessite de l’ordre de 20 tonnes
de carburant, ce qui une fois brûlé génère environ 60 tonnes de CO2.
{f}Avec seulement 2,8 % des émissions totales de CO2, mais dont les effets
chimico-physiques induits portent ce secteur d’activité à plus de 5 % (« Les idées
reçues sur l’aviation et le climat », Carbone 4, février 2022).
{g}Dans son essai La Question concernant la technologie (Die Frage nach der
Technik), Martin Heidegger soutient que la vision moderne de la technologie
comme un moyen neutre est erronée. Selon lui, la technologie moderne impose un
cadre (Gestell) qui conditionne notre manière de voir le monde, nous réduisant à
considérer la nature et même les êtres humains comme de simples ressources à
exploiter. Cette approche, argue-t-il, nous aliène de notre véritable relation avec
l’être.
Chapitre 2
L’approche politique

Il faut le concéder, l’environnement fut, tout au long du


e
XX siècle, un service gratuit. C’était à qui polluait le plus la
rivière du coin, émettait des fumées toxiques, testait ses
bombes atomiques à l’air libre, construisait des parkings et des
voies express au cœur même des villes, fussent-elles
historiques, etc. Les écologistes étaient raillés comme de doux
rêveurs qui ne comprenaient rien à la dynamique
prométhéenne du monde.
Pourtant, dès la fin des années 1960, quelques rares voix
ont exprimé l’idée que cette croissance n’était pas durable, que
les conséquences d’une civilisation devenue essentiellement
consumériste ne seraient pas indéfiniment invisibilisées.
Il faudra bien trop de temps pour que citoyens et États
commencent à réagir – et encore, mollement au début. On se
souvient d’un ancien président qui, arrivé aux deux tiers de
son mandat, s’exclama : « L’écologie, ça commence à bien
faire ! », démontrant de façon spectaculaire à quel point la
priorité restait à la croissance, croissance à tout prix, dût-elle
s’accompagner d’externalités environnementales
particulièrement négatives. Il est vrai que le discours restait
très manichéen : c’étaient les gens raisonnables contre les
utopistes, et cette polarisation a été infiniment coûteuse pour la
cause environnementale, même s’il faut reconnaître que ces
utopistes n’ont que rarement fait preuve de pédagogie et de
pragmatisme.
Ces années perdues se paient désormais cher : l’accord de
Paris – limitant la hausse des températures à 1,5 oC – est
probablement désormais hors de portée, mais de surcroît il n’y
a qu’un faible consensus sur ce qu’il convient de faire :
modifier les sources énergétiques, réduire la consommation de
produits carbonés, certes, mais comment ? Une faible
consolation est que, avec le dérèglement climatique,
l’exigence d’action venant de tous bords semble de plus en
plus pressante et quelques manœuvres d’ampleur sont initiées :
les États-Unis investissent des centaines de milliards de dollars
dans l’IRA, un plan de réindustrialisation verte, la Chine prend
l’engagement de rejoindre l’objectif de neutralité carbone
en 2060 (engagement auquel elle s’était toujours refusée,
arguant de la dette coloniale contractée par les pays
occidentaux à son égard), certains autres États renforçant leurs
engagements, etc.
De Marrakech, où se déroulait la COP22, le secrétaire
général de l’ONU avait fait observer que « deux balises
guident le corps politique : la première c’est de ne pas faire
plus d’effort que les autres pays et risquer ainsi de mettre en
danger la compétitivité de leurs secteurs économique
nationaux avec des normes trop strictes. Ils ne veulent pas être
le dindon de la farce. La seconde c’est la tolérance des
opinions politiques à l’égard de solutions requérant un effort
de leur part. Dans beaucoup de cas, ces efforts ne sont pas
convenablement répartis et les coûts d’évitement reposent
fréquemment sur les catégories sociales les plus fragiles ».
Si les discours abondent vers l’idée que l’environnement
doit être protégé à tout prix, ce n’est pas ce qui se passe dans
la réalité, et, au contraire, l’environnement doit être protégé à
un prix raisonnable pour tous.
Ce qui est également incontestable, c’est qu’il va falloir
aller plus vite. Tout au long des deux siècles passés,
l’amélioration des processus industriels, celle de la qualité du
bâti et les progrès techniques dans le fonctionnement des
transports ont permis de renforcer l’efficacité de l’énergie et,
incidemment, d’en faire profiter l’environnement. Mais, au
rythme actuel, c’est loin d’être suffisant. Il faut désormais
investir des montants pharaoniques avec pour unique bénéfice
de moins polluer, de moins émettre de CO2 ; avec un résultat
qui sera massivement inflationniste. Si une voiture électrique
coûte 60 % plus cher qu’une voiture thermique, c’est
de l’inflation directement subie, même si une partie sera
restituée sous forme d’économies de carburant. Et cela les
consommateurs citoyens ne sont pas facilement prêts à
l’accepter. La seule chance que l’acceptation sociale se fasse
convenablement, c’est que de nouveaux usages apparaissent
qui rendent ces surcoûts transparents. L’intelligence artificielle
peut largement aider à faire apparaître ces nouveaux usages,
tout en réduisant leurs coûts associés. Si des gains de
productivité sont probables, ils ne vont cependant pas
se manifester tout seuls. Il faudra d’immenses efforts pour
accéder aux données, permettre à de petites start-up de trouver
un cadre réglementaire pour passer à grande échelle, créer des
politiques incitatives pour généraliser de nouvelles pratiques.
Plus que jamais, un couple intelligent innovation-régulation
sera déterminant pour réussir cette révolution qui ne fait que
s’amorcer.

Le signal prix
L’un des grands problèmes qu’il nous faut résoudre est de
savoir quel est le prix de nos atteintes à l’environnement. Des
compagnies aériennes mettent en avant l’argument publicitaire
que les émissions carbone de leurs vols sont contrebalancées
par des programmes de compensation. La difficulté est que les
mesures de compensation s’exercent généralement à des
niveaux ridiculement bas, de l’ordre de 10 à 30 dollars par
tonne de carbone{a}. Or, pour certains, les coûts qui
permettraient d’avoir une dynamique forte sur le marché se
situent plutôt bien au-delà de 100 dollars par tonne{b}. Lors de
la crise énergétique de l’hiver 2023, on a observé que le seuil
des 90 dollars déclenche toute une série d’investissements liés
à la décarbonation. Cette notion reste très polémique et c’est
d’ailleurs pourquoi les États de l’Union européenne se sont
abrités derrière un dispositif commun de marché flottant, dont
l’efficacité est néanmoins fortement réduite du fait de crédits
gratuits, censés être distribués aux gros pollueurs durant une
période de transition.
Tout cela fait largement appel à un principe souvent évoqué
et pour autant très ancien, qu’a développé il y a un siècle
l’économiste Arthur Cecil Pigou, celui d’« externalités », dans
le cadre de ses travaux sur l’économie du bien-être. Le moins
que l’on puisse dire c’est que la mise en œuvre de ses idées n’a
pas été immédiate, dans la mesure où, comme cela a été
indiqué plus haut, les externalités sociales et
environnementales ont jusqu’à présent plus ou moins été
considérées comme gratuites. Dans les années 1960, avec
l’émancipation de la consommation de masse, le principe
d’une taxe sur la valeur ajoutée a été adopté par de très
nombreux pays. C’était une taxe qui répondait aux
caractéristiques de l’économie du moment et qui a structuré le
développement économique de ces nations. À l’époque,
la notion de croissance du PIB était centrale. Elle reste
toujours centrale aujourd’hui, mais les débats qui traversent
notre société montrent bien qu’elle est débattue et même
violemment remise en cause par certains.
Aujourd’hui, alors que la planète semble avoir atteint les
limites supérieures du donut{c}, il paraît nécessaire d’inventer
de nouveaux dispositifs qui reflètent les enjeux premiers dont
dépend le bien-être des générations actuelles et futures. Ce
bien-être se résume largement au fait d’être à même de traiter
collectivement ces externalités, qu’elles s’expriment
localement (pollution d’une rivière) ou globalement (CO2).
Dans la mesure où le fait environnemental semble a minima
aussi important que celui ayant trait à l’expansion de la classe
moyenne depuis les années 1950, à moins d’une démission
générale des institutions politiques à l’échelle de la planète,
il y a peu de raisons de douter du fait que des outils
systémiques de contrôle de ces externalités vont être mis en
place. Et, à moins de créer une société encore plus
bureaucratique que celle dans laquelle nous vivons déjà,
le signal prix qu’enverrait une taxe carbone semble difficile à
éviter.
À long terme, on peut même envisager que ce signal prix
puisse s’appliquer à d’autres externalités que le CO2. Ainsi, les
pare-brise de voitures n’émettent pas de CO2 ; ils n’en sont pas
moins un facteur notable de disparition des insectes{16}. Taxer
les véhicules aussi pour les conséquences qu’ils ont sur leur
disparition (et, par effet de domino, des oiseaux, de la plus
faible propagation des graines, de la fragilisation de la faune
en général, etc.) serait pertinent, même si ce n’est pas encore
le cas. Ce principe de pollueur-payeur se développe de façon
généralisée, en France par exemple, où une taxation de
l’étalement urbain est le moyen qu’a trouvé le législateur
français pour éviter que la ville ne dévore indéfiniment la
campagne.
Reste que le signal prix est parfois insuffisant. Non
seulement, on l’a vu, il permet à certains de s’affranchir à bon
compte de leur part d’effort dans la transition
environnementale, mais parfois il laisse perdurer des situations
de danger immédiat. Il a fallu cinquante ans entre le moment
où les premières études ont montré la nocivité de l’amiante et
celui où il a effectivement été interdit. Jamais il n’a été
envisagé d’en taxer l’utilisation, car le danger était tel qu’il ne
s’agissait pas de l’amoindrir mais bien de l’éradiquer.
On pourrait facilement rétorquer que ce n’est pas le cas
concernant la cigarette. Il est vrai que l’expérience de la
prohibition a montré les limites des politiques d’interdiction,
lorsqu’elles concernent des pratiques généralisées dans la
société. Et plus encore lorsque ces produits suscitent des
addictions tenaces.
Une politique appropriée de transition peut donc réunir
des approches complémentaires : d’une part, des taxes qui
pénalisent les usages nocifs et dont le produit peut
éventuellement être utilisé pour encourager les pratiques
vertueuses ; d’autre part, des volets incitatifs, comme inviter
les gens à trier eux-mêmes les déchets ; et, enfin, des
interdictions portant par exemple sur le fait d’utiliser des
véhicules polluants dans les cœurs de ville. Pour les acteurs
politiques, l’interdiction doit être maniée avec précaution.
En Europe, les idées de Pigou se retrouvent entre autres
dans la mise en place de taxes carbone. Ramené à l’ensemble
de l’économie, il est estimé que la France taxe en moyenne ses
émissions de CO2 à 44 euros la tonne. Si le prix de marché du
CO2 a depuis longtemps dépassé ce niveau sur l’EU European
Trade System (le marché coté du CO2), son prix moyen est
sensiblement plus bas du fait qu’il est grevé d’importantes
exemptions, sur les énergies de chauffage par exemple.
La Suède, le Canada, la Finlande ont introduit des taxes
semblables, bien que les spécialistes observent que leur niveau
est trop bas pour qu’elles aient un impact significatif. D’autres,
et parfois les mêmes, sponsorisent la rénovation énergétique
des bâtiments ou le fait de renoncer à son véhicule à essence
pour un véhicule électrique. Si les gouvernements de ces pays
donnent le sentiment d’en faire beaucoup, rares sont ceux qui
peuvent s’enorgueillir de respecter une trajectoire de
décarbonation compatible avec les engagements pris lors de
l’accord de Paris. Les États-Unis, par exemple, se sont
engagés à réduire leurs émissions de gaz à effet de serre de 26
à 28 % en dessous des niveaux de 2005 d’ici à 2025. En
maintenant leur trajectoire actuelle, les émissions du pays
devraient cependant être supérieures de 17 % aux niveaux
de 2005 d’ici à 2025, ce qui se passe de commentaires.
La plupart des pays européens ne sont d’ailleurs pas pour
l’instant sur une trajectoire leur permettant de respecter leurs
engagements. Seuls la Norvège, la Suède, les Pays-Bas
paraissent capables de ne pas avoir à se dédire. L’Allemagne,
la France, le Royaume-Uni se trouvent plus généralement dans
une logique de rattrapage, amplifiant désormais les politiques
de décarbonation et créant de nouvelles initiatives.

Taxe carbone : marxiste ou capitaliste ?


L’Allemagne devrait ainsi introduire une taxe carbone,
un enjeu qui reste l’objet d’un âpre débat, dans le pays le plus
industrialisé d’Europe. Toutefois, celle-ci s’inscrit dans le
cadre de l’initiative de l’Union européenne dite du MACF{d},
une taxe carbone aux frontières de l’Union d’une ampleur
inégalée. L’idée du MACF consiste à taxer les marchandises et
services importés en Europe uniquement lorsque ceux-ci
requièrent plus de CO2 à fabriquer qu’il n’en faudrait pour
faire un produit ou un service équivalent en Europe. Lorsqu’il
s’agit de produits faiblement transformés comme du ciment,
de l’acier, de l’aluminium, des engrais ou encore des produits
pétroliers, on conçoit que cela ne soit pas trop difficile à
calculer, mais lorsque les produits sont plus complexes, cela
semble presque impossible.
C’est d’ailleurs sur cette notion d’évidence du calcul
du carbone qu’ont été définis les trois périmètres de mesure
de l’entreprise : le scope 1, ce sont les émissions directes liées
à la fabrication de ses produits ; le scope 2, qui recouvre les
émissions résultant de la consommation d’électricité,
de chaleur ou de vapeur achetées et consommées par
l’entreprise ; et le scope 3, qui englobe les émissions indirectes
qui se produisent dans sa chaîne de valeur, y compris à la fois
les émissions en amont (comme la production de produits
achetés) et en aval (comme l’utilisation des produits vendus
par elle).
Ces dernières sont évidemment les plus difficiles à calculer
car elles ne dépendent pas directement de l’entreprise. La
fabrication d’un iPhone par exemple nécessite probablement
de faire appel à des centaines de sous-traitants, qui
collectivement ont également d’encore plus nombreux sous-
traitants. Évaluer précisément la quantité de CO2 que contient
un tel produit nécessiterait de remonter toute cette chaîne de
valeur jusqu’aux sous-traitants primaires (l’activité minière),
ce qui serait évidemment un travail considérable. Dans la
mesure où il existe d’importantes différences en matière de
part d’énergie carbonée suivant l’origine des produits, la Chine
a d’ores et déjà fait savoir qu’elle contesterait le MACF,
vraisemblablement devant l’OMC. Selon l’Agence
internationale de l’énergie{17}, la part d’énergie carbonée
utilisée pour 1 dollar de production industrielle est de 28 % en
Chine, de 19 % aux États-Unis et de seulement 13 % en
Europe. La performance de la France est encore meilleure
avec seulement 8 % d’énergie carbonée, soit moins de trois
fois ce qui est nécessaire en Chine et deux fois ce qui l’est aux
États-Unis.
Consciente des risques de contention, la Commission a
prévu dans l’accord initial une clause de revoyure en 2026.
Cette année-là, les produits chimiques et les plastiques de
toutes natures devraient normalement être introduits dans
l’accord et l’évaluation d’une date d’introduction des produits
plus sophistiqués devrait également être établie.
Il convient de toutefois relativiser la portée du MACF. Pour
l’instant, selon les calculs de la Commission elle-même, il ne
devrait rapporter qu’une dizaine de milliards d’euros de taxes
à l’horizon 2030, à mettre en perspective avec les
4 299 milliards d’euros d’importations de l’Union. En
appliquant un taux moyen de 15 centimes d’énergie carbonée
par euro importé et en plaçant la tonne de carbone émise à
100 euros{e}, cela induirait environ une valeur carbone de
l’ordre de 110 milliards d’euros et une taxe de l’ordre de
50 milliards d’euros. On est donc loin du compte, d’autant
plus que certaines analyses suggèrent qu’en dessous de
150/170 euros la tonne, l’impact sur les entreprises qui
exportent vers l’Europe resterait marginal.
De surcroît, l’une des grandes critiques faites au MACF
concerne l’asymétrie fiscale qu’il induit. Un fabricant
européen de produits à forte valeur ajoutée ou produits
intermédiaires va acheter des éléments primaires (acier,
aluminium…) soumis à cette taxe carbone, que ne paiera pas
un importateur vers l’Europe dans la mesure où le MACF ne
concerne que la taxation de ces produits
primaires. Une voiture chinoise, par exemple, largement
composée d’acier à forte teneur en CO2, n’est pas soumise au
MACF lorsqu’elle entre en Europe tandis que Stellantis achète
déjà un acier qui a nécessité l’acquittement d’une taxe carbone
pour être produit.
Tout cela s’inscrit néanmoins dans un effort lent mais
continu d’instaurer un « signal prix » au niveau national et,
dans certains cas, au niveau européen. Le signal prix découle
de l’idée que les forces du marché seraient les plus efficaces
pour effectuer la transition environnementale. Il part du
principe que, plus que toute autre politique publique, le fait
d’imposer un prix aux externalités les rend visibles et pousse
producteurs et consommateurs à faire fortement évoluer leurs
usages. L’exemple souvent donné au crédit de cette approche
concerne la cigarette, dont les prix ont décuplé{f} en quelques
décennies et dont la consommation a incontestablement baissé.
Si le signal prix semble efficace, il n’en est pas moins très
critiqué pour sa nature inégalitaire, ces taxes
étant incomparablement plus durement ressenties par les
ménages pauvres que par les autres. Dans certains cas comme
celui de la cigarette, c’est même l’effet recherché, dans la
mesure où il est démontré que les classes populaires et les
jeunes sont à la fois d’importants consommateurs et les plus
susceptibles d’adapter leur consommation en fonction du prix.
Dans le cas de la taxe carbone, les conséquences peuvent être
contre-productives, compliquant l’accès au marché du travail
des plus précaires dans la mesure où – dans le périurbain et en
ruralité – il faut le plus souvent avoir une voiture pour aller
travailler, et donc consommer de l’essence à un prix plus élevé
du fait des taxes accrues.
L’économiste Christian Gollier (TSE) propose depuis
longtemps de mettre en place une mesure radicale qu’il
dénomme « dividende carbone » : il s’agit d’un crédit
forfaitaire carbone qui serait crédité à chaque foyer fiscal une
fois par an. En contrepartie, on instaurerait progressivement
une taxe liée au carbone présent dans l’ensemble des biens et
services. Dans la mesure où chaque individu émet environ
11,4 tonnes de CO2 par an, il s’agirait de reverser à chacun
l’équivalent des taxes liées à ces émissions. Ce serait alors
puissamment redistributif car on estime que les catégories
sociales les plus pauvres génèrent des émissions qui sont
sensiblement inférieures à celles de la moyenne des Français.
Si la taxe était par exemple basée sur un prix à 100 euros la
tonne, chaque Français toucherait 1 140 euros par an
(11,4 × 100) et serait en moyenne taxé du même montant. Pour
les plus pauvres, la taxe ne serait que de 550 euros (les
Français issus du quintile à plus faible revenu émettent en
moyenne 5,5 tonnes) tandis que les 1 % les plus riches dont la
consommation est égale ou supérieure à 23 tonnes y perdraient
1 260 euros (1 140 euros de crédit pour 11 tonnes −
2 300 euros de taxes pour 23 tonnes émises).
La difficulté reste qu’il faudrait établir un prix carbone pour
tous les produits et que la comptabilité nationale et surtout
internationale ne s’y prête guère pour l’instant{18}. C’est
d’ailleurs pourquoi la Commission introduit le MACF de
façon progressive.
L’avantage d’une telle politique, c’est qu’elle limite les
effets d’aubaine. Subventionner les panneaux solaires, les
véhicules électriques, l’isolation des logements, etc., peut
évidemment être efficace, mais chacun sait combien ces
approches sont complexes, nécessitent le plus souvent des
armées de fonctionnaires pour s’assurer de leur bonne mise en
œuvre et peuvent être facilement dévoyées si elles ne sont pas
soigneusement conçues et suivies.
Comme l’explique Christian Gollier, « un petit père du
peuple omnipotent et omniscient qui déciderait de tout pour
tout le monde, ce n’est pas efficace parce que cela ne tient pas
compte des contextes et des aspirations individuelles. Alors
qu’avec l’incitation donnée par le prix du carbone, on aligne la
myriade d’intérêts individuels sur l’intérêt général ».
On pourrait ajouter que les initiatives de régulation trop
centralisées ont l’inconvénient de ne pas favoriser le potentiel
innovant des entreprises.
L’autre avantage de ce dividende carbone est qu’il est
puissamment redistributif, bénéficiant avant tout aux plus
modestes, c’est-à-dire à ceux qui consomment le moins de
CO2. Avec un solde positif entre les taxes payées et le montant
du dividende, ils seraient bénéficiaires nets de ce mécanisme
sociofiscal, là où les plus aisés deviendraient les contributeurs
nets du fait de modes de vie plus polluants.
Reste que définir la quantité de CO2 présent dans chaque
produit est d’une grande complexité, même si ce n’était
entrepris qu’à l’échelle de la France. Dans la mesure où les
économies sont largement interdépendantes, et que la part des
produits importés dans la production française est de 29,4 %
{19}
, il serait de toute façon nécessaire de définir un niveau
précis de CO2 pour les produits importés, ce qui deviendrait
une source automatique de contentieux avec les pays
exportateurs.
Partant du principe que charité bien ordonnée commence
par soi-même, la Commission s’est engagée aux côtés de
l’International Sustainability Standards Board afin
qu’émergent deux normes communes de comptabilité des
externalités environnementales, l’ESRS S1 et l’ESRS S2,
la première traitant de l’ensemble des externalités
environnementales des organisations (atteintes à la
biodiversité, risques pour la santé publique, etc.), la seconde
plus spécifiquement des gaz à effet de serre. En introduisant le
principe de « double matérialité » – une comptabilisation
traditionnelle des actifs de l’entreprise, et une autre concernant
son bilan environnemental, comprenant celui induit par ses
achats et ses clients –, l’objectif est de mettre en évidence la
responsabilité de tous les acteurs économiques, entreprises,
fournisseurs et jusqu’aux consommateurs finaux. Ce travail
technique s’inscrivant dans un agenda plus large, qui a vu les
institutions européennes promouvoir des textes majeurs
comme la CSRD{g} et le MACF, pour commencer.
Évidemment, ceux qui défendent les entreprises n’ont pas
manqué de faire observer que cela allait créer un niveau de
bureaucratie inégalé. Au premier abord, ils n’ont pas tort ; si
ces systèmes sont conçus comme ceux qui ont prévalu pour
structurer la comptabilité des entreprises avec des principes de
saisie manuelle, des modes d’échange avec des pièces papier,
l’espace de l’Union européenne pourrait bien vaciller sous la
bureaucratie.
Pour éviter cela, ces normes ont été mises en place,
accompagnées d’un certain nombre d’outils. Par exemple,
l’initiative de facture électronique européenne (Peppol{20})
devenue également obligatoire depuis début 2024. Pensée au
départ essentiellement comme un outil permettant de
simplifier les relations économiques entre deux entreprises,
cette facture numérique pourrait aussi jouer un rôle
environnemental significatif, par exemple au sein des normes
IFRS en permettant de transmettre aux côtés des informations
comptables usuelles (dénominations, montant, TVA, etc.) les
informations liées aux caractéristiques comptables telles que
définies par les normes IFRS S1.
Il est cependant assez facile d’objecter que le risque est que,
en l’absence de données fiables sur leurs sous-traitants, les
entreprises – notamment celles qui importent depuis
l’extérieur de l’Union européenne – se laissent aller à
« imaginer » les données manquantes que leurs sous-traitants
ne leur auraient pas fournies. De surcroît, malgré les efforts de
normalisation, il est à craindre que, durant un temps au moins,
l’hétérogénéité des données restera telle qu’elle sera
vraisemblablement difficile à mettre en œuvre par toutes les
entreprises qui ne sont pas capables de s’offrir les services de
prestigieux cabinets de consulting et de recruter les experts
appropriés. Une méthodologie « par comparaison », en prenant
des abaques fournis par différents organismes comme l’Ademe
en France, permettrait de limiter les biais. À cet égard, les
traitements de données structurées, mais également non
structurées, et l’utilisation de l’IA seraient certainement d’un
apport précieux pour déceler les imprécisions, voire les fausses
évaluations.
La Commission européenne promeut par ailleurs une
initiative de Digital Passport : une forme de dossier numérique
attaché à chaque produit et qui permettrait d’accéder à ses
caractéristiques environnementales. Le Digital Product
Passport (DPP) permettra ainsi de connaître l’ensemble des
caractéristiques environnementales, sociales et de gouvernance
(ESG) des produits importés ou produits au sein de l’espace
européen{21}. Il sera également accessible au consommateur,
qui pourra ainsi connaître précisément la part carbone de son
panier de courses et probablement, à moyen terme, de ses
vacances d’été.
La force du DPP sera de remettre l’église au centre du
village sur de nombreux sujets structurellement sans réponse
lorsqu’il s’agit d’environnement. Faut-il importer des melons
d’Espagne ou privilégier l’origine française à tout prix ? Si
c’est en hiver, il y a de fortes chances que le melon français ait
nécessité d’être produit sous serre avec un chauffage au gaz,
ce qui le rendrait beaucoup plus carboné que son équivalent
espagnol. Quel est le pourcentage de recyclage de la robe
achetée chez H&M ? Sachant que H&M a été épinglé sur le
fait que les rachats en mode promotion de l’économie
circulaire finissaient en réalité dans des décharges au
Ghana{22}… Si ce n’était pas la vocation initiale du DPP de
répondre concrètement à ces questions, il n’en est pas moins
un outil qui peut avoir un rôle premier dans la diffusion d’une
information par essence complexe à formaliser. Si les services
numériques d’information environnementale sont conçus de
façon ergonomique, c’est notre mode de consommation dans
son ensemble qui devrait être appelée à évoluer.
À cela on pourrait ajouter l’identité numérique{h}, complétée
du Digital Wallet, application qui permet de centraliser les
systèmes de paiement ainsi que de garder des données
essentielles, par exemple les quantités de gaz à effet de serre
émis par le propriétaire de ce Wallet. Si ces deux dispositifs
n’avaient pas au départ de vocation environnementale, ils
complètent remarquablement le Digital Product Passport, les
normes IFRS, la réglementation CSRD ; si un jour un
consensus politique émerge au sein de certains pays de
l’Union pour faire réellement muter leur système de taxation
vers une fiscalité environnementale, de nombreux outils seront
a priori déjà en place. Reste que les meilleures initiatives sont
fréquemment dévoyées par des approches trop conceptuelles,
loin de l’expérience réellement vécue par les utilisateurs et
rendant largement inopérante l’intention initiale. On pourrait
prendre à titre d’exemple le RGPD, qui s’est avéré être un
tigre de papier pour les très grandes plateformes du numérique
qu’il était censé remettre au pas. De surcroît, ce texte a abouti
à une complexification de l’expérience de l’utilisateur en le
poussant à appuyer sur des boutons « valider », « refuser » ou
« régler les paramètres » sans qu’il ait réellement une vague
idée de ce que cela implique.

Taxe carbone :
proportionnelle ou progressive ?
Cependant, le dividende carbone et toutes les différentes
formulations de la taxe carbone ont un autre défaut : ils
n’incitent que de façon secondaire les plus riches à décarboner
leurs pratiques. Différents travaux ont démontré que les plus
aisés ont une forte tendance à s’affranchir des règles
collectives en considérant qu’ils peuvent se le permettre dans
la mesure où ils ont payé les taxes ou les amendes que l’on
souhaite éviter. Une célèbre étude a démontré que lorsqu’on
mettait une amende aux parents qui arrivaient en retard pour
venir chercher leurs enfants à la crèche, si la taxe était mal
calibrée, le nombre de retards augmentait au lieu de
diminuer{23}. Or, comme cela a été évoqué plus haut, dans la
mesure où ce sont les riches qui polluent le plus, un tel
mécanisme court le risque d’une forte contestation s’il devient
évident que seuls les plus modestes font évoluer leurs
pratiques.
Pour pallier cela, certains ont souhaité mettre en place une
progressivité de la taxe carbone. Par exemple, en obligeant que
les produits les plus carbonés, l’essence, les dépenses de
chauffage, les billets d’avion, soient taxés progressivement.
C’est-à-dire que, en fonction de l’importance de votre
empreinte carbone, vous payez plus ou moins cher vos
émissions personnelles. Vous ne prenez que rarement l’avion,
faites un nombre limité de kilomètres en voiture et avez un
usage modéré de votre chauffage domestique, vous entrez dans
la tranche la plus faible ; vous n’êtes que faiblement ou même
pas taxé. Mais si vous dépensez beaucoup dans des achats
carbonés, si vous consommez plus que la moyenne (par
exemple plus de 3 tonnes par trimestre), le taux de la taxe
augmente, exactement comme le font les impôts sur le revenu.
Cela ressemble beaucoup à la TVA. Rien d’impossible, mais il
faut toutefois avoir à l’esprit qu’en matière de taxation carbone
nombreux sont les gouvernements qui ont reculé pour moins
que cela. Lorsqu’elle avait été mise en place en 1954, la TVA
avait fait l’objet de beaucoup de critiques, essentiellement du
fait de son caractère injuste pour les pauvres, de sa non-
progressivité, mais également parce qu’elle allait fortement
compliquer la comptabilité des entreprises. Le mouvement de
Pierre Poujade (UDCA) y voyait « une horreur économique
[…] qu’il faut combattre par tous moyens ».
Cette idée a cependant un intérêt qu’il ne faut pas négliger :
en imposant peu à peu toute la consommation intérieure, elle
permet de jeter les bases d’une politique fiscale nouvelle, non
plus uniquement basée sur la consommation et la valeur
ajoutée, mais bien sur les gaz à effet de serre et sur ce qui
dégrade l’environnement. Certains observent cependant que
ces taxes sont régressives, c’est-à-dire que, comme la TVA,
elles pèsent beaucoup plus lourdement sur les faibles revenus
que sur les classes aisées. Pour ceux qui ont déjà du mal à
joindre les deux bouts, le fait d’augmenter de quelques points
la TVA peut rendre les choses très inconfortables, là où
les plus riches n’y sentiront qu’un effet marginal. C’est
pourquoi des économistes issus de différentes disciplines,
comme Thomas Piketty, défendent l’idée d’une « carte
carbone personnelle{24} » qui pourrait fonctionner sous la
forme d’une application qui centraliserait toutes nos dépenses
de carbone, et sur laquelle une taxe de plus en plus lourde
serait perçue en fonction de notre quantité d’émission de CO2.
Tout comme les impôts perçus sur les salaires, la taxe serait
conçue pour être très faible sur les petites émissions annuelles
et très forte sur celles qui sont importantes. Fidèle aux idées
qu’il défend, Thomas Piketty étend ici le principe de
redistribution à l’économie de la transition environnementale.
Évidemment, la première objection qui vient à l’esprit
concerne le niveau d’intrusion dans notre intimité qu’induit
une telle taxe. Pour que cela fonctionne, il est nécessaire que
toutes les dépenses individuelles soient clairement identifiées.
Cela rappelle invariablement le crédit social chinois, qui voit
les « bonnes actions » récompensées par des points bonus et
les mauvaises perdre ces mêmes points. Si l’application de
telles pratiques ne devrait pas poser de problèmes en Chine,
il est vraisemblable qu’il en irait tout autrement en Europe et
en France. Il y aurait de surcroît de nombreux obstacles à
régler. Comment neutraliser les effets d’évitement, par
exemple pour les possesseurs de comptes bancaires étrangers
qui ne seraient pas soumis à ce type de déclarations ? Ne faut-
il délivrer des biens carbonés qu’à ceux qui sont identifiés et
peuvent donc s’acquitter de cette taxe carbone
proportionnelle ? Que faire lorsque l’activité des salariés se
trouve être à cheval avec les usages personnels ? Lorsqu’elle
conduit à mettre à leur disposition des véhicules, réserver des
chambres d’hôtels, prendre en charge des déplacements
professionnels… est-ce à créditer sur le compte du salarié ou
de l’entreprise ? Comment limiter l’évasion fiscale des
plus riches, qui pourraient tout aussi bien acheter une partie de
leurs dépenses carbonées depuis l’étranger, à commencer par
les billets d’avion ? En théorie, il faudrait pouvoir imposer que
tous les passagers allant et venant vers l’espace européen
s’identifient lorsqu’ils achètent un billet d’avion. Cela semble
difficile, même si on peut observer que les Américains du
Nord ont bien imposé l’ESTA, une déclaration nominative qui
se situe en dessous de la mise en place d’un visa, mais oblige
néanmoins tous ceux qui pénètrent aux États-Unis et au
Canada à effectuer des déclarations nominatives.
L’objection principale à une telle idée vient directement des
travaux de l’économiste Alfred Pigou, cité plus haut. Celui-ci
fait observer que lorsque les taxes sont les mêmes pour tous,
les efforts à fournir pour les éviter sont identiquement
structurés pour tous. Cela empêche tout à la fois les effets
d’évitement (aller faire le plein de son jet à Guernesey pour ne
pas être pris en compte par le fisc national) et cela donne une
mesure identique à tous de ce que représentent les externalités
CO2 de nos modes de vie (un aller-retour Paris-New York,
c’est 350 euros de taxes). Ce n’est pas neutre, et cela
matérialise le coût environnemental.
Bien entendu, qu’elles soient progressives ou régressives,
ces taxes ne pourraient au début concerner que les dépenses
les plus carbonées (l’énergie, l’acier, les transports, etc.), mais,
au fur et à mesure qu’elles s’étendraient à toute l’économie,
il serait possible d’ajouter l’ensemble des dépenses, y compris
celles du quotidien, et ce qu’elles produisent en termes de
CO2.
L’objectif de ces taxes est de pousser les entreprises à
modifier leurs modes de production. Certes, des taxes
spécifiques existent déjà sur les produits carbonés que
produisent les grands émetteurs de CO2. Néanmoins, beaucoup
bénéficient pour l’instant de crédits carbone, gracieusement
octroyés, qui leur permettent non seulement d’éviter de payer
la moindre taxe liée à leurs émissions, mais parfois même d’en
tirer profit{25} !

Social rating et plateformisation


D’une façon générale, il nous faut admettre que les
politiques publiques passent de plus en plus par le principe
d’un « État plateforme{26} » qui administre de nombreuses
politiques de façon numérique. Que la taxe carbone soit
proportionnelle et concerne les produits importés ou qu’elle
soit progressive et individuelle, une grande partie des défis
qu’elle pose pourraient en effet être atténués ou résolus de
façon numérique.
En ce qui concerne le comptage à proprement parler,
l’application Carbo de La Banque postale permet déjà de
connaître ses émissions de carbone dépense par dépense.
Celle-ci repose sur le fait que les données émises par les
marchands lors de transactions par carte de crédit sont de plus
en plus précises : il y a encore quelques années, les banques
n’avaient qu’une très faible connaissance des consommations
réelles de leurs clients. Désormais, les informations transmises
jusqu’à l’usager permettent de connaître le lieu précis de la
dépense, et d’en déduire en partie ce qui a été acheté.
Si une dépense est effectuée chez un parfumeur ou dans
un magasin de vêtements, on peut assez facilement en estimer
le montant moyen de carbone : qu’il s’agisse de No 5 de
Chanel ou d’Opium de la maison Yves Saint Laurent, d’une
crème pour la peau pour le premier ou encore d’un pantalon ou
d’une robe pour le second, on peut grossièrement en déduire,
dans un premier temps, une charge CO2 par euro dépensé. Les
choses peuvent se compliquer au restaurant ou encore au
supermarché, dans la mesure où, d’un client à l’autre,
la charge carbone peut être très différente. Dans un restaurant
d’entreprise, deux personnes qui l’une mangerait végétarien et
l’autre des repas carnés aboutiraient à une différence de l’ordre
de 800 kilos de CO2 à la fin de l’année entre elles{27}. Afin
d’éviter ce niveau d’imprécision, il est nécessaire
d’« augmenter » l’information qui remonterait aux systèmes
bancaires, soit en demandant à l’usager de fournir ces
informations (en prenant par exemple en photo son repas, ce
qui permet, grâce à l’intelligence artificielle, de définir très
précisément ce dont il est composé), soit en demandant au
restaurant de fournir ces informations à la banque.
On conçoit que tout cela peut sembler complexe, et
potentiellement liberticide, si ces informations ont pour but de
taxer individuellement le CO2. En théorie, les avantages d’un
tel modèle sont importants : il est fortement redistributif ;
le plus grand nombre en tire largement profit, tandis que les
plus riches sont pénalisés lorsqu’ils consomment du
carbone{28}. Il pourrait même en partie se substituer à la
fiscalité actuelle.
Pourquoi les États n’ont-ils pas encore mis en place de tels
dispositifs ? À cela plusieurs raisons. La première, c’est
évidemment que si la taxe ne repose que sur un État, cela crée
immédiatement une différence compétitive. Le pays qui taxe
réduit sa compétitivité là où les autres continuent à bénéficier
de la « gratuité » de l’environnement. La seconde concerne
bien sûr la difficulté politique à expliquer un mécanisme
complexe, potentiellement source d’inquiétude de la part de
contribuables qui pourraient légitimement se sentir traqués,
surtout si la taxe devait être progressive. Mais il existe une
autre raison, moins avouable. Il est possible qu’il n’existe pas
assez de compétences au sein des États pour développer une
solution technologique qui permettrait de faire cela de façon
efficace. L’État plateforme reste, plus de dix ans après avoir
été théorisé par Tim O’Reilly, un ovni pour beaucoup de hauts
fonctionnaires qui pensent que seuls le droit, les décrets et la
législation peuvent raisonnablement induire le cours du
monde.
Cela fait désormais une trentaine d’années que les États
expérimentent différentes approches pour essayer de limiter
leurs externalités environnementales. La régulation par la
contrainte montre rapidement ses limites, en Chine (où les
besoins énergétiques croissants imposent de grandes
concessions en matière d’usage de centrales à charbon), en
Europe (où la France a renoncé à plusieurs reprises à la mise
en place de mesures fortes comme la taxation des poids lourds
en 2015 ou l’accroissement de la taxe carbone en 2018), ou
encore aux États-Unis (où, sous le mandat de Trump, l’État
fédéral est sorti de l’accord de Paris, jugé trop contraignant).
La technologie en tant que telle ne peut pas grand-chose :
Tesla peut produire autant de véhicules électriques qu’il le
souhaite, l’impact total sur le climat reste marginal. Ce qui n’a
pas encore réellement été essayé, c’est de mettre en œuvre des
approches mêlant régulation et innovation.

{a}Air France a cessé de promouvoir cette offre en 2021 face à la démultiplication


des accusations de greenwashing.
{b} C’est par exemple le cas de la High-Level Commission on Carbon Prices
(CPLC) créée afin de fournir une évaluation des systèmes de tarification du carbone
les plus efficaces et pour aider à guider les politiques en la matière. Cette
commission est coprésidée par le lauréat du prix Nobel d’économie Joseph Stiglitz
et par lord Nicholas Stern. La CPLC est un partenariat volontaire entre des
gouvernements nationaux et infranationaux, des entreprises et des organisations de
la société civile qui s’engagent à faire progresser l’agenda de la tarification du
carbone en travaillant ensemble vers l’objectif à long terme d’un prix du carbone
appliqué dans l’ensemble de l’économie mondiale.
{c}Le concept du donut a été développé par l’économiste d’Oxford Kate Raworth.
Dans une vision schématique, le trou central du donut représente la proportion
de personnes qui n’ont pas accès aux éléments essentiels de la vie (soins de santé,
éducation, équité, etc.), tandis que le bord extérieur représente les plafonds
écologiques (limites planétaires) dont dépend la vie et qui ne doivent pas être
dépassés. L’objectif d’une civilisation résiliente consiste donc à « rester dans les
limites du donut ». Ces limites sont évidemment dynamiques, en fonction
notamment du potentiel environnemental des technologies.
{d} Le mécanisme d’ajustement carbone aux frontières (MACF), également connu
sous le sigle anglais CBAM (carbon border adjustment mechanism), a été
définitivement adopté en mai 2023 par les institutions de l’Union européenne.
{e}L’IEA estime que le prix de la tonne de CO2 devrait se situer aux alentours de
100 euros à l’horizon 2030.
{f} D’un facteur 5 en France, hors inflation entre 1970 et aujourd’hui (OMS).
{g}Corporate Sustainability Report Directive. Voté en septembre 2023, le texte
impose aux entreprises composant 75 % de la valeur ajoutée créée dans l’espace de
l’Union européenne de publier et de rendre visible l’ensemble de leurs externalités
environnementales.
{h} L’identité numérique est une obligation européenne depuis 2015 dans le cadre
de la directive EIDAS.
Deuxième partie

Ce que peut l’intelligence artificielle


Chapitre 3
Vers un numérique
plus responsable

Lorsqu’en 2018 le Shift Project affirma que le numérique


était tout sauf neutre pour l’environnement, avec une
empreinte globale de l’ordre de 4 % de l’ensemble des gaz à
effet de serre, le moins que l’on puisse dire c’est qu’il fit
sensation. Quelques phrases chocs furent reprises en boucle
par les médias ; par exemple, le fait qu’une demi-heure de
streaming équivalait à faire 6 kilomètres en voiture{29} ou
encore que le streaming global émettait l’équivalent de la
production de CO2 de la Pologne. Chiffres qui ont depuis été
largement révisés, même si le débat reste polémique.
Qu’en est-il en réalité ? Certains travaux de recherche
situent l’ensemble des émissions liées au cycle de vie (ACV)
du numérique à 1,8 % de l’ensemble des émissions de CO2
humaines, tandis que d’autres les placent au-delà de 5 %.
Néanmoins, on peut considérer que le consensus s’établit
actuellement autour des 2,5 %, dans la mesure où plusieurs
organismes réputés ont convergé vers ce chiffre. Ainsi,
le World Economic Forum évoque 2,5 % de l’ensemble des
émissions de carbone{30}. De même l’Ademe, en association
avec l’Arcep, estime que le France produit 2,5 % de ses
émissions de CO2 du fait du numérique{31}. C’est un chiffre
plutôt rassurant pour un pays développé où le numérique est
nécessairement plus présent que dans la moyenne de la
planète. Les études de l’Agence internationale de l’énergie
aboutissent également à ce chiffre.

Fabriquer les équipements


La réelle empreinte du numérique ne se situe donc pas dans
l’exploitation qui, au risque de le répéter, bénéficie
structurellement de gains de performance grâce à la loi de
Moore (voir avant-propos) qu’on ne trouve dans aucun autre
secteur industriel. Et les gains vont même au-delà dans la
mesure où les architectures sont elles-mêmes sans cesse
améliorées.
L’empreinte du numérique est plutôt à rechercher dans les
activités de fabrication. Dans un pays comme la France,
où l’électricité est déjà très décarbonée du fait du nucléaire,
la fabrication peut représenter jusqu’à 90 % de l’empreinte
CO2 d’un produit. Un smartphone par exemple va générer
quelques kilos d’émissions de CO2 par an du fait de son usage.
Cela reste faible par rapport à sa fabrication, qui peut générer
jusqu’à 150 kilos de CO2. Les usines fabriquant ces
équipements sont généralement d’immenses acteurs d’unités
de production, occupant parfois des milliers d’hectares et dont
la consommation peut être significative. TSMC, premier
producteur mondial de microprocesseurs et semi-conducteurs,
a par exemple été vilipendé pour être de loin le premier
consommateur d’eau de Taïwan – que l’entreprise détourne
d’un usage agricole – et pour être le destinataire de 7,2 % de
toute l’électricité qui y est consommée{32}. TSMC est, de ce
fait, responsable d’une part significative des émissions de CO2
de Taïwan. Il n’y a aucune raison qui puisse laisser penser que
la vaste majorité des activités de production n’aient pas de
telles empreintes directes sur les pays qui les hébergent.
Néanmoins, la mauvaise publicité qui en découle pourrait
expliquer en partie pourquoi ces fabricants d’équipements
numériques prennent des engagements significatifs pour
réduire leur empreinte liée aux processus industriels. Samsung
et Apple ont annoncé avoir l’objectif Net Zéro pour
respectivement 2050{33} et 2030{34} (un objectif ambitieux{a}),
et plusieurs de leurs équipementiers ont fait des annonces
semblables. TSMC s’est engagé à atteindre l’objectif Net Zéro
en 2050 au plus tard. Dans la mesure où l’activité de ces
entreprises est considérable (Apple a réalisé 395 milliards
de dollars de revenus en 2023 et 99 milliards de bénéfices),
les conséquences sur l’ensemble de leurs fournisseurs et plus
largement de leurs écosystèmes peuvent être significatives.
Ensuite, le fait que la taxation du CO2 des importations aux
frontières de l’Europe (MACF) devrait progressivement
inclure l’ensemble des importations incite plus encore les
fabricants à réduire la charge carbone de leurs produits.
Mais, au-delà de cette empreinte directe, il importe de
prendre en compte les problèmes que génèrent les activités
minières liées à l’extraction de minéraux essentiels à
l’industrie numérique : empreinte au sol de dizaines de
kilomètre carrés par mine, poussières dangereuses pour la
santé et l’environnement, pollution durable des rivières, etc.
Or, dans la mesure où les usages numériques croissent, les
besoins en ressources minières croissent également. Beaucoup
de métaux rares sont structurellement en tension au point que
le design de certains composants est parfois modifié de sorte à
se passer de certains métaux qui suscitent des polémiques et
qui sont difficiles à sourcer. Les « 4GT » – ainsi que les
nomment les ONG anglo-saxonnes – sont les quatre métaux
rares (tungstène, tante, étain et or) ayant le plus grand risque
d’extraction dans ces conditions. Comme souvent, c’est
l’invisibilisation de ces activités qui leur permet de continuer à
opérer, malgré un bilan fréquemment catastrophique.
De nombreuses régions de la République démocratique du
Congo, comme le Nord-Kivu, sont totalement inconnues de
l’Européen moyen. Pourtant s’y déroulent des guérillas qui
auraient fait plusieurs millions de morts au cours des vingt
dernières années, et les métaux rares sont probablement à
l’origine d’une majorité de ces conflits{35}. On pourrait à cet
égard observer à quel point notre capacité de nous émouvoir
est à géométrie variable en fonction de la nature de ces
guerres. Nous allons voir un peu plus loin dans quelle mesure
cela pourrait évoluer.

L’empreinte de l’usage
des appareils numériques
Si le numérique est désormais partout dans nos vies (en
moyenne, un Français dispose en 2023 de plus de dix
équipements connectés à Internet{36} tandis que ce chiffre est
de seize aux États-Unis{37}) et si la croissance de son impact
est indiscutable, il est important de comprendre que celle-ci
s’effectue dans un contexte de dynamiques complexes et
contradictoires. Ainsi, pour ce qui pousse à la réduction des
émissions du secteur numérique, citons les efforts de
rationalisation des data centers (le fait que les petits
data centers disparaissent au profit des très grands, dont
l’efficacité énergétique est optimisée), ce qui permet à
l’Agence internationale de l’énergie d’affirmer que la
consommation électrique de ceux-ci est restée pratiquement
stable dans le temps malgré leur très fort développement, au
moins jusqu’en 2022{38}. Citons également la loi de Moore qui
veut que la puissance de traitement numérique (stockage,
calcul…) double tous les deux ans, à coût et besoin
énergétique plus ou moins constant. La fibre optique, qui
remplace les réseaux de cuivre, est aussi un facteur de
réduction de la consommation des réseaux. De même de la 5G,
plus performante que les générations précédentes, mais dont
les économies énergétiques ne s’expriment que dans une
perspective temporelle de long terme, dans la mesure où, pour
qu’elles soient visibles, il faudrait arrêter de faire fonctionner
les réseaux précédents (2, 3 et 4G).
Du côté des facteurs de croissance, il y a les nouveaux
usages, au premier titre desquels l’intelligence artificielle, dont
certaines disciplines comme le machine learning nécessitent
structurellement une consommation importante. On estime
ainsi que la facture énergétique de ChatGPT est de l’ordre de
700 000 dollars par jour, ce qui se traduit par des émissions de
CO2 quotidiennes de l’ordre de 2 200 tonnes ! De même,
la démultiplication des équipements électroniques (objets
connectés, électronique embarquée dans les véhicules),
passant de 7 à 11 kilos par Terrien en l’espace de dix ans, est
un puissant facteur d’augmentation des émissions de CO2 du
secteur.
Certaines idées reçues ont cependant la vie dure : non,
envoyer un e-mail avec pièce jointe ne génère pas 25 grammes
de CO2 (des calculs récents convergent plutôt vers un chiffre
six cents à mille fois inférieur), et non également, regarder un
film en streaming ne consomme pas des kilos de CO2, mais
plutôt quelques dizaines de grammes au pire{b}. Et non encore,
l’usage des équipements numériques n’a pour ainsi dire
aucune empreinte CO2, particulièrement en France où
l’électricité est pratiquement intégralement décarbonée du fait
de son origine nucléaire.
Qu’en est-il de l’intelligence artificielle ? Celle-ci est
fréquemment accusée de consommer d’immenses quantités
d’électricité et, selon les spécialistes, cela ne ferait que
commencer.
Pour Alex de Vries, expert et fondateur du Digiconomist,
un cabinet d’étude des tendances numériques, « si chaque
recherche Google utilisait l’IA, cela nécessiterait
29,2 térawattheures d’énergie par an, soit l’équivalent de la
consommation annuelle d’électricité de l’Irlande. Bien que ce
scénario semble peu probable à court terme, une croissance
rapide dans la production de serveurs d’IA pourrait changer la
donne ». D’autres travaux évoquent des chiffres plus
spectaculaires encore. Il convient cependant de noter qu’il
existe une importante confusion entre les phases
d’apprentissage des modèles d’IA, très intensives en énergie
mais limitées à la construction d’un modèle qui ne s’effectue
qu’une seule fois, et les phases d’exploitation, autrement
appelée l’inférence, pour lesquelles la consommation est
moindre mais encore très élevée{c}. Il faut toutefois être
conscient que ces modèles sont pour l’instant largement sous-
optimisés. Le fait de « mettre au travail » – lorsque nous
posons une question sur ChatGPT par exemple – des modèles
comprenant des dizaines de milliards de paramètres pour
répondre à des questions très simples, dont la réponse tient en
quelques phrases, n’est en rien optimal. Il est plus que
vraisemblable que ces systèmes sont pour l’instant sous-
performants et devraient gagner en efficacité avec l’émergence
d’architectures plus spécialisées. Il est par ailleurs intéressant
d’observer que des initiatives existent pour faire fonctionner
des modèles larges directement sur des smartphones{39} qui,
par définition, ne consomment jamais plus de 4 à 6 watts, ce
qui démontre bien que les annonces catastrophistes faites à
l’égard de l’IA sont vraisemblablement exagérées, ou tout
au moins amenées à ne pas perdurer.
Lors des premières années de l’informatique grand public,
les microprocesseurs et les systèmes d’exploitation étaient
encore très rudimentaires. Il n’était pas rare qu’un PC
consomme plusieurs centaines de watts et que certains calculs
entraînent une surchauffe du microprocesseur. Ce n’est
évidemment plus le cas : des dizaines de milliers d’ingénieurs
ont travaillé à accroître la vitesse de calcul tout en optimisant
les architectures afin de minimiser les besoins en ressources de
tous types (calcul, mémoire, stockage, énergie, etc.).
S’il importe de se soucier de la consommation énergétique
des usages numériques et de l’IA en particulier, il est probable
que celle-ci soit victime du même syndrome que les déchets
ménagers dans la psyché collective : les études montrent que
les consommateurs y accordent trop d’importance en pensant
qu’il s’agit des facteurs premiers d’émission de CO2. Aux
États-Unis comme en Europe, lorsqu’on leur demande ce
qu’ils privilégient comme geste environnemental, ils citent le
tri des déchets, sans mesurer que l’utilisation modérée de leur
chauffage, leurs choix alimentaires et leurs modes de transport
sont incomparablement plus importants. Il en est de même
avec le numérique. Ce n’est pas populaire de l’affirmer, mais
c’est un fait que la modération de son usage n’a pour ainsi dire
aucun impact sur l’environnement : dans la mesure où
l’électricité en France est l’une des moins carbonées au
monde, son usage n’induit pour ainsi dire pas d’émissions de
gaz à effet de serre. On peut raisonnablement envisager qu’il
en soit de même, dès à présent, en ce qui concernera l’IA, du
fait de la loi de Moore{d}. Et encore une fois, cela ne signifie
en rien que le numérique est exempt de maux à l’égard de
l’environnement.

Se séparer des équipements numériques


Chaque année, nous nous débarrassons de 50 millions de
tonnes d’équipements numériques{40}. Cela fait environ
70 kilos par Terrien. Ce chiffre correspond à ce que nous
voyons (nos vieux ordinateurs et téléphones mobiles, nos
anciennes télévisions, etc.), mais aussi ce que nous ne voyons
pas : l’électronique de nos voitures, celle qui se trouve au sein
de nos entreprises, dans les équipements industriels, les
centres de données, etc. Seulement 17 % de ces équipements
sont recyclés, essentiellement dans les pays les plus
développés. Aux États-Unis comme dans l’Union européenne,
des règlements contraignants exigent d’accroître rapidement la
part de ce qui doit être recyclé. Et les fabricants, conscients
qu’il y a là de forts enjeux d’image, cherchent à limiter ces
externalités en recyclant au maximum leurs produits. Apple
indique avoir réduit son utilisation d’aluminium primaire de
75 % en huit ans, quand bien même ses ventes d’ordinateurs
portables, d’iPhone et de tablettes croissaient fortement sur
cette même période. La société californienne indique que son
objectif est d’utiliser 100 % de terres rares recyclées d’ici à
2025 et de se sourcer entièrement en matières recyclées à
compter de 2030. Il est à noter que Dell, Samsung, HP et Sony
ont pris des engagements allant dans la même direction, il est
vrai fortement contraints par un cadre réglementaire de plus en
plus exigeant.

Une dynamique sectorielle mal orientée


Il n’en reste pas moins vrai que sur le fond, les tendances
propres au numérique ne sont pas bien orientées. Il serait naïf
d’imaginer que les extractions minières vont diminuer dès
2030, ne serait-ce que parce que ces terres rares sont aussi
utilisées dans les industries automobiles, aéronautiques,
énergétiques (panneaux solaires, éoliennes…). Les entreprises
citées plus haut sont par ailleurs loin de représenter l’ensemble
des acteurs produisant des équipements électroniques.
Tout porte à penser que l’empreinte numérique sera appelée
à croître sensiblement d’ici à 2030, induisant des émissions de
CO2 se situant entre 3,5 et 6 % du total selon différents
travaux. Même si la loi de Moore limite considérablement
l’accroissement de l’empreinte environnementale du
numérique, elle abaisse aussi le coût de ces technologies dans
une proportion telle qu’il est désormais possible d’en mettre
partout à moindre coût. On estime qu’une voiture moderne à
moteur thermique contient environ 1 000 processeurs de tous
types{41}, et c’est beaucoup plus pour un véhicule électrique.
Différents cabinets d’étude avancent le chiffre de 100 milliards
d’objets connectés à Internet en 2030{42}.
Il faut cependant observer qu’il n’y a eu jusqu’à présent que
des initiatives limitées pour essayer de maîtriser cette
croissance d’usages, et plusieurs facteurs peuvent nous inciter
à une certaine forme d’optimisme. Le fait que les systèmes
informatiques sont très largement sous-performants et peuvent
être largement améliorés en premier lieu. L’IA, citée plus haut,
fait des progrès considérables en matière d’efficacité,
permettant d’espérer qu’un usage massif ne soit pas
nécessairement aussi émetteur de CO2 que l’on pourrait le
craindre. Dès aujourd’hui, il est possible de faire fonctionner
un système comparable à Bard ou ChatGPT sur un ordinateur
standard et les gains de performance récemment annoncés par
Google Pathways ainsi que par l’équipe de OpenAI (projet
Megatron) évoquent des améliorations se chiffrant en facteurs
10, voire 100. Cela a été évoqué plus haut. Il est plus que
vraisemblable que l’on parviendra à faire fonctionner des
modèles de langage de grande taille (large language model
ou LLM) sur un smartphone dans un futur proche.
S’il est en revanche difficile de prévoir avec une quelconque
précision l’évolution de l’empreinte du numérique, on peut
raisonnablement espérer qu’elle sera en deçà des prévisions
généralement avancées, tant ces études ne prennent
qu’imparfaitement en compte la dynamique de la loi de
Moore, l’efficacité croissante des systèmes numériques et les
réglementations plus contraignantes. C’est aussi de l’alliage
entre régulateur et innovateur que paraissent dès à présent
ressortir les pratiques les plus vertueuses.

{a} L’initiative Net Zéro signifie l’arrêt de toutes les émissions de gaz à effet de
serre, avec une limitation des mesures de compensation à un maximum de 10 % des
émissions initiales.
{b} Une plateforme de type NXP Solid Run (LX2160), avec un port 100G, 16
cœurs, un NVMe 8 To et un peu de RAM consomme environ 60 watts, soit moins
de 1 W/Gb/s (soit plus de deux cents utilisateurs par watt). Il est difficile d’en
extrapoler la consommation totale par utilisateur dans la mesure où il faudrait y
ajouter les besoins en infrastructure (climatisation, etc.) et de transport, mais on
peut estimer qu’elle est inférieure au watt.
{c} La consommation d’une requête sur ChatGPT 4 est estimée à 1 wattheure, ce
qui serait de l’ordre de dix fois supérieur à une requête Google (« AI and its carbon
footprint : How much water does ChatGPT consume ? », MintLounge, 22 octobre
2023).
{d} Apple travaille à intégrer des technologies de LLM directement dans ses
smartphones. Or un smartphone consomme en moyenne entre 3 et 5 watts, ce qui
met largement en péril les affirmations que les grands modèles seraient
structurellement très énergivores (« Efficient large language model inference with
limited memory », Apple, décembre 2023.
Chapitre 4
L’IA pour une révolution verte

S’il existe des émissions propres aux équipements


numériques, il convient également de prendre en compte les
émissions induites ainsi que les émissions évitées par le
numérique, soit les conséquences de la numérisation du
monde. Les émissions induites, ce sont par exemple celles qui
sont liées aux accroissements des usages : l’e-commerce,
l’usage accru de l’avion du fait de la simplicité des
réservations de billets. Les émissions évitées se définissent
essentiellement par les gains de performance obtenus par le
numérique : des avions mieux remplis par les plateformes de
réservation, des chaînes logistiques plus efficaces, etc.
Pour l’instant, il faut concéder que les principaux bénéfices
environnementaux du numérique sont sujets à polémique, en
particulier parce que c’est aussi un facteur premier d’effet
rebond. Ainsi, nul ne peut nier que, sans numérique, il serait
plus difficile d’acheter un séjour pour un week-end à trois
heures d’avion, en Turquie, dans le sud de l’Italie, au Maroc,
etc., dont les externalités environnementales sont évidemment
très importantes. De même, beaucoup d’achats d’impulsion
sont le fait de plateformes d’e-commerce qui vendent
d’ailleurs plus facilement cinq fois la quantité de ce que l’on
cherche à acheter pour un certain prix que la juste quantité
pour cinq fois moins cher. Sans même parler du fait que
certaines d’entre elles sont capables d’effectuer une livraison
en vingt minutes, au prix d’un coursier dédié, à l’empreinte
potentiellement importante.
Cette empreinte est d’autant plus considérable que rien n’a
été fait pour la freiner. Notre économie est construite sur le fait
qu’il est vertueux d’accroître l’activité économique, même si
c’est au prix d’importantes conséquences environnementales.
En serait-il autrement si nous avions, dès l’origine de
l’économie moderne, introduit un coût pour ces externalités
négatives ? Il y a de fortes raisons de penser que nous aurions
alors développé une tout autre forme d’économie, ayant
sensiblement moins recours à ce qui génère beaucoup de
carbone : les transports automobiles, l’acier, le ciment en
premier lieu. Serions-nous pour autant beaucoup moins
développés ? C’est tout sauf certain, car ces externalités ont
depuis bien longtemps un coût important, généralement payé
par la collectivité et les institutions publiques. La pollution
d’abord, qui est la cause de morts prématurées se comptant en
millions chaque année, mais également toutes autres formes de
pollution. Rien qu’en ce qui concerne la pollution de l’air,
la Banque mondiale a estimé que son coût se chiffrait à 4,8 %
du PIB mondial{43}, un coût prohibitif, et dont le montant est
sans aucun doute bien supérieur aux montants nécessaires pour
traiter l’origine de cette pollution.
Il est par ailleurs fréquemment constaté que la contrainte
suscite l’innovation. Les premières voitures électriques furent
produites au début du XXe siècle ; si des contraintes
environnementales avaient existé depuis cette époque, il est
probable que l’industrie automobile aurait depuis longtemps
fait le choix de l’électricité et que ses incidences sur
l’environnement seraient incomparablement plus faibles
qu’elles ne le sont aujourd’hui{a}.
En ce qui concerne les aspects positifs, le numérique est un
outil remarquable pour accroître les taux d’usage : selon un
rapport de la Commission européenne, un camion de transport
urbain a accru sensiblement son taux de charge (+ 12 % entre
2010 et 2019{44}), ce qu’il est difficile d’expliquer autrement
que par la généralisation des systèmes d’information
numérique des chaînes logistiques.
Dans de nombreux domaines, les progrès potentiels restent
considérables : ainsi, une voiture ne roule que 6 % du temps.
Les immeubles de bureaux ont un taux d’usage moyen de
l’ordre de 25 %, une école de 12 % et une maison de
campagne de 4 %. Le reste du temps, ces bureaux sont vides
(le soir, durant les vacances, le week-end), ces maisons de
vacances sont inutilisées, ces voitures dorment dans un
garage…
Or accroître les taux d’usage conduit mécaniquement à
accroître l’efficacité de l’énergie permettant de construire et
d’exploiter ces équipements. Et à cet égard le numérique a
démontré être remarquablement efficace. On sait qu’avec
Airbnb ou ses équivalents, il est possible de louer son
appartement lorsqu’on est en vacances, mais sait-on que l’on
peut faire de même avec sa voiture, qu’il est possible de
développer des espaces mixtes d’activité tertiaires devenant le
soir des espaces mutualisés par des associations des cours du
soir ? Les constructeurs de véhicules autonomes chinois
pensent pouvoir décongestionner les villes en accroissant le
taux d’usage du secteur automobile par trois ou quatre d’ici à
2050. Des opérateurs également chinois imaginent des taxis
semi-collectifs où deux ou trois passagers prendraient place en
fonction de la proximité de leurs destinations et dont les
parcours seraient optimisés. Certes, il s’agit d’une prédiction
de moyen terme, mais il semble désormais que sur le plan
technologique, rien n’empêchera ce scénario d’advenir. Cela
pourrait induire un bouleversement pour l’économie mondiale,
avec un grand déplacement de l’affectation du capital et des
conséquences significatives sur les infrastructures routières :
les véhicules autonomes pouvant se garer loin des centres-
villes, l’organisation urbaine en serait fortement remaniée.
Reconnaissons que le modèle de société que nous avons bâti
arrive largement à bout de souffle. Le vieillissement généralisé
de la population mondiale induit des défis majeurs qui vont
nécessiter des gains de productivité que seule une rupture
technologique de la même échelle que celles que nous avions
rencontrées lors des précédentes révolutions industrielles
pourrait fournir. Le récent événement médiatique qu’a produit
le lancement de ChatGPT tend à nous démontrer que
l’intelligence artificielle arrive à un point de maturité. Comme
au début du XXIe siècle, avec l’électricité et le pétrole, les
conséquences sur l’organisation sociale et économique
pourraient être spectaculaires, plus encore qu’à l’époque
du fait de la rapidité avec laquelle ces technologies sont
susceptibles de se déployer.
À maints égards, l’intelligence artificielle pourrait être l’une
des clés pour parvenir à entrer dans une société résiliente.
Il n’est pas absurde d’envisager que celle-ci puisse être,
directement après les moyens de production énergétique,
le plus puissant vecteur de décarbonation.
Ainsi, de récents travaux évoquent la possibilité que
l’agriculture, pour l’instant un émetteur significatif de gaz à
effet de serre, devienne un facteur de capture nette de carbone.
La difficulté réside dans le fait qu’il est nécessaire de
maintenir un niveau élevé de productivité tout en ajoutant la
contrainte de gérer l’érosion des terres et les émissions de gaz
à effet de serre. Or il est démontré qu’un agriculteur ne peut le
plus souvent optimiser qu’une poignée de paramètres dans un
contexte qui en comprend fréquemment plusieurs centaines.
De surcroît, ces paramètres doivent être largement adaptés en
fonction du lieu, des coutumes agricoles, etc. Le machine
learning peut théoriquement prendre en compte une grande
quantité de paramètres, qu’il adaptera en fonction des
contraintes locales (les semences recommandées ne sont pas
disponibles, etc.), et cela à un coût marginal pour l’agriculteur.
On pourrait facilement transposer cet exemple aux chaînes
logistiques, aux systèmes de production industrielle, à
l’utilisation du bâti, aux systèmes de transport, etc.
Toutefois, la principale difficulté ne semble pas tant résider
dans les défis technologiques en tant que tels que dans les
résistances qu’il y a à faire muter notre environnement social
et économique vers un cadre tout à fait nouveau.
À cet égard, la puissance publique a un rôle fondamental à
jouer. Non seulement elle a la responsabilité de créer un cadre
favorable à l’émergence de ces technologies, mais également
de les utiliser dans un contexte intégrant les enjeux de
résilience, de souveraineté et d’acceptabilité. Ce dernier point
est particulièrement sensible, dans la mesure où les transitions
trop rapides ou mal pensées aboutissent parfois à des rejets
violents comme ce fut le cas dans l’épisode des bonnets rouges
(2013), né d’une tentative de création d’une « écotaxe » visant
les déplacements par camion (à l’aide d’une technologie
novatrice de suivi des plaques minéralogiques sur les grands
axes, fondée sur l’intelligence artificielle). Plus tard, la révolte
des gilets jaunes fut liée, elle aussi, à l’augmentation des prix
du carburant du fait d’une taxe carbone appliquée sans
nuances. Pour autant, lorsque les politiques publiques sont
construites avec doigté, lorsque les gouvernements prennent le
temps d’expliquer les raisons qui les poussent à créer de
nouvelles réglementations, cela suscite parfois une force
d’entraînement remarquable. La fin de la cigarette dans
l’espace public et dans les entreprises, la modération de la
vitesse sur les routes et la baisse spectaculaire du nombre de
morts qui s’est ensuivie, le retour en grâce des transports
ferroviaires en sont quelques exemples vertueux.
Si la fameuse smart city est aujourd’hui décriée pour être un
concept où la technologie est utilisée comme une fin et non
comme un moyen, il n’en reste pas moins qu’une juste
adéquation entre usages et nouvelles technologies permet de
faire des miracles. Ainsi, en Finlande, des quartiers
s’organisent pour que horaires des crèches, horaires de début
de travail, transports se synchronisent sur deux temps forts
dans la matinée : 8 heures et 9 heures, lissant ainsi les pics de
charge que rencontrent les infrastructures de
transport. La technologie vient en soutien avec une importante
plateforme de synchronisation des systèmes de transport
(MAAS : mobility as a service) qui va coordonner la
disponibilité des mobilités douces et des transports de masse.
À terme, les flux logistiques, les services urbains (ramassage
d’ordures, etc.) devraient également y être pris en compte. Cet
exemple est emblématique, car il montre à quel point la juste
adéquation entre innovateurs et régulateurs est fondamentale,
mais il reste loin d’être unique.
Ainsi, et pour rester dans les termes anglo-saxons, le succès
des smartgrids est largement dépendant de l’impulsion
publique. En théorie, un smartgrid, en réduisant la
consommation lors des heures de pointe des usages d’énergie,
permet de très fortement décarboner un réseau électrique. Mais
pour cela il faut plus qu’un compteur Linky, il faut instaurer
une norme qui rend la quasi-totalité des équipements
électriques intelligents, capables de réduire leur consommation
à la demande. Un ordinateur portable, un ballon d’eau chaude,
une machine à laver peuvent très bien arrêter ou décaler leur
appel au réseau électronique sans que cela se voie aucunement
pour l’utilisateur, et pour cela il faut promouvoir des normes
aussi généralisées que le furent le 220 volts et le 50 hertz
(la fréquence du réseau électrique). Pour les Français, cela est
d’autant plus aisé qu’ils disposent à tous niveaux de leaders
mondiaux : Schneider et Legrand (fabricants), Sonepar et
Rexel (distributeurs), EDF et Engie (producteurs et
distributeurs). Ce n’est pourtant pas si simple, ce que nous
verrons dans le chapitre qui suit.
On peut retrouver des enjeux très semblables dans les
chaînes de distribution, qu’elles soient longue distance ou de
proximité, dans l’utilisation du bâti professionnel et
domestique. Il faut également avoir à l’esprit que, au-delà de
sa capacité de régulation, la fonction publique peut largement
montrer la voie, dans la mesure où elle est directement
responsable de 40 % des émissions de CO2.
Ce n’est donc pas qu’un enjeu technologique. L’IA en tant
que telle ne peut pas grand-chose ou, tout au moins,
sa capacité transformative est bridée en raison de nos
habitudes et de la nature de nos organisations en silos. Le fait
d’avoir des chaînes de valeur dans lesquelles de nombreux
opérateurs interviennent sans qu’un système d’information
commun puisse les faire travailler efficacement ensemble est
l’un des dysfonctionnements qui rendent difficile la mise en
pratique d’IA prédictives sur ces modèles. Ce qui leur donne
leur plein potentiel, c’est notre capacité à faire évoluer nos
usages, que ce soit volontairement ou par la contrainte
réglementaire. C’est l’un des principaux enseignements
développés dans cet ouvrage.
{a}Le véhicule électrique fait régulièrement l’objet d’attaques de la part de ceux qui
dénoncent son coût trop élevé pour les masses populaires. Cependant, la mutation
forcée du marché vers des véhicules de ce type semble réussir à fortement
compresser les prix, y compris de la part de fabricants européens (Jean-Michel
Normand, « La perspective de la voiture électrique abordable se rapproche », Le
Monde, 28 octobre 2023).
Chapitre 5
Les transports

Peut-on avoir la moindre réserve sur le fait que le transport


est l’un des obstacles majeurs sur le chemin d’une civilisation
résiliente ? Selon l’Agence internationale de l’énergie,
il compte pour environ un quart des émissions humaines.
Responsable de 21 % des émissions de gaz à effet de serre à
l’échelle de la planète, le transport est, dans certaines régions
comme l’Amérique du Nord, à l’origine de 39 % de ces
émissions, tant le recours à la voiture et à l’avion est
généralisé. Et en France, si c’est un peu moins pire, c’est tout
de même 30 % de l’ensemble des émissions nationales, avec la
voiture comme champion hors compétition avec 55 % de ces
émissions, soit 15 % de toutes les émissions du pays !
Le transport routier est également responsable d’une
immense emprise au sol, pour laquelle la voiture individuelle
se taille la part du lion. Cette emprise participe au
réchauffement climatique (les routes sont généralement noires
et absorbent donc facilement la chaleur), limite l’absorption
d’eau par la terre et accroît sensiblement les risques
d’inondation.
Depuis la nuit des temps, la mobilité caractérise l’espèce
humaine. C’est un facteur de survie, de développement et
d’accroissement des richesses économiques, sociales et
intellectuelles. C’est aussi pour cela que la plupart des
gouvernements n’ont eu de cesse de l’encourager, sous les
formes les plus diverses, au travers du chemin de fer au cours
du XIXe siècle, et de la voiture durant le XXe siècle.
Dans ce domaine plus qu’ailleurs, les usages sont en train
d’évoluer fortement et la technologie joue un rôle de premier
plan dans ces évolutions. Le fait d’accéder aisément aux
horaires de n’importe quel train ou avion et, plus encore, aux
horaires réels, c’est-à-dire comprenant les retards éventuels,
de disposer de moyens de comparer les prix, la quantité de
CO2 émise et les durées des différents types de transport (sur
Google Maps…), voilà quelques-unes des innovations récentes
des plateformes numériques permettant de se véhiculer dans
de meilleures conditions.
De même, l’émergence des offres de VTC de type Uber ou
Lyft résulte du développement de l’économie des applications
pour mobile. Suivant les pays, le développement de ces offres
a plus ou moins fortement déstabilisé les offres traditionnelles
de taxis, introduisant une concurrence très forte, et parfois
bienvenue, comme en France. On estime que la valeur générée
par l’ensemble des acteurs du VTC dans le monde est de
l’ordre de 180 milliards de dollars en 2019, tandis que Uber,
le leader occidental, revendique pas moins de 110 millions
d’utilisateurs. Dans certains pays, les VTC ont également
popularisé le covoiturage, permettant à plusieurs passagers de
partager un trajet pour en réduire les coûts. Dans d’autres,
comme la France, ce sont directement des plateformes de
covoiturage (avec Blablacar par exemple) qui sont apparues
pour créer de nouvelles formes d’offres.
Dans cette évolution, les VTC ont fréquemment été accusés
d’avoir plutôt accru le trafic au cœur des villes, incitant les
usagers des transports publics et les marcheurs à déporter leurs
usages sur les VTC. Neuf ans après l’apparition des premières
offres de VTC, la relation entre l’État, les pouvoirs publics
municipaux, les taxis et les VTC semble toutefois s’être
apaisée. On peut même d’ailleurs trouver des offres de taxi
directement sur l’application Uber, ce qui aurait été
impensable il y a seulement quelques années. Au fil du temps,
les relations avec ces nouvelles offres n’ont pas toujours été
simples : certains pays n’ont pas hésité à les interdire, tandis
que d’autres les ont fortement encadrées. Les relations entre
taxi et VTC restent néanmoins généralement très tendues et le
cadre réglementaire qui s’applique aux uns et aux autres est
pour le moins hétéroclite. Ainsi, à Paris, les taxis ont le droit
d’emprunter les voies de bus, les VTC ne l’ont pas ; les
chauffeurs de VTC sont soumis à un examen tout comme les
taxis, néanmoins spécifique.
Les sociétés de VTC elles-mêmes ne semblent pas avoir
réussi à générer une activité rentable. Uber, dix ans après sa
création, n’a toujours pas généré le moindre profit et n’en a
pas moins mobilisé plus de 25 milliards de dollars auprès de
centaines d’investisseurs. Quant à la martingale que pourrait
représenter le véhicule autonome pour ces entreprises, elle
tarde à se matérialiser. Dès 2016, Google filialise sa branche
consacrée au véhicule autonome tout en faisant entrer
quelques investisseurs dans son capital et, quatre ans plus tard,
Uber croulant sous les pertes vend ses activités de recherche
dans ce domaine. Si les expérimentations en cours dans de
nombreuses villes américaines et plus particulièrement à San
Francisco sont prometteuses, elles n’en font pas moins
apparaître de nombreux défis, et la perspective d’une
généralisation de ces techniques s’exprime désormais plus en
dizaines d’années qu’en années.
Pour le citadin, l’impact le plus visible du numérique dans
les transports n’en reste pas moins les offres dites en free
floating, avec cette apparition remarquablement soudaine de
scooters, trottinettes, vélos motorisés ou non, et même
voitures, que tout un chacun peut utiliser au travers
d’applications idoines. L’espoir de nombreuses start-up de
parvenir à rejoindre le fameux effet de réseau – la taille
critique permettant de contrôler intégralement le marché – a
provoqué des phénomènes anarchiques dans de nombreuses
villes où ces transports de tous types s’entassaient sur les
trottoirs, les places de parking, dans les parcs, parfois sans
aucune limite. Des photos d’amoncellements de vélos et de
trottinettes ont circulé sur les réseaux sociaux, illustrant
combien l’absence de régulation peut être préjudiciable à un
développement de ces nouvelles offres qui auraient dû,
théoriquement, bénéficier aux habitants de ces villes.
Face à cette déferlante, municipalités et législateurs ont
semblé être pris de court, ne sachant quelles règles adopter :
les trottinettes ont-elles le droit d’évoluer dans les couloirs de
bus ? Leur usage impose-t-il de porter le casque ? Quelle
limite de vitesse doit-on leur imposer ? Les VTC peuvent-ils
faire varier la rémunération de leurs chauffeurs comme cela
leur chante ? Sans attendre, certains opérateurs s’en sont
donné à cœur joie : Uber a modifié en temps réel les
rémunérations de ses chauffeurs en fonction de l’offre et de la
demande ; des marques de trottinettes se sont mises à saturer
l’espace public dans les centres urbains ou les grandes gares
pour s’assurer que les nouveaux utilisateurs choisissaient en
priorité leur marque, et ainsi de suite.
C’est finalement un carnage financier qui a mis fin à la fête.
Bolt, par exemple, a levé 709 millions de dollars et n’a
probablement jamais connu un seul trimestre profitable, sept
ans après avoir été fondé. Lyft, bien qu’il ait augmenté ses
revenus de 68 % à 3,6 milliards de dollars, n’en a pas moins
connu des pertes de 2,6 milliards de dollars en 2019 et aucune
information ne permet de penser qu’il ait rejoint la profitabilité
depuis lors.
Pour les municipalités comme pour les usagers, les
bénéfices des mobilités en free floating sont ambigus. En ce
qui concerne les vélos, il est difficile de savoir si les opérateurs
qui ont survécu au maelstrom financier ont atteint un semblant
de rentabilité. Seuls les acteurs qui évoluent dans le cadre de
licences municipales, voire seuls ceux qui ont installé des
stations de raccrochage des vélos paraissent s’en sortir à peu
près correctement.
À maints égards, il serait possible de railler l’effet du
numérique dans le domaine des transports. Même l’application
routière Waze est régulièrement accusée de détourner le trafic
vers de petites rues autrefois tranquilles et désormais
traversées à toute allure par des véhicules cherchant à
s’échapper d’un bouchon qui occupe les artères principales.
La SNCF, l’un des premiers e-commerçants européens, est
chroniquement moquée pour la complexité de son application.
Seul Google Maps semble finalement marquer des points,
proposant un service d’une grande simplicité pour comparer
avion, voiture et train, vélo et marche à pied pour se déplacer.
Tout cela n’est finalement pas très réjouissant ; le constat froid
est que ce sont toujours les mêmes qui gagnent tandis que la
plateformisation des systèmes de transport, un facteur
important de souveraineté, n’est même pas entre des mains
européennes. De surcroît, si pour beaucoup la mobilité est plus
simple, elle laisse largement de côté les populations
défavorisées. Plusieurs études démontrent que les banlieues les
plus démunies en transports publics sont également celles qui
restent à l’écart des nouvelles formes de mobilité{45}.
Une situation nouvelle, tout à la fois d’émergence de l’IA et
de volonté politique de réduire les émissions de CO2, va-t-elle
créer un contexte plus favorable, bénéficiant au plus grand
nombre ? Lorsque les opérateurs privés sont laissés sans
régulation, ils ont tendance à ne s’intéresser qu’aux segments
de marché à forte rentabilité et délaissent ceux qui sont plus
difficiles à desservir : les handicapés, les personnes à faibles
revenus, ceux qui habitent loin des cœurs de ville, etc.
La technologie a fréquemment tendance à renforcer les
schismes sociaux : les habitants des hypercentres,
hyperconnectés, à forts revenus, d’un côté, et les faibles
revenus du périurbain, de la ruralité, les personnes à mobilité
réduite, de l’autre. Enfin, le marché sans un minimum de
régulation n’est pas nécessairement le plus efficace.
Les guerres des VTC ont abouti dans beaucoup de pays à des
situations absurdes. Par exemple à San Francisco, les VTC
sont devenus une cause majeure d’embouteillage dans le
centre-ville{46}, et certains n’arrivaient plus à effectuer plus de
deux à trois courses par jour. Il a fallu que la mairie
intervienne pour limiter leur présence. À Paris, avant 2020 et
l’arrivée des offres dites de free floating (vélo et trottinettes
librement accessibles depuis n’importe quel endroit
d’une ville), le nombre d’abonnés du service Vélib’ de vélos
partagés de la municipalité était de 235 000. Bien que ce
service ait été largement plébiscité (avec plus de 93 % de taux
de satisfaction en 2016), un renouvellement chaotique de la
licence municipale doublée de l’arrivée des offres de free
floating a abouti à l’effondrement de ces abonnements à
135 000 et à une forte dégradation de la satisfaction de ses
usagers ainsi que des usagers des offres commerciales en free
floating. La forte concurrence entre opérateurs publics et
privés a paradoxalement réduit la disponibilité de ces vélos
dans les quartiers périphériques, et accru les problèmes de
qualité, comme la charge des vélos. Un semblant de normalité
est revenu lorsque la ville a réduit l’offre, imposé de nouveaux
cahiers des charges au gestionnaire de l’opérateur public ainsi
qu’aux opérateurs privés.
Ces services n’en restent pas moins coûteux à administrer
et, sans une aide conséquente de la municipalité, Smovengo,
le gestionnaire privé de Vélib’, serait structurellement en
déficit. Son service peine à revenir au niveau de qualité qui
existait lorsque Vélib’ était pour ainsi dire le seul opérateur de
vélo partagé. Si la concurrence a amené d’autres types
d’offres, l’absence de règles claires, la multiplicité des prix,
la disponibilité erratique des vélos et autres systèmes de
transport ont fortement perturbé la qualité d’ensemble de
l’offre. Lorsqu’on sort d’une gare après un long trajet, d’une
salle de cinéma le soir, rien n’est plus désagréable que de se
retrouver sans moyen de locomotion pour retourner chez soi
ou pour rejoindre son hôtel. Pour l’instant, la façon dont les
opérateurs publics et privés répondent à cela consiste
essentiellement à susciter une surabondance d’offres, ce qui
n’est pas pour autant efficace. Beaucoup préfèrent laisser leur
propre voiture au parking de la gare, et certains ont même un
véhicule dans chacune des gares de départ et de destination.
Il s’agit là d’une caractéristique propre au monde actuel :
une débauche de moyens qui, pris individuellement, n’ont
qu’une très faible efficacité. Les vélos, les trains, les voitures,
mais aussi les places de parking, ne sont utilisés que
faiblement et d’importants engorgements surviennent dans les
mêmes lieux : surabondance d’offres ou surabondance de
demandes sont des facteurs largement chroniques. Une étude à
l’égard des mobilités douces{47} montre que parmi les raisons
qui limitent l’adoption de ces nouvelles formes de mobilité,
le risque d’indisponibilité est un facteur important. Du fait de
leur aspect erratique – ils sont parfois en surnombre et parfois
invisibles –, les vélos partagés en free floating sont
essentiellement des modes de transport de loisirs. Lorsqu’on a
un rendez-vous important, on préfère s’y rendre en transports
en commun ou avec sa voiture plutôt que s’en remettre aux
nouveaux opérateurs.
Le premier problème reste largement celui d’une grande
difficulté à comprendre quels sont les besoins réels en termes
de transports, quels sont les déplacements réels et superposés
de toutes les formes de mobilité, leurs interactions. Beaucoup
d’acteurs, de municipalités, se sont lancés dans l’installation
de caméras de vidéosurveillance, de capteurs au sein de ces
différents systèmes de transport. Nombre d’entre eux en sont
venus à constater que des plateformes de type Waze ou Google
Maps sont sensiblement meilleures que leurs capteurs maison,
du fait que 70 % des smartphones dans le monde sont des
appareils Android et sont autant d’espions qui donnent à
chaque instant la localisation de 3,6 milliards d’individus, soit
près de la moitié de la planète.
Mais lorsqu’on en vient à la prédiction des différents flux de
trafic, si les plateformes de ces méga-entreprises restent
efficaces, elles ne permettent pas de simuler des variations qui
proviendraient de mesures incitatives, comme le fait
d’augmenter momentanément le prix des péages urbains –
c’est par exemple le cas à Londres{a}. D’autres start-up se sont
spécialisées dans ce domaine{b}, mais il faut avouer qu’aucune
ne parvient réellement à saisir toute la complexité de sociétés
humaines dont les caractéristiques sociales, culturelles et
économiques ne sont jamais vraiment comparables d’une ville
à l’autre. Un Américain aura plus de difficultés à se défaire de
sa voiture pour aller dans l’hypercentre, et en aucun cas il
n’envisagera de pratiquer le covoiturage, une hérésie au pays
de l’automobile-individu.
De surcroît, rares sont les territoires ou les villes qui ont une
maîtrise complète des données issues de l’ensemble des
différents systèmes de transport. Cette « siloïsation » des
données est l’un des facteurs les plus préjudiciables à
l’évolution de territoires vers de nouvelles formes de transport.
Néanmoins, certaines autorités territoriales y parviennent peu
à peu.
Sur l’ensemble des territoires deux difficultés se
confrontent : d’une part, une densité de personnes à transporter
qui est trop importante et qui sature un ou plusieurs systèmes
de transport, ce qui arrive plus généralement dans les centres-
villes, et, d’autre part, un système d’une trop faible densité,
qui limite fortement la mobilité de certains types de public,
un enjeu crucial dans les territoires ruraux.
Si, en apparence, il est plus facile de traiter les enjeux
d’engorgement, les difficultés que rencontrent de nombreuses
métropoles, malgré la mise en place de politiques parfois très
directives, montrent que le défi reste bien présent. Paris a
réussi à diminuer de 30 % son trafic d’automobiles
individuelles sans pour autant supprimer les embouteillages,
de nombreuses rues ayant été fermées au trafic automobile ou
tout au moins ont vu celui-ci être fortement réduit. Depuis le
milieu des années 2010, un certain nombre de villes se sont
équipées de plateformes de MAAS, visant à unifier les
systèmes de transport autant que faire se peut.
La déclinaison d’actions possibles devient alors très large au
fur et à mesure que les technologies d’intelligence artificielle
deviennent plus accessibles. Les initiatives les plus communes
consistent par exemple à introduire des modèles prédictifs plus
ou moins élaborés dans le cadencement des feux de
circulation{48}. D’autres, plus sophistiqués, consistent à
moduler le trafic en mettant en place des prix incitatifs,
comme dans le cas de Londres évoqué précédemment, où le
péage urbain pour voiture peut être plus élevé les jours de fort
trafic et les prix des transports publics réduits. Des mesures
encore plus coercitives peuvent aller jusqu’à la fermeture de
certaines rues, ou leur affectation exclusive aux vélos, à
l’adaptation des vitesses de trafic, de la fréquence des feux de
circulation. Certains opérateurs rémunèrent sous différentes
formes les usagers qui restitueront leur vélo ou scooter
électrique partagé dans des zones à forte demande, celles qui
sont en haut des côtes par exemple. Dans les routes à forte
densité, certaines voies ne seront momentanément accessibles
qu’aux véhicules transportant plusieurs passagers, le comptage
était parfois fait de façon automatique par des caméras. Les
parkings périphériques aux zones denses peuvent devenir
gratuits, et le transport collectif lui-même le devient parfois{49}.
Certaines villes encouragent le partage de véhicules en
disposant de panneaux électroniques sur certains axes
indiquant « Florian cherche un véhicule pour l’emmener à tel
endroit ». Des pratiques qui peuvent également faire l’objet de
gratifications ; en France, le plan national Covoiturage du
quotidien octroie une aide de 100 euros aux nouveaux
conducteurs qui se mettent à l’autopartage. Certaines régions
comme les Hauts-de-France sont encore plus généreuses avec
des aides allant jusqu’à 20 euros par mois.
Mais pour l’instant toutes ces initiatives sont plutôt éparses.
Rares sont les villes qui disposent d’un système réellement
intégré permettant de moduler le trafic de façon dynamique et
de reporter du trafic en masse d’un mode à l’autre, en ayant
une compréhension fine de ce qui se passe.
Ce qui est plus étonnant encore, c’est que le fait
technologique ne semble pas toujours pris en compte dans la
façon dont sont planifiées les plus grandes infrastructures de
transport. Les bretelles de contournement à trois ou quatre
voies, dont les coûts de construction se situent fréquemment
dans les centaines de millions d’euros, tiennent-elles compte
du fait que, d’ici une dizaine d’années, les véhicules
autonomes pourraient être amenés à se généraliser ? Or, avec
cette généralisation des nouveaux modes de transport et en
particulier du véhicule autonome, les façons de conduire
pourraient être très différentes. Un véhicule autonome n’a pas
besoin de laisser 70 mètres entre lui et le véhicule précédent.
Dès à présent des technologies existent pour que ces nouvelles
générations de véhicules se suivent les uns les autres à une
distance de l’ordre de 60 centimètres, ce qui ne pose aucun
risque dans la mesure où leur temps de réaction, au lieu d’être
de l’ordre de la demi-seconde, descend à 6 millisecondes,
et même moins dans le cas d’un train de véhicules
synchronisés. La conséquence serait qu’à long terme (vingt
ans ?), une autoroute pourrait non seulement absorber
plusieurs fois le trafic qu’elle peut aujourd’hui traiter avec des
conducteurs humains mais que, de surcroît, cela pourrait
mettre purement et simplement fin aux embouteillages{50}.
Cette hypothèse ne semble pas pour autant freiner régions,
départements et municipalités, qui continuent à construire
rocades de contournement et autoroutes urbaines exactement
comme si la civilisation automobile était vouée à être
éternelle. Dans le même esprit, est-ce que l’on se rend bien
compte que le véhicule autonome pourrait durablement
bouleverser la façon dont les villes sont organisées ? Plus
besoin de parking à proximité immédiate des logements ou des
lieux où nous travaillons. À Paris, 12 % de l’espace public est
consacré aux parkings (également publics){51}, à New York ce
chiffre monte à 20 %{52} ; toutefois la mairie de Manhattan a
récemment décidé de supprimer des centaines de milliers de
places, notamment du fait de l’accroissement de la part du vélo
et en prévision de l’avènement des véhicules autonomes.
Une initiative qui reste cependant isolée au sein des grandes
métropoles de la planète.
Tout comme nos façons de vivre, de manger, de travailler,
celles de nous déplacer ont déjà profondément commencé à
évoluer. Si pour l’instant le numérique a principalement
participé à accroître notre empreinte environnementale issue
du transport, cela pourrait changer à brève échéance.
La grande difficulté se trouve cependant à la jonction de la
régulation et de l’innovation. D’une façon générale, nous
souhaitons tous avoir des vies plus simples, arrêter de passer
des heures dans des systèmes de transport bondés, que
l’on soit coincé avec sa voiture dans un embouteillage ou
compressé dans un métro que tout le monde semble s’évertuer
à vouloir prendre au même moment. D’une certaine façon,
cela a déjà commencé à changer avec le Covid. À notre grande
surprise, beaucoup d’entre nous se sont rendu compte que ce
n’était finalement pas si difficile que ça de continuer à
travailler de chez soi. Même si par la suite cette formule s’est
révélée moins idéale qu’il n’y semblait tout aussi bien pour les
employeurs que pour les salariés, elle a introduit l’idée que
d’autres formes de travail étaient possibles. On peut
télétravailler, mais on peut aussi éviter de souffrir d’une forme
d’isolement en allant dans un espace de travail collectif,
où l’on peut très bien retrouver quelques collaborateurs.
La leçon que Spotify a ainsi tirée du Covid était que ses
employés souhaitaient toujours venir travailler mais ne
voulaient pas passer autant de temps dans les transports.
L’entreprise a réduit de moitié la taille de son siège social (de
20 000 mètres carrés à 10 000) et ouvert plusieurs petits
espaces de travail tout autour de Stockholm. D’une certaine
façon, c’est ainsi le meilleur des deux mondes : moins
de temps de déplacement mais le maintien d’un espace
physique pour préserver la cohésion de la culture d’entreprise
qui, de l’avis des dirigeants, a tendance à se perdre lorsque les
salariés travaillent trop en distanciel. De nombreuses
entreprises ont adopté des approches semblables : Slack dans
la Silicon Valley et à San Francisco, Atlassian en Australie,
IBM dans de nombreux pays, Coca-Cola, etc., ont tiré des
enseignements semblables à l’issue de la crise du Covid. Et,
bien que disséminées sur de nombreux sites, si les équipes
souhaitent toujours travailler ensemble, elles disposent bien
évidemment de la visioconférence pour rejoindre les
collaborateurs qui ne sont pas présents dans le même
immeuble.
Mais cela ne résout pas tout. Si l’on passe moins de temps
dans les transports, ceux-ci sont toujours aussi encombrés.
L’une des difficultés se situe dans le fait que notre organisation
sociale est particulièrement complexe et malheureusement
rigide. Dans de nombreux pays, toutes les écoles ouvrent à la
même heure et toutes les crèches font de même. D’une façon
générale, nous utilisons systématiquement nos logements, nos
maisons de vacances, nos routes, nos trains, nos écoles au
même moment. C’est l’un des héritages de l’ère industrielle.
Une ère qui n’a jamais vraiment envisagé qu’un jour des
limites environnementales très tangibles viendraient se mettre
en travers de ce modèle. Évidemment, pour essayer de pallier
cela, certaines villes – New York, Barcelone, Londres et…
Stockholm (encore), parmi d’autres – ont tenté de mettre en
œuvre différents horaires de début des journées de travail –
8 heures, 8 h 30, 9 heures et 9 h 30 –, par exemple en créant
des classes dans des écoles qui commencent à des heures
différentes{53}. Cette mesure permet de désengorger
sensiblement les systèmes de transport. Toutefois, elle reste de
l’avis des intéressés complexe à mettre en œuvre car de
nombreux cas particuliers surviennent : des écoles trop petites
pour mettre en place des classes sur différents horaires, des
trains en nombre insuffisant pour répondre à ces contraintes,
des parkings qui sont saturés par ceux qui commencent tôt,
ne laissant pas beaucoup d’alternatives à ceux qui ont choisi
d’arriver plus tard, etc. De ce fait, ces systèmes ne se sont pas
généralisés car la complexité y est trop importante ;
il faut gérer les horaires des professeurs, ceux des entreprises,
leurs parkings, il faut gérer les systèmes de transport,
l’organisation des réunions dans les entreprises, etc.
Pourtant, s’il y a une chose que l’intelligence artificielle sait
faire – avec une grande facilité et vite –, c’est de traiter des
tâches transverses. Quel serait mon temps de trajet si je
choisissais d’aller travailler en train à 8 heures plutôt qu’à
8 h 30 ? Quelle chance aurais-je d’avoir une place assise ?
de trouver un vélo partagé lorsque j’arrive à ma station de
destination ? Quels jours de la semaine est-il préférable que
j’aille au bureau ? D’une certaine façon, les services de
navigation des grandes entreprises digitales sont déjà presque
capables de faire cela. Certes, les IA génératives n’ont pas
encore de mémoire au-delà de quelques phrases ; elles ont
oublié la conversation que nous avons eue avec elles le jour
précédent ; elles ont des difficultés à structurer des discussions
entre elles sans s’auto-intoxiquer, mais ce point précis fait
l’objet de milliards de dollars d’investissement à l’instant
même où ces lignes sont écrites…
En introduisant la dimension environnementale dans ces
modèles d’IA dynamiques, il va devenir beaucoup plus simple
de privilégier les solutions bas-carbone avec des incitations
plus ou moins marquées. Il sera ainsi possible de faire évoluer
les usages de façon progressive, sans trop heurter les
habitudes, et sans créer des gênes individuelles
insurmontables.
Le déploiement des véhicules autonomes, lorsqu’il
surviendra, risque d’être assez inégal. Si, au sein des espaces
urbains denses, l’offre de transport – en particulier de
mobilités douces – est généralement suffisamment abondante
pour permettre des reports d’un système à l’autre, c’est loin
d’être le cas dans les espaces périurbains (la grande banlieue)
et ruraux où, sans voiture individuelle, point de salut. Il est
donc raisonnable de penser que moins les usagers seront
proches des systèmes de transport collectifs, plus ils
souhaiteront garder leurs véhicules individuels, afin d’avoir
l’assurance de pouvoir se déplacer n’importe quand. Il est
également probable que les premiers à disposer de véhicules
autonomes seront les urbains, plus riches, et qui accèdent déjà
à une offre de transport de qualité.
De même, il est vraisemblable que l’émergence de véhicules
de transport public autonomes introduise un profond
changement dans la façon dont nous percevons l’efficacité de
ces systèmes. Une offre qui trouvera tout son sens dans le rural
proche des villes et le périurbain. Le principe reposerait sur
des petits bus, généralement de six à quatorze places, qui
effectueraient un trajet plus ou moins fixe, variant en fonction
des besoins particuliers de ses passagers. Il s’agit tout à la fois
d’optimiser le temps de parcours, en ayant un trajet prédéfini,
tout en étant capable de traiter les besoins particuliers.
Ces systèmes sont prometteurs car ils sont théoriquement
capables de fonctionner jour et nuit, à un faible coût. En étant
prédisposés à différents niveaux de la ligne de bus, ils peuvent
rapidement se mettre à la disposition des usagers, qui
pourraient éventuellement faire des réservations.
Il est probable que, dans un premier temps, ces solutions
trouvent leur public dans des zones relativement denses,
permettant de garantir un niveau de disponibilité acceptable.
Mais, au fur et à mesure que ces bus autonomes gagneront en
viabilité, ils pourront à terme toucher un très large public.
Selon l’European Automobile Manufacturers’ Association,
le coût de détention d’une voiture en Europe est de l’ordre de
3 500 à 6 000 euros par an suivant les pays. Un coût qui
pourrait être drastiquement réduit si une telle approche venait
à être généralisée. C’est pourquoi beaucoup d’entreprises
se sont dédiées au développement de solutions de transports
publics autonomes de petite taille. Navya Arma, une entreprise
française, a déjà déployé son bus à quinze places sur des sites
tels qu’aéroports, parcs, centres de congrès, etc., des espaces
qui, en général, restent relativement protégés des
comportements plus imprévisibles des piétons et autres
véhicules. L’ensemble de ses flottes n’en revendiquent pas
moins plusieurs millions de kilomètres accomplis
en autonomie totale. De nombreuses autres entreprises se sont
intéressées à ce créneau et Waymo, filiale de Google dédiée au
véhicule autonome, pourrait développer un car de huit
places{c}. De nombreux autres acteurs cherchent à se
développer sur ce marché{d}, parmi lesquels des municipalités,
conscientes du fait que la résilience passe largement par la
capacité de parvenir à trouver des systèmes de transport pour
ceux qui n’ont pour l’instant pas d’autre choix que d’être
propriétaires d’une voiture.
On pourrait objecter que tout cela ne sera jamais aussi
simple que le système actuel qui permet d’avoir une voiture
garée devant sa maison. Certes, mais cela reste fort coûteux et
c’est dans la plupart des pays parmi les trois premières
dépenses du foyer. Et puis on peut aussi observer que seuls
30 % des habitants de Paris ou 21 % de ceux de Londres ont
une voiture ; la qualité des services de transport doit donc y
être suffisamment bonne pour leur éviter un tel investissement.
Au-delà se pose la question de savoir s’il ne faut pas inciter
à réduire la quantité de kilomètres parcourus par voiture
individuelle tout court. Car outre les enjeux de réchauffement
climatique, certaines études évoquent les externalités des
kilomètres parcourus en voiture : disparition des insectes,
perturbations sur la faune induites par le bruit et l’éclairage.
Le fait de disposer de systèmes qui sont plus efficaces, car
semi-collectifs, serait d’autant plus vertueux et, cela a été dit
plus haut, il n’y a aucune raison de penser que cela soit moins
efficace ou moins confortable.

{a}L’Oyster Card d’abonnement au transport public londonien permet de bénéficier


de réductions aux heures de trafic les plus denses. Ces réductions sont variables en
fonction du type d’abonnement et de la distance parcourue.
{b}
Parmi celles-ci, Cubic Transportation Systems, Moovit, Conduent, Siemens
Mobility…
{c} Waymo a déjà accompli 20 millions de kilomètres en autonomie totale dans
des villes comme Phoenix, San Francisco, Los Angeles, Tokyo, etc. (a16z Podcast,
« The road to autonomous vehicles : Are we here yet », YouTube, 22 juin 2023).
Depuis l’été 2023, des licences commerciales de taxi ont été accordées à Waymo et
Cruise pour une exploitation 24 heures sur 24.
{d} Par exemple, les entreprises Autonomous Transit (Las Vegas), Optimus Ride
(Miami), Pronto.AI (San Francisco), Easymile EZ10 (Paris). Un consortium
comprenant Siemens, Uber et la ville de Copenhague y développe également un
projet pilote de bus autonomes. À Pittsburgh, un autre consortium comprenant les
autorités municipales, l’Université de Carnegie Mellon et aussi Uber développe un
projet semblable. La Commission européenne a également les projets AVENUE et
ULTIMO avec l’objectif de précisément répondre aux enjeux de mobilité dans les
grandes banlieues et la ruralité avec des véhicules de transport public autonomes.
Chapitre 6
Chaînes logistiques
et économie circulaire

Gérer la complexité logistique


Quand j’étais enfant et que nous partions en vacances en
voiture, les autoroutes n’étaient alors pas aussi développées
qu’aujourd’hui et il arrivait que l’on passe de longues minutes
derrière un camion avant de pouvoir le doubler. Certains
d’entre eux arboraient sur leurs portes arrière un autocollant où
on pouvait lire : « Vous l’avez, je l’ai transporté », nous
rappelant que tous les biens dont nous jouissions avaient à un
moment ou à un autre dû être transportés, et dans leur très
vaste majorité, par un camion. C’était une façon de nous faire
patienter en remettant en perspective le fait que ces engins
n’avaient pas pour vocation de retarder le moment où nous
arriverions à destination, mais remplissaient un rôle essentiel
pour la société de consommation.
Si les supply chains (chaînes logistiques) sont le plus
souvent invisibles, elles n’en sont pas moins tout autour de
nous. Elles cherchent d’ailleurs le plus souvent à se fondre
dans le paysage, pour éviter d’être remarquées par d’éventuels
voleurs et, bien qu’elles utilisent sans cesse des infrastructures
de transport publiques, nous n’y prêtons le plus souvent pas
attention.
Elles n’en sont pas moins devenues gargantuesques : le port
de Shanghai par exemple a une surface équivalente à trente-
quatre fois celle de Paris, et traite 750 millions de tonnes de
marchandises par an. Un tiers de toute l’énergie dépensée dans
la mobilité l’est pour le transport de marchandises, et les
supply chains sont directement responsables de 7 % de
l’ensemble des émissions de CO2 de l’humanité{54}.
Avant même que l’environnement ne devienne un facteur
de contrainte, les acteurs des supply chains ont utilisé la
technologie informationnelle pour améliorer l’efficacité de
leurs processus. À un point tel que le slogan de l’autocollant
évoqué plus haut pourrait se décliner de la façon suivante, tant
ces technologies y sont devenues consubstantielles : « Si vous
l’avez, c’est que les technologies numériques ont fait en sorte
que ce soit possible ». Comment attribuer autrement qu’aux
technologies numériques le fait que, entre 1990 et 2017,
le taux de remplissage des camions ait augmenté de l’ordre de
20 %{55} ? Désormais, un camionneur qui transportera une
charge de Lille à Marseille ne remontera plus que de façon
exceptionnelle à vide. Il utilisera une place de marché en ligne
pour trouver un chargement à remonter, doublant ainsi son
taux de charge. Il en va de même pour de nombreux types
de transport de marchandises, des conteneurs aux
fourgonnettes qui livrent en ville. De ce fait l’avantage dont
disposaient les hypermarchés, en massifiant leurs flux
logistiques et en faisant ainsi tomber les prix, s’est réduit : les
systèmes d’information modernes font que la différence de
coût pour approvisionner une très grande surface où une petite
supérette de quartier n’est plus aussi importante
qu’auparavant. Les plateformes logicielles que seuls pouvaient
s’offrir les grands acteurs de la distribution sont désormais
accessibles via le cloud aux petits commerçants de quartier :
eux aussi bénéficient des plateformes technologiques mettant
en œuvre des techniques de « juste à temps », des stocks
tampons, des modèles prédictifs capables d’ajouter à une liste
de livraison un carton de nourriture pour chats, lorsqu’il aura
été identifié qu’il n’en reste plus que trois boîtes en rayon.
Malgré tous ces progrès, les chaînes logistiques restent des
facteurs importants d’engorgement des systèmes de transport
et d’émission de CO2. Elles représentent également un tiers
des émissions issues de l’industrie (qui elle-même représente
24 % de l’ensemble des émissions) et pour certains acteurs
économiques, les achats externes et leur transport peuvent
représenter jusqu’à 80 % des émissions. Jusqu’à il y a peu,
nombre d’entreprises n’avaient qu’un contrôle très vague sur
l’origine de ces émissions de CO2 et, de surcroît, elles avaient
une tendance exagérée à user de compensations, c’est-à-dire
d’achats de droits à émettre, leur permettant d’annoncer à bon
compte qu’elles avaient réussi à neutraliser leurs émissions
sans avoir changé grand-chose à leur façon d’opérer. Il est
vraissemblable que ce tour de passe-passe ne perdure plus très
longtemps avec l’augmentation du coût des crédits carbone
au sein de l’Union européenne et que la conscience
environnementale montante amène l’ensemble des parties
prenantes à se poser les vraies questions{56}.
Pour certains acteurs économiques, les émissions de CO2
sont directement liées au cœur de leur activité. Il en est ainsi
des producteurs de ciment et plus encore d’acier, ce dernier
émettant entre 1,4 et 2,2 tonnes de CO2 par tonne produite, en
fonction de la qualité et des traitements qui sont opérés lors du
processus de production{57}. Mais, pour une majorité d’acteurs
économiques, les émissions de CO2 sont largement diffusées
au sein de l’ensemble de la chaîne de valeur. Si l’on prend par
exemple le cas d’un opérateur de télécoms, ces émissions sont
à près de 80 % liées à la fabrication et au transport{a} des
équipements électroniques qu’il utilise ou qu’il vend (les
terminaux et les box) à ses clients, ce qu’on appelle le scope 3,
c’est-à-dire les émissions de carbone que l’opérateur de
télécoms ne maîtrise pas directement.
Malheureusement, souhaiter réduire les émissions liées à ce
scope 3 revient à faire face à une complexité
incomparablement supérieure à celles qui sont directement
générées par l’entreprise (les scopes 1 et 2). Cela nécessite
dans un premier temps de comprendre d’où viennent les
émissions de CO2 liées à ce que l’on achète, et donc de
disposer de données provenant de l’ensemble de la chaîne de
valeur. Lorsque cette première étape est franchie, il devient
possible d’effectuer les arbitrages opportuns, en définissant un
prix – soit réglementaire, soit arbitraire – du CO2 et autres
externalités environnementales, dans les modélisations
conduisant à des choix opérationnels : privilégier tel
fournisseur plutôt qu’un autre, privilégier un type de transport
plutôt qu’un autre, modifier la gestion et la localisation des
stocks, etc.
Pour reprendre l’exemple d’un opérateur de télécoms, l’une
des sources de ses émissions de CO2 provient des box qu’il
fournit à ses clients. Celles-ci sont le plus souvent en grande
partie fabriquées en Chine, ce qui est une source immédiate
d’émissions dans la mesure où l’énergie électrique chinoise est
l’une des plus sales parmi celles des grands pays industriels :
on estime qu’elle se situe aux alentours des 500 grammes
de CO2 par kilowattheure émis{58} ; en comparaison, la France
est à 75 grammes{59}. Mais cette phase n’est pas la seule à
émettre du CO2. Il y a au sein de cette box de nombreux
composants provenant de plusieurs centaines de fournisseurs.
Il est important de comprendre que ces fournisseurs doivent,
lorsque c’est possible, être doublés, voire triplés, pour éviter
un arrêt de la production en cas de défaillance de l’un d’entre
eux. Ces fournisseurs sont en vaste majorité situés dans les
pays du Sud-Est asiatique (Chine, Taïwan, Vietnam,
Thaïlande, Singapour, Japon, Corée du Sud…), mais dans une
moindre mesure aussi aux États-Unis et en Europe. Lorsqu’on
remonte dans la chaîne de valeur, on prend conscience qu’un
simple composant peut faire virtuellement plusieurs fois le
tour de la Terre, en effectuant de multiples trajets entre les
sous-traitants impliqués dans les différentes étapes de
fabrication.
À un moment ou à un autre de sa conception et de sa
fabrication, un semi-conducteur passe par la plupart, voire la
totalité des six régions géographiques que sont l’Europe,
la Chine, les États-Unis, Taïwan, la Corée du Sud et le Japon.
Avant d’être livrée, une puce doit subir cinq cents opérations
différentes qui s’étalent sur quatre à six mois et lui font
traverser soixante-dix fois une frontière internationale{60}.
L’empreinte carbone de l’énergie de chacun de ces acteurs
peut non seulement être fort différente, mais celle-ci peut
varier au cours de l’année en fonction des conditions
climatiques. Ainsi, la production électrique de l’Union
européenne est en moyenne à 240 grammes de CO2 en été et à
490 grammes en hiver.
Une fois les cartes électroniques des « box » fabriquées,
celles-ci sont expédiées par avion et induites dans un système
logistique complexe, où un assemblage mécanique du boîtier,
des cartes électroniques et des autres pièces pourrait être
effectué dans un pays à bas coût de l’Union européenne (par
exemple, la Hongrie). Enfin, ces box terminées, elles
pourraient rejoindre à nouveau par avion une plateforme de
préparation située en banlieue d’une grande ville française. Là
pourraient être effectués des tests finaux et la dernière version
du logiciel d’exploitation y serait installée, avant que ces
boîtes ne soient réparties dans les agences territoriales, cette
fois-ci par camion.
Si les processus logistiques des opérateurs de télécoms
peuvent différer fortement de l’un à l’autre, ces étapes
correspondent à ce qui s’observe généralement, elles sont
parfois plus ou moins intégrées mais, sur le fond, il est
aujourd’hui difficile de s’affranchir significativement de l’une
d’entre elles.
La fabrication d’une seule box met donc en œuvre des
milliers de flux logistiques, chacun faisant peser un risque
économique et logistique sur l’ensemble du processus,
et désormais chacun ayant son empreinte environnementale
propre. C’est pourquoi les donneurs d’ordre ont peu à peu
exigé d’avoir une plus grande transparence sur la logistique
amont de leur production. Des acteurs des supply chains de
taille mondiale, comme SAP ou Oracle, sont donc
progressivement en train d’intégrer ces dimensions.
La complexité vient désormais du fait qu’en plus des
dimensions d’efficacité économique, il convient d’ajouter
celles liées aux contraintes environnementales, dont le CO2.
Cela peut avoir de profondes implications sur le choix des
fournisseurs, mais également sur la gestion des stocks. Face à
un prix du CO2 élevé, un opérateur pourrait par exemple faire
le choix d’accroître significativement ses stocks et de ne faire
venir ses pièces d’Asie que par bateau (ou plus récemment par
train), pour réduire l’empreinte environnementale liée à
l’avion. Le coût du stock augmentera, mais celui du transport
incluant le CO2 diminuera plus encore. Ces modélisations
seraient évidemment à reproduire au sein du scope 3, c’est-à-
dire, au-delà du spectre opérationnel direct de l’opérateur, à
celui de tous ses fournisseurs, ce qui rend l’équation
particulièrement complexe à traiter.
C’est là où l’apport de l’intelligence artificielle prend
beaucoup de sens. Transposé à d’autres secteurs économiques,
on retrouve les mêmes contraintes, également liées à
l’intensité carbone des fournisseurs ainsi qu’à celle des
systèmes de transport (les deux entités se résumant dans le
terme de supply chains). À l’égard de la maîtrise du risque,
différents travaux{61} ont mis en évidence l’apport que l’IA
peut avoir dans les processus de décision complexes, où de
très nombreuses variables sont à l’œuvre. On conçoit donc
qu’en ajoutant encore de nouvelles variables, comme celles
qui ont trait au CO2 ou à d’autres externalités
environnementales et sociales, un opérateur qui devrait
prendre rapidement de nombreuses décisions d’arbitrage ne
puisse se concentrer que sur les facteurs les plus importants :
le prix, la disponibilité, la qualité du produit. Les autres sont
des variables secondaires, du moins elles l’ont été jusqu’à
présent.
L’IA a ceci d’intéressant qu’elle peut éventuellement
parvenir à affiner des processus de décision et, sans
nécessairement réduire l’importance donnée à ces facteurs
principaux, elle peut en optimiser de nombreux autres. Elle
peut également mettre en évidence des effets systémiques :
l’intérêt de créer une plateforme de stockage à un certain
endroit de la chaîne de valeur, d’en internaliser ou d’en
externaliser d’autres, etc.
C’est le cas notamment au sein des entreprises de
distribution, d’agriculture ou de services ayant une
problématique d’optimisation des émissions tout au long de
leur supply chain.
En effet, dans les opérations d’achat par exemple, les
algorithmes d’IA peuvent prendre en compte le coût, mais
aussi le délai d’approvisionnement, la criticité de ce délai,
et également des externalités comme l’empreinte carbone du
produit considéré, ainsi que celle de sa livraison, tout cela en
respectant des facteurs de pondération constants d’un flux à
l’autre de la chaîne d’approvisionnement. En outre, ces
modélisations permettent de renforcer la résilience de ces
chaînes logistiques, permettant de simuler la perte d’un ou de
plusieurs fournisseurs plus ou moins essentiels. En particulier,
l’IA semble offrir un avantage déterminant par rapport à
l’opérateur humain en ce sens qu’elle permet de traiter
efficacement ces environnements massivement multivariés,
c’est-à-dire comprenant un grand nombre de facteurs, et qui,
il est important de le rappeler, sont largement interdépendants.
Un opérateur humain en charge d’une chaîne logistique se
trouve le plus souvent – comme un joueur de mikado dont un
mauvais arbitrage peut avoir des conséquences systémiques –
dans une situation où des systèmes experts à base
d’intelligence artificielle peuvent négocier des arbitrages
tenant largement compte de cette notion systémique.
La plateforme logistique de Rungis, par exemple, la plus
importante dans le monde en matière alimentaire, voit transiter
3 millions de tonnes de produits par an. Malgré son efficacité
opérationnelle difficile à contester, des dizaines de milliers de
tonnes sont perdues parce que le niveau de prédictibilité des
différents agents de la chaîne logistique ne permet pas de
rencontrer les besoins du marché de façon optimale. Il faudrait
pour cela être à même de récolter, de transformer,
de commander, de stocker, etc., des produits avant même que
la demande du marché, voire de l’étape qui suit (du fermier au
grossiste, du grossiste au distributeur, du distributeur au
consommateur, pour expliquer cela de façon imagée), soit
exprimée, et cela en tenant compte de nombreuses contraintes,
dont celles météorologiques, du côté aussi bien de l’agriculteur
(qui peut éventuellement repousser sa récolte de
quelques jours si les conditions le permettent) que du
consommateur. À tout cela, il convient d’additionner toutes les
variables inhérentes à toute forme de chaîne logistique (coût
de la main-d’œuvre – notamment les jours fériés et la nuit –,
coût de l’énergie – notamment en cas de stockage prolongé en
chambre froide –, etc.). C’est en faisant le constat que les
applications de gestion aux supply chains proviennent de
celles qui avaient initialement été conçues pour des produits
durables que de nombreuses start-up d’intelligence artificielle
se sont lancées dans la conception d’applications pour le
domaine des flux logistiques alimentaires. L’entreprise
Califrais, par exemple, s’est appuyée sur le LabCom LOPF{b},
un laboratoire de recherche en intelligence artificielle, pour
développer des algorithmes appropriés à l’optimisation de
chaînes logistiques traitant de produits périssables. La start-up
revendique un taux de perte alimentaire environ six fois
inférieur à celui d’un processus logistique traditionnel ainsi
qu’un niveau de satisfaction élevé de ses clients.
La grande difficulté reste, pour toutes ces entreprises,
d’accéder à l’ensemble des données afin de permettre à ces
modèles d’IA de fonctionner convenablement. Or les chaînes
logistiques sont le plus souvent l’expression même de la
fragmentation, du silo, avec en leur sein des systèmes souvent
peu ouverts et parfois vieillissants. C’est d’ailleurs ce qui a
poussé des acteurs comme Amazon ou AliExpress à créer et à
orchestrer des applicatifs transversaux, au sein desquels les
systèmes prédictifs à base d’IA sont généralisés, leurs
performances opérationnelles étant ainsi fortement accrues.
Désormais, que ce soit dans le cadre de politiques
volontaires ou de contraintes réglementaires nouvelles (CSRD,
MACF, etc.){c}, les entreprises semblent tout à coup accorder
une attention renouvelée à la qualité des données qui
proviennent des supply chains et les administrent. Ces données
sont en effet souvent la clé qui leur permet de répondre au défi
que représentent les contraintes environnementales. Qu’il
s’agisse de connaître la quantité de carbone présente dans un
produit, la durabilité de ses processus de fabrication, le fait
qu’il recoure ou pas à des matières dangereuses pour
l’environnement ou la santé… tout cela doit être connu. Ces
processus nécessitent donc une forte capacité à traiter des
données qui ne sont pas toujours présentes, sont généralement
largement hétérogènes, sans même parler de l’absence
généralisée de certification.
Cette transparence doit aussi permettre de mieux informer
le client final et d’accroître sa compréhension de la complexité
inhérente aux chaînes logistiques. Nous évoquions plus haut
l’importance du Digital Product Passport pour aider à
l’agrégation de ces données ; mais avant même l’interface vers
le consommateur, c’est la contrainte législative qu’amène la
CSRD qui va permettre de libérer ces informations.

Qualification des fournisseurs


Il est impressionnant de constater combien les entreprises
ont tendance à se réfugier derrière leurs fournisseurs. Chacun a
à l’esprit une marque qui s’est retrouvée prise à partie par les
ONG, mise dans le feu de l’actualité pour avoir fait appel à des
fournisseurs recourant au travail forcé, déboisant des forêts
primaires, maltraitant le bétail ou la volaille élevés dans des
conditions indignes. Chaque fois, l’excuse avancée est la
même : nous ignorions, nous ne savions pas, nous découvrons.
Or, selon l’institut Eurostat, la part de valeur ajoutée des
industries européennes serait de l’ordre de 60 %. Cela signifie
que 40 % de la valeur de ce qu’elles vendent provient d’achats
externes à l’Europe. En revanche, selon l’European
Environment Agency, la majeure partie (62 %) du CO2 émis
par ces industries provient d’achats externes, ce qui signifie
que les entreprises européennes sont sensiblement plus
efficaces que celles situées à l’extérieur de l’Union.
Néanmoins, jusqu’à présent, il leur était particulièrement
difficile de sourcer la qualité réelle de leurs fournisseurs. Elles
avaient beau avoir mis en place des processus d’audit et des
mises en conformité avec les certificats environnementaux et
sociaux les plus exigeants, les déconvenues n’en ont pas moins
été parfois douloureuses. Nestlé a été accusé d’employer des
enfants dans les plantations de cacao en Côte d’Ivoire tout en
étant certifié RainForest Alliance, H&M s’est découvert être
l’un des principaux donneurs d’ordre de l’usine qui s’est
effondrée en juillet 2018 au Bangladesh, révélant des
conditions de travail effroyables, quand bien même
l’entreprise était membre de la Fair Labor Association. Apple
s’est également retrouvé au cœur de plusieurs polémiques,
dont l’une concernant l’utilisation de travailleurs prisonniers
dans le Xinjiang{62}, malgré le fait que l’entreprise ait adhéré à
l’Electronic Industry Citizenship Coalition, un label certifiant
le respect de normes éthiques de haut niveau pour les
travailleurs de l’industrie électronique.
Ces entreprises sont-elles toutes des acteurs cyniques dont
les dirigeants auraient conscience de leurs dysfonctionnements
et chercheraient à les masquer derrière une communication
appropriée ? Si on ne peut certainement pas évacuer une telle
hypothèse, la défense la plus généralement avancée de ces
entreprises est qu’elles ignoraient tout de ces pratiques, qui ne
les impliquent jamais directement mais impliquent leurs sous-
traitants, quand ce n’est pas les sous-traitants de leurs sous-
traitants. Même en imposant des réglementations de plus en
plus contraignantes, on ne peut exclure que des failles
majeures mettent en danger les entreprises du fait de leurs
fournisseurs. Que peut faire l’intelligence artificielle à cet
égard ? Elle peut certainement beaucoup dans la mesure où ces
enjeux sont largement des sujets de volumes de données qu’il
est généralement difficile de traiter pour un individu ou même
un groupe d’individus. Parmi celles-ci, on trouve l’analyse des
rapports financiers, des rapports spécifiques aux enjeux de
responsabilité sociale, de ce qui se dit à l’égard de l’entreprise
sur les médias sociaux, de ce qu’en dit la presse, ce qu’en
disent les autres fournisseurs, etc.
L’IA peut aussi suivre la donnée et s’assurer que les
fournisseurs de fournisseurs sont encadrés par les mêmes
standards que ceux du fournisseur de premier rang. Bien
entendu, cela ne permet pas de disposer d’un avis définitif,
mais plutôt d’un avis probabiliste. Autrement dit, en suivant
cette approche, on ne pourra pas dire que tel site n’emploie pas
d’enfants, où que son énergie n’est pas fournie par un groupe
électrogène, mais on pourra en revanche pointer efficacement
les entités qu’il conviendrait d’auditer et pour lesquelles il
pourrait y avoir des risques de non-conformité avec les normes
environnementales, sociales et de bonne gouvernance (ESG)
de l’entreprise acheteuse. La puissance de cette approche
repose essentiellement sur l’analyse du langage et la lecture de
documents a priori hétérogènes. En labellisant ces documents
en grande quantité, il est possible de faire ressortir une note
d’ensemble sur chaque enjeu lié à la responsabilité sociale et
environnementale d’une entreprise et, en agrégeant ces
évaluations pour chaque pratique, de faire ressortir une note
d’ensemble. Des facteurs liés à la qualité des fournisseurs de
l’entreprise, la zone géographique de celle-ci, sa typologie de
clients, son histoire, son actionnariat peuvent également être
des indicateurs intéressants pour renforcer cette labellisation
dans un sens comme dans l’autre. Il est vraisemblable que
ce type de traitement serait aussi de nature à mieux détecter les
entreprises qui s’adonnent au greenwashing en systématisant
le recours à des sous-traitants mal notés et en recourant
fréquemment à des certificateurs connus pour leurs faiblesses
à l’égard de certains pays ou types d’activités.
Cette approche permet également de qualifier un risque de
défaillance qui va bien au-delà de l’analyse comptable.
GrainCorp, l’une des plus importantes entreprises agricoles
australiennes, a vu ses livraisons de céréales réduites d’une
année sur l’autre de 23 %, entraînant une chute de 64 % de ses
bénéfices en 2014 ; il est probable que ce risque aurait pu être
anticipé par ses clients au travers d’une approche de ce type,
permettant de mettre en évidence la dépendance de l’entreprise
aux aléas climatiques. Car, lorsqu’une entreprise a des
centaines de fournisseurs, les risques peuvent être très variés
en fonction de la nature de leur activité. En 2014,
un classement des 100 entreprises les plus réputées au monde
comprenait 8 entreprises de vêtements. Parmi celles-ci, 2 ont
été retirées du classement en 2015, à la suite de
l’effondrement meurtrier de l’usine Rana Plaza au Bangladesh
qui fabriquait des marchandises pour elles, entraînant leur
exclusion de la liste en 2016{63}.
Au-delà de la simple qualification du risque, il est évident
que des approches de ce type permettent de faire des
recommandations sur la façon dont les entreprises peuvent
suivre une feuille de route dans le but d’améliorer leurs
standards environnementaux, sociaux et de gouvernance.
Même pour des multinationales, il est extrêmement difficile de
suivre dans le détail l’ensemble de ses fournisseurs et de
s’assurer que les normes les plus exigeantes sont respectées,
à moins d’être prêt à créer une bureaucratie interne au
département des achats consacrée au suivi de l’ensemble de
ces facteurs. Au-delà de l’évaluation pure, il est donc
nécessaire de pouvoir donner des recommandations concrètes
à l’ensemble des acteurs de la chaîne de valeur d’une
entreprise pour s’assurer qu’ils se soumettront à des critères de
performance environnementale et sociale exigeants, évitant les
situations dans lesquelles se trouvent pris des acteurs
qui se voulaient incontestables{64}.
L’intérêt de l’intelligence artificielle pour accroître
l’efficacité de ces enjeux est tellement évident qu’on peut
s’étonner à bon droit qu’elle n’ait pas été généralisée sur ce
champ de qualification des fournisseurs et de validation des
enjeux d’ESG. Non seulement elle peut être facilement mise
en œuvre dans le cadre de services SaaS (software as a
service), mais, de surcroît, ces derniers protègent directement
l’entreprise en cas de défaillance d’un de ses fournisseurs du
fait d’une insuffisante prise en compte de ces enjeux.
Certes, des entreprises d’évaluation des normes ESG
comme Sustainalytics{65} ou TruValue Labs{66} ont largement
perçu le potentiel de la technologie, et en particulier de l’IA,
pour accroître leur pertinence d’évaluation. Certaines utilisent
des modèles à base d’IA qui sont capables de créer de la
cohérence au sein de données structurellement hétérogènes –
car provenant d’acteurs de natures très différentes, de formats
de rapports qui n’ont rien de normalisé et situés tout au long
de la chaîne de valeur – pour créer des audits sans doute bien
supérieurs en qualité à ceux qui étaient produits il y a encore
quelques années. Néanmoins, il ne semble pas y avoir d’acteur
ayant systématisé une approche de mise à l’échelle d’une offre
basée dans le cloud et accessible à toutes les entreprises. En
outre, on pourrait craindre que les acteurs les moins
performants restent tentés soit de retenir leurs données –
comme pourraient le faire certains fabricants de produits
semi-finis chinois{67} –, soit même de les fabriquer en vue
d’avoir de meilleures analyses de la part de ces outils
automatisés. Il est toutefois probable qu’il soit difficile de
fausser sur la durée ce type d’analyse tant les analyses faites
par rapprochement sont puissantes pour détecter les
aberrations et biais.

Économie circulaire
Mais, si performante que puisse être l’intelligence
artificielle au sein des supply chains, l’enjeu ne peut se
résumer à seulement les améliorer pour qu’elles soient plus
efficaces. Et même si cette amélioration venait à être
significative, elle ne résoudrait que partiellement les enjeux
d’externalités environnementales du mode de consommation
que nous avons généralisé à l’échelle de la planète. Pour
l’instant, ces chaînes logistiques sont à sens unique, et leur
extrémité n’est rien d’autre qu’une unité de traitement
de déchets ou une décharge, plus ou moins contrôlée selon le
niveau de développement des nations où celles-ci se situent.
L’humanité produit environ 2 milliards de tonnes de déchets
par an, générant des perturbations sanitaires et écologiques de
premier plan pour l’ensemble du vivant, sans même compter
5 à 6 % de l’ensemble des émissions de CO2. Pourtant, si
dysfonctionnelle que puisse être cette tragique caractéristique
du monde moderne, l’évolution vers quelque chose de moins
destructeur semble être d’une grande difficulté. Les
gouvernements sont confrontés à une forte résistance de la part
des industriels, mais aussi des consommateurs dans la mesure
où changements d’habitudes et augmentation des prix
paraissent être des conséquences presque inévitables de
l’émergence d’un nouveau modèle.
Notre civilisation, il est vrai, ne s’est pas développée de
sorte qu’elle puisse fonctionner en économie circulaire – c’est-
à-dire pour développer une valorisation après usage de
l’ensemble des produits que nous utilisons au quotidien. Pour
cette civilisation qui a essentialisé la consommation,
lorsqu’une chose est usagée elle doit disparaître aussi
rapidement que possible, par incinération ou par une mise en
décharge, et son remplacement doit être tout aussi aisé. Nous
avons simplement oublié que nous possédions ce nouveau
produit. Pour la nourriture, ce n’est pas très différent, et peut-
être même pire. 40 % de celle-ci n’entreront pas dans notre
bouche. Dans les pays en développement, c’est essentiellement
le dysfonctionnement des chaînes logistiques qui est en cause,
mais dans les pays riches, plus de 60 % de ces pertes se
produisent dans nos réfrigérateurs : nous laissons tout
simplement la nourriture se périmer sans la manger{68}.
Pour essayer de limiter ces maux, les nations introduisent
différentes mesures. En France, la loi « Biodéchets », entrée en
vigueur en janvier 2024, vise principalement à introduire une
valorisation des déchets organiques, soit une quatrième
poubelle qui leur est destinée, en sus de celles dédiées aux
déchets généraux, aux cartons et plastiques et au verre.
Une servitude supplémentaire posant de nombreux défis, en
particulier à ceux qui n’ont que peu de place chez eux. Là
encore, le recours à la technologie pourrait toutefois être
efficace à moyen terme. Ainsi, depuis plusieurs années, les
grands fabricants d’électroménager « blanc » (Samsung{69},
Siemens…) travaillent sur des réfrigérateurs munis de caméras
qui pourraient suggérer à l’utilisateur ce qu’il devrait
consommer en priorité pour éviter le gâchis et les meilleures
recettes possibles à partir des différents produits restés au fond
du frigo. L’expérience vécue par un ami équipé d’un tel
appareil montre que ce n’est encore que faiblement efficace,
notamment parce que les caméras ne voient pas ce qui se
trouve dans des boîtes ou ce qui est empilé. Mais la
dynamique est là, et pourrait à terme avoir une certaine
efficacité, également lorsque nous faisons nos courses pour
nous suggérer des justes quantités évitant le gâchis.
Selon la Fondation Ellen McArthur, l’avènement de l’IA
dans le secteur alimentaire au service de l’économie circulaire
pourrait générer des opportunités économiques à hauteur de
127 milliards de dollars et de 90 milliards dans celui des
déchets électroniques. Étendue à l’ensemble des déchets,
l’opportunité économique à l’échelle de l’Europe s’élèverait
même à 1 800 milliards de dollars{70}. Tout cela dans un
horizon de temps très court, c’est-à-dire d’ici à 2030{71}.
Le principe de l’économie circulaire consiste
essentiellement à limiter le gâchis, tout en essayant de
valoriser ce qui est hors d’usage, ainsi que nos déchets
alimentaires et les contenants des produits que nous achetons.
Le packaging à lui tout seul consomme 40,5 % de l’ensemble
des plastiques produits{72} dont, évidemment, une infime partie
est recyclée. On estime à seulement 30 % la part du plastique
qui est réutilisée. Si en Europe 75 % du verre l’est, ce n’est le
cas que pour 31 % aux États-Unis{73}. Et il faut avoir la
franchise de l’énoncer : le recyclage lui-même n’est pas
toujours une solution optimale{74}. Fondre une bouteille en
verre nécessite 31 fois plus d’énergie (le plus souvent du gaz à
haute teneur en CO2) que celle nécessaire pour produire une
bouteille en plastique. Recycler une bouteille en verre, même
si c’est mieux que de l’envoyer en décharge finale, reste très
polluant. Il est donc nécessaire de trouver des processus de
circularité pertinents, dans la mesure du possible utilisant des
emballages réutilisés tels quels, comme c’était le cas avec les
consignes en verre jusque dans les années 1990 ou encore pour
les bouteilles consommées dans les cafés et restaurants, qui
retournent à l’embouteilleur par le même camion qui a livré
les bouteilles pleines.
Toutefois, même cette approche en apparence vertueuse
n’est pas non plus toujours optimale : des travaux de recherche
ont montré que certains emballages, même lorsqu’ils étaient
directement réutilisés, pouvaient induire d’importants coûts
énergétiques liés à leur transport lors des opérations de
retour{d}, en particulier quand les unités de production et de
réutilisation étaient situées à grande distance. C’est d’ailleurs
l’argument qu’utilise Coca-Cola, lorsque certaines ONG
exigent que le mastodonte des sodas revienne au verre
consigné. Une tentation serait de mettre des petits marqueurs
électroniques NFC sur les boîtes de lait, par exemple pour
faciliter leur détection et leur remise dans la chaîne de
production{75}. Une telle solution est attrayante et fonctionne à
condition d’avoir une réelle concertation entre fabricants,
consommateurs et chaîne de recyclage – le risque étant d’avoir
un remède plus nocif que le mal, avec ces étiquettes contenant
des métaux rares qui finissent dans la nature.
Face à un tel panorama, forte peut être l’inclination à croire
qu’il n’existe pas de solution, ou du moins pas de solution
simple. Et il est exact que, bien que les principes de
réutilisation et de recyclage aient été largement déployés –
cela fait plus de cinquante ans que le tri des ordures a été
initialement introduit dans certaines villes suisses et
allemandes –, l’efficacité de l’ensemble de ces systèmes n’est
pas au niveau que l’on aurait pu espérer. La Commission
européenne escompte obtenir des pays membres un niveau de
recyclage de l’ordre de 65 % en 2025, dont 70 % pour le
plastique et 90 % pour le carton, un objectif qui, de l’avis des
experts, ne sera au mieux tenu que par une poignée de pays.
Or l’avènement de l’intelligence artificielle est
vraisemblablement un facteur qui peut avoir une très forte
incidence sur la mise en place de systèmes circulaires
sensiblement plus efficaces que ceux que nous connaissons
aujourd’hui. À condition toutefois d’accepter de modifier les
pratiques en vigueur.
Dans beaucoup de cas, l’IA est utilisée pour piloter des
processus robotisés. Dès à présent, dans les centres de gestion
des déchets, la qualité du tri s’accroît de façon sensible tandis
que les coûts de traitement baissent du fait de l’avènement des
robots trieurs{e}. C’est d’ailleurs là l’une des applications les
plus communes de l’intelligence artificielle dans la robotique.
L’usage de tels robots permet d’accroître la vitesse de tri d’un
facteur 10, voire 20, par rapport à un opérateur humain et de
renforcer très sensiblement la qualité de tri. Cela est d’autant
plus important que si les composants triés ne sont pas d’un
niveau de pureté très élevée, ils sont généralement très
difficiles à valoriser{76}.
Un autre champ où les robots auront vraisemblablement
un rôle à jouer sur le moyen terme concerne la collecte des
déchets auprès des habitants. Pour toute municipalité, elle
représente l’un des premiers centres de coûts, et plus les
déchets sont collectés fréquemment, plus cette collecte est
onéreuse. Or, dans la mesure où la séparation des déchets chez
l’habitant prend de la place, il est indispensable de collecter
fréquemment si l’on cherche à valoriser le plus fortement
possible ces déchets. Plusieurs entreprises travaillent donc sur
des véhicules autonomes qui permettraient de faire baisser de
façon substantielle le coût de collecte des déchets tout en
accroissant le niveau de tri chez l’habitant{77}. Et depuis
des années plusieurs villes, dont Séoul, Barcelone ou
Cincinnati, ont généralisé les détecteurs de poubelles pleines,
en équipant celles-ci de capteurs, permettant d’ajuster au
mieux les trajets des camions de collecte{78}. Qu’il s’agisse de
déchets issus d’habitations ou de poubelles sur la voie
publique, l’idée d’accroître le niveau de robotisation fait son
chemin et plusieurs villes ont déjà expérimenté à plus ou
moins grande échelle des processus à cette fin.
Si la généralisation de ces machines semble en bonne voie,
cela ne suffira pas à modifier structurellement le modèle : les
plastiques souillés nécessitent beaucoup d’eau pour pouvoir
être réutilisés, certains emballages comprenant de nombreux
sous-composants ne peuvent tout simplement pas être recyclés
à un coût acceptable et certains matériaux, heureusement en
voie de disparition, sont tout simplement impossibles à
valoriser{79}.
Il faut donc envisager de repenser l’ensemble du processus,
ce qui va bien au-delà d’un enjeu technologique et nécessite
une coordination beaucoup plus transverse. Du designer au
consommateur en passant par l’ensemble des étapes de
logistique et de production, les produits doivent entrer dans un
processus qui prend en compte la notion de circularité. Cela
consiste à analyser les cycles précis d’utilisation d’un produit :
est-ce un fast moving consumer good (FMCG), c’est-à-dire un
« produit qui va rapidement être consommé », comme un
shampoing ou une conserve alimentaire ? Quels déchets
directs et indirects va-t-il produire ? Peut-on le récupérer ?
le réutiliser directement ? Faut-il le restructurer
pour le réutiliser, refondre le métal de la boîte de conserve,
réutiliser directement le flacon de shampoing ? Nous avons
bien souvent des réponses toutes faites, par habitude : il est
sale de réutiliser un flacon de parfum ; une boîte de conserve
est une ordure ultime ; elle peut être refondue mais pas
réutilisée, etc.
L’idée de réutilisation est peu à peu devenue l’une des voies
privilégiées par l’industrie des FMCG elle-même{80},
consciente que si rien n’est fait, la quantité de plastiques dans
les océans pourrait tripler, alors même que la quantité
d’ordures ménagères doublerait.
Il n’y a cependant pas ici de solution unique. Et au-delà du
taux de recyclage, les plastiques restent montrés du doigt pour
les risques sanitaires multiples qu’ils peuvent induire. Le verre
est certes une solution intéressante mais, comme cela a été
évoqué, il est lourd, très énergivore à refondre ; quant au fer,
il est intéressant mais difficile à réutiliser sans traitements
importants.
Les usages devront donc évoluer peu à peu (mais
rapidement) et les designers et responsables marketing auront
un rôle de premier plan à jouer en mettant en avant le bénéfice
environnemental, une expérience utilisateur de qualité. Des
technologies d’identification complémentaires à la
reconnaissance visuelle, comme le NFC, pourraient être mises
à profit pour disposer d’une connaissance produit plus
détaillée et savoir combien de fois un contenant a été réutilisé,
combien de temps un produit est passé chez le consommateur.
La conception en elle-même de certains produits devra
impérativement permettre la séparation des différents
matériaux, etc.
Au sein de cette industrie de biens aujourd’hui jetables, l’IA
est également perçue comme un facteur structurel d’efficacité,
en permettant d’identifier les emballages spécifiques, en les
isolant et en les renvoyant dans un cycle aussi court que
possible vers l’utilisateur. Un robot sur une chaîne de tri ne
devrait donc plus simplement isoler le métal, l’aluminium,
le PET, etc., il devrait isoler tous les contenants d’un certain
type et parvenir à recomposer des agrégats de déchets qui
constitueraient une proportion significative du nombre de
références pouvant exister dans un supermarché.
En d’autres termes, en limitant les transports des contenants
– ce qui nécessite d’avoir plutôt de plus petites unités de
production et de stockage – et en limitant la
« retransformation » – le flacon en PET est directement
réutilisé sans être refondu –, il est réellement possible de
réduire très substantiellement les externalités de la
consommation domestique. Évidemment il pourrait être
difficile de garder une diversité d’emballage aussi vaste que
celle qui existe aujourd’hui dans la mesure où c’est une
entrave objective au réusage. En France, la loi AGEC, votée
en 2022, va clairement dans ce sens en imposant un taux de
recyclage d’au moins 60 % pour l’ensemble des emballages,
charge aux industriels de trouver les meilleurs moyens pour y
parvenir.
La question qui reste posée est de savoir si les producteurs
vont accepter de se plier à cette demande de standardisation
qui se fera nécessairement au détriment d’une créativité
marketing qu’aujourd’hui rien n’arrête lorsqu’il s’agit de
produire des packagings que l’on remarquera dans un
supermarché, sans même parler de la largeur de l’inventaire.
Faut-il néanmoins continuer comme si de rien n’était ? Il est
désormais possible de trouver au sein de la même enseigne
plus de 356 références de plaques de chocolat, 351 formules
de lessive différentes, 506 de confitures{81}. Certes, tout cela
découle de la liberté d’entreprendre et des forces du marché.
On peut néanmoins questionner l’apport réel de ce déferlement
de diversité en ce qui concerne l’épanouissement de notre
civilisation. Ne serions-nous pas en droit de remettre en
question cette surabondance consumériste, au prétexte que ce
serait discriminant à l’endroit des plus pauvres pour lesquels la
consommation serait l’un des rares plaisirs restants (entendu
lors d’un dîner) ? Si le développement d’une économie
résiliente passe par des formats d’emballage standardisés sur
lesquels seules les étiquettes pourraient être différenciantes,
devrions-nous considérer que c’est la culture et le mode de vie
occidental dans son ensemble qui seraient remis en cause ?
Construire une chaîne logistique circulaire ne va donc pas
de soi. Parvenir à livrer en temps et en heure les produits dont
ont besoin les consommateurs, à faire en sorte que les rayons
des supermarchés soient convenablement achalandés, a déjà
été un défi qui a nécessité la dédication de plusieurs
générations d’industriels et de distributeurs, une immense
mobilisation de matière grise, de temps et d’argent. Pour que
la logistique de récupération, de tri et de remise en
fonctionnement devienne efficace, il faudra résoudre de
nombreux autres défis, comme ceux de la fluctuation de la
demande, de l’offre de produits et de composants usagés, l’état
très variable des composants retournés, la mise en place de
processus de stockage et de traitement… Encore et toujours,
on a affaire à des modèles d’une grande complexité, pourvus
de nombreuses variables, truffés d’interdépendances.
Un champ dans lequel l’IA peut également se révéler
particulièrement efficace.
Cette capacité éprouvée de l’IA à limiter les ruptures de
charges et de données entre ces acteurs qui peuvent être tout
aussi bien une entreprise minière, un transporteur minéralier,
une usine de transformation, des systèmes de chemin de fer,
des douanes, etc., représente une opportunité rare de repenser
les flux logistiques et d’en créer d’entièrement nouveaux. Ce
qui aurait été pour ainsi dire impossible à faire dans un monde
normal le devient du fait de pouvoir faire mieux fonctionner
ensemble des activités trop souvent en silo, avares de leurs
données.
L’avènement de robots désormais capables d’un haut degré
d’autonomie ne devrait également pas être négligé. Ces robots
peuvent reconnaître finement des objets et pourraient
facilement trier des contenants standardisés de différentes
tailles, qu’il serait facile d’isoler au sein des déchets cartons-
plastiques, puis de nettoyer et enfin de remettre en service.
Tout cela en évitant de passer par des processus de refonte du
verre ou du plastique énergivores et fragilisant l’équation
économique d’une économie circulaire.
C’est là l’un des grands défis de l’économie circulaire : faire
en sorte que régulateurs et innovateurs parviennent à
construire ensemble de nouveaux modèles. Une difficulté que
rencontrent tous ceux qui travaillent sur les nombreux enjeux
transversaux qui se présentent à nous pour créer de nouveaux
modèles sociaux et économiques, parmi lesquels les chaînes
logistiques, les modèles énergétiques, les systèmes de santé
préventifs…

Vers une économie des services


Qu’est-ce que l’économie circulaire, sinon une économie de
l’optimisation ? Cela a été décrit plus haut : le recyclage des
déchets tel qu’il existe aujourd’hui ne peut pas être considéré
comme durable, tant il nécessite d’importants processus
transformatifs. Une bouteille en verre – qui peut
théoriquement être réutilisée pour ainsi dire indéfiniment –
mise dans la poubelle à verre sera cassée, fondue, et son verre
sera dans le meilleur des cas réutilisé pour produire une autre
bouteille : un processus horriblement énergivore et de faible
efficacité. Par le passé, certaines bouteilles étaient consignées,
retournées à l’usine de conditionnement, lavées et enfin
remplies à nouveau. Une telle économie, basée sur le service
rendu par les objets, est donc largement préférable.
Mais la circularité comprend d’autres formes d’usages,
comme le fait de pouvoir facilement louer plutôt qu’acheter,
le fait de pouvoir partager des équipements et ainsi les
optimiser. Pour un acteur économique, l’objectif n’est plus de
vendre le plus grand nombre de produits possible, mais d’en
maximiser l’usage. Un changement de posture radical
consistant à accorder une attention première à la durabilité des
produits, au service de maintenance et de garantie ; à s’assurer
qu’aussi peu que possible de produits partent au rebut.
Un fabricant de voitures autonomes, dont la vocation est d’être
partagées et en leasing, a bien plus intérêt à voir ses voitures
être le plus utilisées possible, peut-être un jour durer
des millions plutôt que des centaines de milliers de kilomètres,
plutôt qu’à en vendre le plus possible.
Dans le même esprit, je me souviens d’avoir lu qu’une
perceuse est en moyenne utilisée trois minutes par an. Ces
trois minutes justifient pourtant que certains d’entre nous
dépensent des centaines d’euros pour les acquérir et les
utiliser, un temps disproportionnellement court et n’ayant rien
à voir avec la durée potentielle d’une telle machine.
Théoriquement, il serait tout aussi simple de produire moins
de perceuses, mais de faire en sorte qu’elles puissent être
facilement accessibles aux utilisateurs qui en ont – rarement –
besoin. Ce n’est pas nécessairement l’intelligence artificielle –
les plateformes numériques le font déjà largement – qui
permet cela, mais elle peut beaucoup aider à résoudre ces
enjeux en accroissant le niveau de confiance qui existe entre
les acteurs, en disposant de données qui permettent de
s’assurer que les produits sont utilisés dans le cadre prévu, etc.
L’IA permet aussi de faciliter les contrôles visuels (s’assurer
qu’un produit n’a pas été endommagé lors de sa location). Au
risque de le répéter, l’objectif est d’accroître le taux d’usage
pour éviter d’avoir à fabriquer des équipements qui iront
dormir dans nos caves et nos garages. En 2019, un site d’e-
commerce américain a calculé que ces biens non utilisés
représentaient en valeur l’équivalent de 1 000 milliards de
dollars{82}. Or ils ne sont pas faciles à valoriser, car nous avons
oublié ce qui se trouve dans notre garage et, même si nous le
savions, nous ne saurions pas comment le valoriser.
Imaginons à présent que nos assistants personnels se
mettent à discuter entre eux via une plateforme d’échange de
biens usagés. L’un explique que son « maître » va avoir besoin
d’un échafaudage pour repeindre un plafond. L’autre dit qu’il
y a un échafaudage dans le garage de sa maîtresse et que sous
réserve de validation par celle-ci, il propose de louer cet
équipement à un prix donné et de le vendre à un autre. En
apparence, c’est de la science-fiction ; pourtant rien
n’empêche ce scénario de se produire et même de se répéter
autant de fois que le permettra la durabilité de
l’échafaudage. Un site d’annonces comme Le Bon Coin,
ou son équivalent, pourrait évoluer en permettant ce type
d’interactions. Ce qui était long et fastidieux, parce que nous
n’avons généralement ni le temps ni l’envie de passer nos
journées à négocier sur des sites de petites annonces, pourrait
très bien être automatisé par des assistants personnels dans le
futur.
L’impact environnemental pourrait être considérable, il
permettrait d’accéder rapidement, à proximité, à des biens qui
seraient alors fabriqués en quantité bien moindre, et
nécessiteraient moins de transport. Cela fonctionnerait pour un
grand nombre de biens dont nous faisons un usage
occasionnel, certains pour lesquels existent des plateformes
qui ont déjà connu un premier succès mais qu’il serait possible
de porter à une tout autre échelle{f}. Il serait également
possible de vider notre cave de produits dont nous n’avons
plus besoin. Une vieille épave de voiture abandonnée sous une
bâche n’a aucune valeur à vos yeux, mais, aux yeux du
collectionneur averti, il en va tout autrement. Le meuble de
cuisine taillé sur mesure de l’ancien appartement n’a qu’une
faible chance de resservir un jour, sauf si une AI identifie qu’il
rentre parfaitement dans l’espace prévu par le modèle 3D
préalable aux travaux prévus, de même que ces pots de
peinture commandés en trop grande quantité et d’une teinte
particulière. Certains pourraient faire observer que le
commerce traditionnel va en pâtir. Eh bien qu’il en soit ainsi :
nous ne pouvons continuer à glorifier une société qui se
concentre sur des indicateurs qui font l’apologie du gâchis !

Produire et industrialiser
L’arrivée de l’intelligence artificielle dans les processus
industriels n’est pas un fait récent : dans les années 1990,
un système qui permettait de piloter automatiquement le
transbordement de conteneurs d’un bateau au quai était piloté
par des algorithmes que l’on appelait alors en « logique floue »
(fuzzy logic), afin de limiter les chocs lors de l’appontage des
conteneurs. Il ne s’agissait de rien d’autre que d’une des
applications possibles de l’IA, même si celle-ci restait très
limitée dans son spectre d’emploi et qu’à l’époque il n’y avait
probablement pas de dimension apprenante dans ces
dispositifs. De surcroît, dans leur vaste majorité, ce que l’on
appelait « robot » au sein d’un système industriel aurait plutôt
mérité la dénomination d’« automate », tant il s’agissait de
machines ne disposant d’aucune autonomie, synchronisées de
façon rigide les unes par rapport aux autres. Ces systèmes sont
particulièrement efficaces lorsqu’il s’agit de produire en
grande quantité des biens standardisés, dont les variations de
design sont minimes – dans le cas d’une voiture, la couleur et
d’autres options. C’est d’ailleurs là l’une des raisons
qui expliquent la faible présence de robots dans les secteurs
industriels produisant en petites séries. Une part significative
de la baisse des émissions de CO2 de l’industrie vient de
l’apparition de ces automates qui permettent une production
plus qualitative avec moins de processus transformatifs{83}.
Désormais, ces nouveaux robots, tout à la fois faciles à
programmer et dotés d’un certain degré d’autonomie (ils
peuvent par exemple redresser un produit qui ne se
présenterait pas de la façon attendue sur la ligne de
production), changent largement la donne. L’une des
conséquences unanimement reconnues, c’est l’augmentation
notable de la qualité ; les produits sont plus conformes aux
standards escomptés et les rebuts sont donc moins importants.
L’autre avantage tient à la capacité de traiter des petites séries,
voire des pièces uniques, avec un coût de production proche de
celui d’une très grande série. Cette caractéristique est
essentielle pour limiter les pertes de production ; en adaptant
les produits au besoin réel des commanditaires, il devient
possible d’avoir une efficacité supérieure et donc un moindre
gâchis de ressources. De grands défis perdurent néanmoins :
l’un d’entre eux consiste à créer des protocoles industriels (que
l’on nomme généralement des Scada) qui soient compatibles
avec des modèles d’IA, essentiellement probabilistes{84}. Cette
approche est intéressante pour mêler au processus rigide de
production des modèles prédictifs. Dans le domaine du
traitement des eaux usées par exemple, il est possible
d’anticiper l’évolution météorologique pour mettre en
production des bassins de décantation à l’avance de sorte
qu’ils soient dans l’état biochimique optimal lorsqu’une
grande quantité d’eaux usées parviendront soudainement à
l’unité de traitement.
L’autre difficulté consiste à trouver des données
d’apprentissage qui soient en quantité suffisante pour
permettre de créer des modèles de qualité. Lorsqu’on produit
des tubes de dentifrice, les volumes sont tels qu’il devient
rapidement possible d’entraîner toutes sortes de robots, leur
permettant d’affronter des imprévus pour lesquels ils étaient
auparavant tout à fait désarmés. Mais que faire lorsque la
production concerne des pièces très rares ? Par exemple, des
cuves de centrales nucléaires produites à quelques unités par
décennie ? L’une des approches peut consister à découpler les
enjeux : une soudure de très haute qualité par exemple
ressemble à une autre soudure de très haute qualité ;
la recherche de fissures dans le métal est plus ou moins
identique quel que soit le produit inspecté. Une telle approche
plaide cependant pour des modèles d’IA large, c’est-à-dire
polycompétents, ce qui crée cependant d’autres inconvénients,
comme des risques d’hallucination accrus, autrement dit des
réponses erronées mais semblant crédibles en première lecture.
Les processus d’intelligence artificielle se répandent aussi
dans la planification des opérations de maintenance afin
d’éviter les pannes, bêtes noires des responsables de la
production. Un arrêt non planifié sur un laminoir dans une
aciérie peut induire des coûts de plusieurs dizaines de millions
d’euros et des travaux de réparation s’étendant sur des mois.
S’il s’agit là d’un cas extrême, c’est à peu près la même chose,
avec des coûts moindres, dans toute autre forme d’activité
industrielle. En utilisant les données issues de l’ensemble des
opérations de maintenance et de production, il est désormais
courant de parvenir à définir des fréquences de maintenance
plus adaptées aux réalités des besoins. GetLink (anciennement
Eurotunnel), l’opérateur qui gère le tunnel sous la Manche, a
immensément bénéficié de la mise en place de
dispositifs permettant de détecter les équipements dont la
probabilité de défaillance était élevée, économisant ainsi des
millions d’euros, limitant fortement son empreinte
sur l’environnement en évitant la mise au rebut d’équipements
sophistiqués, leur refabrication, sans même parler de
l’allongement de la durée de vie que ces approches permettent.
Tous ces acteurs commencent par ailleurs à tester l’apport
de l’intelligence artificielle générative, qui, grâce à sa capacité
d’exploiter de grandes quantités de données et de prévoir les
résultats, peut améliorer considérablement les processus de
prise de décision complexes, optimiser les chaînes de
production, améliorer la qualité des produits et réduire les
déchets.
Un peu comme on utilise aujourd’hui des services tels que
MidJourney, qui permet de décrire de façon textuelle les
images que l’on souhaite produire, on pourrait très bien
envisager de faire la même chose avec des systèmes de
conception assistés par ordinateur, en indiquant par exemple :
« Dessine-moi une gare sur quatre étages, comprenant une
douzaine de plateformes et capable de traiter
500 000 passagers par jour. » Exagéré ? Pourtant, tout tend à
laisser penser que cela pourrait être un mode de conception
courant d’ici quelques années{g}…
Des acteurs comme Dassault Systèmes y voient un champ
de développement stratégique, permettant à leurs clients
d’accélérer la conception de leurs produits et, surtout, d’en
réduire la complexité. Ce type de technologies permet
également d’introduire des paramètres et des exigences plus
élevés dans leurs logiciels de conception générative, afin
d’obtenir des solutions plus optimisées, présentant même des
options de conception qui n’auraient peut-être pas
été envisagées. Le fait de parvenir à simuler dans des jumeaux
numériques des solutions pertinentes et innovantes n’est pas le
moindre des avantages de ces nouvelles méthodes de design.
Des constructeurs automobiles comme General Motors
utilisent déjà des algorithmes de conception générative pour
optimiser les pièces et réduire le poids de leurs véhicules.
L’algorithme génère plusieurs voies de conception, qui sont
ensuite évaluées et sélectionnées en fonction de
leurs performances dans des conditions réelles
simulées. Il en résulte des composants plus légers, plus
solides, et généralement plus économiques.
Différentes start-up travaillent à faire en sorte que ces
modèles génératifs induisent par défaut des standards
performants en matière de sécurité et d’environnement{h}.
Le design d’un nouveau système de climatisation devrait par
exemple être d’un rendement élevé, ne pourrait faire appel à
des solutions à base d’énergie carbonée. Il pourrait proposer
des alternatives induisant une meilleure isolation et un plus
faible recours à une énergie primaire, etc. Project Refinery est
probablement l’une des initiatives les plus intéressantes à ce
propos. Il s’agit d’une infrastructure logicielle open source
pour les développeurs de services de conception assistée par
ordinateur leur permettant d’optimiser l’efficacité énergétique
des bâtiments. La phase d’apprentissage de ce modèle d’IA
s’est appuyée sur des références de bâtiments particulièrement
efficaces en termes d’utilisation d’énergie, d’emploi de
matériaux recyclés, etc. De telles initiatives sont amenées à se
répandre dans de nombreux univers, dont celui de l’industrie.

Réindustrialiser
En 2024, la France reste le champion de la
désindustrialisation au sein des grands pays européens : seuls
les minuscules Chypre et Malte font pire. Ni la Grèce, ni la
Roumanie, ni la Bulgarie, des économies pourtant peu
compétitives, ne font moins bien. Si la France était dans la
moyenne européenne – vers 15 % de PIB d’origine industrielle
au lieu de son poussif 9 %{85} –, elle disposerait d’environ
1,2 million d’emplois supplémentaires à forte valeur ajoutée,
sans même compter les emplois indirects.
Il faudrait probablement un livre entier pour analyser les
raisons qui ont abouti à cette situation{86}. Il faut cependant
avoir la franchise d’avancer l’hypothèse que durant près de
trente ans, l’industrie a été vilipendée tout aussi bien par les
citoyens que par les acteurs politiques.
Pour ceux qui avaient une sensibilité de droite, l’industrie
étaitun creuset de forces syndicales hostiles, et pour ceux de
gauche c’était un facteur d’aliénation. Le consensus allait
aux services à forte valeur ajoutée, à la société des loisirs, etc.
C’était tout sauf une priorité, si ça ne l’avait jamais été. Depuis
quelques années, une petite éclaircie se dessine avec un léger
retournement de tendance.
Quel lien avec l’environnement ? On pourrait se féliciter
que ce type d’activité souvent polluante ne soit plus effectué
en France, mais c’est en réalité tout le contraire. Dans la
mesure où l’électricité française est largement décarbonée,
où les chaînes logistiques y sont efficaces, l’activité
industrielle est sensiblement moins polluante en France
qu’ailleurs (voir « Taxe carbone : marxiste ou capitaliste ? »,
p. 45, a fortiori beaucoup moins que dans les pays du Sud-Est
asiatique d’où provient une grande part de notre déficit
industriel. Si ce n’est pas systématiquement vrai,
la réindustrialisation en France est presque systématiquement
favorable à l’environnement. En toute logique, s’il existait un
prix du carbone très élevé aux frontières de l’Europe, cela
recréerait même une compétitivité locale pour beaucoup
d’activités de production.
C’est d’ailleurs aussi pour cela que l’idée qu’il faille
réindustrialiser est désormais largement acquise, parfois même
avec excès, comme lorsqu’on souhaite à tout prix que des
usines de composants électroniques soient réinstallées en
France. Cela revient à se méprendre sur le niveau de
sophistication auquel sont parvenues des nations comme
Taïwan{i} ou la Corée du Sud, qui ont continuellement choyé
leur industrie de semi-conducteurs, créant des filières de
formation, suscitant des sous-traitants ultraspécialisés et même
des réglementations sur mesure pour ces acteurs stratégiques.
Si des opportunités pour ce type d’acteurs existent en Europe,
elles ne peuvent s’exprimer que dans une logique de temps
long et d’écosystème : s’en remettre principalement aux
subventions est dangereux et potentiellement dispendieux.
De surcroît, l’industrie doit-elle prendre la même forme
d’organisation que celle qu’elle avait il y a cinquante ans ?
Il y a en effet toutes les raisons de penser le contraire.
D’abord, du fait que les taxes carbone et les contraintes
induites par la réglementation CSRD votée en 2022 vont agir
comme des barrières douanières à l’encontre de ceux qui n’ont
pas les mêmes standards de qualité environnementale et que
l’attention donnée aux processus de décarbonation va y être
une priorité. Puis du fait que les chocs qu’ont successivement
provoqués la crise sanitaire du Covid et ensuite celle de la
guerre en Ukraine sur les acteurs industriels les ont convaincus
de la nécessité de raccourcir leurs chaînes logistiques. Enfin,
parce que la « plaque européenne », c’est-à-dire la plateforme
logistique relativement intégrée que représente l’Union
européenne, est désormais privilégiée. Or, au sein de cette
dernière, la France, avec la qualité de son énergie et de ses
systèmes de transport, fait figure de favorite.
Pourrait subsister l’argument qu’en France, le coût du
travail est particulièrement élevé, légèrement inférieur à ce
qu’il est en Allemagne, où le niveau de qualification des
travailleurs est toutefois incontestablement supérieur. Mais
même cet inconvénient est remis en cause par la
« démanufacturisation » de l’industrie : annoncé depuis des
décennies, ce mouvement de remplacement par les robots est
désormais réel et a tendance à s’accélérer{j}. Ceux-ci ne
coûtent désormais plus aussi cher qu’auparavant. Là où des
millions d’euros étaient nécessaires pour automatiser un site,
des montants sensiblement moins importants suffisent
désormais, grâce au numérique et à ce principe d’industrie 4.0
qui devient – enfin – concret. La conséquence est un
accroissement de la productivité, une bien moins faible
sensibilité des sites industriels au coût du travail et,
relativement, une plus grande sensibilité aux coûts
énergétiques, ce qui favorise mécaniquement la France.
L’industrie est donc de moins en moins manufacturière.
On pourrait épiloguer pour savoir si c’est une mauvaise
nouvelle pour l’emploi. Toutes les données indiquent le
contraire ; les pays les plus robotisés (Corée du Sud, Japon,
Suède, Finlande…) sont tous sans exception des pays de plein-
emploi. De surcroît, les robots ont largement tendance à
susciter en nombre des emplois qualifiés de services à
l’industrie{87}.
L’une des questions qui se posent concerne donc le modèle
industriel qu’il convient d’adopter. Essayer de reproduire celui
qui fut en vigueur tout au long du XXe siècle n’a pas de sens.
Les processus de production sont désormais largement
globalisés et, qu’on l’apprécie ou non, il n’y aura pas de retour
en arrière dans un avenir prévisible tant ils sont largement
intégrés. Cela ne veut pas dire qu’au sein de ces processus,
il n’y ait pas d’importants mouvements. Cela a été évoqué,
l’Europe et la France sont en train d’amorcer un début de
réindustrialisation et d’une certaine façon la poussée
d’inflation que l’économie mondiale vient de rencontrer est
aussi une conséquence de la volonté de nombreux pays de
relocaliser des productions manufacturières. Au moins une
partie de cette inflation provient de coûts d’industrialisation
plus élevés du fait d’investissements provisoires ou définitifs.
En fonction du type de production, on parle de modèles qui
semblent très éloignés les uns des autres.
L’autre modèle productif concerne les toutes petites usines.
Selon une étude de l’Insee, la taille moyenne des sites
industriels créés en France en 2021 est de 100 salariés, 40 %
d’entre eux ayant même moins de 100 salariés. Si ces
nouveaux sites sont en général modernes et avec un niveau
d’automatisation élevé, plusieurs études pointent l’absence de
spécialisation et de collaboration des PME et ETI françaises
comme une faiblesse congénitale de cet écosystème.
Les industries automobiles et celle des semi-conducteurs ont
en commun le fait de développer des gigafactories, pour
produire des sous-composants, des batteries comme des
produits finis. Ces entités de production sont largement
robotisées avec l’objectif d’atteindre de hauts niveaux de
productivité et de baisser les coûts en couvrant de larges zones
de commercialisation. Une Tesla produite à Berlin pourra se
vendre au sein d’un marché de 650 millions de personnes
touchant aussi bien le nord de l’Europe, le Moyen-Orient,
l’Afrique et quelques autres parties du monde. Faut-il évoquer
l’importance de l’IA dans ces processus productifs ? Tesla, par
l’entremise de son fondateur, a fait de cette technologie l’un
des piliers de son activité{88} et il est évident que ses usines
sont parmi les plus avancées au monde en ce qui concerne
l’utilisation de l’IA{89}. La question de l’impact de ces usines
sur l’environnement est probablement plus polémique. Sans
remettre en cause l’apport du véhicule électrique dans la
cause environnementale, on peut s’interroger sur la
perpétuation d’un modèle de transport que l’on sait impossible
à rendre résilient s’il s’agit de transposer à l’identique le
véhicule thermique vers le véhicule électrique.
Il en découle d’importants points de faiblesse dans les
chaînes logistiques, imposant de faire venir de loin les sous-
composants et de créer d’importants stocks par précaution.
C’est pourquoi ce qui offre probablement les plus grandes
perspectives pour l’intelligence artificielle au sein du monde
industriel concerne la synchronisation des processus de
production de façon étendue. Dans le chapitre précédent sur
les transports, j’ai mis en évidence la complexité que
représentent les flux liés à la production de biens.
Une difficulté supplémentaire consiste à synchroniser le plus
finement possible ces flux avec les outils de production, et cela
à grande échelle. C’est là également une complexité qui n’est
qu’imparfaitement traitée par un opérateur humain. Chaque lot
de marchandises fait l’objet de bons de commande,
de certificats de livraison, comprenant des réserves
éventuelles, de factures, de mises en stock, en production, etc.
Des éléments que les ERP{k} ont largement automatisés, mais
qui n’ont pour ainsi dire aucune forme de flexibilité : dès
qu’un imprévu se manifeste, il a une forte propension à
bloquer l’ensemble du système, si performant que celui-ci
puisse être.
L’IA peut donc être utilisée pour améliorer la résilience de
la chaîne d’approvisionnement et prévenir des aléas de nature
variable. L’analyse prédictive peut aider à anticiper les
modèles de demande et à optimiser la gestion des stocks, elle
peut prendre la décision de mettre en route les chaînes de
production lorsque les coûts de l’énergie ou les coûts
logistiques sont optimaux, et ainsi maximiser ses marges et
minimiser les atteintes à l’environnement{l}. Il est probable
qu’il existe d’importantes opportunités de création de valeur
pour des petits acteurs qui sauraient saisir une opportunité de
créer des sous-composants qui s’inséreraient astucieusement
dans la supply chain française ou européenne. Certains acteurs
comme Cisco{90} ont déjà compris cette dynamique en utilisant
l’intelligence artificielle pour avoir une bonne compréhension
de la façon dont la demande peut évoluer ainsi que pour
prévenir les risques de défaillance de certains sous-traitants.
Cela crée aussi des opportunités pour de petits producteurs
locaux qui disposent de marques fortes, par exemple dans le
domaine agroalimentaire, sans pour autant être propriétaires de
leurs chaînes logistiques. En ayant une capacité prédictive des
prix, des engorgements possibles… ils seraient à même
d’accroître leurs marges et donc leur résilience. Ce modèle de
microproduction, qui a souvent été vanté mais qui s’est révélé
généralement difficile à appliquer, pourrait être profondément
repensé à l’aune de l’IA : comment concentrer ses flux
logistiques lorsqu’un seul camion par semaine peut rejoindre
son exploitation de miel au fond des Cévennes ? Un système
productif bien pensé pourrait concentrer les commandes de
sorte qu’elles soient toutes affectées à ce véhicule dans un sens
comme dans l’autre. D’une façon plus générale, l’IA pourrait
être utilisée pour automatiser les très nombreuses tâches
administratives qui encombrent toute petite entreprise et qui
sont actuellement effectuées manuellement. Elle pourrait
également automatiser un certain nombre de tâches de service
client, de marketing et de comptabilité. De même, elle pourrait
plus facilement personnaliser les produits, cela à coût
marginal.

{a}On estime généralement que les chaînes logistiques représentent jusqu’à 80 %


des émissions de CO2 pour la majorité des acteurs économiques.
{b} Le LabCom LOPF (Large-scale Optimization of Product Flows) est un
laboratoire de recherche en statistiques et intelligence artificielle impliquant le
CNRS, Sorbonne Université, le Laboratoire de probabilités statistiques et
modélisation (LPSM) et les chercheurs de université Paris-Cité.
{c} Les principales d’entre elles sont la Corporate Sustainability Reporting
Directive (CSRD), votée en novembre 2022, la Climate Benchmarks Regulation
(EU 2019/2089), votée en juin 2022, et le MACF voté en juillet 2021.
{d} Au Brésil, des packagings de fruits ont été conçus pour être recyclés. Une étude
financière a montré que l’impact environnemental n’était que marginal du fait des
importantes distances que les camions devaient parcourir pour rapporter ces
emballages dans les centres logistiques (Zicheng Zhu et al., « Packaging design for
the circular economy : A systematic review », Sustainable Production and
Consumption, 2022, 32, p. 817-832).
{e} Les fabricants de trieurs optiques sont désormais nombreux et les prix ont
récemment fortement baissé. Parmi les plus connus, on trouve Amp Robotics,
Tomra Sorting Solutions, Waste Robotics ou encore ABB. Les cas d’usage sont
désormais très vastes : en Australie, la Waste Management Corporation of South
Australia (WMCA) a installé dans son usine de Woodcroft une flotte de robots
capables de trier les déchets à une cadence allant jusqu’à 100 tonnes par heure. La
ville de Toronto a installé sur sa décharge de Keele Valley une flotte de robots à
même de trier les déchets à une cadence allant jusqu’à 50 tonnes par heure. Sur le
site MRF de la ville de Gloucester, les robots sont capables de trier des matériaux à
un rythme allant jusqu’à 200 tonnes par heure, et ils ont contribué à augmenter la
pureté des matières recyclables de 98 %. À San Francisco, la société Waste
Robotics a installé sur son site C&D une flotte de robots pouvant trier jusqu’à 100
tonnes de déchets par heure.
{f} Par exemple Fat Llama, KitSplit, BorrowLenses, LensRentals dans la
photographie et le cinéma. Spinlister, Gearo dans le sport et le cyclisme.
PeerRenters, Loanables, Weloc dans le bricolage. Outdoors Geek, CampCrate dans
le camping. Rent the Runway, The Volte dans la mode. Sparkplug ou Fretish dans la
musique. Ruckify pour les équipements de soirée, réceptions. Kwepped et Dozr
pour les équipements de construction. Grover et Lumoid pour les équipements
électroniques spéciaux.
{g} De nombreux acteurs ont déjà des solutions matures sur ce secteur : Maket pour
l’architecture d’intérieur et les pavillons, ARCHITEChTURES pour les ensembles
pavillonnaires et les immeubles collectifs, Sidewalk Labs (une filiale de Google
Alphabet) pour l’urbanisme, Luma AI pour la rénovation d’appartement et de
maison, BricsCAD BIM pour la gestion de projets d’architecture et d’ingénierie,
NX pour la conception d’espaces industriels… Si les méthodes diffèrent sur la
façon dont doivent être intégrées les différentes contraintes et sur les architectures
et modèles d’IA choisis, toutes font largement appel aux techniques de generative
adversarial networks (GAN), ou réseaux antagonistes génératifs (RAG), soit une
classe d’algorithmes d’apprentissage non supervisé inventés en 2014,
particulièrement performants lorsqu’il s’agit de générer des images avec un fort
degré de réalisme.
{h} Par exemple Ask for the Moon, une start-up développant un knowledge
management system basé sur des technologies de modèles de langage large à
vocation d’utilisation dans l’industrie et le nucléaire en particulier.
{i}Taïwan produit 92 % des semi-conducteurs les plus sophistiqués, gravés au-
dessous de 8 nanomètres (EETimes, octobre 2023).
{j} En 2022, la croissance du marché des robots a été de 15 % en France
(« European Union : Industries invest heavily in robotics », International Federation
of Robotics, 28 juin 2023). Il est important d’observer que plus les pays ont une
forte part de PIB industriel, plus le pourcentage de robots dans le processus
productif est élevé (« China overtakes USA in robot density », International
Federation of Robotics, décembre 2022).
{k} Les logiciels dits enterprise resource planning centralisent l’ensemble des
opérations financières, de RH, logistiques… de sorte à avoir un contrôle intégré des
processus de production.
{l} Dans le cas de l’électricité, plus la demande est forte, plus les moyens de
production mis en œuvre sont carbonés. En France, la base électrique (la production
permanente) est nucléaire et bas-carbone, elle est ensuite complétée par la
production hydraulique, éolienne et solaire. Les centrales à mazout et à gaz ne sont
utilisées que lorsque le réseau devient sollicité de façon importante.
Chapitre 7
L’agriculture

Depuis la fin des années 1950, la « révolution verte » dans


le monde agricole a essentiellement renforcé l’intensification
des cultures et leur spécialisation. Les filières agricoles ont eu
tendance à se globaliser, et le prix de production est devenu le
facteur premier, à très large échelle. Les dynamiques
compétitives sont devenues si importantes que les États se sont
mis à sponsoriser leurs producteurs, aboutissant à une baisse
généralisée des prix. L’agriculteur produisant au fin fond de la
Guinée et donnant du travail à des dizaines de villageois s’est
retrouvé désintermédié par du riz importé du Brésil, produit à
grand renfort de déforestation, d’intrants et de mécanisation,
avec la bénédiction d’institutions internationales qui
poussaient au libre-échange sans accorder la moindre
importance aux externalités environnementales et sociales
ainsi créées. On conçoit bien pourtant que les intérêts des uns
(préserver une agriculture locale et bénéficier de ses
externalités sociales et environnementales) et des autres
(accroître la balance des exportations) étaient, dès le début de
cette ère de globalisation, largement divergents.
Qu’y a-t-il en effet de commun entre l’agriculture
maraîchère néerlandaise sous serre, où le niveau de
robotisation est probablement l’un des plus élevés au monde,
où l’utilisation de la data science et de l’intelligence
artificielle est banale, et l’agriculture pastorale sahélienne,
dont les techniques – qui se sont certes améliorées mais qui
restent largement rudimentaires – sont d’un niveau de
productivité très faible et particulièrement intense en labeur
humain ?
En réalité pas grand-chose, et il est difficile de ce fait de
parler d’une seule forme d’agriculture vers laquelle devraient
nécessairement converger tous les acteurs. Les dimensions
culturelles, économiques, la structure de la société, la nature
de la consommation, la structure des chaînes logistiques sont
quelques-uns des paramètres qui définissent un modèle
agricole plutôt qu’un autre. Il est vain d’imaginer que tout cela
converge donc un jour, même lointain, à moins d’envisager
des scénarios qui empruntent plus à la science-fiction qu’à des
perspectives sérieuses. Du fait même qu’une vaste majorité
d’agriculteurs n’ont qu’un accès limité au capital et à
l’éducation, il faut se garder d’imaginer une propagation
rapide de ces technologies.
Il faut cependant dépasser une représentation de
l’intelligence artificielle renforçant systématiquement le
modèle agro-industriel dominant. Dans mes travaux
préliminaires d’écriture, j’ai trouvé intéressant d’observer que
l’Organisation des Nations unies pour l’alimentation et
l’agriculture (FAO) envisage que l’IA dans l’agriculture fasse
émerger deux modèles : l’un verrait une intensification des
techniques actuelles au travers d’une amélioration de
l’efficience des processus (moins d’intrants, moins d’eau…) et
l’autre modèle, que l’on pourrait qualifier d’agroécologie 2.0,
soit un modèle non spécialisé, verrait un agriculteur avoir
simultanément plusieurs types de productions, créant des
sortes d’alliances entre les espèces (les arbres fruitiers font de
l’ombre aux légumineuses plantées dans le même lieu, etc.).
Si l’on ne peut assurer avec certitude qu’un modèle plus
qu’un autre va dominer, il n’en semble pas moins
vraisemblable que l’un des premiers bénéfices de cette
technologie consistera en une baisse significative de
l’utilisation d’intrants, d’eau, d’énergie et de toutes autres
formes de ressources{91}. On peut aussi raisonnablement
postuler une réduction importante des atteintes à
l’environnement, de l’érosion, de la pollution des cours d’eau,
du fait même de l’optimisation que peut amener l’IA. Dans
certains domaines, comme celui de la détection de maladies,
l’IA est déjà d’un apport très substantiel dans les pays en
développement et auprès des agriculteurs traditionnels{92}. À
long terme, on peut raisonnablement envisager une certaine
forme de convergence entre le modèle productiviste et le
modèle agroécologique, ce dont il sera question à la fin de ce
chapitre.
Aussi, plutôt que d’essayer d’envisager l’intelligence
artificielle dans l’agriculture comme un grand système
centralisé au service de quelques privilégiés, il est
probablement plus pertinent de définir dans quelles filières et
pour quels types d’agriculture l’IA a le plus de probabilités de
s’utiliser en masse à brève échéance. Car il serait pour l’instant
tout à fait naïf d’imaginer que dans le secteur économique
employant le plus de gens à l’échelle de la planète, mais
souffrant également le plus du manque de capitaux, l’IA,
si performante soit-elle, arriverait à rapidement pénétrer
l’ensemble des processus fermiers dans une majorité
d’exploitations.
On peut en revanche avancer que les plus importants
changements vont concerner en premier lieu les services
d’analyse, qu’il s’agisse de diagnostiquer des maladies,
de faire des prescriptions de types de produits à cultiver, de la
façon dont ils doivent être cultivés… du fait même que
beaucoup de ces services ne nécessitent rien d’autre qu’un
smartphone pour être utilisés. Dans ce domaine, des
applications comme Plantix, Cropwise, Farmers’ Foresight et
de nombreuses autres sont déjà utilisées par des dizaines de
millions d’agriculteurs dans le monde. Basées sur des
technologies de reconnaissance visuelle, elles permettent
d’accéder à des diagnostics simples concernant les traitements,
l’irrigation, les fertilisants à mettre en œuvre pour optimiser le
rendement. Cette révolution silencieuse n’en est pas moins
importante pour accroître la sécurité alimentaire dans de
nombreux pays où les rendements sont hautement aléatoires,
dépendant du climat, des nuisibles et de l’expertise variable
des agriculteurs. Certaines de ces applications comme WeFarm
ont plus de dix ans de recul et ont progressivement
introduit l’IA pour effectuer ce type de diagnostic ainsi que
pour conseiller les agriculteurs sur les meilleurs types de
cultures à envisager en fonction de nombreux paramètres dont
les prix de marché, le type de chaîne de distribution, etc.
Ces améliorations ont dans une large mesure un impact
positif sur l’environnement, en privilégiant les stratégies
d’optimisation, d’utilisation de ressources qui étaient
auparavant délaissées ou gâchées. Ainsi, l’agriculture de
préservation limite fortement l’érosion, mais elle est plus
complexe à mettre en œuvre que l’agriculture intensive
classique ; elle peut utiliser des intrants et des pesticides, mais
en quantités sensiblement plus faibles, et surtout ces produits
ne sont utilisés en forte concentration que là où ils sont
vraiment utiles.
De nombreux modèles d’intelligence artificielle se sont
spécialisés par type de culture, par type de caméra (notamment
des caméras de smartphones récents qui ont des spectres
lumineux très larges). Ces projets se développent vite, en
particulier ceux qui sont open source{a}, et paraissent mobiliser
d’importantes communautés. L’une de leurs faiblesses est
qu’ils ne sont pas encore fédérés par une plateforme les
unifiant. Ainsi, les caractéristiques d’une maladie qui serait
détectée par un agriculteur kenyan et qui alimenteraient un
modèle ne seraient pas nécessairement intégrées aux modèles
d’autres start-up sur le même sujet, ne permettant donc pas de
prévenir l’ensemble de la communauté de l’arrivée de cette
maladie ou de ce parasite. Mais la détection de pathologies
dans la flore n’est qu’une dimension du potentiel réel de l’IA
dans le domaine agricole.
La particularité de l’agriculture, c’est avant tout sa
complexité. Un agriculteur, quel que soit le contexte qui le
situe, est essentiellement confronté à un univers de
complexité. Il doit choisir avec précaution ce qu’il souhaite
cultiver, en fonction du contexte climatique et de son
évolution, en fonction des cours sur les marchés mondiaux qui,
même pour un petit agriculteur retiré au fond d’une savane
africaine, s’appliquent pour ainsi dire partout, sans exception.
Il doit avoir à l’esprit le coût des intrants en fonction des
semences qu’il aura choisies, des besoins en eau, en énergie.
Il devra tenir compte de la disponibilité des engins mécaniques
– ceux qu’il possède et ceux dont il pourra disposer. Il devra
prendre en compte les caractéristiques propres à son champ,
la biochimie de la terre, les risques de gel, d’inondation,
de sécheresse… que la topologie propre à ce champ atténuera
ou renforcera. À cela il faudra ajouter tous les paramètres liés
à la mise en culture, les tailles, les traitements, les arrosages,
les binages, les paillages, etc., chacune de ces opérations
pouvant avoir des incidences radicales sur le succès ou
l’insuccès de la future récolte. Et la plupart de ces facteurs
sont interdépendants. À la différence du monde industriel,
où un produit industriel fini est le résultat de
l’ordonnancement exact d’un ensemble d’opérations, rien de
tel en agriculture : tout ou presque y est dynamique et peu
prédictible au-delà de quelques semaines. Même dans des
environnements sous serre, très contrôlés, l’incertitude
qu’induit le matériau vivant ne réduit que marginalement
la très forte variabilité des possibles.
Un agriculteur fait donc face à un très grand nombre de
facteurs, facteurs qui, par-dessus le marché, changent au fur et
à mesure de l’évolution de ses récoltes. Un décompte
minutieux montrerait rapidement qu’il peut s’agir de
centaines, voire de milliers de décisions qu’il faut effectuer au
cours d’un cycle normal de production. L’expérience acquise
au cours des années joue évidemment pour beaucoup. C’est
d’ailleurs pourquoi la transposition de compétences
agronomiques d’un territoire à l’autre trouve ses limites tant le
contexte est prépondérant. L’agriculteur agit par connaissance
pour les principaux paramètres et par intuition pour de
nombreux autres. Le fait de choisir une semence plutôt qu’une
autre repose sur des paramètres objectifs de coût, de risque,
de qualité, de rendement… mais cela reste pour beaucoup un
acte de foi tant les incertitudes demeurent.

Un potentiel inégalé pour l’IA


L’agriculture est de ce fait un domaine d’expression de
choix pour l’IA. Car l’une de ses caractéristiques bien connue
consiste à traiter des environnements complexes.
En réalité, de nombreuses formes de techniques
d’intelligence artificielle peuvent y être mises à profit. Ainsi,
pour gérer les décisions séquentielles dans un environnement
dynamique avec une multitude de facteurs interconnectés,
l’apprentissage par renforcement (reinforcement learning)
paraît une technique particulièrement adaptée. Les techniques
d’apprentissage profond (deep learning) sont évidemment
optimales pour faire des analyses d’images propres à guider
une machine ou à faire un diagnostic. L’utilisation de
l’apprentissage supervisé (machine learning) avec des
algorithmes d’apprentissage profond permettra de traiter des
données complexes et massives provenant de capteurs,
d’imagerie satellite, de données météorologiques, etc. Les
réseaux de neurones profonds, tels que les réseaux convolutifs
(convolutional neural netwok) et les réseaux récurrents
(recurrent neural network), sont particulièrement adaptés pour
analyser des données structurées et non structurées provenant
de différentes sources. Par exemple, les réseaux
convolutionnels peuvent être utilisés pour analyser les images
satellites et détecter les discontinuités au sein d’un champ ou
d’un ensemble de champs, tandis que les réseaux récurrents
peuvent être utiles pour prédire les variations climatiques à
long terme. On pourrait ainsi continuer l’énumération avec
d’autres sujets liés au monde du vivant et sa complexité. Ce
qui en ressortirait serait que ces technologies,
initialement pensées pour faire face à des environnements non
discrets, non prédictibles de façon simple, sont
remarquablement efficaces dans ce domaine. Il existe
désormais de nombreux exemples de l’efficacité de l’IA en
agriculture. En Chine, l’application d’IA agricole lancée par le
site d’e-commerce Pinduoduo a permis de pratiquement
doubler la productivité des producteurs de fraises qui l’ont
adoptée sur les saisons 2020{93}, puis 2022 et 2023, ceci
traitant de façon méthodique un grand nombre de facteurs liés
à l’arrosage, les intrants et plus particulièrement les parasites.
Néanmoins ces exemples ne doivent pas occulter le fait que
l’accès aux données d’entraînement reste un défi.
Il y a quelques années, j’avais écrit un livre sur
l’opportunité que représentait le big data{94} et j’y évoquais
l’opportunité de traiter les données dans le domaine agricole.
Presque une décennie plus tard, il est manifeste que
l’agriculture est l’un des univers où les données sont restées
prisonnières d’habitudes corporatistes. Si leurs quantités ont
fortement crû, les guerres de chapelle, les difficultés de fédérer
à large échelle des ontologies cohérentes… ont profondément
limité le potentiel de ces technologies. Les avancées récentes
de l’intelligence artificielle, en particulier les modèles de
langage de grande taille (large language models), permettent
d’envisager que l’on puisse enjamber de façon beaucoup plus
aisée cette fragmentation. Encore faut-il que ces données
soient tout simplement accessibles, ce qui est loin d’être le cas.
Les grandes exploitations intensives (céréalières,
betteravières…) disposent d’un avantage évident : elles
peuvent facilement collecter des données à larges échelles au
travers de différents équipements, tracteurs, drones et autres
capteurs, qui permettront ensuite de créer des modèles
d’intelligence artificielle efficaces et prenant en compte toutes
formes d’aléas. En revanche, le petit agriculteur travaillant
avec des outils rudimentaires ne permettant pas la capture de
données et, de surcroît, usant d’une technique propre qui
diffère de celle de son voisin complique forcément la création
d’un corpus de données suffisamment profond et large pour
entraîner une intelligence artificielle.
Ainsi, même si le coût de distribution de ces technologies
est tombé à peu de chose dans la mesure où de plus en plus de
petits agriculteurs possèdent désormais un smartphone muni
d’une caméra dont la qualité ne va qu’augmentant, les données
d’entraînement restent trop souvent insuffisantes pour les
assister de façon vraiment efficace. Dans certains cas, ce sont
des données vivantes que l’on a besoin : l’alerte concernant un
événement climatique, l’arrivée d’un nuisible, des données
concernant des flux logistiques par exemple. Il est donc là plus
qu’ailleurs important de connecter les parties prenantes au sein
d’une même plateforme, ce qui rend l’enjeu plus difficile
encore à résoudre. Dans certains pays, comme au Kenya, si
des applications comme iCow (qui revendique
{95}
600 000 utilisateurs) ou WeFarm ont atteint une taille
critique permettant à leurs systèmes d’intelligence artificielle
et à leurs systèmes d’information d’être efficaces, c’est au prix
d’un travail acharné s’étendant sur plus d’une dizaine
d’années. WeFarm a patiemment pris langue avec l’ensemble
des acteurs de la chaîne logistique, se concentrant d’abord sur
la banlieue de Nairobi, avant de s’étendre à tout le pays et
désormais aux pays voisins (Ouganda, Éthiopie…). Parmi les
services que peut rendre l’IA, on ne peut pas ne pas
mentionner les enjeux de conformation de données exogènes,
celles qui proviennent de système d’information tiers, qui
peuvent être homogénéisées grâce à des techniques
spécifiques, simplifiant considérablement une tâche qui était
alors pour ainsi dire impossible à réaliser simplement (on parle
alors d’AI powered ETL).

Robotique et IA
L’autre champ dans lequel les enjeux de l’intelligence
artificielle sont potentiellement très prometteurs, c’est
évidemment celui de la robotique, qui par son essence même
est intrinsèquement liée à l’intelligence artificielle. Celle-ci
trouve un domaine d’application très limité par rapport au
potentiel qu’en décrivent les médias, et cela s’explique encore
largement du fait du prix de ces équipements qui, a fortiori
difficiles d’accès pour les grandes exploitations occidentales,
le sont plus encore pour les petits agriculteurs qui constituent
la vaste majorité des exploitations à l’échelle globale.
Le développement des systèmes robotiques fait cependant des
bonds de géant ces dernières années, largement emmenés par
la montée en maturité de l’intelligence artificielle. Que vaut en
effet un robot, si sophistiqué soit-il, s’il n’est pas capable de se
mouvoir dans tous les contextes et disposer d’un haut degré
d’autonomie ? Les robots les plus répandus sont d’ailleurs
souvent les tracteurs agricoles eux-mêmes. Les tracteurs John
Deere ont été les premiers à utiliser un GPS de haute précision
(RTK), de l’ordre de 2 à 3 centimètres, complété par des
caméras pour la détection d’obstacles et le suivi de sillons, leur
ouvrant la voie à un niveau d’autonomie élevé, permettant
d’envisager qu’ils se passent de conducteur dans les années à
venir{b}.
Beaucoup d’acteurs se sont lancés dans ce domaine,
généralement avec une approche spécialisée. Par exemple,
FarmWise a développé un soc de binage afin de retirer les
mauvaises herbes en utilisant des technologies de visualisation
qui différencient celles-ci des plantes cultivées.
De nombreuses start-up font progresser ce domaine spécifique,
certaines utilisent du désherbant plutôt qu’un soc de binage,
d’autres de l’électricité{c}.
D’autres robots ont été développés pour réussir la délicate
tâche de cueillir les fruits et légumes sans les abîmer. Dans le
cas de certains légumes comme les groseilles, on estime que
20 % de la récolte ne peut être vendue en barquette du simple
fait que les fruits sont écrasés lors de cette étape. Il y a donc
une alliance à trouver entre la « mécatronique » (soit
l’assimilation des techniques mécaniques et électroniques) et
les systèmes de visualisation, un domaine très prometteur dans
la mesure où des fruits qui étaient auparavant considérés
comme impossibles à faire récolter par des machines
leur deviennent de plus en plus accessibles{d}. De même, des
robots permettent de trier les fruits comme le raisin pour
éliminer les baies imparfaites ou les matières étrangères{e}.
Certaines entreprises cherchent également à développer des
robots multifonctionnels qui peuvent effectuer diverses
opérations allant de la plantation à la récolte. Parmi ces
entreprises, on trouve tout aussi bien des acteurs historiques –
comme John Deere – que de nouveaux entrants – dont Small
Robot Company, FarmBot –, qui s’adressent à de plus petites
exploitations, voire au marché domestique.
Un lecteur attentif pourrait faire observer que tout cela
n’a que peu à voir avec les enjeux environnementaux.
Cependant, l’une des importantes formes de pollution, pour
ainsi dire inhérente à l’agriculture, réside dans les surdosages
effectués par une estimation vague des besoins réels du terrain.
Une critique récurrente à l’égard de l’agriculture intensive
concerne les « fuites » phytosanitaires, le fait que ces produits
se retrouvent fréquemment en grandes quantités dans les
rivières, modifiant les biotopes, quand ce n’est pas directement
dans notre sang. L’une des premières fonctions que peuvent
avoir les systèmes de décision à base d’IA concerne
l’optimisation des ressources, qu’il s’agisse de mécanisation
ou d’application d’intrants. Dans un cas, on économise de
l’énergie, du labeur humain et on use moins les machines,
dans l’autre on réduit l’usage de produits phytosanitaires, les
quantités qui ne seraient pas absorbées par la plante et qui
risqueraient de se retrouver dans une rivière.
Dans certains cas, la différence entre un geste agricole
traditionnel et un autre utilisant l’IA peut être radicale :
un robot bineur, par exemple, peut dans certains cas remplacer
entièrement les désherbants qui sont utilisés en agriculture{f}.
Ces robots peuvent d’ailleurs être autonomes en énergie (ils
peuvent rejoindre des points de charge utilisant des panneaux
solaires) et même travailler la nuit. Ils ne sont en réalité limités
que par l’usure de certaines parties mécaniques, leurs pneus,
leur soc, ou électriques (batterie) et offrent donc un important
potentiel{g}.
De même, pour ce qui est de l’optimisation de l’eau, des
start-up se spécialisent dans le développement de robots
chargés de doser la quantité d’eau optimisant ce qui sera
absorbé par la plante. D’autres posent des microdoseurs de
façon automatisée, au pied de chaque plant, sans parler de
start-up comme Manna{96}, CropX ou Jain Logic qui allient
robotique, imagerie satellitaire, irrigation par microgouttes et
intelligence artificielle pour maximiser l’utilisation de l’eau
par les plantes et éviter les déperditions.
Mais les conséquences de l’agriculture ne se limitent pas
aux abus de ressources. Elle peut aussi par exemple appauvrir
les sols sur lesquels elle s’effectue, sans même polluer les
écosystèmes environnants. On reproche également à
l’agriculture, en particulier celle qui est intensive, d’affecter le
biotope en supprimant les haies dans lesquels les espèces de
toutes natures peuvent se développer et en éliminant les
espèces non sollicitées des grands espaces agricoles comme
les plaines américaines du Midwest, la plaine de la Beauce ou
le Cerrado brésilien. De même, on stigmatise souvent
l’agriculture intensive qui appauvrit les sols, réduirait leur
fertilité et leur capacité à soutenir les rendements sur le long
terme sans apports importants de produits phytosanitaires.
Enfin, et c’est loin d’être anecdotique, on évoque
régulièrement l’importance de l’agriculture dans le
développement de gaz à effet de serre. Selon la FAO,
l’agriculture représenterait environ 24 % des émissions
mondiales de gaz à effet de serre en 2017{h}. À la différence de
nombre d’autres secteurs, le CO2 n’y est pas le principal gaz à
effet de serre, il se situe loin en effet derrière le protoxyde
d’azote (N2O), issu des engrais azotés, de la décomposition
des résidus de récolte et d’autres processus liés au traitement
des sols, comme certaines formes de labour. Le protoxyde
d’azote est près de 300 fois plus puissant que le CO2 comme
gaz à effet de serre sur une période de cent ans ; c’est pourquoi
son contrôle peut avoir un rôle important sur le réchauffement
climatique. À un niveau probablement comparable se trouve le
méthane, issu de la mastication et des gaz de ruminants ainsi
que du fumier et de la riziculture inondée, tous deux
d’importants émetteurs de méthane.
Ceux qui défendent les modèles intensifs prétendent qu’ils
sont plus productifs à l’hectare{i}, et que les modèles
concurrents{j} créent également des externalités nocives.
Il existe d’ailleurs une véritable guerre entre ceux qui prônent
des modèles différents et ceux qui pensent qu’il est urgent
d’améliorer le modèle intensif dominant.
Pourquoi défendrait-on ce modèle intensif dont on ne cesse
de lire dans les médias qu’il est particulièrement nocif ? L’un
des principaux arguments serait que ce modèle permet
d’importants rendements par hectare, et qu’en conséquence il
préserverait l’espace dévolu aux forêts et aux biotopes
diversifiés. Toutefois, s’il est difficile de nier que les modèles
intensifs ont été conçus pour produire en masse en limitant le
recours au labeur humain et qu’ils ont réussi à créer un niveau
productif – au sens économique du terme – très élevé, il est
hasardeux de contester qu’ils sont structurellement liés – au
moins de façon partielle – à une baisse de la biodiversité{97} et
que leurs conséquences négatives s’étendent bien au-delà des
parcelles cultivées. Quelle part de leur efficacité provient du
fait qu’il s’agisse des modèles dominants – au moins dans les
pays développés et à revenus intermédiaires – pour lesquels
toutes les pratiques et infrastructures ont été dimensionnées ?
Car il est également difficile de contester que ceux qui
favorisent la biodiversité au sein du système agricole sont
moins productifs{98}. Certains travaux mettent en avant
l’intensité manufacturière des différentes formes d’agriculture
non intensives (au premier titre desquelles l’agriculture
biologique), même si, pour pouvoir faire une comparaison
exacte, il conviendrait de valoriser les externalités
environnementales positives créées, ce qui se révélerait
d’autant plus complexe qu’on ne paie aujourd’hui que
rarement un agriculteur pour entretenir le biotope situé au-delà
de ses parcelles{k}.
Le caractère très antagonisé de ce débat entre les modèles
intensifs et les autres est l’un des plus difficiles à trancher car
il est hautement scientifique, ce qui limite très fortement le
nombre d’individus à même de débattre de façon argumentée à
ce propos. Il oppose donc ceux qui défendent l’ordre établi,
forts de nombreux travaux fortement financés par l’industrie,
et ceux qui envisagent d’autres modèles. Dans ce dernier camp
se sont agrégés les adeptes d’une vision holistique et
harmonieuse d’une agriculture proche de la nature, dont
l’agroforesterie et l’agriculture biologique sont des formes
abouties. Ce débat pourrait aussi se résumer à l’opposition
entre ceux qui sont en faveur des solutions technologiques,
de la biologie et de la chimie synthétique et ceux qui sont
contre, pour lesquels toute forme de technologie est par
essence suspecte. Il existe évidemment d’autres voies (et
d’autres voix) comme l’agriculture de conservation qui est
jugée compatible avec les engrais de synthèse et même, dans
certains pays, avec les OGM.
Cela a déjà été énoncé : la forte variabilité du rendement
des modèles entre eux et de chaque modèle en fonction du
contexte (géographique, climatique, biologique, social et
économique) dans lequel il est mis en œuvre rend impossible
l’avènement d’un modèle unique. En revanche, il semble y
avoir, tout au moins dans certains pays, une forme de
consensus sur le fait que les modèles agricoles puissent être
des facteurs d’externalités positives nettes, ce qui serait en soi
une forme de révolution par rapport aux pratiques actuelles.
L’initiative « 4 pour 1 000 », lancée par la France à la suite de
la COP21 et de l’accord de Paris, propose par exemple
d’augmenter de 0,4 % chaque année le stock de carbone dans
tous les sols du monde. Le raisonnement derrière ce chiffre
repose sur un calcul simple : les émissions annuelles totales de
CO2 dues aux activités humaines représentent actuellement, à
l’échelle mondiale, l’équivalent d’un quatre-millième du stock
de carbone (C) des sols de la planète (environ
2 400 gigatonnes de carbone). Un stockage annuel de 4 pour
1 000 (0,4 %) sur toute la profondeur du sol compenserait
alors l’ensemble de ces émissions. Cet objectif initial a ensuite
été ajusté pour viser un stockage annuel de 0,4 % uniquement
dans l’horizon de surface (0-30 centimètres) des sols
mondiaux. Atteindre cet objectif ambitieux nécessite toutefois
des changements profonds dans les pratiques agricoles et
l’utilisation des terres{99}.
En mettant en œuvre toutes les pratiques identifiées sur
toutes les surfaces où cela est techniquement faisable, il est
possible d’atteindre un stockage supplémentaire de 1,9 ‰ par
an. La majorité du potentiel de stockage supplémentaire se
trouve dans les sols agricoles à grande échelle, où le stockage
supplémentaire pourrait dépasser l’objectif de 0,4 %.
Essentiellement, le rapport suggère qu’en adoptant des
pratiques agricoles spécifiques, il est techniquement possible
d’atteindre l’objectif de capter 0,4 % des gaz à effet de serre
par an grâce à l’agriculture. Cependant, la réalisation effective
de ce potentiel dépend de l’adoption généralisée et de la bonne
mise en œuvre de ces pratiques.
C’est là où l’intelligence artificielle prend tout son sens.
Face à des modèles avec un nombre de variables
particulièrement grand, il est impossible d’espérer trouver une
martingale qui serait applicable partout avec la même
efficacité. Une telle approche serait même particulièrement
inefficace au vu de la disparité des contextes. Il faut donc être
capable d’optimiser des pratiques à partir de contextes initiaux
très hétérogènes.
Depuis quelques années, de nombreuses universités
développent des systèmes à base d’intelligence artificielle,
le plus souvent en open source, pour optimiser la capture de
gaz à effet de serre dans l’agriculture. C’est par exemple le cas
de l’école de la résilience Doerr à Stanford{100}, qui travaille
sur différents modèles à base de machine learning. C’est
également le cas de l’Université du Minnesota, qui développe
des solutions en partenariat avec le ministère de l’Agriculture
des États-Unis{101}, ou encore de Cornell University, qui a
monté un ensemble de cours sur cette pratique{102}. Le secteur
privé n’est pas en reste. Microsoft par exemple a initié le
programme AI for Health, un programme de bourses sur
différents thèmes, au sein desquels les sujets d’optimisation de
l’agriculture à des fins environnementales sont
particulièrement présents. Et, surtout, Google investit
fortement dans sa filiale Mineral{103}, visant à accroître la
quantité de données disponibles dans l’agriculture afin de
faciliter l’apprentissage des modèles d’IA. Enfin,
de nombreuses start-up se sont également positionnées sur ce
sujet. Terramera et Regen Network sont parmi celles dont les
programmes sont les plus concrètement avancés et accessibles
dans certains pays.
S’il est difficile de prédire dans quelles directions les
modèles agricoles devraient évoluer du fait de ces nouveaux
outils, plusieurs axes semblent néanmoins difficiles à
contester. Les écosystèmes diversifiés, qu’ils soient agricoles
ou sauvages, démontrent par exemple une bien plus importante
capacité de capture de gaz à effet de serre. Or la complexité en
agriculture n’est jamais simple à gérer, surtout à grande
échelle : les machines agricoles fonctionnent le plus souvent
mieux lorsque la matière première qu’elles traitent est
uniforme, libre de tous produits parasites. C’est d’ailleurs une
zone de friction constante entre fermiers produisant de façon
intensive et écologistes favorables à l’agriculture biologique,
les seconds accusant les premiers de faire de l’« industrie
agricole », les premiers rétorquant aux seconds qu’ils ne
comprennent rien aux contraintes de production. Ce rapport
antagonisé pourrait changer avec l’arrivée de l’IA qui peut
mettre en œuvre des modèles de polyculture vertueux, par
exemple le maïs et le haricot : le maïs fournit un support pour
les haricots grimpants, et les haricots fixent l’azote,
bénéficiant ainsi au maïs. Les systèmes de visualisation par
intelligence artificielle peuvent optimiser les traitements
agricoles de façon à optimiser la pousse de ces deux cultures
simultanées. Puis les robots de tri peuvent les séparer sans que
l’on y consacre un travail manuel important.
De même, dans un système qui se robotise peu à peu, il est
envisageable de réintroduire des haies à une fréquence plus
importante. Si celles-ci avaient été supprimées dans les années
1950 et 1960 pour faciliter le passage des grands engins
agricoles, les robots, qui ne comptent pas leurs heures et qui
ont plus d’aisance à manœuvrer dans les courbes et limites
d’exploitations, permettent de reconsidérer le modèle intensif
traditionnel qui consiste à faire d’immenses champs sans haies
pour faciliter les passages d’engins mécaniques. Tout cela
participe d’une logique où le système agricole est de plus en
plus intégré à une dynamique de restauration de la
biodiversité.
Enfin, le fait d’avoir des chaînes de distribution plus
intégrées (voir p. 99) permet de maintenir des coûts à un bas
niveau en traitant de plus petites quantités, ce qui est
évidemment un facteur important si l’on souhaite moderniser
l’agriculture familiale, dominante dans les pays en
développement.
Ce que l’on observe toutefois, c’est que la biochimie en
agriculture tout comme les émissions de carbone, de protoxyde
d’azote ou de méthane sont liées à des phénomènes
complexes, que ne maîtrise généralement pas le fermier. Des
expérimentations d’accompagnement « anthropo-
agronomiques » de riziculteurs à Bali ont abouti à une
réduction drastique des émissions de méthane (– 70 % dans la
phase d’étude avec un groupe de référence), tout
en accroissant la productivité de l’ordre de 70 %{104}, ce qui
montre à quel point les gains possibles restent considérables,
même dans les agricultures en modèles intensifs.
Cependant, comme l’observe l’agro-anthropologue Steve
Lansing qui a supervisé ces expérimentations, le risque est, en
cas de « mauvais réglage » de l’ensemble des paramètres,
d’accroître substantiellement les émissions de protoxyde
d’azote en voulant baisser les émissions de méthane. Il a par
ailleurs rencontré de nombreuses difficultés lors de son
expérimentation : l’une a consisté à convaincre les
agriculteurs, l’autre à s’assurer de la nature optimale de tous
ces paramètres de production. Si l’intelligence artificielle n’est
probablement que de peu d’aide pour la partie consistant à
convaincre les agriculteurs, elle peut exceller lorsqu’il s’agit
de finement régler les paramètres pour optimiser la
productivité{l}.
Ces approches remettent aussi en question ce qui caractérise
la frontière entre agriculture intensive et agriculture
biologique. L’objectif n’est plus de définir le modèle par ce
que l’on met dans le champ, mais bien par ce qui en sort
(résidus chimiques, gaz à effet de serre, etc.). L’usage d’IA et
de robotique peut donc être hautement productif, en optimisant
l’usage de l’eau, en minimisant le recours aux intrants,
et surtout en réduisant voire en annulant les externalités
environnementales.
Il est vraisemblable que l’agriculture de conservation et plus
encore l’agriculture raisonnée ou durable soit en train de
prendre un essor significatif dans de nombreux pays –
un modèle que vouent pourtant aux gémonies beaucoup de
militants de l’agriculture biologique. En allant plus loin,
il n’est pas impossible que l’on assiste à une forme de
convergence des agricultures : une agriculture néobiologique
dans la mesure où le recours à des intrants y est limité,
et néanmoins fortement technologique, car l’optimisation des
dosages passe par une importante acquisition de données et
éventuellement par l’utilisation de systèmes robotisés. Ce que
pourrait en outre y ajouter l’intelligence artificielle, et en
particulier celle des modèles génératifs spécialisés dans
l’agriculture, se résume probablement à un paradigme
nouveau. Un paradigme où la productivité pourrait se trouver
aussi chez les acteurs de petite taille, les unités familiales
disposant d’un accès aux technologies comparable à celui des
grandes exploitations. Ces exploitations seraient
potentiellement très intensives, tout en étant à externalités
neutres ou positives, et de ce fait préserveraient un espace
disponible plus important pour les forêts et les biotopes
diversifiés.
Comme cela a été exprimé plus haut, il est vraisemblable
que ce sont d’abord les technologies à haut potentiel de
croissance – les applications logicielles donc – à faible coût de
distribution qui vont se diffuser. Mais il faut aussi faire
l’hypothèse qu’avec les progrès des capteurs, des
microcontrôleurs et autres technologies « mécatroniques »,
celles qui allient mécanique et électronique tout en restant
fortement liées à la loi exponentielle de Moore, ces robots
agricoles vont désormais voir leurs coûts de distribution
baisser fortement et vont finir par se répandre également dans
les pays intermédiaires ou en développement. Quelles sont les
formes d’intelligence artificielle qui seront le plus utilisées ?
Comme évoqué au début de ce chapitre, la complexité propre
au monde agricole permet d’envisager un grand nombre de cas
d’application, avec de vastes différences de l’un à l’autre. Les
modèles de langage de grande taille (LLM) pourraient assister
l’agriculteur dans ses prises de décision, ce seront des
systèmes visibles et en contact direct avec les fermiers, mais
un système de binage de précision utilisant de la
reconnaissance visuelle sera lui beaucoup plus intégré,
invisible, remplissant toutefois un rôle essentiel.

{a} Sur GitHub, une plateforme de partage de code comprenant 90 millions de


participants, une rapide recherche fait apparaître plus de 700 projets en utilisant des
mots clés comme « plant disease classification » ou « crop disease AI ». Une
évaluation sommaire permet d’avancer que des milliers de développeurs travaillent
sur ces sujets.
{b} La technologie AutoTrac™ le permet dès à présent, bien que cela ne soit pas
recommandé par le constructeur lui-même.
{c}Parmi lesquelles Blue River Technology (acquise par John Deere), ecoRobotix
(qui utilise un herbicide), Ripe Robotics, Robotics Plus, Small Robot Company,
Naïo Technologies, RootWave (qui utilise l’électricité pour tuer les mauvaises
herbes de l’intérieur).
{d}Parmi celles-ci se trouvent Octinion (spécialisée dans les fruits fragiles), Ripe
Robotics, FFRobotics, Agrobot, RIPPA, Harvest CROO Robotics, Dogtooth
Technologies…
{e}
On trouve dans cette catégorie des entreprises comme Bucher Vaslin, Pellenc,
Amos Industries…
{f}L’entreprise Carbon Robotics met en œuvre une alternative à base de robot muni
de lasers qui brûlent les herbes indésirables, à raison de 100 000 coups par heure.
{g} À noter que les pratiques de binage sont potentiellement émettrices de gaz à
effet de serre (GES), en facilitant l’oxydation et la libération de GES captés en
surface.
{h}En prenant en compte la déforestation liée à l’agriculture, qui s’exprime presque
exclusivement dans les pays en développement.
{i}Un rapport du Sénat évoque de 8 à 25 % de productivité en moins à l’hectare
pour l’agriculture biologique.
{j} Parmi ceux-ci on pourrait citer : l’agroécologie, la permaculture, l’agriculture
régénérative, le jardinage forestier, l’agriculture urbaine, l’agriculture
biodynamique, l’agriculture biologique, l’aquaponie et l’hydroponie, la polyculture,
la gestion holistique, l’agriculture de conservation, les TCS (techniques culturales
simplifiées), l’agriculture intégrée, le système HVE (haute valeur
environnementale)…
{k} La politique agricole commune, dans son budget 2023-2027, introduit toutefois
cette dimension avec de nombreuses mesures favorisant les milieux humides, la
restauration des biotopes, la capture de gaz à effet de serre, etc. (« La politique
agricole commune : 2023-2027 », Commission européenne).
{l}Reste l’épineuse question de la captation des données agricoles. Un sujet que
tous les experts s’accordent à décrire comme une « falaise » difficile à franchir, tant
que les agriculteurs des petites exploitations ne produiront des données que de
façon marginale. C’est par exemple le sens du projet FarmBeats de Microsoft :
accroître les données disponibles dans l’agriculture pour permettre l’apprentissage
des modèles d’IA.
Chapitre 8
Produire et utiliser l’énergie

De très loin, la production et l’usage d’énergie sont le


premier facteur d’émission de gaz à effet de serre.
Évidemment, le charbon, le pétrole – sous différentes formes –
et le gaz arrivent en tête de liste, mais d’autres formes
d’énergie comme l’énergie hydraulique, l’énergie solaire ou
éolienne ne sont pas toujours aussi neutres qu’on pourrait le
penser a priori. Les lacs-barrages et les barrages de rivière
peuvent générer d’importantes quantités de gaz à effet de
serre, du fait par exemple des fermentations d’algues qu’ils
peuvent provoquer, si bien que l’électricité provenant de
certains d’entre eux peut être dans certains rares cas plus
polluante que celle des turbines à gaz{105}. Quant aux énergies
éoliennes et solaires (ENR), leur inconvénient vient de leur
intermittence, ce qui fait que même lorsqu’elles sont
disponibles en masse, lorsqu’il n’y a ni vent ni soleil, il faut
fréquemment avoir recours à des systèmes de production
carbonés si l’on ne veut pas plonger les consommateurs dans
le noir. De ce fait, des pays comme l’Allemagne, qui ont
pourtant investi plus de 500 milliards d’euros pour installer
des éoliennes et des parcs solaires au travers de tout le pays,
ont une moyenne annuelle d’émission de CO2 de 435 grammes
par kilowattheure d’électricité produite, là où la France est à
53 grammes, et ce chiffre est en baisse constante{106}.
On conçoit donc que le nucléaire représente un avantage
difficile à nier. Pour ceux qui en douteraient, ils doivent savoir
que le nombre de morts par mégawatt produit avec le nucléaire
est – ceux de Fukushima et Tchernobyl inclus – comparable à
celui de l’éolien ou du solaire, qui ne sont pas tout à fait
neutres car il arrive que des techniciens tombent du haut des
éoliennes et que des mineurs de métaux rares meurent enterrés
lors d’accidents dans les mines de certains pays comme la
RDC. On pourrait longuement épiloguer sur la disponibilité de
l’uranium (qui se compte en centaines d’années avec les
technologies actuelles pourtant largement perfectibles), sur la
densité énergétique (une centrale n’occupe que quelques
kilomètres carrés, là où il en faut des centaines pour produire
la même énergie avec des éoliennes{107}) ou encore sur la
gestion des déchets (est-il réellement possible d’imaginer un
accident dans un centre de déchets situé à 400 mètres de
profondeur, isolé dans une couche géologique stable depuis
des centaines de millions d’années et éloigné de toute nappe
phréatique ?). Pour ceux que ces arguments ont convaincus,
la solution serait donc d’installer des centrales nucléaires en
grand nombre. Il en faudrait dans ce cas environ neuf fois plus
qu’actuellement, pour répondre à la croissance de la demande
qu’impose une transition environnementale au sein de laquelle
l’électricité devient centrale. Si de nombreux pays privilégient
désormais cette technologie pour progresser sur le chemin de
la décarbonation, on conçoit aisément que cela n’est pas si
simple ; construire une centrale nucléaire nécessite un temps
qui se compte en décennies et seules les nations réellement
développées pourront se permettre de mettre en œuvre de tels
projets. C’est d’ailleurs l’un des arguments assez légitimes des
antinucléaires : quelles que soient les vertus de cette énergie,
elle ne sera pas disponible à temps pour limiter le
réchauffement au 1,5 oC et il faut donc redoubler d’efforts
pour développer des énergies renouvelables, en premier lieu
du solaire et de l’éolien. C’est d’ailleurs ce que font à peu près
tous les pays sur la planète. Ils le font d’autant plus volontiers
que les coûts de ces technologies ne cessent de baisser, d’un
facteur de presque 4 pour l’énergie solaire et de 2 pour l’éolien
en quinze ans.
Mais cela ne résout pas le fait que ces énergies restent
intermittentes. Lorsqu’il y a beaucoup de vent et de soleil,
elles peuvent littéralement mettre en danger le bon
fonctionnement du réseau, il devient alors urgent de faire
baisser tous les autres moyens de production, nucléaire
compris{a}. À l’opposé, lorsque la demande est forte et que le
réseau ne dispose pas de moyens de production suffisants,
le risque de décrochage existe. Ces variations ne sont toutefois
pas nouvelles. Elles ont toujours existé et sont exacerbées lors
des périodes de grand froid. En novembre 1978, le réseau
français s’est effondré durant presque une journée du fait de
conditions climatiques cumulant grand froid et tempête. Ce qui
est nouveau c’est que les variations sont désormais immenses
et que le réseau ne parvient que difficilement à les absorber.
Tantôt il y a trop d’énergie, tantôt il en manque, d’autant plus
que l’électricité est une fée difficile à stocker. L’une des
solutions les plus performantes consiste à créer des barrages à
deux bassins (STEP) : lorsqu’il y a trop d’électricité,
on pompe l’eau du bassin aval vers le bassin amont,
une opération très intensive en électricité mais qui permet de
reconstituer rapidement un stock d’eau. Lorsqu’il n’y en a pas
assez, on redescend l’eau et on produit ainsi de l’électricité. Si
ces dispositifs sont très appréciés pour leur capacité à absorber
les pics de production et lisser les pics de consommation, les
opportunités de créer de nouveaux STEP sont rares tant les
contraintes environnementales liées à ces lac-barrage occupant
un espace important sont nombreuses.
Les batteries représentent une autre possibilité de stockage,
mais leur coût est largement prohibitif dès que l’on envisage
de faire quelque chose à l’échelle de l’enjeu que représente
l’instabilité croissante d’un réseau en raison de l’ajout continu
des systèmes de production intermittents que sont les
éoliennes et les panneaux solaires. Un casse-tête difficilement
soluble, à moins de ne plus envisager uniquement d’accroître
la capacité de modulation de l’offre, mais aussi celle de piloter
la demande. Jusqu’à présent, ce n’est pas ainsi que les réseaux
électriques étaient structurés. Ils ont été essentiellement
conçus pour s’adapter à la demande en les dimensionnant sur
les hypothèses les plus radicales. Lorsqu’on n’avait qu’une
attention limitée envers les enjeux environnementaux,
ce n’était pas très grave : on disposait de nombreuses centrales
à charbon, à gaz ou à mazout que l’on pouvait démarrer à
tout moment. Ce qu’on leur reprochait au cours des décennies
passées, c’était en premier lieu leur coût, sensiblement plus
élevé que ceux de l’électricité provenant des barrages ou, en
France, des centrales nucléaires. Au fil du temps, l’enjeu
environnemental s’est fait de plus en plus pressant, et il ne
reste en France que deux centrales à charbon, quelques
centrales à mazout et sensiblement plus de centrales à gaz.
S’impose donc peu à peu l’idée que ce n’est plus
uniquement à l’offre de s’adapter à la demande. Depuis déjà
plusieurs décennies, on demande aux grands industriels, les
« électro-intensifs », de réduire leur consommation – et donc
leur activité – lors des périodes de forte demande. Plus
récemment, ce type de pratique s’est étendu à de nombreux
acteurs économiques. Toutefois les particuliers, qui
représentent 38 %{108} de la consommation totale d’électricité,
ne sont pour ainsi dire pas mis à contribution, et les PME ne le
sont que marginalement. C’est donc pas loin des deux tiers de
l’énergie qui n’est pas « pilotée ». Cela signifie que ces
consommateurs bénéficient de prix fixes qui ne varient pas,
quoi qu’il arrive. Pire, lors des périodes de forte demande et
lorsque les prix européens de l’énergie se mettent à croître,
on protège les consommateurs à grand renfort de subventions
publiques. En 2022 et 2023, l’État aura dépensé 18 milliards
d’euros pour protéger le consommateur – des dépenses qui se
concentrent en réalité sur de très courtes périodes dont
les heures cumulées représentent de l’ordre d’une vingtaine de
jours à l’échelle d’une année.
Ce système découle du pacte social français, au sein duquel
l’accès à l’électricité représente un besoin essentiel qu’il faut
fournir quoi qu’il arrive. Un système que nul n’a jugé bon de
remettre en cause tant il semblait incontestable. Certes, au
début des années 1970, EDF a introduit le tarif différencié,
heures pleines/heures creuses. Ce mécanisme permet aux
foyers de faire des économies importantes en acceptant de
réduire leur consommation pendant les « heures pleines » et en
consommant à bas prix durant les « heures creuses ». Ce
système appelé Tarif Bleu a connu ses heures de gloire en
conquérant jusqu’à 800 000 abonnés, il a ensuite été peu à peu
abandonné au nom de la juste concurrence entre EDF et ses
compétiteurs, quand bien même sa nécessité n’est que plus
criante aujourd’hui.
Mais d’ailleurs pourquoi aurions-nous besoin de plus de
flexibilité aujourd’hui qu’hier ? Essentiellement pour deux
raisons. La première est que nous consommons de plus en plus
d’électricité, celle-ci prenant peu à peu la place d’énergies
carbonées, à commencer par le gaz, le mazout et le charbon.
D’un volume de l’ordre de 500 térawattheures dans les années
2010, cette consommation devrait croître vers les
700 térawattheures dans la décennie 2030. La seconde est que
cette croissance se fait en fermant des centrales thermiques à
gaz et à charbon, que l’on peut piloter, en les remplaçant par
des moyens qui ne sont pas pilotables, comme le vent et le
soleil. Lorsqu’il fait froid, nuit et qu’il n’y a pas de vent, les
éoliennes et les panneaux solaires sont inutiles pour répondre à
la forte demande qu’induit ce contexte climatique et horaire.
Certes, la France a également mis en projet de nouvelles
centrales nucléaires mais cela ne garantit pas pour autant que
l’on puisse couvrir intégralement les besoins du pays – surtout
si l’on prend la décision de fermer d’autres centrales que l’on
jugerait vétustes dans les décennies à venir. L’instabilité entre
l’offre et la demande est donc en train de croître : il y aura plus
qu’auparavant des moments où la demande sera forte sans
qu’il soit pour autant facile de la couvrir et, ce qui est
nouveau, c’est qu’il y aura désormais des moments où l’offre
sera surabondante alors même que la demande sera très faible.
C’est d’ailleurs le cas depuis plusieurs années, aboutissant
fréquemment à créer des prix négatifs sur le marché de gros
européen.

De l’offre à la demande
Il y a donc lieu d’envisager de nouvelles solutions.
La première, et la plus évidente qui vient à l’esprit, c’est bien
entendu de relancer le tarif heures creuses pour inviter les
usagers à consommer lorsque la demande est faible. Ces
dernières années, plusieurs fournisseurs ont développé des
offres de ce type, imposant généralement la mise en place de
technologies spécifiques chez l’utilisateur. L’idée générale est
de différencier les usages que l’on peut différer, par exemple
un ballon d’eau chaude qui peut maintenir sa température
plusieurs jours, et l’éclairage ou une télévision, dont la
consommation est faible au regard du ballon d’eau chaude.
Différencier ces usages nécessite toutefois la mise en place
d’équipements spécifiques, des interrupteurs télécommandés
au niveau du tableau électrique de la maison. Il faut en outre
prévenir le foyer de sorte que celui-ci ne s’étonne pas de ne
plus avoir d’électricité pour certains usages. On pourrait alors
envisager d’interrompre momentanément beaucoup
d’équipements. Les plus souvent évoqués sont les machines à
laver, les sèche-linge, les pompes à chaleur, les véhicules
électriques et les ballons d’eau chaude. La plupart de ces
usages peuvent facilement être différés, une machine à laver
qui serait lancée à 2 heures du matin plutôt qu’à 18 heures ne
change pas grand-chose pourvu que celle-ci ne soit pas trop
bruyante, ce qui est le cas des modèles récents.
La consommation d’une pompe à chaleur peut être réduite,
voire coupée sans indisposer le foyer si cela ne dure pas trop
longtemps. Un véhicule électrique, tant qu’il est suffisamment
chargé le matin, peut facilement reporter sa charge de quelques
heures. Un ballon récent d’eau chaude conserve une
température d’eau élevée pendant plusieurs jours.
Si ce principe est ancien (les tarifs bleus différenciés sont
évoqués un peu plus haut), jusqu’à la crise énergétique de
l’hiver 2023, le sentiment d’abondance a prévalu, et l’absence
d’incitation à économiser l’énergie durant les périodes de
consommation intense a largement eu tendance à aggraver le
pic d’utilisation qui se situe fréquemment entre 17 heures et
21 heures, ou le matin entre 7 heures et 10 heures. Ce sont,
chaque jour, les moments où des centaines de millions
d’individus sur la planète font des gestes à fort impact
énergétique : prendre une douche, faire la cuisine, lancer des
machines à laver, mettre le véhicule électrique à charger, etc.,
des usages qui pour la plupart peuvent être reportés sans
conséquence autre que de réduire la tension qui peut exister
sur le réseau électrique.
Les difficultés liées à la mise en œuvre de ces types de
réseaux (autrement appelé smartgrids) sont néanmoins
multiples. La première d’entre elles se situe dans le fait qu’il
est nécessaire d’avoir un régulateur qui favorise la mise en
place d’offres commerciales à forte variabilité de prix. Ce
n’est pas le cas par exemple en France où certaines analyses
semblent indiquer que le tarif heures creuses d’EDF peut
revenir en réalité plus cher que le tarif standard{109}. Pour les
autres acteurs, il faut admettre que l’avantage économique de
leurs offres est suffisamment peu attractif pour qu’elles n’aient
qu’une diffusion limitée, largement souscrites par des
consommateurs militants qui par nature ne sont qu’une faible
minorité de la population. Il y a là donc la nécessité d’une
alliance entre le régulateur (en France, la Commission de
régulation de l’électricité) et les innovateurs qui peuvent être
des start-up de différentes natures, des opérateurs
énergétiques, etc.
Évoquer la nécessité d’une alliance nécessite de convoquer
l’histoire. Après la Seconde Guerre mondiale, le Conseil
national de la Résistance français prit la décision de
nationaliser la plupart des producteurs d’électricité, un choix
qui ne sera que partiellement suivi par ses voisins. Dans la
foulée, décision sera prise d’unifier l’ensemble des réseaux
autour de la même norme technique, comprenant entre autres
choses le 240 volts alternatif à 50 hertz chez les particuliers{b}.
Ce choix très colbertiste eut comme conséquence de créer une
taille critique de marché qui permit de susciter des acteurs
aujourd’hui de dimension mondiale. EDF évidemment,
et également Engie dans la production et la distribution
d’électricité, Sonepar et Rexel dans la distribution
d’équipements électriques, Legrand et Schneider en ce qui
concerne la fabrication de ces équipements. Quatre-vingts ans
plus tard, la situation est paradoxalement assez semblable à ce
qu’elle était alors : la demande ne cesse de croître, notamment
du fait de l’électrification du parc de véhicules électriques,
tandis que de nombreux standards sont en compétition.
Alors que la France fait un effort d’une ampleur unique
en Europe pour accroître la décarbonation de son système de
production d’électricité, se profile également le choix de la
façon dont elle organise le pilotage de la consommation.
Nombreux sont les pays qui essaient de structurer ce sujet,
avec des approches parfois extrêmement variées. Dans
certains, le régulateur a fortement encouragé les offres
rémunérant la flexibilité de la demande : au Danemark, les
prix pour le consommateur domestique peuvent ainsi varier
d’un facteur 5 suivant la demande sur le réseau. Tout cela
est vertueux mais reste compliqué à gérer et surtout est loin
d’être optimal. À première vue, on pourrait encourager tous les
véhicules électriques à se recharger de préférence durant les
heures creuses, c’est-à-dire en dehors du début de matinée et
de la fin de l’après-midi. Mais comment gérer les cas
particuliers, le médecin qui retourne travailler vers 23 heures
et qui doit avoir un véhicule chargé, ou le taxi qui doit se
recharger fréquemment ? Une solution peut être l’adaptation
tarifaire que proposent déjà les fournisseurs d’électricité, mais
celle-ci n’est qu’un pis-aller qui ne tient qu’imparfaitement
compte des conditions réelles du réseau.
Or ce réseau ne cesse d’accroître sa complexité : côté
production, des milliers de nouveaux fournisseurs d’énergie
intermittente s’y greffent ; côté consommation, il faut
envisager que les véhicules électriques puissent un jour y
injecter une partie de leur électricité emmagasinée lors des
périodes de forte demande – une option d’autant plus
envisageable quand on sait que le taux de charge moyen de
l’ensemble des véhicules électriques est à tout moment de
l’ordre de 80 %{110}. D’un point de vue théorique, si l’on
pouvait piloter la demande de l’ensemble des équipements,
la résilience du réseau et sa décarbonation seraient très
importantes{c}. Pour ce faire, il convient, aux côtés du réseau
de transport d’énergie, de disposer d’une excellente
compréhension de ce qui constitue sa consommation actuelle
et future, et de pouvoir faire des arbitrages dynamiques, à une
échelle locale comme nationale. Il s’agit donc d’un modèle
probabiliste, largement multivarié, un contexte que
l’intelligence artificielle traite efficacement. Là également,
cela devra se faire au niveau du réseau : prédire son évolution
et optimiser les scénarios afin d’équilibrer offre et demande. Si
d’importantes quantités d’énergie sont injectées dans le réseau,
il serait possible de recharger les véhicules électriques plus
que d’habitude, voire de chauffer les ballons d’eau chaude à
une température supérieure à la moyenne et d’inciter les
industriels à produire durant ces périodes.
À toute cette complexité, il faut ajouter qu’avec
l’accroissement de la variabilité inhérente au développement
des énergies renouvelables, la transportabilité de l’énergie se
réduit. Il est faux de croire que l’on puisse transporter tout
surplus de production électrique d’un bout à l’autre de
l’Europe. Longtemps propagée par les acteurs voulant
favoriser une Europe reposant exclusivement sur les énergies
renouvelables, cette idée de « foisonnement » (multiplicité de
sources énergétiques renouvelables et multiplicité
géographique de zones de production interconnectées) est en
réalité une vue de l’esprit : entre la plupart des pays européens,
les capacités d’interconnexion ne représentent pas plus de
15 % de la capacité de production nationale{d}. Il est donc
impossible d’exporter vers l’Allemagne depuis l’Espagne
l’énergie qui lui manquera les jours sans vent. C’est pourquoi
avoir un réseau dynamique, qui effectue des arbitrages en
fonction des hypothèses de consommation et de transport,
serait un facteur important de renforcement de sa résilience en
optimisant à tout moment le modèle énergétique. Cela
permettrait en outre d’accroître les capacités d’exportation{e},
en limitant la consommation intérieure lors des périodes où
l’électricité a le plus de valeur.
Du côté des particuliers, il s’agit de faire les mêmes
arbitrages, si possible en connaissance de cause. En regardant
ce que prévoit l’agenda du conducteur du véhicule à batterie, il
serait possible de donner un prix à l’énergie disponible dans sa
batterie. S’il n’a que quelques kilomètres à faire le lendemain,
ce prix pourrait être faible. S’il a prévu un long voyage, celui-
ci serait très élevé, voire infini. Là où un système électrique
classique est incapable de prendre en compte les cas
particuliers, au-delà de quelques hôpitaux et acteurs industriels
électro-intensifs, un modèle de grille électrique basée sur des
systèmes prédictifs à base d’IA permet une très forte
résilience.
Dans ce champ, l’une des forces de l’IA, c’est sa capacité à
rapprocher des données qui sont a priori éparses : celles de
nos usages passés de l’énergie, ce qui est prévu dans notre
agenda, ce que donne comme information la localisation des
téléphones du foyer, etc. L’agrégation de ces données permet
de créer instantanément des scénarios prenant en compte toute
cette complexité. De nombreux acteurs se sont positionnés sur
ce marché.
Pour un pays comme la France, dont l’énergie est déjà l’une
des plus décarbonées au monde, l’opportunité d’un tel modèle
serait de descendre plus encore le niveau de CO2 présent dans
la production électrique, tout en accroissant la résilience du
réseau ainsi que les opportunités d’exportation d’une énergie
très décarbonée du fait de sa forte proportion de nucléaire. En
effet, si l’on parvient à minimiser la consommation lors des
périodes de forte demande, cela accroîtra mécaniquement la
part exportable de l’électricité.
Bien entendu, tout cela repose aussi et de façon importante
sur la capacité du consommateur à faire évoluer ses usages.
Comprendre que sa machine à laver ne démarre pas
immédiatement mais qu’elle sera néanmoins faite le lendemain
matin nécessite une expérience utilisateur appropriée : il faut
donner l’heure à laquelle la machine sera terminée et expliquer
l’avantage qu’il y a à faire ainsi, voire les économies qui
seront générées de la sorte.
Cette dynamique cependant ne se fera pas sans qu’un
régulateur intelligent s’attelle à ce chantier ; il ne s’agit plus de
mettre autour de la table des acteurs classiques, des
électriciens, des distributeurs, des producteurs, mais bien
d’aller chercher ceux qui sont impliqués dans la construction
de solutions à base de données, qui maîtrisent la data, les
enjeux d’intelligence artificielle et surtout qui partent des
usages.
{a} La conséquence est que le taux d’usage de cette énergie baisse, renchérissant
structurellement son coût, dans la mesure où une grande part de celui-ci provient de
la dette financière liée à la fabrication des centrales. Si leur taux d’usage était de
50 %, cela pourrait renchérir le prix d’une centrale de l’ordre de 60 %.
{b} Durant des décennies perdureront les reliquats de systèmes qui préexistaient
avant la nationalisation du système de production et de distribution de l’électricité
en France ; celui-ci utilisait du 110, du 120, du 220 et du 240 volts, du 25 hertz, du
40 hertz, du 50 hertz et du 60 hertz, du courant biphasé, triphasé (ce qui est
désormais le standard) et du courant à cinq phases.
{c} La France consomme 480 térawattheures d’électricité par an. Ses moyens de
production totaux sont (en janvier 2024) de l’ordre de 130 gigawattheures, ce qui
donne un niveau de charge moyen de 42 %. Les systèmes de production bas-
carbone y représentent la vaste majorité : nucléaire 63 gigawattheures, hydraulique
29 gigawattheures, solaire 11 gigawattheures et éolien 22 gigawattheures. Par
comparaison, les moyens carbonés (fioul, gaz, charbon) y comptent pour
14 gigawattheures. Un pilotage de la demande permettrait donc de réduire
drastiquement le besoin de recourir à des sources carbonées.
{d} Ainsi, la capacité d’interconnexion électrique de la France est de l’ordre de
18,3 gigawattheures, répartis avec ses sept voisins, là où sa capacité maximale de
production se situe aux alentours de 124 gigawattheures.
{e} Du fait de sa position centrale en Europe, les opportunités d’exportation
d’électricité sont parmi les plus importantes qui soient.
Troisième partie

Systèmes, nouveaux usages et freins


culturels
Chapitre 9
IA personnelles et Meta IA

Si spectaculaires qu’ils puissent l’être, les nombreux


exemples évoqués précédemment ne font en rien appel à la
science-fiction. Qu’il s’agisse de transport, de chaîne
logistique, d’industrie, d’agriculture, etc., ils sont appuyés sur
des exemples concrets, certes qu’il faut désormais passer à
l’échelle, démontrant ainsi leur pertinence.
Si ces technologies continuent à progresser à la même
vitesse qu’au cours de ces dernières années, elles vont avoir
des conséquences très significatives sur notre organisation
sociale et économique. Dans cette hypothèse, il est intéressant
d’essayer de définir quelles formes pourraient prendre ces
services à base d’IA et quelles interactions celles-ci pourraient
avoir les unes avec les autres. Car ce qu’évoquent les
différents exemples présentés dans les chapitres précédents,
c’est l’interdépendance existant entre évolution des usages et
technologies. Ce qui domine, ce sont les usages, et même les
usages culturels : nos jours de congé, nos loisirs, notre façon
de travailler, la façon dont nous structurons nos interactions
sociales, etc. Ces usages ont donc pétri notre société en la
rendant plus simple, plus confortable, et cela,
malheureusement, trop souvent au prix de la dégradation de
l’environnement.
Un consensus général s’est construit au travers des siècles
sur la nature fondamentale de ces usages et ce n’est qu’au
cours des deux à trois dernières décennies qu’une prise de
conscience environnementale s’est développée et que les
aspects les plus délétères de nos pratiques établies ont
commencé à être mis à l’index. Il n’en reste pas moins que de
puissants rites collectifs se sont édifiés, par exemple le fait
d’aller en vacances tous plus ou moins aux mêmes dates
(un zonage a été introduit dans un grand nombre de nations
toutefois), ou encore d’organiser les jeux Olympiques dans
une seule ville dont les infrastructures doivent être
dimensionnées pour un événement de quinze jours, ou le fait
de travailler aux mêmes heures (ce qui est certes pratique pour
contacter ses partenaires). De même, le droit de se séparer
d’un objet en quelques secondes en le mettant à la poubelle.
Autant de systèmes qui semblaient immuables, jusqu’à ce
qu’une pandémie frappe durement l’ensemble de l’humanité et
destructure ne serait-ce que partiellement ces modes
d’organisation. S’il y a bien eu un moment où l’humanité a
effectué une expérience de masse de nature à nous montrer que
d’autres formes de systèmes sont possibles, c’est bien celle
consistant à s’initier à la visioconférence lors des
confinements de la crise du Covid. Beaucoup d’entre nous
n’avaient jamais jusqu’alors utilisé cette technologie qui,
quelques années plus tard, est devenue tout à fait banale. Les
enseignements que l’on en a retirés sont extrêmement variés.
En premier lieu, le fait que la technologie est un puissant
facteur pour ce qui concerne le fait de repenser radicalement
notre façon de travailler et de vivre. Sous réserve qu’un but
commun et consensuel soit établi, il est donc possible de faire
sensiblement évoluer ces usages.
Afin de mieux comprendre notre interdépendance avec les
biotopes de notre planète, de nombreux chercheurs se sont
attachés à créer des scénarios permettant d’évaluer ce que
pourraient être nos modes de vie en 2050. Si ces scénarios sont
très différents les uns des autres, la majorité d’entre eux, même
les plus techno-solutionnistes, évoquent des changements
d’usages très importants. L’Ademe, par exemple, a développé
quatre scénarios prospectifs, très orientés sur les usages du
quotidien ; le GIEC, lui, en a développé cinq ; l’Université de
Stanford en a créé une dizaine, et ainsi de suite. Il existe de
nombreux points communs à tous ces scénarios.
Tous misent par exemple fortement sur une évolution
radicale de la façon dont nous produisons de l’énergie.
L’électricité y devient dominante et, au sein de celle-ci, les
énergies renouvelables prennent presque dans tous ces
scénarios une part prépondérante. La notion de rénovation
énergétique des bâtiments y est très présente également, dans
la mesure où ils sont responsables pour près d’un tiers des
émissions de gaz à effet de serre. Les principes d’économie
circulaire y sont aussi largement présents. Un certain nombre
d’usages varient considérablement en revanche d’un scénario à
l’autre, essentiellement en ce qui concerne la façon de nous
déplacer, de nous nourrir et de produire de la richesse
économique.
Nous sommes nombreux à nous demander quel sera le
niveau effectif des renoncements que nous devrons faire.
Pourra-t-on passer de bonnes vacances comme nous le faisons
aujourd’hui sans commettre un écocide ? Pourra-t-on habiter
dans un lieu agréable sans avoir le sentiment d’abuser des
ressources collectives ? Sera-t-il possible d’avoir un job
épanouissant, dans lequel on rencontre des gens venant
d’autres cultures, tout en évitant de prendre l’avion de façon
frénétique ? Pourra-t-on espérer passer l’été sans être à court
d’eau ? S’il est difficile de répondre nettement à ces questions
pour lesquelles trop de variables existent pour s’assurer
qu’elles sont pertinentes, ce qui frappe en lisant ces scénarios,
c’est la faible importance qui est donnée aux technologies
informationnelles. Les modèles sont développés en faisant
pour ainsi dire abstraction de leur potentiel et de leur capacité
à traiter en masse des enjeux fondamentaux.
Quelle pourrait être l’importance de cette technologie à un
horizon éloigné ? Il est évidemment difficile de répondre mais
on peut néanmoins essayer de scénariser ce que pourrait être la
vie d’un urbain dans les années 2040, ce qui est fait dans le
chapitre qui suit, intitulé « Une journée dans la vie de
Sophie ». Ce scénario s’appuie sur les travaux de différents
centres de recherche qui ont essayé de créer des hypothèses
quant à l’importance de l’intelligence artificielle dans nos vies
en 2030 et 2040. Ils empruntent également quelques idées à la
série dystopique Black Mirror.
Mais, avant d’entrer dans le vif de ce scénario, il semble
nécessaire d’évaluer ce dont pourraient être capables les
systèmes d’intelligence artificielle dans un horizon
raisonnable. Dans cette hypothèse n’ont été retenues que les
possibilités qui semblaient réellement accessibles. Par
exemple, il n’est pas question d’AGI, l’intelligence artificielle
générale, telle que décrite dans les scénarios (souvent
dystopiques) d’intelligence dépassant les humains sur pour
ainsi dire tous les plans. De façon conservatrice, n’ont été
retenus que les modèles qui semblent sur le point d’advenir,
de l’avis même des principaux experts de la discipline.
Lorsqu’on utilise aujourd’hui une intelligence artificielle
générative, ce qui frappe, c’est son absence de mémoire
longue : au bout de quelques questions, l’IA semble avoir
perdu le contexte initial de la conversation et il est même assez
facile de lui faire dire le contraire de ce qu’elle affirmait
précédemment. En conséquence, il est difficile, sinon
impossible, de personnaliser et de contextualiser l’action d’une
IA. Ces IA ne peuvent pas encore tenir compte de nos
contraintes individuelles : passer poser ma fille à l’école, lire
dans mon agenda que je dois faire un détour sur le chemin du
retour pour aller à un cours de langue, etc. La vision d’un
chercheur comme Yann Le Cun (le directeur de l’intelligence
artificielle de Meta) consiste précisément à permettre à cette
mémoire de se manifester et à travailler sur les briques grâce
auxquelles pourrait être construit un assistant personnel fait
d’intelligence artificielle{111}. Pour lui, d’ici quelques années,
nous aurons chacun une intelligence artificielle personnelle qui
nous servira d’assistant. Elle aura une mémoire étendue de ce
qui compose notre vie et sera donc capable d’organiser nos
vacances en prenant en compte nos aspirations particulières,
elle commandera les courses, traitera nombre d’enjeux
administratifs, paiera les factures, etc. Il n’y a rien d’utopique
dans cette vision : elle fonctionne déjà avec quelques aléas
dans les laboratoires. Ce qui reste encore à construire concerne
la partie transactionnelle : le fait que chaque intelligence
artificielle individuelle arbitre des choix et qu’en face des IA
chargées de gérer des infrastructures de transport s’adaptent en
fonction de ces milliers de cas particuliers pour faire partir
des trains, pour moduler les tarifs afin d’optimiser les reports,
pour ouvrir des voies d’autoroute aux véhicules ayant plus de
deux passagers, etc. Cette éventualité nouvelle aura cependant
de profondes implications, qui nécessiteront un important
travail pour garantir le cadre éthique, la sécurité des données
privées transmises à l’IA et pour s’assurer de la fiabilité des
souvenirs ainsi stockés. Cette hypothèse passera
vraisemblablement par de nouvelles architectures numériques,
composées essentiellement des deux éléments suivants :
l’assistant personnel ou AI companion et les systèmes
coordinateurs ou AI platforms. Commençons par le premier.

L’assistant personnel ou AI companion


On l’a bien compris, ce qui permet de faire en sorte que
notre action individuelle soit efficace, c’est qu’elle s’inscrive
dans un contexte de complexité. Si je décide de ne pas prendre
ma voiture pour aller travailler, faire en sorte que je puisse
néanmoins me déplacer sans difficulté nécessite de
synchroniser des systèmes de transport de nature différent qui
sont généralement discontinus. Si je dois consommer de
l’énergie de façon optimale, il faut que ces dispositifs soient
capables de comprendre mon contexte personnel,
éventuellement en plongeant dans mon agenda, pour
comprendre lorsque je vais rentrer chez moi, chauffer mon
appartement, préparer de l’eau chaude, et si d’aventure je dois
accomplir un long voyage en voiture, charger celle-ci de façon
optimale.
Les conseillers personnels (AI companions, copilotes ou
agents intelligents{112}, etc.) peuvent donc être efficaces à de
nombreux instants de nos vies individuelles et leur efficacité
est potentiellement très importante, ils sont au cœur du travail
des équipes d’intelligence artificielle des grands acteurs du
digital qui possèdent déjà de grandes quantités de données à
notre sujet : ils possèdent l’ensemble de nos e-mails (Gmail
pour Alphabet, Hotmail pour Microsoft, Apple Mail pour
Apple), de nos conversations sur les réseaux sociaux
(Facebook, Instagram, WhatsApp pour Meta, YouTube pour
Google, Messages pour Apple, Linkedin pour Microsoft), ils
ont développé des solutions d’agenda (Google Calendar pour
Alphabet, Calendar pour Apple, Outlook Calendar pour
Microsoft), des assistants de voyage (Google Maps pour
Alphabet, Maps pour Apple, Bing Maps pour Microsoft), des
assistants vocaux (Google Assistant pour Alphabet, Siri pour
Apple, Cortana pour Microsoft), grâce auxquels il est très
facile d’accéder à nos données les plus personnelles,
de connaître nos habitudes à des fréquences variées : ce que
nous faisons tous les jours – aller travailler, passer prendre nos
enfants à l’école, faire les courses, voir nos amis –, et ce que
nous faisons moins fréquemment – partir en vacances, aller
rendre visite à notre famille en province, etc. Cela vous
révulse ? Des milliards d’individus ont pourtant choisi de
confier leurs données à ces acteurs, des dizaines de millions à
l’échelle de la France{a}. Même si nous nous insurgeons contre
la domination de ces acteurs, la qualité de services qu’ils nous
procurent est telle que nous leur confions néanmoins nos
données.
L’avènement des modèles génératifs de grande taille rend
désormais tangible la possibilité que ces modèles apparaissent
dans un délai assez bref. Yann Le Cun estime que cela pourrait
survenir plus rapidement qu’on ne le pense. Il s’agira de
modèles ayant deux caractéristiques que n’ont pas les
ChatGPT, Bard et consorts : d’une part, ils seront personnels,
c’est-à-dire que nous pourrions – en théorie – leur confier les
moindres détails de nos vies. Là encore, certains pourraient
avoir de fortes réserves à cet égard. Réserves que l’on peut
tout à fait comprendre et qui devraient a minima imposer
la mise en place de puissants garde-fous pour éviter les abus
que l’on n’a pas beaucoup de difficultés à imaginer.
Une association comme le SAICC – Safe AI Companion
Collective – milite spécifiquement pour garantir l’intégrité de
ces compagnons personnels. Il faut toutefois admettre que
nous faisons déjà, lors de nos échanges par e-mail, par
messagerie ou au travers des pages Web que nous consultons,
d’importants apports d’informations privées.
L’un des moyens qui pourraient être employés pour
préserver un niveau de confidentialité élevé consisterait à faire
fonctionner un modèle de type LLM directement sur le
smartphone{b} et stockant les conversations personnelles qu’il
aurait avec l’utilisateur. Ces modèles pourraient eux-mêmes
recourir à des modèles plus larges, situés cette fois-ci dans
le cloud si besoin. Idéalement, il serait nécessaire que
l’utilisateur soit mis en garde chaque fois qu’il est en situation
d’exposer des données personnelles tant le risque est fort
d’induire une perte d’intimité supplémentaire et de permettre
des abus de la part d’acteurs économiques, d’États ou
d’individus peu scrupuleux.
Ces modèles individuels pourraient facilement disposer
d’une mémoire illimitée de ce que nous avons fait et des
échanges que nous avons eus. Si l’on venait à leur dire :
« Prends-moi un rendez-vous avec Maxime au café », ils se
souviendront automatiquement que « le » café est, dans ce cas
précis, celui qui se situe en bas de chez Maxime, car c’est ce
que j’avais explicitement demandé à mon conseiller artificiel
personnel la fois précédente, à défaut de l’avoir rentré dans
mon agenda.
Passé une certaine phase d’apprentissage, ces modèles
seront particulièrement efficaces pour faire l’optimisation que
nous ne pouvons faire car elle nécessite de synchroniser des
agents de façon transversale : prévenir mon employeur de mes
horaires, de mes dates de congé, réserver ou se synchroniser
avec des systèmes de déplacement urbains ou de longue
distance, louer des ressources plutôt que les acheter, etc.
Certains pourraient objecter que ces nouveaux usages seront
vite détournés, en imposant plus de flexibilité aux
collaborateurs par exemple, et que le climat en fera les frais.
C’est le fameux « effet rebond » qui accroît la consommation
de biens et de services lorsque ceux-ci sont plus abondants{c}.
C’est un argument crédible qui ne sera neutralisé que si dans le
même temps est mis en place, avant que nous ne prenions de
mauvaises habitudes, un puissant effet prix, qui pourra créer
une forme d’équilibre entre le bénéfice personnel et le bienfait
collectif environnemental.
Ces IA pourraient en outre contenir des tableaux de bord qui
seraient à même de nous donner une idée de l’efficacité de nos
comportements en termes environnementaux : quel est notre
niveau de consommation de carbone par rapport à un objectif
optimal et quels sont les usages qui dévient de cet optimum ?
Évidemment, de telles fonctionnalités nécessiteraient
probablement qu’un cadre réglementaire soit édicté, qui
permettrait d’accéder aux données liées à nos activités
économiques, tel que décrit à la section « Taxe carbone :
proportionnelle ou progressive ? » (p. 55). L’idée fait
sans doute frémir ceux qui sont prompts à défendre les libertés
individuelles et à dénoncer le risque d’État totalitaire. Elle a
néanmoins la vertu de rendre visible et concret ce qui est le
plus souvent invisible et théorique.

Les systèmes coordinateurs ou AI platform


Si le principe de conseil artificiel personnel n’est
probablement plus très loin, celui d’une IA agissant en tant
que facteur de coordination pour optimiser l’utilisation de
ressources finies parmi de nombreux utilisateurs est bien
reconnu et est déjà déployé dans de nombreux domaines.
Par exemple, dans la gestion du cloud et des centres de
données, les grandes plateformes cloud comme AWS, Google
Cloud ou Azure utilisent largement l’IA pour optimiser
l’allocation de ressources (CPU, mémoire, stockage) parmi des
dizaines de milliers de clients pour garantir la performance
tout en minimisant les coûts. On retrouve les mêmes principes
dans les réseaux de télécommunication pour optimiser la
distribution de la bande passante, dans la gestion de l’énergie,
dans certains types de transports (évoqués plus haut), ainsi que
dans de nombreux autres systèmes. Le défi principal de ces
plateformes consiste à dépasser leurs spectres propres, en se
montrant capables de synchroniser des ressources de nature
variée, des transports avec des stocks, des passagers avec des
marchandises, pour prendre des exemples simples. De surcroît,
il conviendrait d’éviter que celles-ci aient leurs propres règles,
au détriment de l’intérêt général. Par exemple, en cherchant à
éviter les zones de congestion, l’application Waze a
fréquemment été accusée de créer d’importants flux de trafic
routier dans des rues normalement peu fréquentées,
bouleversant la vie de leurs habitants. Airbnb n’en finit pas de
gérer des polémiques sur le fait qu’elle chasse les habitants
historiques des villes pour les remplacer par des touristes n’y
séjournant que quelques jours, et ainsi de suite.
À terme, il est possible que ces plateformes coordinatrices à
base d’IA deviennent transactionnelles : qu’elles interagissent
avec les conseillers artificiels personnels et effectuent des
transactions aussi bien dans des modes non coopératifs que
coopératifs{d}. Elles n’offriraient donc plus de simples conseils
qui nous recommanderaient d’acheter tel produit ou service,
mais elles achèteraient directement (avec notre aval) en notre
nom ce produit ou ce service, rendant ainsi possibles ces
négociations à large échelle. Ces modes transactionnels
semblent en réalité indispensables à l’avènement de dispositifs
optimisant les ressources quelles qu’elles soient. Leur
potentiel, s’il reste très vaguement défini, n’en semble pas
moins immense.
Il existe des prémices de ces plateformes. Par exemple, les
plateformes de mobility as a service (MAAS) que nous
évoquions au chapitre 5, « Les transports ». La caractéristique
de ces nouvelles plateformes serait qu’elles feraient partir des
trains, décideraient d’affecter plus de vélos en partage dans
une gare donnée, fermeraient des rues à la circulation en
fonction d’un ensemble de facteurs, tout cela en prévision du
besoin à venir. Cela peut sembler effrayant, mais dans le même
temps, l’opportunité pourrait être d’accroître sensiblement la
qualité des transports pour le plus grand nombre. On peut
imaginer la même chose dans les chaînes
d’approvisionnement, dans l’affectation des tâches de
production, dans l’énergie et dans de très nombreux domaines
d’activité.
Il ne faut cependant pas se leurrer : l’objectif des grandes
entreprises du numérique, aujourd’hui les Gafam, sera
probablement de chercher à maîtriser l’ensemble de la relation
entre les IA coordinatrices et les AI companions, de façon à
maximiser la création de valeur et à en extraire le plus possible
des infrastructures physiques, de transport, d’habitation,
de logement, etc. Si les dynamiques actuelles perdurent,
l’Union européenne se trouvera confrontée à un dilemme :
celui d’être l’espace où les pratiques environnementales sont
les plus en avance de la planète, et de loin, et en même temps
d’être faiblement développé en matière de métaplateformes, ce
qui donne le champ libre à cette extraction de valeur. Il y a
donc nécessité d’une régulation exigeante de ces acteurs, pour
s’assurer qu’ils continuent à servir l’intérêt général et que leurs
marges ne deviennent pas disproportionnées.
Un enjeu qui manquera pas de rappeler celui qui oppose
les Gafam aux opérateurs de télécoms (massivement utilisés
par ces métaplateformes sans qu’elles participent au
financement de ces derniers) et qui pourrait bien se transposer,
si nous n’y prenons garde, aux plateformes traitant des
systèmes de transport, des centres de traitement et de
recyclage de l’économie circulaire, face aux chaînes
logistiques, aux systèmes de production de l’énergie, etc.

Collaboration et compétition
L’une des conséquences vraisemblables de l’interaction
entre les AI companions et les AI platforms, dès lors qu’elles
seront déployées à larges échelles, sera de créer des systèmes
de négociation automatisés à multiples parties. Non seulement
ces interactions pourraient chercher à optimiser le remplissage
des systèmes de transport dans les villes en « négociant » entre
individus (par le biais des AI companions) et les IA
coordinatrices, mais elles pourraient aussi rapidement
introduire des négociations tierces. Par exemple, en profiter
pour nous proposer de rappeler quelqu’un de notre famille
(voire l’appeler) en attendant l’horaire du train proposé,
ou nous proposer une offre de vélo partagé à prix réduit pour
ne pas prendre le train. On conçoit que tout cela pourrait
rapidement provoquer des réactions en chaîne : ces
négociations élaborées ne seraient plus nécessairement
bidirectionnelles – je négocie avec mon dentiste pour avoir un
rendez-vous rapidement –, mais multipartites – je dois
absolument voir mon dentiste car j’ai une rage de dents et suis
prêt à payer un prémium, ou engager des bonus qui ne
sont renouvelés qu’une fois par an pour avoir ce rendez-vous
et décaler d’autres rendez-vous. Dans ce contexte complexe de
négociation entre plusieurs entités, des méthodes comme la
valeur de Shapley{e} peuvent être utilisées pour quantifier la
contribution de chaque IA, garantissant ainsi une allocation
équitable des ressources ou des récompenses. C’est
particulièrement pertinent lorsqu’on considère les nombreuses
interactions et contributions possibles entre différentes IA.
Cela n’a l’air de rien, mais des modèles d’organisation
collective qui sont aujourd’hui pour ainsi dire impossibles à
créer pourraient soudainement le devenir. Essayer de modifier
l’agenda d’une dizaine de personnes pour recaler une simple
réunion peut aisément nécessiter de longues heures de travail.
Synchroniser leurs systèmes de transport, replacer dans
l’agenda de chacun d’autres réunions qui auraient été
déplacées est également long et fastidieux. Or des AI
companions et des AI platforms pourraient vraisemblablement
faire cela en quelques secondes. D’une certaine façon,
l’émergence de ces processus pourrait signer la fin de l’ère
industrielle. Une ère au sein de laquelle c’est la demande qui a
structuré l’offre, des immenses infrastructures, bureaux,
voitures maisons, trains, routes, etc., qui sont massivement
sous-utilisées tout simplement parce que l’on ne savait pas
faire autrement. Dans le monde à venir, l’optimisation
et la personnalisation de masse pourraient devenir la norme.
En outre, ce type d’approche pourrait mettre en œuvre
des systèmes de coercition douce particulièrement puissants.
Si les réseaux sociaux ont réussi à capter notre attention
chaque jour des heures durant, pourquoi ce type de méthodes
ne serait-il pas mis en place pour des actions favorables à
l’environnement ? Un AI companion pourrait très bien
chercher à faire des arbitrages où il nous proposerait d’aller en
vacances dans les Pyrénées, en train, plutôt qu’en Thaïlande,
en avion. Ou nous retenir quelques minutes dans une tâche
importante ou agréable pour ne pas que nous nous lancions
dans une pratique utilisatrice de ressources en forte demande.
Si cet AI companion connaît nos goûts, nos aspirations, rien
n’indique que ces modèles réflexifs élaborés ne seraient pas
capables de nous proposer des alternatives intéressantes à ces
pratiques nocives pour l’environnement. On pourrait
évidemment facilement objecter que ces mécanismes
fonctionneraient surtout lorsque ses agents ont une sensibilité
forte au prix ; et il est exact que c’est là une limite à ce
modèle ; ce qui n’en milite que plus fortement pour une
progressivité de la taxe carbone.
En outre, ces IA pourraient dans certains cas faire des
arbitrages qui consisteraient à compenser des émissions
qu’elles n’auraient pas pu éviter en achetant des crédits
carbone. Si ces mécanismes sont souvent décriés dans la
mesure où ils n’évitent pas les émissions, ils pourraient être
utiles dans le cas où nous devrions effectuer un dépassement
inévitable – faire un long voyage en avion pour aller voir sa
famille – et proposer un mécanisme de compensation qui soit
en conformité avec le type d’émissions que l’on a produit :
restauration d’écosystèmes fragiles pour l’achat de meubles en
bois tropicaux, plantation durable d’arbres pour un voyage en
avion, etc.
Il est probable que, au moins dans un certain temps, ces
dispositifs effectuent des arbitrages dont les conséquences ne
seraient pas désirées – par exemple, recourir à de la nourriture
livrée plutôt que cuisinée à la maison. Le recours à des
travailleurs faiblement payés, utilisant un scooter à essence,
la présence d’un grand nombre d’emballages, etc., ne seraient
pas forcément pris en compte. D’un autre côté, cuisiner à la
maison prend du temps mais peut aussi avoir
des conséquences sociales et diététiques : la cuisine faite à la
maison est plus fréquemment mangée en famille, et elle est
généralement moins salée et moins grasse{113}. De fait, la prise
en compte des externalités d’un arbitrage par rapport à un
autre peut s’avérer très complexe. Il ne faut pas s’attendre à ce
que les plateformes d’IA prennent nécessairement en compte
les externalités qui n’ont pas de traduction économique sans
une importante contrainte externe. Après tout, ces
métaplateformes n’ont pas eu beaucoup d’états d’âme lorsqu’il
s’est agi de capter notre attention en masse{114}. Lorsqu’un
marché des externalités environnementales viendra à s’ouvrir
largement, il est possible qu’elles cherchent à l’accaparer, au
détriment des éventuels problèmes que cela pourrait créer par
ailleurs. Le rôle du régulateur sera donc là important.

{a}Les chiffres officiels sont comme suit : Alphabet (Google), plus de 1,6 milliard
(pour Gmail seul) ; Apple, plus de 1 milliard d’utilisateurs d’iPhone (pas
nécessairement le même nombre de comptes iCloud) ; Meta (Facebook), plus de 2,8
milliards (pour Facebook seul) ; Microsoft, plus de 1,3 milliard de comptes pour
Windows 10 et 258 millions pour Office 365 Commercial ; Amazon, plus de 200
millions d’abonnés à Prime.
{b} D’ici 2025-2027, il est raisonnable d’envisager d’avoir des smartphones non
plus avec 12 Go de RAM pour le haut de gamme, mais plutôt 32 Go de RAM, en
SSD/NVMe, ce qui permettrait de faire fonctionner des modèles de l’ordre de
20 Go sans grande difficulté.
{c} L’effet rebond a été initialement théorisé par William Stanley Jevons au
XIXe siècle. Celui-ci observa en effet que l’introduction de la machine à vapeur de
Watt, qui permettait d’accroître largement le rendement de celle-ci, au lieu de faire
décroître les besoins en charbon les décupla, en généralisant l’usage de ce type de
machine.
{d}Dans la théorie des jeux, un modèle non coopératif étudie comment les agents
prennent des décisions indépendamment et souvent en concurrence, cherchant à
maximiser leurs propres gains sans accord contraignant. À l’inverse, un modèle
coopératif examine comment les agents peuvent former des coalitions et établir des
accords pour optimiser des résultats collectifs ou partagés. Il serait possible de
modéliser les relations entre les IA coordinatrices et les AI companions sous forme
de graphes, où les nœuds pourraient représenter des composants individuels (par
exemple, des unités de traitement, des bases de données) et les arêtes des
communications ou des dépendances.
{e}En théorie des jeux, plus précisément dans un jeu coopératif, la valeur de
Shapley donne une répartition équitable des gains aux joueurs.
Chapitre 10
Une journée dans la vie
de Sophie

Vivre, habiter, travailler en 2040


Pour une mère de famille, cela peut sembler un peu tard
de se réveiller à 8 h 30, mais c’est son AI companion – Nestor
– qui lui a proposé d’organiser sa vie et celle de sa fille Magali
afin que l’une et l’autre puissent aller travailler et aller à
l’école en évitant l’heure de pointe, c’est ainsi que ça se passe
chez les Egrin. Les cycles de sommeil de la mère comme ceux
de la fille semblaient y être plus adaptés et, dans la mesure où
tout paraissait plus simple ainsi, cela n’a pas été l’objet d’une
longue réflexion.
L’AI companion avait simplement ouvert les rideaux
électriques peu à peu dès 8 h 10. Comme l’appartement de
Sophie a été entièrement refait il y a quelques mois,
on n’entend plus le bruit de la rue et, si l’on n’y prend pas
garde, on peut dormir jusqu’à 10 heures. Jusqu’à il y a peu,
le coût de cette rénovation était trop élevé pour Sophie, et du
fait de l’augmentation du prix de l’énergie, elle commençait à
se dire qu’elle pourrait un jour être amenée à quitter ce vieil
immeuble avec jardin que pourtant elle et sa fille adorent.
Mais, il y a quelque temps, de nouvelles techniques
d’évaluation des travaux à effectuer sont devenues
disponibles. Sur la base d’un ensemble de données externes
(rayonnement infrarouge, accès aux plans techniques de
l’immeuble, aux données de consommation, à des prises de
vues qu’une IA lui avait demandé de faire), il a été possible
d’identifier les fuites thermiques sur lesquelles travailler en
priorité, repérer des fournisseurs ayant les techniques les plus
appropriées pour réduire ces déperditions à moindre coût. Et,
finalement, il a été possible de faire ces travaux pour deux fois
moins que ce qui avait initialement été envisagé.
Dès son lever, l’AI companion de Sophie lui rappelle qu’elle
a un reste de fromage blanc dans le réfrigérateur (celui-ci est
équipé de caméras chargées de veiller à ce que rien ne soit
gâché, ce qui permet à l’AI companion de commander ce qui
pourrait compléter des aliments périssables pour faire un repas
complet) qu’il faudrait consommer rapidement avant qu’il ne
soit périmé. Il lui conseille une recette inattendue où elle peut
mettre des morceaux des deux oranges qui lui restent
(également en limite de péremption) avec un petit peu de miel
et quelques céréales : préparation 2 minutes. Sophie boit un
café originaire de Côte d’Ivoire. Certes c’est issu de
l’agriculture intensive, mais avec une empreinte
environnementale très faible du fait d’une culture
agroforestière à fort rendement et d’un transport par bateau.
En général, Sophie ne regarde que rarement son tableau de
bord personnel, dans la mesure où cela fait longtemps qu’elle
s’est habituée à avoir des pratiques vertueuses. Néanmoins,
elle observe amusée que le petit déjeuner qu’elle a préparé
pour sa fille et elle a « émis » 4 kilos de CO2 tout en renforçant
curieusement son score personnel de biodiversité. Sur le plan
des déchets générés, elle est à zéro, car la caméra de son AI
companion située au-dessus des poubelles l’a vue mettre les
pelures d’orange dans le bac à déchets biologiques (après
l’avoir aidée vocalement à choisir le bon bac pour le filet en
plastique des oranges) et qu’en matière de consommation
d’eau, elle est proche de 40 litres. Le café, les oranges mais
surtout la douche y sont pour beaucoup.
Magali est déjà réveillée. Le chauffage de sa chambre s’est
mis en route une heure plus tôt et s’éteindra dès qu’elle en sera
sortie pour qu’elle n’ait pas froid et que l’énergie de chauffage
soit optimisée. C’est une petite fille très soucieuse de
l’environnement et sa première démarche a consisté à aller
saluer le lapin domestique. Elle n’a plus voulu de chat depuis
que l’AI companion de sa maman lui a expliqué qu’un chat
représentait une empreinte carbone de l’ordre de 300 kilos de
CO2{115} et tuait en moyenne cent oiseaux par an{116}, tandis
qu’un lapin avait par comparaison une empreinte carbone
négligeable et… ne tuait évidemment pas d’oiseaux. Migou,
c’est son nom, participe d’ailleurs à sa façon à la transition
environnementale. Végétarien et nourri exclusivement des
déchets de la famille (l’AI companion veille à ce que la
nourriture du foyer produise des déchets appropriés pour le
lapin), ses déjections finissent comme engrais dans le petit
potager collectif que la famille de Magali a mis en place avec
deux de ses voisins. Potager qui, d’ailleurs, est en grande
partie géré par un petit robot à haut degré d’autonomie et qui
fournit un apport non négligeable de nourriture durant
certains mois.
Il est temps de partir : l’AI companion leur dit que si elles
descendent l’escalier dans les trente secondes à venir, elles
seront exactement à l’heure pour attraper l’AI-minibus
autonome qui va les amener l’une à l’école, l’autre au travail.
Lorsqu’elles montent à bord, elles retrouvent quelques voisins
qui ont chacun pu bénéficier d’un service « porte à porte » et
qui seront également chacun déposés tout au plus à quelques
dizaines de mètres de là où ils se rendent.
D’ailleurs, en grande banlieue, le trafic n’est désormais plus
composé que de ce type de bus de petite taille : assez grand
pour prendre six à huit personnes et assez petit pour délivrer à
chacune un service personnalisé, en un temps optimal. Cela
fait bien longtemps que les bouchons ont disparu, dans la
mesure où les AI-minibus ont systématiquement la priorité sur
les rares voitures individuelles. Mais, ce matin, juste après que
Magali était descendue pour rejoindre son école, à peine l’AI-
minibus était-il reparti qu’il s’était retrouvé pris dans un
bouchon : une conduite hydraulique avait explosé dans la rue
principale, noyée dans 50 centimètres d’eau. Sans beaucoup
attendre, l’AI-minibus fit demi-tour et emprunta un chemin
secondaire. Sophie réalisa que cela risquait de lui faire rater
son train dans la mesure où chaque matin, elle n’arrivait en
général que deux à trois minutes avant que celui-ci ne passe.
Elle commençait tout juste à s’inquiéter lorsqu’une voix
sortant du plafond de l’AI-minibus indiqua : « Pour Sophie et
Abdel qui prennent le train de 9 h 24, pas d’inquiétude, j’ai
négocié qu’il nous attende deux minutes en gare et nous
arriverons à temps pour que vous puissiez le prendre. » Ouf !
C’est effectivement ce qui se passa : à la gare, le train
autonome attendait et, dès qu’ils furent à bord, repartit sans
encombre vers la grande ville.
Sophie travaille dans un grand cabinet d’architecture. Cela
fait longtemps que l’entreprise n’a plus de locaux ; ce matin,
elle rejoint ses collaborateurs dans une magnifique salle de
réunion louée par l’un des AI companions d’un membre de la
réunion. Personne ne connaissait ce lieu préalablement et
chacun s’extasia devant une baie vitrée ouvrant sur une vue
spectaculaire, surplombant d’une bonne cinquantaine de
mètres les autres bâtiments. Peu à peu, l’équipe se met au
travail : le projet qui les occupe ce matin concerne la
restauration d’un village en déshérence, situé à une vingtaine
de minutes de Lyon. Sophie y passe la journée, faisant
d’innombrables simulations sur une maquette 3D assez
réaliste. Quel est l’impact environnemental si on introduit une
cuisine collective où un chef vient trois jours par semaine ?
Comment installer des pompes à chaleur sans dénaturer les
façades ? À ces questions simples, l’IA générative lui propose
différentes solutions techniques et esthétiques, effectue des
simulations d’impacts. C’est un mélange d’usages,
de techniques, de respect du patrimoine, un immense
compromis qu’elle est chargée d’arbitrer, elle, ses systèmes
d’IA générative, ses systèmes experts et son équipe. Hier, elle
a longuement travaillé sur les îlots de chaleur. Les simulations
montrent que la grande avenue, construite à l’époque du tout-
automobile, est un vrai four, réchauffant tout le quartier
jusqu’à 150 mètres de distance. Si le trafic a fortement
diminué, il n’est pas possible de l’interrompre. L’IA générative
lui a proposé d’y planter une large allée centrale d’arbres déjà
vieux d’une quinzaine d’années. Selon elle, d’ici cinq à six
ans, cela devrait réduire les pics de chaleur de l’ordre de 5 à
7 oC et plus encore d’ici une dizaine d’années. L’ensemble des
évaluations d’ingénierie que l’IA a effectuées montre qu’il n’y
a pas d’obstacle majeur à ce projet et résume les données
complémentaires qu’il lui faudrait pour réaliser le dossier de
certification. Une partie pourra être faite par un drone, l’autre
concerne des données qui ne sont pas accessibles par Internet
et qui nécessiteront des interventions manuelles.
Dans l’après-midi, Sophie fait une longue visioconférence
avec un groupe de travail sur les habitats du futur auquel elle
appartient. Il s’agit de partager les meilleures pratiques et de
tenter de les répliquer dans d’autres pays. Elle aime bien ce
groupe qui lui permet à chaque réunion d’apprendre
l’existence de nouvelles initiatives, souvent très audacieuses.
Aujourd’hui, l’échange commence par une présentation
d’Halvard, l’un des promoteurs de l’ensemble immobilier
Vindmøllebakken situé à Stavanger, en Norvège. C’est une
petite unité de quelques centaines d’habitants dont l’originalité
réside dans la flexibilité totale de ses espaces : vous avez une
amie qui vient dîner ce soir ? Vous pouvez réserver une salle à
manger ou dîner avec elle dans la salle à manger collective. Si
elle souhaite rester dormir, votre app personnelle permet de
réserver sur-le-champ une chambre d’ami. L’AI platform de
Vindmøllebakken est connectée aux agendas de ses habitants
qui le souhaitent. Il est ainsi possible de planifier système de
transport, blanchisserie, restauration, services de loisirs… de
façon optimisée.
Sur le chemin du retour, son AI companion lui confirme que
Magali est déjà rentrée, qu’elle l’attend et il lui demande si
elle veut parler des vacances. Sophie répond que oui, ça lui
changera les idées. L’IA fait plusieurs suggestions mais lui
propose plus particulièrement de partir dans un petit village
des Cévennes. Sophie n’y est jamais allée mais les quelques
images qu’elle aperçoit lui montrent des paysages majestueux,
sauvages. C’est à six heures en train, puis en bus autonome
local. Sur place, son abonnement auprès de sa compagnie de
location automobile lui permet d’accéder à tout moment à un
véhicule autonome avec un préavis de quarante minutes. Son
AI companion ajoute qu’il a négocié avec ses deux meilleures
amies, ainsi qu’avec l’AI companion de la maman de Christy
(la meilleure amie de Magali), pour qu’elles se retrouvent
toutes en même temps dans une grande maison louée pour
l’occasion. Prenant en compte les restaurants qui collent aux
goûts de Sophie et de sa fille, les loisirs de toutes sortes,
l’estimation des vacances induirait pour toutes les deux de
l’ordre de 80 kilos de CO2 : trente fois moins que ce qu’elle
dépensait quelques années plus tôt pour aller dans un hôtel
sans charme dans un pays qui pratique le tourisme de masse et
où elle avait l’impression d’être un pion dans une organisation
impersonnelle.
En rentrant, elle trouve un sac de courses déposé par un
robot-conteneur autonome dans le local collectif. Le robot peut
ouvrir la porte et ne le fait que s’il n’y a personne dans les
parages. Seul problème, il y a une petite marche à franchir qui
lui a valu plusieurs fois de se retrouver coincé à l’intérieur,
un maçon doit venir pour essayer d’arranger cela. Ne rêvons
pas, les robots maçons, ce n’est pas pour demain !
En triant les courses, elle remarque que presque tout
ce qu’elle avait l’habitude d’acheter a été remplacé par de
nouvelles marques, des légumes et des fruits différents. Elle
sait que l’algorithme a pratiquement éliminé tout ce qui vient
par avion, qu’il privilégie les produits pour lesquels les
données ont été certifiées ESRS (S1 et S2). Que toutes les
recettes qu’il va lui conseiller prennent en compte l’impact
environnemental que cela induit. Que si elle achète un
équipement, il va lui proposer de préférence des produits
reconditionnés. En général, cela ne la dérange pas ; c’est
moins cher, c’est bon pour la planète, c’est moins fiscalisé.
Parfois, elle a envie de tomates ou de poivrons en plein hiver,
c’est un peu plus cher : ils viennent généralement en train du
sud de l’Espagne. Depuis quelques années, la viande est
essentiellement synthétique. Elle n’arrive plus vraiment à faire
la différence avec de la « vraie » viande et de toute façon,
l’habitude d’en consommer a complètement disparu, tant son
impact environnemental et la cruauté que cette pratique
véhicule ont imprégné l’inconscient collectif. Sophie sait
également que de nombreux produits qu’elle consomme ont
connu quelques manipulations de leurs ADN. Il est vrai que le
débat sur les OGM a depuis longtemps été emporté par la
nécessité de l’adaptation au réchauffement climatique. Dans
bien des cas, c’était ça ou la famine pour une part non
négligeable de l’humanité. Dans de nombreux pays, les
modifications ont été autorisées dans un cadre étroit : elles
doivent être conçues par des IA spécialisées, travaillant sur
d’immenses corpus de publications scientifiques, à la
recherche d’effets secondaires indésirables. Pour éviter les
biais dans ces études, il avait été imposé que ces ADN de
synthèse soient open source. Il fut également interdit d’en
revendiquer la propriété, ce qui évita la captation de valeur par
les grands acteurs de l’agro-industrie et l’apparition de biais
dans les études épidémiologiques.
À peine a-t-elle fini de ranger ses courses que Nestor lui
fait observer qu’il faudrait idéalement qu’elle profite du
créneau qu’il lui a réservé pour lancer une machine à laver.
Deux machines connectées sont situées au rez-de-chaussée, les
IA companions se les arbitrent les uns les autres, mais ce soir
Sophie trouve que c’est franchement rasoir d’avoir à
redescendre avec le panier de linge et demain matin d’avoir à
mettre tout ça, de nouveau, dans un panier avant de partir
travailler. Rien que pour cela, elle se dit qu’elle devrait se
racheter sa propre machine : après tout, cela ne représente
qu’une cinquantaine de kilos de CO2 par an. Elle a renoncé au
chat, elle peut bien avoir la machine. Et puis maintenant
qu’elles sont fabriquées en Europe, leur empreinte
environnementale a été divisée par trois ! L’entendant râler,
Magali lui propose de descendre à sa place. Sophie accepte,
sachant que sa fille en profitera certainement pour aller voir
dans le potager si l’IA-jardinier a récolté quelques légumes en
cette fin de printemps.
Elle propose à Claire, l’une de ses amies, de venir prendre
un verre et, dans la foulée, elle demande à son AI companion
de se mettre en veille : interdit de dire quoi que ce soit, sauf
urgence absolue.
Claire la rejoint un peu avant le moment de passer à table.
Elle lui propose de rester dîner. En manque d’inspiration pour
bricoler un peu plus à manger, elle remet en route Nestor qui,
aucunement froissé, lui donne le choix entre faire un plat
surgelé (+ 10 kilos, externalité moyenne sur la biodiversité) ou
prendre les courgettes prévues pour le déjeuner du lendemain
(+ 500 grammes, externalités très faibles sur la biodiversité).
Au diable l’environnement et vive le surgelé !
Claire lui parle de son nouvel appartement, où elle a
emménagé il y a tout juste une semaine. Vivant seule, elle a
choisi de prendre un petit appartement composé d’une seule
chambre et d’un petit salon. Elle n’en a pas moins le sentiment
de vivre de façon beaucoup plus luxueuse qu’auparavant ; son
immeuble comprend un spa, des chambres d’amis
complémentaires, de grands espaces de réunion, etc. Les coûts
sont d’autant plus abordables que de nombreux services sont
partagés avec deux entreprises de services qui ont choisi
d’implanter leurs locaux dans le même bâtiment.

Utopies d’aujourd’hui et de demain


Bien entendu, cette description de ce que pourrait être la vie
quotidienne en 2040 recèle – à dessein – son lot de
provocations qui pourraient en hérisser plus d’un. Les groupes
sociaux et individus se revendiquant de droite ont
généralement tendance à repousser toute tentative de
collectivisation et voient l’alimentation (dont la consommation
de viande) comme un marqueur indépassable de l’art de vivre
à la française, tandis que ceux qui se reconnaissent dans un
projet politique de gauche, dont les écologistes, valorisent
fortement les principes collectifs, acceptent plus facilement de
renoncer à la viande, tout en considérant la biologie de
synthèse comme la pire des abominations{117}. Ces enjeux sont
importants car, au fil du temps, ils sont devenus des marqueurs
forts de différenciation entre des groupes sociaux ou politiques
qui s’opposent. Ce sont souvent des facteurs existentiels pour
les groupes qui les défendent : l’interdiction des OGM est
ainsi inscrite dans les statuts de certains partis écologistes ;
la préservation de la culture gastronomique française est
également une pierre angulaire de mouvements politiques de
droite.
Ceux qui essaient de faire évoluer les consensus étroits sur
de nombreux thèmes sont fréquemment vilipendés.
Ces procès ne sont pas nouveaux. Dans les années 2000 le
gouvernement de David Cameron, alors Premier ministre
britannique, fut durement critiqué pour avoir créé un
département dédié au nudge, une pratique visant à influencer
les comportements au travers de nouvelles formes de services
publics au design approprié. Les critiques se concentrèrent sur
le fait qu’il s’agissait d’une manière de contraindre plus
particulièrement les classes populaires{118}, tout en remettant en
cause le British way of life. L’idée d’un gouvernement venant
regarder pour ainsi dire ce qu’il y avait dans les assiettes des
repas du dimanche fut perçue pour beaucoup comme
insupportable.
Il n’en reste pas moins vrai que notre façon de vivre est tout
sauf statique. En France, la consommation d’alcool a
quasiment été divisée par trois en cinquante ans, celle de
viande commence à se réduire, et le temps passé à cuisiner a
presque été divisé par quatre en cent ans !
Il est également intéressant d’observer que, depuis le début
des années 2000, on assiste au retour des grandes utopies en
matière d’urbanisme et de façon d’habiter. Pendant environ
quarante ans, l’échec des initiatives prises lors des années
1960 en urbanisme a gelé presque totalement les innovations
en matière de vivre-ensemble. Désormais, celles-ci semblent
revenir avec toutefois d’importantes différences avec les
utopies des années 1950 et 1960. D’abord, dans la mesure où
la population ne croît plus que marginalement et où elle vieillit
rapidement, l’exigence ne se place plus sur le fait de construire
vite et beaucoup. Et dans la mesure où le niveau de vie est
également beaucoup plus élevé, les exigences le sont
également. Pour ces raisons, le bâti est sensiblement plus
qualitatif et la part de services qui y sont intégrés y est
beaucoup plus importante.
Pour l’instant, les innovations les plus remarquables se
concentrent dans les pays scandinaves, le Canada et, dans une
moindre mesure, les États-Unis. Mais il ne faut pas croire
qu’elles sont appelées à rester cantonnées à ces pays. D’autres
s’inspirent des réalisations les plus audacieuses pour
développer des initiatives proches ou semblables à ce qui s’y
fait, comme à Barcelone (Torre Baró), Madrid (Superblocks),
à Naples, etc. Des initiatives qui montrent que ces projets
ne sont pas réservés aux nations scandinaves, généralement
mises en avant pour leurs infrastructures collectives.
Les initiatives les plus fameuses sont en Allemagne les
Baugruppen (R50 à Berlin par exemple), qui se concentrent
sur la durabilité et la communauté. Les futurs résidents sont
généralement impliqués dès le début du processus de
conception, ce qui favorise un sentiment d’appropriation et a
comme conséquence surprenante d’accroître le niveau de
résilience et de durabilité du bâti. Lorsqu’on comprend
l’importance d’avoir des isolants performants, on a tendance à
prendre plus soin de son habitat, des parties collectives, etc.
Ces ensembles immobiliers comprennent des espaces
communs conçus pour encourager l’interaction entre les
résidents, comme des cuisines communes, des jardins, des
ateliers ou des espaces de jeu pour les enfants. Ces espaces
sont souvent conçus de façon à encourager la mixité
générationnelle, culturelle et socio-économique{119}. L’objectif
avoué des initiateurs des projets Baugruppen est de rapprocher
familles, célibataires et personnes âgées, cadres supérieurs,
ouvriers, chômeurs et retraités.
Pourquoi cela marcherait-il maintenant alors que cela n’a
pas marché dans les années 1960 ? D’une part parce que l’on a
appris des échecs d’alors où, trop souvent, rien d’autre que le
lieu d’habitation ne reliait des communautés qui étaient trop
dissemblables pour vivre réellement ensemble, et parce que
tout un tas de petits détails favorisent désormais les
interactions, par exemple des apps qui suggèrent spontanément
d’inviter ses voisins lors des activités sportives ou culturelles.
Certains lotissements observent que les jardins potagers
partagés (également en partie gérés avec apps{a}) produisent
tellement certains mois qu’il est indispensable de distribuer les
récoltes dans tous les foyers. Si les économies en achat de
légumes et fruits sont évidentes, les liens créés entre les
habitants sont sans doute d’une valeur plus grande encore.
Il est intéressant de noter le rôle que peuvent jouer les
technologies informationnelles dans toutes ces initiatives : des
systèmes de chauffage et de refroidissement intelligents et des
systèmes de récupération des eaux de pluie équipés de
capteurs permettant à l’ensemble des habitants de mieux
comprendre l’impact de leur lieu d’habitation. Les espaces
partagés de Baugruppen intègrent souvent des équipements
technologiques de divertissement communs, des agendas
permettant de réserver en ligne des pièces communes, des
chambres d’amis. À Copenhague, au Danemark, le Dortoir
Tietgen a minimisé les espaces individuels et maximisé les
espaces à réservation optionnels, également par le biais
d’apps. L’accès s’y fait par des jetons (tokens) et comprend
des salles pourvues de grands écrans (pour regarder un film
avec des amis) et de systèmes de sonorisation (pour écouter de
la musique ou organiser une soirée dansante). Ces programmes
sont si populaires qu’ils inspirent de nombreux promoteurs
comme à Stockholm l’entreprise Folkhem, connue pour son
expertise dans la construction d’immeubles de grande hauteur
en bois, et dont la gestion fait largement appel à la
technologie. Encore en Suède, à Malmö, l’écoquartier
d’Augustenborg est connu pour ses toits verts et son système
de drainage urbain durable reposant largement sur la gestion
des eaux pluviales. Des capteurs surveillent les niveaux d’eau
et aident à gérer le débit en cas de fortes pluies, un système qui
réduit la pression sur le système d’égouts de la ville. Pour
finir, l’un des projets les plus spectaculaires est le Hammarby
Sjöstad, également à Stockholm. Il s’agit d’une initiative qui
inclut un quartier entier dans lequel le système de gestion des
déchets est entièrement repensé, de même que
l’organisation des transports publics, l’optimisation d’énergie
et le traitement des eaux usées.
Certes, à ce jour, l’utilisation de l’intelligence artificielle
dans ces projets reste limitée, mais elle n’en ouvre pas moins
des perspectives importantes{120}. D’ici quelques années, il est
tout à fait envisageable que nombre des inconvénients liés aux
initiatives collaboratives aient été largement gommés par le
recours à la technologie. En supprimant une part importante
des points de friction qu’induisent ces logiques participatives,
on peut s’extraire de la « tragédie des communs ». Comme
l’observait Aristote : « Ce qui est commun à tous fait l’objet
de moins de soins, car les hommes s’intéressent davantage à ce
qui est à eux qu’à ce qu’ils possèdent en commun avec leurs
semblables{121}. » Il faut bien quelqu’un pour commander
le café, s’assurer que la femme de ménage est bien passée de
telle heure à telle heure, qu’elle a bien été payée, que les
travaux de maintenance ont été planifiés, mis en œuvre et
facturés. Que la cuisine partagée a été rangée, que les outils du
jardin ont été remis à leur place{122}, etc. Tout cela coûte
horriblement cher et ce coût est une partie de l’explication de
l’échec de nombreuses utopies des années 1960. Bien sûr, l’IA
ne fera pas tout, mais sa capacité de séquencement est un atout
qui ne peut être sous-évalué.
L’avènement de l’IA devrait avoir également d’importantes
conséquences sur l’orientation des projets d’architecture et
d’urbanisme, et cela à brève échéance. On aurait d’ailleurs tort
de croire que cette hypothèse soit une perspective éloignée :
d’ici une dizaine d’années, les véhicules autonomes, les
systèmes de livraison de courses autonomes, les systèmes de
transport collectifs, les offres de surveillance de locaux à base
d’IA vont probablement commencer à avoir des effets
d’induction significatifs. Ceux qui n’auront pas prévu de
locaux dédiés à la livraison des courses, d’espace de dépose
pour le covoiturage et les transports collectifs autonomes, qui
n’auront pas envisagé que l’on puisse avoir des chambres
d’amis en cohabitat, pourraient voir la valeur de leurs actifs
dépréciée.
Une hypothèse, qui s’était fait jour en 2023 lors du Smart
City Expo World Congress à Barcelone, était que la
revitalisation des centres-villes allait devenir une tendance de
fond, justement pour éviter de reproduire les erreurs commises
dans les années 1960. Nombreux sont également ceux qui
pensent que paradoxalement les cœurs de ville sont plus
adaptés à la smart city que les environnements périurbains
dans lesquels le lien social est plus difficile à construire{123}.
Or, sans lien social, la capacité à recréer des communs semble
moins accessible. Certes, les centres-villes n’ont pas d’espaces
suffisants pour les différents bacs à ordures, les livraisons de
courses, etc. Mais ces inconvénients sont probablement
compensés par le « sens » et l’« appartenance » que véhicule
la présence d’un important patrimoine. Les hypercentres,
même de petites villes, permettent plus facilement la
cohabitation de groupes sociaux différents, et lorsque le coût
du foncier est déprécié, cela permet de créer plus facilement
des offres de services à forte valeur ajoutée{124}. Des offres
culturelles, mais aussi des fonctionnalités d’adaptation :
réintroduire des arbres en plein cœur des villes pour éviter les
îlots de chaleur, des jardins potagers partagés pour créer du
lien, des mobilités douces, etc. Au risque d’être répétitif,
il faut rappeler combien l’intelligence artificielle peut, pour
chacun de ces services, les aider à réussir et éviter la tragédie
des communs.

{a} GrowVeg, à Netzwerk Berliner (2023).


Conclusion

Les freins à la mise en œuvre de l’intelligence artificielle


sont finalement assez proches de ceux qui gouvernent les
enjeux de transformation des organisations. Ces freins peuvent
se résumer en trois points principaux.
• La compétence, d’abord. À l’échelle globale, on estime
qu’il manque entre 3 et 5 millions de programmeurs, un chiffre
suffisamment élevé pour créer une grande tension sur le
marché du travail, et plus encore sur les compétences
avancées, dont l’intelligence artificielle fait évidemment
partie. De surcroît, dans un contexte d’accélération technique,
les plus compétents sont naturellement amenés à choisir les
meilleures opportunités, généralement dans des start-up
récentes ou en phase de croissance. Pour les entreprises
traditionnelles, cela réduit fortement les occasions d’accéder
aux profils les plus pointus, dont ceux qui savent valoriser la
donnée et mettre en œuvre des processus à base d’intelligence
artificielle.
• La gouvernance, ensuite, entendue ici comme la nature
même des organisations humaines. Elle suppose la suppression
des silos bien entendu, mais également la capacité à tester à
petite échelle en mode bac à sable sans avoir à affronter en
environnement réglementaire ou culturel qui compliquerait la
mise en place d’une expérimentation, ou influencerait
négativement l’interprétation des résultats de cette
expérimentation. On pourrait étendre le mot de gouvernance à
la culture d’une organisation qui favoriserait
l’expérimentation, la prise de risque et privilégierait le mode
projet.
• L’héritage informatique, enfin. Toutes les organisations
doivent se battre avec cet héritage qui comprend tout à la fois
des systèmes qui rendent difficile l’accès aux données et plus
encore qui caractérisent une organisation en mode silo. Il n’y a
pas de réponse simple à cet enjeu. Certaines organisations vont
s’attacher à faire d’importants investissements pour libérer
leurs données en les transférant dans des infrastructures plus
modernes, d’autres vont créer les passerelles qui permettront
de créer un statut intermédiaire, pour produire certains services
mais peut-être avec des fonctionnalités limitées.
Chacun de ces points, résumé en quelques lignes, recouvre
de très nombreux enjeux et un livre serait nécessaire pour les
expliciter.
Mais, avant cela, s’exprime une force de conservatisme bien
compréhensible : pourquoi mettre en cause, de façon souvent
profonde, les modèles d’affaires existants, les organisations
sociales, les chaînes de valeur, les systèmes de production
alors que ceux-ci ont nécessité des décennies de travail pour
être inventés, mis en œuvre et améliorés jusqu’au degré
d’excellence qu’ils connaissent à présent ? Une première
réponse abrupte serait d’observer que Carrefour était dans les
années 1990 le deuxième plus important distributeur au monde
après Walmart. Mais, faute de s’être réinventé, il ne pèse
aujourd’hui en valorisation boursière qu’un centième
d’Amazon{a}. Il n’est pas impossible que l’IA accélère cette
mutation vers des méta-entreprises qui maximisent leur
efficacité au travers d’approches en mode plateforme. Pour
l’Europe, il s’agit probablement d’un moment historique ;
celui où elle choisit de ne pas s’engager dans ces technologies,
ou a contrario le moment du réveil. Cela d’autant plus que des
enjeux évidents de régulation se font jour, tout aussi bien sur le
champ économique (celui de l’antitrust en particulier), sur les
enjeux de sécurité individuelle, qu’à l’égard des risques à plus
grande échelle, les risques de désinformation, ou encore les
risques cyber.
En août 2023, un long article paru dans Foreign Affairs
alertait sur la nécessité d’une régulation plus intégrée et
globale à l’égard de l’IA, citant son accélération sans
précédent et les risques qu’« une seule faille, un maillon faible
ou un transfuge malhonnête ouvre la porte à des fuites
généralisées, à de mauvais acteurs ou à un nivellement par le
bas de la réglementation{125} ». Face à ce risque, une approche
concertée de l’ensemble des acteurs, tout au moins ceux qui le
veulent bien et qui sont conscients des dangers pesant
sur l’humanité, semble indispensable. Quelques mois plus
tard, c’était fait : le président Biden avait promulgué un
executive order{126} et la Commission européenne trouvait un
accord pour l’AI Act, une réglementation très vaste dans ses
thèmes d’application{127}.
Il y a là une grande similarité avec les enjeux liés à
l’environnement. L’accord de Paris et les grandes messes des
COP qui ont depuis suivi cherchent également à mettre en
place des accords internationaux qui garantissent un futur
acceptable pour l’humanité. Comme pour l’IA, il est
nécessaire que le plus grand nombre d’acteurs possible soient
à bord, tant les enjeux sont globaux. Si chaque secteur
d’activité comprend ses risques et ses opportunités, dans le cas
de l’IA, ces risques supposés sont toutefois à mettre en balance
avec ses potentiels vraisemblablement immenses, dont il n’est
pas certain que nous puissions faire l’économie, tant la
situation de notre civilisation semble périlleuse. Certains
pourront évidemment arguer du fait qu’il s’agit là de soigner le
mal par le mal, ce à quoi d’autres pourront leur opposer que
leur vision est manichéenne. Il faut espérer que les
démonstrations faites dans les pages précédentes soient
suffisamment fondées pour que l’on s’engage dans la voie
étroite que représente une évolution rapide des usages, de la
régulation en même temps que l’on met en œuvre ces
technologies.
Au travers des exemples qui précèdent, notre objectif a été,
avant tout, de mettre en avant le potentiel des usages et, au-
delà, l’importance de relier ces usages à de nouvelles formes
de régulation allant de pair avec l’innovation. C’est difficile à
mettre en place, mais certains pays, comme Taïwan, ont
remporté d’importants succès avec une approche de ce type.
Taïwan est à cet égard un contre-modèle de la société de
contrôle que représente la Chine communiste. Car Taïwan met
systématiquement en débat ses politiques publiques et
particulièrement celles qui impliquent un volet technologique
(et plus encore celles qui sont à base d’IA), en ouvrant
l’ensemble de ses applications en open source, en mettant en
place des processus d’amélioration continue basés sur les
observations des citoyens.
Il n’est d’ailleurs pas impossible que ces problèmes qui
nous font désormais face soient d’une nature trop complexe
pour être appréhendés de façon commune, discursive ou
logique, au sens d’une démonstration qu’une grande partie
d’entre nous pourraient facilement comprendre. Si un moteur à
explosion – technologie typique de la seconde révolution
industrielle – reste d’un niveau de complexité accessible à
quiconque ayant un niveau d’éducation intermédiaire et qui
accepterait d’y consacrer un peu de temps, ce n’est pas
forcément le cas d’un modèle agroécologique complexe dont
les variables s’expriment d’une façon radicalement différente
d’un cas à l’autre. Le sujet, polémique s’il en est, des
mégabassines est un bon exemple de cette complexité{128} :
d’un côté, le Bureau de recherches géologiques et minières
(BRGM) fait un rapport de 121 pages favorable à ces retenues
d’eau agricoles, de l’autre des contre-analyses attaquent les
conclusions de ce rapport, remettant en cause son niveau
d’échelle, qui serait par exemple insuffisant dans le cas de
bassins de rétention qui seraient situés dans des zones de petits
cours d’eau{129}.
Entre les deux, il y a de grandes variations de cas
d’application. Le terrain géologique, le type de prélèvement
(dans de petites rivières, de grandes rivières, dans la nappe
phréatique, etc.), l’usage varient considérablement, allant de
vertueux à clairement nocif.
Au-delà, les opposants font observer que ce modèle fait
perdurer une agriculture très intensive en consommation
d’eau, dont la production est essentiellement orientée vers
l’export et souvent destinée à faire de l’alimentation pour le
bétail. Ces désaccords ne sont pas anodins, une marche des
Soulèvements de la Terre suivie par plusieurs centaines de
personnes a traversé la France durant l’été 2023, menaçant de
s’attaquer à tout nouveau projet d’infrastructures de ce type, et
des incidents plus ou moins graves ont concerné une douzaine
de ces projets.
Les craintes réelles ou supposées à l’égard de l’IA, doublées
de la complexité des modèles qu’elle peut induire, ne sont
évidemment pas de nature à faciliter l’émergence d’un
consensus à l’égard de ces technologies.
Pourtant, la vocation structurelle des technologies, c’est de
disparaître. C’est d’ailleurs largement pour cela que
l’intelligence artificielle nous fascine autant. Chacun d’entre
nous peut observer à quel point cette technologie devient
mimétique, elle s’efface devant son expression
anthropomorphe, elle est « naturelle » et, à cet égard,
plébiscitée. Qu’il s’agisse d’un iPhone, de ChatGPT ou d’un
simple téléphone mobile, nos réserves s’effacent devant un
usage simple et facile d’accès. Or concevoir une technologie
simple est tout sauf naturel et requiert généralement des
tombereaux d’innovations et d’investissements. Néanmoins, ce
sont les œuvres mêmes de l’IA qui nous pousseront à l’adopter
en masse. Le fait qu’elle sait produire des services que les
humains n’arrivent pas à délivrer en premier lieu : organiser
notre agenda de façon dynamique, être capable de planifier
dans le détail des vacances réussies et cela à moindre prix.
La difficulté se situera à la croisée des nouveaux usages, dans
le fait d’introduire plus de collectif. Ces nouveaux usages
pourraient être suscités par des IA, mais plus probablement par
le législateur et le régulateur.
Le fait de disposer d’un petit appartement, mais d’accéder à
des services tels que de grandes salles à manger, des chambres
d’amis, éventuellement des salles de sport, de gaming, etc.,
ne va pas de soi, tout au moins pour beaucoup d’entre nous.
Le fait d’utiliser des moyens de transport autonomes et
partagés, voire collectifs en remplacement du transport
individuel n’est pas non plus dans notre culture commune.
Pour beaucoup, le collectif est repoussant car il est ancré
dans notre mémoire commune comme quelque chose de subi,
l’ersatz d’un jeu de contraintes et de raretés : les villages de
vacances issus des congés payés, les transports en commun,
les cantines, les organisations militaires et le service militaire.
Et, au-delà, le collectif nie nos revendications statutaires,
qu’exprime par exemple le fait de posséder un SUV,
une voiture de luxe ou une grande maison, fût-elle utilisée de
façon très partielle.
L’une des caractéristiques du luxe, c’est l’individualisation,
le fait de posséder une maison à soi, un objet rare, une voiture,
le fait de partir en vacances dans des lieux lointains, ce qui est
d’ailleurs de plus en plus qualifié de tourisme de masse et
parfois méchamment de « snobisme du pauvre » tant l’accès
au voyage longue distance s’est démocratisé.
Ce culte de l’individualisme a pourtant un coût démesuré.
Il empêche nos sociétés de se transformer, il est
particulièrement néfaste pour le vivre-ensemble, la capacité à
créer des rêves collectifs, le fait d’avancer sur le chemin d’une
société résiliente. Il faut ajouter à cela que les études montrent
que cette revendication statutaire et cette individualisation à
outrance ne sont pas nécessairement des facteurs
d’épanouissement{130}.
Pour autant, ce qu’offrent les technologies d’IA, c’est
potentiellement d’accroître sensiblement la part du collectif,
tout en préservant notre intimité, en augmentant fortement la
part de service des infrastructures communes.
Reste qu’il semble difficile d’affronter les défis qui nous
font face si nous ne parvenons pas à dépasser les dissensions
qui fragmentent les sociétés les plus avancées, ce qui fait
monter les discours de haine, les crispations populistes, etc.
Le retraité du Vaucluse n’a aucune confiance a priori dans une
technologie qui cumule de nombreux travers à ses yeux :
venant de l’étranger, potentiellement capable de détruire des
emplois, remettant en cause les modes de vie traditionnels,
et nourrie de langue anglaise, pour commencer.
Il est vraisemblable que nous disposions dès à présent de
toutes les technologies qui nous permettraient de réussir une
transition environnementale dans le droit-fil de l’accord de
Paris. Ce qui en revanche pourrait faire échec à cette
perspective, c’est la dissension, l’incapacité à discuter de
bonne foi à l’égard de ces sujets. Qu’il s’agisse de l’écotaxe en
2013, du débat sur la fermeture du nucléaire et de son
remplacement partiel par l’éolien, la complexité des enjeux a
permis que la désinformation prenne une place immense,
aboutissant dans les deux cas à des échecs notoires. À la suite
d’une importante contestation, l’écotaxe a été abandonnée, ce
qui n’a pas permis de réduire le transport routier – une source
majeure et incontestée d’émissions de CO2 – ni de financer le
ferroutage, tandis que la montée en charge de l’éolien n’a en
aucun cas réduit la dépendance énergétique de la France, peut-
être même l’a-t-elle accrue. Dans ces deux cas et dans bien
d’autres, il y a un défaut d’explication, un écueil à l’égard de
la complexité. Parfois même certaines solutions, pertinentes
dans un contexte donné, ne fonctionnent pas dans un autre :
ainsi, capter du carbone en plantant des arbres peut être pire
que le mal, planter la mauvaise espèce au mauvais endroit
aussi, ne planter qu’une ou des espèces également, ne pas
s’attacher à restaurer et développer le biotope dans lequel ces
arbres poussent revient à ne pas faire grand-chose. Tout cela,
c’est avant tout une forme d’acceptation de la complexité.
Et la complexité, c’est justement ce que traite bien l’IA ; mais
c’est aussi ce qui rend difficiles les larges consensus
populaires.
En poussant le raisonnement à son extrémité, comprendre
comment fonctionne un virus nécessite des années d’études,
initier un doute en masse sur l’efficacité d’un vaccin se fait
sans effort ou presque. Les forces en présence sont en
apparence largement dissymétriques. À un instant
certainement unique d’accélération technologique de l’histoire
humaine, des forces contraires menacent de tout détruire.
En 1950, lors d’un dîner informel, le savant italien Enrico
Fermi avait posé la question suivante à brûle-pourpoint : « Où
sont-ils ? », faisant référence aux extraterrestres. Il expliqua ne
pas comprendre pourquoi, au sein d’un univers aussi immense,
aucun extraterrestre ne se soit jamais manifesté sur terre. Lui
et ses convives avancèrent de nombreuses explications pour
résoudre ce paradoxe, comme l’idée que la Terre serait placée
en quarantaine par les Martiens, ou encore que les autres
civilisations auraient fait le choix de ne pas voyager ou de ne
pas communiquer. L’une des hypothèses était que ces mêmes
civilisations extraterrestres se détruisaient systématiquement
sur le chemin du progrès. Si, plus de soixante-dix ans après ce
débat, le paradoxe de Fermi demeure l’un des grands mystères
de l’astrophysique et de la recherche d’une vie extraterrestre,
le risque de destruction de notre civilisation – raisonnablement
avancée – n’est désormais plus hypothétique. Certes, l’IA est
souvent évoquée comme l’un des facteurs possibles de
destruction, mais la dégradation de l’environnement
anthropique fait figure de candidat beaucoup plus sérieux à cet
égard.
C’est un fait que nos sociétés humaines semblent largement
malades de leur sophistication. Que penser d’une civilisation
au sein de laquelle, dans certains pays, 20 % des adolescents
ont sérieusement songé à se suicider, et que 9 % ont essayé (un
chiffre inégalé depuis que les statistiques de ce type existent)
{131}
?
En moyenne, les adolescents américains passent trois heures
et quinze minutes par jour sur les réseaux sociaux. Ils ont
moins d’interactions dans la vie réelle, sortent moins de chez
eux et certains travaux de recherche commencent à accuser les
réseaux sociaux d’être les principaux facteurs dans la
croissance de l’obésité adolescente observée ces dernières
années. Comme l’observe le fondateur de Airbnb, Brian
Chesky, « il y a un risque majeur à la révolution numérique :
nous vivons l’une des périodes les plus solitaires de l’histoire
de l’humanité. Lorsque vous prenez des communautés
physiques et que vous les atomisez, elles ne sont pas toujours
aussi nourrissantes que le monde physique. Personne n’a
jamais changé l’avis de quelqu’un d’autre dans une section de
commentaires YouTube. Lorsque des personnes différentes les
unes des autres interagissent en ligne, elles ont tendance à se
disputer, à se repousser souvent et à se diviser davantage ».
Or il est à craindre que l’IA ne renforce ces biais
d’isolement. En identifiant quels sont les contenus qui nous
interpellent, les algorithmes de machine learning de TikTok
sont parvenus à générer un niveau d’addiction impressionnant.
De nombreux jeux vidéo utilisent des techniques similaires
pour s’assurer de garder le plus longtemps possible leurs
utilisateurs. Toutes ces dynamiques de contrôle,
de désinformation, ne vont pas dans le bon sens, elles
exacerbent une marchandisation de notre attention, elles
simplifient à outrance des sujets complexes, elles vont à
l’encontre de ce qu’il faudrait faire pour résoudre le
formidable enjeu qui nous fait face.
Or, n’en déplaise à nombre de techno-solutionnistes,
transhumanistes, réductionnistes de tous poils : nous ne
sommes en aucun cas des machines. Et nous devons nous
défier d’une forme de tentation mimétique d’assimilation avec
la machine que leur fréquentation suscite. Même si elles sont
plus fortes que nous dans bien des domaines, nous
rapprochent, simplifient nos échanges, elles n’en créent pas
moins un risque constant d’éloignement de notre nature sacrée.
J’utilise ici à dessein ce mot à consonance religieuse pour
souligner combien nous sommes différents.
Et si l’enjeu se situait bien au-delà des débats sur la
décroissance, le modèle de marché, notre acceptation ou non
de la technologie ? Peut-être qu’il convient de développer des
services qui ne reposent plus exclusivement sur des boucles de
rétroaction faisant appel aux réflexes liés à la peur de notre
cerveau reptilien, à l’envie, à la consommation ?
Certaines start-up, comme Petit Bambou ou Calm,
s’inscrivent dans cette lignée ; Muse, Flow, Brainlink,
Neurosky développent des interfaces, pour l’instant
rudimentaires, qui visent à solliciter d’autres fonctions comme
l’empathie, la créativité, la réceptivité.
Au-delà, et au risque de sembler excessivement candide,
de donner des gages à une forme de culture new age très
décriée, il semble difficile de vouloir restaurer la biodiversité,
d’accorder des moyens considérables aux enjeux climatiques
sans qu’une large reconnexion à la nature à l’échelle de
l’humanité soit effectuée. En quelque sorte, il s’agit d’une
boucle qui se ferme, tant l’humanité a déployé d’énergie à
lutter contre la nature, à éradiquer les bêtes féroces, à faire
reculer le paludisme en réduisant aussi systématiquement que
possible marais et milieux humides, à se battre contre des
virus, bactéries, parasites de toutes formes. La première
écologie, finalement c’est à nous-même qu’il convient de
l’appliquer.
Certes, nombre d’entre nous ne peuvent s’empêcher de lire
dans les calamités qui nous accablent un retour de bâton
mérité pour une espèce qui n’aurait pas su avoir l’humilité de
rester à sa place. Mais il est difficile de nier le fait que la
nature même de l’humanité et de l’être humain réside dans la
découverte, l’émancipation, et dans ce cadre la domination
d’un milieu naturel qui, il convient de le rappeler, lui a été
longtemps et structurellement hostile.
L’enjeu, les enjeux sont donc portés à un niveau unique
pour l’humanité. Il ne s’agit pas d’y mettre seulement plus
d’énergie, mais aussi plus de collaboration avec l’ensemble de
l’humanité et l’ensemble du vivant.
Il s’agit de sortir de l’ère industrielle pour entrer dans
celle de la plateforme, où transversalité et collaboration sont
des facteurs centraux.
Il s’agit de dépasser tout à la fois une volonté de domination
prométhéenne et une idéologie fataliste basée sur l’existence
d’une prétendue loi naturelle.
Et, dans le même temps, il s’agit, parce que nous n’avons
en fait pas le choix, de célébrer la sacralité de l’humanité. Par-
delà le constructivisme, l’eugénisme ou le transhumanisme,
l’enjeu c’est l’humanité. Et il nous appartient de lui trouver
une nouvelle expression dans un monde encore à venir.

{a} Au 9 janvier 2024, la valorisation d’Amazon était de 1 405 milliards d’euros,


celle de Carrefour de 12,64 milliards d’euros.
Notes bibliographiques

Avant-propos
{1}Sizing the Prize. What’s the Real Value of AI for Your Business and How
Can You Capitalise ?, PWC, août 2023.

Introduction. – Du sentiment d’être un boomer


{2}Timothée Parrique, Ralentir ou périr. L’économie de la décroissance, Seuil,
2022.
{3}Yann Le Cun et al., « Handwritten digit recognition with a back-propagation
network », NIPS’89 : Proceedings of the 2nd International Conference on
Neural Information Processing Systems, 1989, p. 396-404. Yoshua Bengio et al.,
« Learning long-term dependencies with gradient descent is difficult », IEEE
Transactions on Neural Networks, 1994, 5 (2), p. 157-166.

Première partie#Enjeux, idéologies et politiques


publiques
Chapitre 1. – Décroissance ou techno-
solutionnisme ?
{4}Jason Hickel, Less Is More : How Degrowth Will Save the World, William
Heinemann, 2020.
{5} Tim Jackson, Post Growth. Life After Capitalism, Polity Press, 2021.
{6} Ferghane Azihari, « Pour en finir avec les inégalités », Le Point, mai 2023.
{7} Selon l’AIEA dans son rapport Climate Change and Nuclear Power 2022.
{8}Sa critique la plus féroce se trouve probablement dans l’ouvrage d’Evgeny
Morosov, To Save Everything, Click Here : The Folly of Technological Solutionism,
PublicAffairs, 2014.
{9} François Jarrige, « Le fétichisme de la machine », dans Techno-critiques. Du
refus des machines à la contestation des technosciences, La Découverte, 2016,
p. 351-361.
{10} Collectif, Plastic and Climate : The Hidden Costs of a Plastic Planet, 2020,
https://www.ciel.org/plasticandclimate/.
{11} Au-delà des enjeux sanitaires généraux, certains travaux induisent le fait que
les plastiques ingérés puissent avoir une incidence sensible sur notre psyché : Huyn
Seung Shin et al., « Exposure to polystyrene particles causes anxiety-, depression-
like behavior and abnormal social behavior in mice », Journal of Hazardous
Materials, 2023, 454.
{12} Antoine Peillon, directeur du SGPI, dans « Climat : comment planifier la
transition », podcast Chaleur humaine/Le Monde, octobre 2023.
{13} « The changing face of ownership », Real Estate Magazine, juin 2022.
{14} Julien Guillot, Savinien de Rivet, « Pourquoi il faut taxer les voitures au
poids », Libération, 27 juin 2019.
{15} François Ruffin, Leur progrès et le nôtre. De Prométhée à la 5G, Seuil, 2021.

Chapitre 2. – L’approche politique


{16} Caspar A. Hallmann, « More than 75 percent decline over 27 years in total
flying insect biomass in protected areas », PLoS One, 2017, 12 (10), e0185809.
{17} Global Energy Review Report, IEA, 2021.
{18}François Meunier, « Bien compter le carbone émis. Une proposition », La
Grande Conversation, 3 octobre 2023.
{19} Source : Banque mondiale.
{20}Directive 2014/55/EU : « e-Invoicing in public procurement in Europe »,
Edicom, septembre 2023.
{21}« Digital Product Passport », European Health and Digital Executive Agency
(HaDEA), septembre 2023.
{22}« Nos vieux habits font des milliers de kilomètres pour finir dans des
décharges », RTS, juillet 2023.
{23}Uri Gneezy, Aldo Rustichini, « A fine is a price », Journal of Legal Studies,
2000, 29 (1), p. 1-17.
{24} Thomas Piketty, « Créer une carte carbone individuelle », L’Obs, mai 2020.
{25}Guillaume Delacroix, Emmanuelle Picaud, Luc Martinon, « Quotas gratuits de
CO2 pour inciter les industriels à réduire leurs émissions : le fiasco du dispositif
européen », Le Monde, 31 mai 2023.
{26} AFP,« Trente-neuf collectivités vont participer à une expérimentation contre le
non-recours aux prestations sociales », Le Monde, 6 juillet 2023 ; ce qui nécessite
de croiser les données issues d’administrations différentes, en particulier des
données fiscales et des données sociales.
{27} Christopher L. Weber, H. Scott Matthews, « Food-miles and the relative
climate impacts of food choices in the United States », Environment Science and
Technology, 2008, 42 (10), p. 3508-3513.
{28}
Win.World, « Climate change and the global inequality of carbon emissions »,
World Inequality Database, 21 octobre 2021. Selon cette organisation, les 1 % les
plus riches émettent 17 % des émissions mondiales tandis que les 10 % les plus
fortunés émettent 48 % des émissions de CO2.

Deuxième partie#Ce que peut l’intelligence


artificielle
Chapitre 3. – Vers un numérique plus responsable
{29} « Watching a half-hour show would lead to emissions of 1.6 kilograms
of carbon dioxide equivalent, said. That’s equivalent to driving 3.9 miles (6.28
kilometers), AFP, 28 octobre 2019 », dans Maxime Efoui, Jean-Noël Geist, Did The
Shift Project really overestimate the carbon footprint of online video ? Our analysis
of the IEA and CarbonBrief articles, The Shift Project, juin 2020.
{30} « 2021 Energy Transition Index », World Economic Forum, 2021.
{31} Évaluation de l’impact environnemental du numérique en France et analyse
prospective. Analyse prospective à 2030 et 2050. Rapport 3/3, Ademe/Arcep,
janvier 2023.
{32}Alynne Tsai, « TSMC’s push toward green energy », Taipei Times, 17 juillet
2020.
{33} Samsung Electronics Releases 2023 Sustainability Report, 30 juin 2023.
{34} Rapport d’évolution sur le plan environnemental, Apple, 2023.
{35}« Conflict minerals : Overall peace and security in Eastern Democratic
Republic of the Congo has not improved since 2014 », US Government
Accountability Office of the USA, septembre 2022.
{36} « Baromètre du numérique », Arcep/Crédoc, 2022.
{37} Yilang Jiang, « Connected home devices deep dive », Parks Associates, 2021.
{38}Laszlo Varro, George Kamiya, « 5 ways Big Tech could have big impacts on
clean energy transitions », IEA, 25 mars 2021 (révisé 2023).
{39} Sergio De Simone, « Running large language models natively on mobile and
laptops », InfoQ, 7 mai 2023.
{40} « Déchets d’équipements électriques et électroniques », Organisation mondiale
de la santé, 18 octobre 2023.
{41} « How many chips are in our cars ? », Electronic Sourcing, 4 mai 2022.
{42} IDC Worldwide Semiannual Connected Device Tracker, 2019.

Chapitre 4. – L’IA pour une révolution verte


{43}The Global Health Cost of Ambient PM2.5 Air Pollution, World Bank,
2020, p. 57.
{44} « Road freight transport by vehicle characteristics », Eurostat, septembre 2023.

Chapitre 5. – Les transports


{45} International Transport Forum, Integrating Public Transport into Mobility as
a Service, OCDE, 18 octobre 2021.
{46}TNCs and Congestion. Final Report, San Francisco County Transportation
Authority, octobre 2018, https://www.sfcta.org/sites/default/files/2019-
05/TNCs_Congestion_Report_181015_Finals.pdf.
{47}Patrick Jochem et al., « Does free-floating carsharing reduce private vehicle
ownership ? The case of SHARE NOW in European cities », Transportation
Research. Part A : Policy and Practice, 2020, 141, p. 373-395.
{48}Yossi Matias, « Project Green Light’ work to reduce urban emissions using
AI », blog Sustainability, 10 octobre 2023.
{49}Gabriel Valença et al., « Main challenges and opportunities to dynamic road
space allocation : From static to dynamic urban designs », Journal of Urban
Mobility, 2021, 1, 100008.
{50}Kara Manke, « Massive traffic experiment pits machine learning against
“phantom” jams », Berkeley News, 22 novembre 2022.
{51} « Parking and new uses of public space are evolving », APUR, juin 2019.
{52}NYC Department of City Planning, Manhattan Core Public Parking Study,
décembre 2011.
{53}« Managing flexible work arrangements », Society for Human Resource
Management, janvier 2021.

Chapitre 6. – Chaînes logistiques et économie


circulaire
{54}The Carbon Footprint of Global Trade, International Transport Forum/OCDE,
2016.
{55}Commissariat général au développement durable, Les Comptes des transports
en 2018. 56e rapport de la Commission des comptes des transports de la nation,
ministère de la Transition écologique et de la Cohésion des territoires, août 2019.
{56} European Emissions Trading System (EU-ETS), « Carbon market price
evolution over time ».
{57} « Chiffres clés », ministère du Développement durable, 2018.
{58}Daniel Slotta, « Carbon intensity of the power sector in China from 2000 to
2022 », Statista, 3 janvier 2024.
{59} Ibid.
{60} Jacques Henno, « Les semi-conducteurs ou la nouvelle guerre froide »,
Les Échos, 3 août 2023.
{61} George Baryannisa et al., « Supply chain risk management and artificial
intelligence : State of the art and future research directions », International of
Product Research, 2019, 57 (7), p. 2179-2202.
{62} Reed Albergotti, « Apple supplier Lens Technology accused of using forced
labor in China », The Washington Post, 29 décembre 2020.
{63}Anne-Titia Bové, Steven Swartz, « Starting at the source : Sustainability in
supply chains », McKinsey Sustainability, 11 novembre 2016.
{64} AFP, « Zara, Primark, Decathlon… Environ 39 marques utilisent encore le
travail forcé des Ouïghours, selon un rapport de députés européens », L’Obs,
16 décembre 2023.
{65}
« Sustainalytics accelerates its digital innovation with addition of real-time
ESG data analytics capabilities », Morningstar Sustainalytics, 14 octobre 2021
{66} « ESG data and analytics », TruValue Labs, 2023.
{67} Kun Li, Nasrin Khalili, Weiquan Cheng, « Corporate social responsibility
practices in China : Trends, context, and impact on company performance »,
Sustainability, 2019, 11 (2), p. 354.
{68} Driven to Waste, rapport, WWF, juillet 2021.
{69}Catherine Thorbecke, « New tech suggests recipes based on the food already in
your fridge », ABC News, 8 janvier 2020.
{70}Growth Within : A Circular Economy Vision for a Competitive Europe, Ellen
MacArthur Foundation, SUN and McKinsey Center for Business and Environment,
2015.
{71}Artificial Intelligence and the Circular Economy, Ellen McArthur Foundation,
2017.
{72}Fogt Jacobsen et al., « Drivers of and barriers to consumers’ plastic packaging
waste avoidance and recycling : A systematic literature review », Waste
Management, 2022, 141, p. 63-78 ; « Plastics, the facts », Plastics Europe, 2022.
{73} Recycling Economic Information (REI) Report, United States Environmental
Protection Agency, 2021. FEVE. European Container Glass Federation, rapport
2022.
{74} Flore Berlingen, Recyclage : le grand enfumage, Rue de l’Échiquier, 2020.
{75}The Future of Packaging : Smart Bottles, Edible Boxes, McKinsey, octobre
2019.
{76} Bingbing Fang et al., « Artificial intelligence for waste management in smart
cities : A review », Environmental Chemisty Letters, 2023, 21 (4).
{77}Henry Willis, « FUSO demonstrates remote garbage truck concept », ADAS
and Autonomous Vehicle, 13 août 2020.
{78}
Vishnu Suresh et al., IoT-Enabled Solid Waste Management in Smart Cities,
Smart City, 2021, 4 (3), p. 1004-1017.
{79}Susan Shain, « Recyclable ? Try refillable. The quest for a greener cleaner »,
The New York Times, 17 mars 2023.
{80}Zaneta Muranko et al., « Characterisation and environmental value proposition
of reuse models for fast-moving consumer goods : Reusable packaging and
products », Sustainability, 2021, 13 (5), p. 2609.
{81} Source : inventaire présent sur Carrefour.com.
{82}The Rise of Recommerce : Transforming Consumption through Reuse, rapport,
OfferUp, 2019.
{83} World Energy Outlook 2022, IEA, octobre 2022.
{84}Glenn Wadden, « What can artificial intelligence (AI) bring to industrial
automation ? », VTScada by Tryhedral, chaîne YouTube, 4 juillet 2023.
{85} Voir « World Bank’s World Development Indicators » pour la France et les
États-Unis.
{86}Nicolas Dufourq dans La Désindustrialisation de la France. 1995-2015 (Odile
Jacob, 2022) avance quelques pistes à ce propos.
{87} AshleyNunes, « Automation doesn’t just create or destroy jobs – It transforms
them », Harvard Business Review, 2 novembre 2021.
{88}Max Maxwell, « Improving the TESLA Master Production Schedule using AI
and ML », Université de Nairobi, février 2022.
{89}« Tesla : Artificial intelligence manufacturing revolution », Supply Chain
Today, novembre 2023.
{90}« What AI already does well in supply chain management », CIO, 7 septembre
2023.

Chapitre 7. – L’agriculture
{91}Matthew J. Smith, « Getting value from artificial intelligence in agriculture »,
Animal Production Science, 2018, 60 (1).
{92} Michael Gomez Selvaraj et al., « AI-powered banana diseases and pest
detection », Plant Methods, 2019, 15 (1).
{93} Victoria Masterson, « Here’s what happened when AI and humans met in a
strawberry-growing contest », World Economic Forum, 29 janvier 2021.
{94}Gilles Babinet, Big data, penser l’homme et le monde autrement, Le Passeur
Éditeur, 2015.
{95}
Joyce Chimbi, « Information technology transforms the way Kenyan farmers
manage crops and market their produce », Alliance for Science, 12 avril 2023
{96} « L’irrigation intelligente “VENUE DE L’ESPACE” pour les agriculteurs
indiens », Rivalis, août 2023.
{97}Global Assessment Report on Biodiversity and Ecosystem Services, IPBES,
2019.
{98} Verena Seufert, Navin Ramankutty, Jonathan Foley, « Comparing the yields of
organic and conventional agriculture », Nature, 2012, 485 (7397), p. 229-232. Cette
étude est une méta-analyse qui a mis en évidence le fait que les rendements de
l’agriculture biologique sont en moyenne 25 % inférieurs à ceux de l’agriculture
intensive. Certains travaux évoquent des rendements encore inférieurs : Loïc
Chaveau, « Le bio peut-il nourrir le monde ? », Sciences et avenir, 11 février 2016.
{99} L’Institut national de recherche pour l’agriculture, l’alimentation et
l’environnement (Inrae) a développé des scénarios à cette fin dans lesquels l’apport
de l’intelligence artificielle est envisagé. « Prospective : agriculture européenne
sans pesticides chimiques en 2050 », Inrae, 21 mars 2023.
{100} « Applying AI to understand Agroforestry at Scale », Standford
University/School of Sustainability Doerr.
{101}« University of Minnesota to lead new $20M AI Institute focusing on climate-
smart agriculture and forestry », University of Minnesota, mai 2023.
{102} « AI-Climate Institute at Cornell : Advancing climate-smart agriculture
through artificial intelligence », Cornell University, novembre 2023.
{103}
Elliott Grant, « M is for Mineral. Mineral is now an Alphabet company »,
X Company, 10 janvier 2023.
{104} Claire Turrell, « Bali rice experiment cuts greenhouse gas emissions and
increases yields », Mangabay, 11 août 2023.

Chapitre 8. – Produire et utiliser l’énergie


{105} Cuihong Song et al., « Cradle-to-grave greenhouse gas emissions from dams
in the United States of America », Renewable and Sustainable Energy Reviews,
2018, 90, p. 945-956.
{106} ElectricityMaps.org : données agrégées sur 12 mois pour la France et
l’Allemagne, décembre 2012-novembre 2023.
{107}Jason Correia, « Wind power to nuclear power infographic comparison »,
Nuclear News Wire, 9 février 2012.
{108} « Observatoire des marchés de détail », Commission de régulation de
l’énergie, octobre 2021.
{109}Alexandre Loukil, « Électricité : le tarif heures creuses est-il intéressant pour
vous, selon vos habitudes de consommation ? », Capital, 27 novembre 2019.
{110} Source : Auto Motor und Sport, novembre 2023.

Troisième partie#Systèmes, nouveaux usages et


freins culturels
Chapitre 9. – IA personnelles et Meta IA
{111} Conversations en juin 2023, quelques semaines avant qu’il ne publie
l’ensemble de l’infrastructure logicielle d’intelligence artificielle Llama 2.
{112}Bill Gates, « AI is about to completely change how you use computers »,
Gates Notes, 9 novembre 2023.
{113} Susanna Mills, « Frequency of eating home cooked meals and potential
benefits for diet and health : Cross-sectional analysis of a population-based cohort
study », International Journal of Behavioral Nutrition and Physical Activity, 2017,
14 (1), p. 109.
{114}Rafael Maravilla, « Kids as young as 8 are using social media more than ever,
study finds », The New York Times, 25 mars 2022.

Chapitre 10. – Une journée dans la vie de Sophie


{115} « The average carbon footprint of a pet », ZeroSmart, 26 février 2022.
{116}
Hannah Waters, « Cats are ruthless killers. Should they be killed ? », Scientific
American, 29 janvier 2023.
{117} Robert Gifford, « The dragons of inaction : Psychological barriers that
limit climate change mitigation and adaptation », American Psychologist, 2011,
66 (4), p. 290-302.
{118}
Phillip Swagel, A Nudge Too Far : Paternalism and the Pitfalls of Behavioral
Economics, Norton, 2015.
{119} Kristien Ring, « Reinventing Density : How Baugruppen are pioneering the
self-made city », The Conversation, 22 novembre 2016.
{120}Le magazine Coliving Insight, fondé en 2022 à Amsterdam, se dédie à l’étude
de nouvelles pratiques d’habitat et de l’apport que les technologies – dont l’IA –
peuvent avoir dans ce cadre.
{121} Aristote, Politique, propos introductif.
{122}
Rishi Lodhia, « The future of accommodation : When coliving and proptech
combine », Security Informed, décembre 2023.
{123}Carlos Moreno, Droit de cité. De la « ville-monde » à la « ville du quart
d’heure », Éditions de l’Observatoire, 2020, p. 85, 217, 276.
{124} « How artificial intelligence will change the face of housing », Catapult,
29 juillet 2019.

Conclusion
{125}Ian Bremmer, Mustafa Suleyman, « The AI power paradox : Can States learn
to govern artificial intelligence – Before it’s too late ? », Foreign Affairs,
septembre-octobre 2023.
{126} « Fact sheet : President Biden issues executive order on safe, secure, and
trustworthy artificial intelligence », The White House, 30 octobre 2023.
{127}
« Une approche européenne de l’intelligence artificielle », Union européenne,
décembre 2023.
{128}
Vincent Bretagnolle, « Les mégabassines ne résoudront pas la crise de l’eau »,
CNRS. Le Journal, 19 septembre 2023.
{129}« Mégabassines : des lacunes dans le rapport du BRGM ? », Radio France,
14 février 2023.
{130}Juri Allik, Anu Realo, « Individualism-collectivism and social capital »,
Journal of Cross-Cultural Psychology, 2004, 35 (1), p. 29-49.
{131}Youth Risk Behavior Survey Data Summary and Trends Report : 2009-2019,
Center for Disease Control and Prevention, 2020.
DU MÊME AUTEUR
CHEZ ODILE JACOB
Comment les hippies, Dieu et la science ont inventé Internet, 2023.

Vous aimerez peut-être aussi