Gilles Babinet - Green IA
Gilles Babinet - Green IA
Gilles Babinet - Green IA
Green IA
L’intelligence artificielle au service du
climat
Inscrivez-vous à notre newsletter !
https://www.odilejacob.fr/newsletter
Avant-propos
Introduction. Du sentiment d’être un boomer
Première partie – Enjeux, idéologies et politiques
publiques
Chapitre 1. Décroissance ou techno-solutionnisme ?
Un débat idéologique
Changer notre façon de vivre
De l’effet rebond
Chapitre 2. L’approche politique
Le signal prix
Taxe carbone : marxiste ou capitaliste ?
Taxe carbone : proportionnelle ou progressive ?
Social rating et plateformisation
Deuxième partie – Ce que peut l’intelligence
artificielle
Chapitre 3. Vers un numérique plus responsable
Fabriquer les équipements
L’empreinte de l’usage des appareils numériques
Se séparer des équipements numériques
Une dynamique sectorielle mal orientée
Chapitre 4. L’IA pour une révolution verte
Chapitre 5. Les transports
Chapitre 6. Chaînes logistiques et économie circulaire
Gérer la complexité logistique
Qualification des fournisseurs
Économie circulaire
Vers une économie des services
Produire et industrialiser
Réindustrialiser
Chapitre 7. L’agriculture
Un potentiel inégalé pour l’IA
Robotique et IA
Chapitre 8. Produire et utiliser l’énergie
De l’offre à la demande
Troisième partie – Systèmes, nouveaux usages
et freins culturels
Chapitre 9. IA personnelles et Meta IA
L’assistant personnel ou AI companion
Les systèmes coordinateurs ou AI platform
Collaboration et compétition
Chapitre 10. Une journée dans la vie de Sophie
Vivre, habiter, travailler en 2040
Utopies d’aujourd’hui et de demain
Conclusion
Notes bibliographiques
Avant-propos
{a}Ce qui ne signifie aucunement que ces machines seront d’un niveau comparable
aux capacités d’un cerveau humain.
{b} L’analyse multivariée est une méthode statistique qui consiste à analyser
simultanément plusieurs variables, c’est-à-dire des ensembles de données qui
comprennent plus d’une variable. Elle est utilisée pour comprendre les relations
complexes entre ces variables, pour extraire des informations significatives à partir
de données multidimensionnelles, et est couramment mise en œuvre dans divers
domaines, notamment la recherche, la finance, la sociologie, la biologie, la
psychologie et la gestion.
{c}No-till farming : aux États-Unis, l’abandon du labourage concerne désormais
35 % des terres agricoles.
{d} Entre 2023 et 2028, le marché de l’IA agricole devrait croître de 23 % par an
selon « Google’s Project Mineral in 2023 : Revolutionizing agriculture with AI »
(Market and Market, 30 juin 2023).
Introduction
Du sentiment d’être un boomer
{a}Au travers d’auteurs comme : Paolo Bacigalupi avec La Fille automate (2009),
Neal Stephenson avec Seveneves (2015), Liu Cixin avec The Three-Body Problem
(2008) ou encore Kim Stanley Robinson avec 2312 (2012) et, plus récemment
encore, Annalee Newitz avec Autonomous (2017).
Première partie
Un débat idéologique
Le débat sur la croissance et l’environnement est d’autant
plus compliqué qu’il cristallise des positionnements politiques
et idéologiques antagonistes. Il y a en premier lieu ceux qui se
revendiquent décroissants. Pour eux, la quantité de richesse
totale que l’humanité peut produire est atteinte et il faut
désormais redistribuer cette richesse si nous voulons faire
progresser le plus grand nombre. Ce sont les idées défendues
par Timothée Parrique, l’Institut de la décroissance en France
et, aux États-Unis, par Jason Hickel dans son très radical
ouvrage Mieux avec moins. Comment la décroissance va
sauver le monde{4} ou encore par Tim Jackson dans son Après
la croissance. La vie sans le capitalisme{5}. Les idées
marxistes de redistribution sont très largement présentes chez
ces auteurs ; un retour en vogue extraordinaire tant les
principes d’économie administrée ont été décrédibilisés par
leur inefficacité partout où ils ont été essayés tout au long du
e
XX siècle. Non seulement ils étaient inefficaces, mais ils ont
directement suscité d’effroyables dictatures, ayant peu ou pas
d’équivalents dans l’histoire humaine. Évidemment, tout cela
ouvre des débats passionnés : des journalistes, des acteurs
économiques, des acteurs politiques… accusent les
décroissants d’user du prétexte de la transition
environnementale pour imposer un agenda politique que l’on
croyait discrédité pour de bon{6}, tandis que d’autres sont
convaincus que le marché et l’innovation peuvent largement
répondre à ces enjeux de transition.
Il existe aussi des décroissants techno-solutionnistes, par
exemple Jean-Marc Jancovici et Jeremy Rifkin. S’ils
s’opposent sur les systèmes de production d’énergie –
Jancovici est pour le nucléaire et Rifkin est contre –, tous deux
voient dans les réseaux électriques intelligents une solution
compatible avec un scénario décroissant. Tous deux sont
également critiqués pour leur vision très autoritaire de la
décroissance, Jean-Marc Jancovici ayant été jusqu’à suggérer
que le modèle chinois était plus approprié à une transition
environnementale rapide.
De nombreux acteurs, incluant l’Américain Paul Hawken,
l’Indienne Vandana Shiva ou même l’activiste suédoise Greta
Thunberg, se situent eux dans une zone indistincte où, sans
prôner directement la décroissance, ils n’en invitent pas moins
à une autre forme de croissance. Ils se rejoignent souvent sur
des idées communes, comme les mobilités douces, les
systèmes de production de proximité, l’économie circulaire,
le réemploi, et souhaitent une évolution radicale de la façon
dont les systèmes politiques fonctionnent, afin de les
affranchir de l’influence qu’ils prêtent aux grandes entreprises.
Il est d’autant plus difficile de bien cerner leurs orientations
politiques qu’ils s’affranchissent largement du débat politique,
en récusant le cadre pour mieux faire résonner leurs idées.
Il n’est donc pas facile d’y voir clair tant les antagonismes
sont violents et les écoles nombreuses. Par-dessus le marché,
le sujet est en lui-même d’une grande complexité, les
méthodologies multiples, les interdépendances innombrables,
ce qui ébranle les certitudes les plus établies. À titre
d’exemple, au milieu des années 2010, l’idée qu’il faille
développer le nucléaire pour produire de l’électricité à basse
teneur en CO2 était particulièrement minoritaire. Cette
technologie était le symbole même d’une croissance
prométhéenne, faisant peser un risque fatal sur l’humanité,
Tchernobyl et Fukushima ayant pour les opposants au
nucléaire largement démontré les dangers d’une telle
technologie. Ainsi, seuls 25 pays envisageaient de construire
des centrales nucléaires en 2015.
Moins de dix ans plus tard, ce chiffre a presque que
doublé{7}, avec 44 pays envisageant un ou plusieurs
programmes nucléaires civils. Entre-temps, il y a eu les
tentatives de décarbonation de l’électricité reposant
essentiellement sur les sources renouvelables et nécessitant de
considérables investissements pour réussir à réduire les
émissions de CO2 des grids nationaux. L’Allemagne, par
exemple, a fermé ses centrales nucléaires, tout en investissant
plus de 500 milliards d’euros dans les énergies renouvelables,
mais semble néanmoins en butte à une forme de plateau dans
sa transition énergétique, étant même obligée de relancer de
nombreuses centrales à charbon pour passer l’hiver et l’été
sans heurts. Dans le même temps, une rationalisation des
risques-bénéfices du nucléaire a permis de démontrer qu’il
s’agit d’une des énergies les plus décarbonées, aux risques et
aux externalités (empreinte au sol, ressources minières et
même déchets…) très faibles.
En outre, la notion même de décroissance continue
d’apparaître comme particulièrement vague. Pour certains,
comme Hawken, il s’agit essentiellement de produire
différemment et en particulier plus localement, de protéger nos
écosystèmes et d’apprendre à mieux utiliser nos ressources
énergétiques. Même s’il n’est pas explicite à cet égard et prône
plus particulièrement une décroissance du consumérisme,
il n’en reste pas moins régulièrement classé dans les
décroissants.
Dans l’ensemble, il faut admettre que les techno-
solutionnistes se situent le plus souvent dans le camp
conservateur, dans la mesure où ils prétendent qu’il n’est pas
nécessaire de faire de grands changements économiques et
sociaux, et que le marché, la croissance de la productivité
permise par les innovations technologiques vont résoudre les
enjeux qui nous font face{8}. Le philosophe François Jarrige
observe que les techno-solutionnistes veulent généralement
maintenir leur mode de vie actuel et récusent l’action
collective{9}. Pour défendre ce point de vue, ils opposent des
évidences chiffrées. Par exemple que le PIB européen a
augmenté de 50 % par habitant depuis 1980 tandis que les
émissions de CO2 par individu reculaient de 37 %. Ils prennent
donc appui sur ce découplage net entre croissance et CO2
(prenant en compte le CO2 importé) pour expliquer qu’il suffit
d’accroître cette dynamique – sans faire évoluer les modes de
vie – pour parvenir à effectuer une transition environnementale
accomplie. Ce courant de pensée, minoritaire en Europe, est au
contraire très dominant aux États-Unis.
Mais une approche reposant exclusivement sur la
technologie sera-t-elle suffisante ? Désormais, le niveau de
baisse des émissions de CO2 doit aller cinq fois plus vite qu’au
cours des vingt dernières années pour tenir l’objectif de + 2 oC
en 2050{a}. Il devient plus difficile de contester l’idée que des
évolutions fortes des modes de vie seront nécessaires.
Dans le camp décroissant, en revanche, on privilégie le
changement de système politique, l’évolution vers un modèle
au sein duquel le principe de redistribution est central. Dans ce
même camp, on a logiquement tendance à sous-estimer le
potentiel des technologies, d’autant plus que, si elles étaient
efficaces, il n’y aurait plus de justification à effectuer un
changement de modèle politique. Les décroissants fustigent
ceux qui voient dans le découplage entre croissance et CO2
une raison de se réjouir. Ils affirment que celui-ci ne concerne
que des fonctions qu’il était simple d’améliorer, comme la
production d’électricité à base de charbon, sensiblement
réduite à l’échelle de l’Europe, et qu’une fois ces gains faciles
effectués, les vraies difficultés s’avéreront insurmontables.
Pour eux, réussir une réelle transition environnementale passe
par un changement radical de société, une forme de revanche
sur la domination sans partage du modèle capitaliste.
Il est intéressant d’observer les conclusions que tirent du
découplage CO2/PIB ces deux écoles de pensée : pour les
techno-solutionnistes, si le recul des émissions de CO2 est
insuffisant, c’est bien parce que l’on n’a pas assez mis à
l’échelle les technologies de décarbonation. Ils pointent du
doigt les fausses solutions des mouvements écologistes, qui
ont retardé la mise en chantier de nouvelles centrales
nucléaires et qui s’opposent parfois au développement du
véhicule électrique. Pour les décroissants, le faible niveau de
décarbonation de notre société consumériste est une
démonstration brutale que son modèle même est insoutenable
et qu’il faut en changer.
De l’effet rebond
Il est incontestable que l’amélioration des techniques est
une cause de l’effet rebond. Ainsi du transport aérien, dont les
coûts d’exploitation ont été considérablement abaissés, ce qui
fait que, au cours des vingt-cinq dernières années,
la croissance moyenne de ce secteur a été de 5,4 % l’an, au
point qu’aujourd’hui il s’agit du huitième facteur de
réchauffement climatique à l’échelle planétaire{f}. Ou encore
de la taille et du poids des voitures : alors qu’en quarante ans
l’efficacité des moteurs thermiques a été pratiquement
multipliée par 2, la consommation de ces véhicules n’a connu
qu’une baisse marginale, la presque-totalité des gains
de performance ayant été absorbée par une augmentation de
leur taille et de leur poids. Un véhicule moyen dans les années
1980 pesait 950 kilos. Son équivalent en 2024 ferait plutôt
1 330 kilos. Bien entendu, tout le monde trouve de bonnes
raisons pour justifier cela : la sécurité et le confort seraient
largement accrus, et de quoi se plaint-on puisque la
consommation baisse, certes assez marginalement.
Le fait est que, jusqu’à présent, il y a eu une forte
corrélation entre progrès technique, croissance économique et
émissions de CO2, sans même parler des autres externalités
environnementales. En l’espace de deux cent cinquante ans,
l’économiste américain Paul Kennedy estime que le PIB par
Terrien a été multiplié par au moins 40. Il serait ainsi passé de
0,6 à 29,50 dollars par jour, si l’on s’en réfère aux chiffres les
plus récents (soit un facteur, encore supérieur, de 49). Si
Kennedy n’a pas calculé les émissions de CO2 que cette
remarquable croissance a induites, le GIEC, lui, l’a fait,
estimant que, entre l’ère préindustrielle et aujourd’hui,
la croissance par humain des émissions de CO2 est de l’ordre
d’un facteur 20. Il y a donc une corrélation relative, mais
largement insuffisante dans la mesure où nos émissions sont
en moyenne par humain deux fois et demie plus élevées que ce
qu’elles devraient être pour rester durablement dans un monde
viable.
Le problème de l’effet rebond, c’est qu’il est désormais
souvent présenté comme une règle ayant valeur de loi
physique, un cadre dont on ne peut s’extirper. C’est l’un des
arguments fondamentaux des décroissants : on n’a jamais
observé de développement économique, ni même de mise en
œuvre d’une technologie de masse, sans que celle-ci induise
de puissants effets rebond. Et il est vrai qu’ils ont largement
raison, l’amélioration de la performance énergétique des
avions commerciaux n’a aucune autre conséquence qu’un
accroissement du trafic aérien qui outrepasse largement ces
économies de fuel. Les SUV sont légitimement pointés du
doigt comme des absurdités : si les voitures d’aujourd’hui
avaient gardé le poids de celles d’il y a trente ans, il est
vraisemblable qu’elles consommeraient de l’ordre de deux fois
moins, particulièrement en ville où les effets d’inertie liée au
poids sont plus importants que sur la route. La performance
s’est ici traduite en taille, en hauteur, sans aucun autre bénéfice
qu’une forme de course aux armements entre ceux qui
souhaitent avoir le véhicule le plus imposant. Partout, nous
pouvons observer la trace de gains de productivité qui se
traduisent en effets rebond. Par exemple, dans la quantité des
emballages, conséquence de l’amélioration de la performance
des machines de production de packaging, sans même parler
de la livraison à domicile qui aurait accru de 10 % la quantité
d’emballages produits chaque année par le Royaume-Uni.
Ou dans la consommation de week-ends de loisirs, à la fois
conséquence de la baisse du coût du transport – en particulier
aérien – et de la simplification que les services numériques ont
permis lors des opérations de réservation.
Néanmoins, ce qu’oublient les décroissants, c’est que les
externalités environnementales n’étaient jusqu’à présent le
problème de pas grand monde, sinon des ONG et autres
activistes du climat. Personne ne s’est vraiment préoccupé
d’orienter les bénéfices des progrès technologiques au profit
de l’environnement. Ce n’est qu’au cours des toutes dernières
décennies que quelques réglementations sont apparues à ce
sujet. Et encore, les activités les plus carbonées, comme le
transport aérien, bénéficient (sauf quelques rares exceptions)
d’un régime particulièrement favorable, le kérosène n’étant
le plus souvent soumis à aucune taxe. Or aucune autre activité
ne dispose d’un bilan temps d’usage par heure aussi élevé que
l’avion. En moyenne, un passager émet 240 kilos de CO2
par heure d’avion, soit environ 2 fois plus qu’une heure de
voiture et 90 fois plus qu’une heure de train. Certes, on va plus
loin en avion, mais on n’y va pas toujours avec le souci d’être
attentif aux externalités que l’on induit. Et, malgré tout cela,
le simple progrès technique a suffi à réduire les émissions de
CO2 dans les pays développés. Il est vraisemblable que si nous
avions été plus exigeants, les technologies auraient fait des
progrès encore plus importants en matière de décarbonation.
L’effet rebond s’applique particulièrement bien au
numérique, d’autant plus nettement que le numérique est
gouverné par l’une des rares lois exponentielles qui soient.
Tous les deux ans, les microprocesseurs doublent de
puissance, donnant l’opportunité de mettre en œuvre de
nouveaux services qu’il aurait été tout simplement impossible
d’imaginer quelques années plus tôt. En conséquence, les
plateformes numériques et les constructeurs d’équipements
n’ont pas hésité à développer des usages très exigeants en
calcul et en données. Un service comme TikTok concentre à la
fois d’importants flux de données, du calcul effectué sur le
terminal de l’utilisateur (qui nécessite donc un smartphone
récent, ne serait-ce que pour afficher l’image) ainsi que sur le
serveur pour optimiser les propositions de courtes vidéos qui
sont personnalisées pour chaque utilisateur. L’objectif avoué
de l’ensemble de l’industrie numérique consistant à faire en
sorte que l’on passe le plus de temps possible sur ces
appareils, l’infinite scrolling (les « pages sans fin »), vise à
créer une addiction en jouant sur « la peur de manquer quelque
chose » (fear of missing out, ou FOMO). Cela induit
d’importants moyens de calcul pour une finalité qui est
largement discutable. De surcroît, les services les plus
impressionnants sont ceux qui sont optimisés pour les
dernières versions de smartphones, incitant ainsi les
consommateurs à changer fréquemment d’appareil, ce qui
constitue d’ailleurs de loin la plus grande source d’émission de
CO2 de l’industrie numérique.
Comment éviter les effets rebond ? Est-il seulement
possible d’orienter le fruit des progrès techniques vers autre
chose que des bénéfices souvent superflus pour les
utilisateurs ? Le moins que l’on puisse dire c’est que notre
organisation économique a jusqu’à présent largement failli à
répondre à cet objectif. Et, encore une fois, le numérique n’est
pas le secteur d’activité le moins critiquable lorsqu’il s’agit de
créer de nouveaux usages dont on peut se poser la question de
l’intérêt véritable pour l’usager. Il est difficile de contester le
fait qu’une brosse à dents fasse partie des produits de première
nécessité, mais une brosse à dents connectée devrait-elle en
faire partie ? Un véhicule dont le fauteuil s’ajuste
automatiquement au pilote, dont le véhicule reconnaît la voix
nous change-t-il vraiment la vie ?
Tout cela serait encore acceptable si ces innovations étaient
produites à périmètre constant de ressources, mais, on l’a vu,
une voiture a pris au moins 35 % de poids en trente ans{14},
et il en est de même de beaucoup de produits similaires. Cet
embonpoint signifie des ressources minérales supplémentaires,
des difficultés accrues de recyclage, notamment du fait
d’utilisations plus importantes de métaux spéciaux et de terres
rares, une consommation accrue. Et pour autant ce déluge
d’innovations n’est que très faiblement tourné vers la
production de produits plus résilients, plus écologiques.
Dans un tel contexte, les approches techno-solutionnistes ou
décroissantes sont-elles l’une et l’autre inadéquates ? Peut-on
parler des bienfaits de la croissance lorsque nous détruisons
nos habitats, notre biotope, pour y parvenir ? Et doit-on
envisager une décroissance qui dans certains cas reviendrait à
réduire considérablement nos capacités d’innovation,
de développement de nouvelles technologies médicales,
agricoles, productives, etc. ? Certains voient dans la right tech
une technologie qui serait tournée vers des usages raisonnables
et la résolution des grands problèmes environnementaux et
serait donc l’approche qu’il convient d’adopter. Un projet
malheureusement trop peu présent dans le débat. En réalité,
il ne faut pas s’étonner si la technologie est de plus en plus
prise pour cible par ceux – les purs, les durs, les radicaux – qui
prétendent appartenir à la vraie écologie. Leur argumentation
est en réalité imparable : la technologie nous entraîne dans une
course à la consommation, à l’exploitation des ressources
minières. Seule une culture de la parcimonie, de la
renonciation, pourrait nous permettre d’expier une part de nos
fautes. Une vision flagellante qui a le don d’exaspérer le camp
des rationalistes et techno-solutionnistes.
La condamnation structurelle de la technologie a différentes
origines{g}. Étymologique, d’abord : « technologie » naît de la
fusion des termes grecs tekhnê et logos, « technique » et
« raison ». Pour les penseurs romantiques, ils cristallisent la
faute originelle consistant à s’opposer à la nature en
s’émancipant de la production et de l’accès aux ressources
et par une connaissance qui serait indépendante de l’état de
nature.
Au cours des dernières années, la remise en cause de la
notion de progrès s’est généralisée du fait du dérèglement
climatique et d’une perception de montée des inégalités. À cet
égard, il est intéressant d’observer que les forces de gauche ne
voient plus dans le progrès technologique un facteur
d’émancipation. Le plus souvent, elles considèrent que celui-ci
s’est retourné contre la classe sociale qu’il était censé servir et
a choisi ses maîtres au sein des intérêts particuliers, des
gouvernements autoritaires, du camp réactionnaire…
Ce ne sont plus des forces de transformation politique, ce
qui peut expliquer l’attrait que suscite la notion de
décroissance, assez généralement associée à la notion de
redistribution des richesses. Dans son livre Leur progrès et le
nôtre. De Prométhée à la 5G, François Ruffin fait une critique
intéressante de l’accaparement des technologies par des
intérêts particuliers{15}. Il commet cependant une erreur : celle
de penser que ces technologies n’ont qu’un seul maître,
qu’elles y obéissent sans faille, et il n’envisage pas qu’elles
puissent être remises au service du bien commun.
Que l’on ne s’y trompe pas, cependant : mon livre ne se
veut pas être, à l’inverse, un plaidoyer pro domo de
l’intelligence artificielle. Je ne cherche pas à véhiculer l’idée
que l’IA va nécessairement résoudre nos enjeux
environnementaux. J’énonce simplement l’hypothèse que,
dans un contexte adapté, l’IA peut représenter un puissant
outil pour traiter nos enjeux climatiques et environnementaux.
Il y a d’importantes conditions préalables pour que cela soit
le cas. L’une d’entre elles est que nos usages du quotidien
évoluent profondément, que des consensus forts émergent à
cet égard.
Demain, il est possible que nous recourrions sensiblement
plus à des transports collectifs, il est également envisageable
que nos logements soient plus petits, que notre nourriture soit
différente, que notre utilisation de l’énergie soit, elle aussi, très
différente… et tout cela sans que nous renoncions vraiment au
confort auquel les sociétés développées sont habituées. Sans
renoncer, mais en acceptant que cela soit différent, et il faut
avouer que nul ne sait jusqu’à quel point cette capacité
d’adaptation sera possible. Ce qui est en revanche manifeste,
c’est qu’il sera difficile d’esquiver la nature politique de ces
enjeux. Modifier les usages, notre façon de nous déplacer,
d’habiter, de travailler peut difficilement se faire à large
échelle sans engager de vastes débats, eux-mêmes
suscitant désaccords, conflits, polémiques… Et parfois se
dégage un consensus pour aller de l’avant. Tout cela est avant
tout politique.
{a} L’objectif initial de 1,5 °C semble désormais hors de portée et pourrait être
atteint au cours de la décennie 2020 selon certaines projections (Gloria Dickie,
« Global warming will reach 1.5 C threshold this decade – report », Reuters,
novembre 2023).
{b} Le médecin Jean-David Zetoun observe dans son ouvrage Le Suicide de
l’espèce. Comment les activités humaines produisent de plus en plus de maladies
(Denoël, 2023) que les plastiques sont probablement « responsables de centaines de
milliers de morts par an, a minima ».
{c}Il ne faut cependant pas négliger l’opposition ruralité/métropole, qui a beaucoup
joué dans cette affaire.
{d} « L’objectif d’une augmentation de la température de 1,5 °C d’ici à la fin du
siècle est carrément hors d’atteinte. Il faut dire la vérité aux gens », appelle
François Gemenne, rapporteur du GIEC sur BFM (novembre 2022).
{e}Un vol de Paris à Tokyo en Gulfstream G650 nécessite de l’ordre de 20 tonnes
de carburant, ce qui une fois brûlé génère environ 60 tonnes de CO2.
{f}Avec seulement 2,8 % des émissions totales de CO2, mais dont les effets
chimico-physiques induits portent ce secteur d’activité à plus de 5 % (« Les idées
reçues sur l’aviation et le climat », Carbone 4, février 2022).
{g}Dans son essai La Question concernant la technologie (Die Frage nach der
Technik), Martin Heidegger soutient que la vision moderne de la technologie
comme un moyen neutre est erronée. Selon lui, la technologie moderne impose un
cadre (Gestell) qui conditionne notre manière de voir le monde, nous réduisant à
considérer la nature et même les êtres humains comme de simples ressources à
exploiter. Cette approche, argue-t-il, nous aliène de notre véritable relation avec
l’être.
Chapitre 2
L’approche politique
Le signal prix
L’un des grands problèmes qu’il nous faut résoudre est de
savoir quel est le prix de nos atteintes à l’environnement. Des
compagnies aériennes mettent en avant l’argument publicitaire
que les émissions carbone de leurs vols sont contrebalancées
par des programmes de compensation. La difficulté est que les
mesures de compensation s’exercent généralement à des
niveaux ridiculement bas, de l’ordre de 10 à 30 dollars par
tonne de carbone{a}. Or, pour certains, les coûts qui
permettraient d’avoir une dynamique forte sur le marché se
situent plutôt bien au-delà de 100 dollars par tonne{b}. Lors de
la crise énergétique de l’hiver 2023, on a observé que le seuil
des 90 dollars déclenche toute une série d’investissements liés
à la décarbonation. Cette notion reste très polémique et c’est
d’ailleurs pourquoi les États de l’Union européenne se sont
abrités derrière un dispositif commun de marché flottant, dont
l’efficacité est néanmoins fortement réduite du fait de crédits
gratuits, censés être distribués aux gros pollueurs durant une
période de transition.
Tout cela fait largement appel à un principe souvent évoqué
et pour autant très ancien, qu’a développé il y a un siècle
l’économiste Arthur Cecil Pigou, celui d’« externalités », dans
le cadre de ses travaux sur l’économie du bien-être. Le moins
que l’on puisse dire c’est que la mise en œuvre de ses idées n’a
pas été immédiate, dans la mesure où, comme cela a été
indiqué plus haut, les externalités sociales et
environnementales ont jusqu’à présent plus ou moins été
considérées comme gratuites. Dans les années 1960, avec
l’émancipation de la consommation de masse, le principe
d’une taxe sur la valeur ajoutée a été adopté par de très
nombreux pays. C’était une taxe qui répondait aux
caractéristiques de l’économie du moment et qui a structuré le
développement économique de ces nations. À l’époque,
la notion de croissance du PIB était centrale. Elle reste
toujours centrale aujourd’hui, mais les débats qui traversent
notre société montrent bien qu’elle est débattue et même
violemment remise en cause par certains.
Aujourd’hui, alors que la planète semble avoir atteint les
limites supérieures du donut{c}, il paraît nécessaire d’inventer
de nouveaux dispositifs qui reflètent les enjeux premiers dont
dépend le bien-être des générations actuelles et futures. Ce
bien-être se résume largement au fait d’être à même de traiter
collectivement ces externalités, qu’elles s’expriment
localement (pollution d’une rivière) ou globalement (CO2).
Dans la mesure où le fait environnemental semble a minima
aussi important que celui ayant trait à l’expansion de la classe
moyenne depuis les années 1950, à moins d’une démission
générale des institutions politiques à l’échelle de la planète,
il y a peu de raisons de douter du fait que des outils
systémiques de contrôle de ces externalités vont être mis en
place. Et, à moins de créer une société encore plus
bureaucratique que celle dans laquelle nous vivons déjà,
le signal prix qu’enverrait une taxe carbone semble difficile à
éviter.
À long terme, on peut même envisager que ce signal prix
puisse s’appliquer à d’autres externalités que le CO2. Ainsi, les
pare-brise de voitures n’émettent pas de CO2 ; ils n’en sont pas
moins un facteur notable de disparition des insectes{16}. Taxer
les véhicules aussi pour les conséquences qu’ils ont sur leur
disparition (et, par effet de domino, des oiseaux, de la plus
faible propagation des graines, de la fragilisation de la faune
en général, etc.) serait pertinent, même si ce n’est pas encore
le cas. Ce principe de pollueur-payeur se développe de façon
généralisée, en France par exemple, où une taxation de
l’étalement urbain est le moyen qu’a trouvé le législateur
français pour éviter que la ville ne dévore indéfiniment la
campagne.
Reste que le signal prix est parfois insuffisant. Non
seulement, on l’a vu, il permet à certains de s’affranchir à bon
compte de leur part d’effort dans la transition
environnementale, mais parfois il laisse perdurer des situations
de danger immédiat. Il a fallu cinquante ans entre le moment
où les premières études ont montré la nocivité de l’amiante et
celui où il a effectivement été interdit. Jamais il n’a été
envisagé d’en taxer l’utilisation, car le danger était tel qu’il ne
s’agissait pas de l’amoindrir mais bien de l’éradiquer.
On pourrait facilement rétorquer que ce n’est pas le cas
concernant la cigarette. Il est vrai que l’expérience de la
prohibition a montré les limites des politiques d’interdiction,
lorsqu’elles concernent des pratiques généralisées dans la
société. Et plus encore lorsque ces produits suscitent des
addictions tenaces.
Une politique appropriée de transition peut donc réunir
des approches complémentaires : d’une part, des taxes qui
pénalisent les usages nocifs et dont le produit peut
éventuellement être utilisé pour encourager les pratiques
vertueuses ; d’autre part, des volets incitatifs, comme inviter
les gens à trier eux-mêmes les déchets ; et, enfin, des
interdictions portant par exemple sur le fait d’utiliser des
véhicules polluants dans les cœurs de ville. Pour les acteurs
politiques, l’interdiction doit être maniée avec précaution.
En Europe, les idées de Pigou se retrouvent entre autres
dans la mise en place de taxes carbone. Ramené à l’ensemble
de l’économie, il est estimé que la France taxe en moyenne ses
émissions de CO2 à 44 euros la tonne. Si le prix de marché du
CO2 a depuis longtemps dépassé ce niveau sur l’EU European
Trade System (le marché coté du CO2), son prix moyen est
sensiblement plus bas du fait qu’il est grevé d’importantes
exemptions, sur les énergies de chauffage par exemple.
La Suède, le Canada, la Finlande ont introduit des taxes
semblables, bien que les spécialistes observent que leur niveau
est trop bas pour qu’elles aient un impact significatif. D’autres,
et parfois les mêmes, sponsorisent la rénovation énergétique
des bâtiments ou le fait de renoncer à son véhicule à essence
pour un véhicule électrique. Si les gouvernements de ces pays
donnent le sentiment d’en faire beaucoup, rares sont ceux qui
peuvent s’enorgueillir de respecter une trajectoire de
décarbonation compatible avec les engagements pris lors de
l’accord de Paris. Les États-Unis, par exemple, se sont
engagés à réduire leurs émissions de gaz à effet de serre de 26
à 28 % en dessous des niveaux de 2005 d’ici à 2025. En
maintenant leur trajectoire actuelle, les émissions du pays
devraient cependant être supérieures de 17 % aux niveaux
de 2005 d’ici à 2025, ce qui se passe de commentaires.
La plupart des pays européens ne sont d’ailleurs pas pour
l’instant sur une trajectoire leur permettant de respecter leurs
engagements. Seuls la Norvège, la Suède, les Pays-Bas
paraissent capables de ne pas avoir à se dédire. L’Allemagne,
la France, le Royaume-Uni se trouvent plus généralement dans
une logique de rattrapage, amplifiant désormais les politiques
de décarbonation et créant de nouvelles initiatives.
Taxe carbone :
proportionnelle ou progressive ?
Cependant, le dividende carbone et toutes les différentes
formulations de la taxe carbone ont un autre défaut : ils
n’incitent que de façon secondaire les plus riches à décarboner
leurs pratiques. Différents travaux ont démontré que les plus
aisés ont une forte tendance à s’affranchir des règles
collectives en considérant qu’ils peuvent se le permettre dans
la mesure où ils ont payé les taxes ou les amendes que l’on
souhaite éviter. Une célèbre étude a démontré que lorsqu’on
mettait une amende aux parents qui arrivaient en retard pour
venir chercher leurs enfants à la crèche, si la taxe était mal
calibrée, le nombre de retards augmentait au lieu de
diminuer{23}. Or, comme cela a été évoqué plus haut, dans la
mesure où ce sont les riches qui polluent le plus, un tel
mécanisme court le risque d’une forte contestation s’il devient
évident que seuls les plus modestes font évoluer leurs
pratiques.
Pour pallier cela, certains ont souhaité mettre en place une
progressivité de la taxe carbone. Par exemple, en obligeant que
les produits les plus carbonés, l’essence, les dépenses de
chauffage, les billets d’avion, soient taxés progressivement.
C’est-à-dire que, en fonction de l’importance de votre
empreinte carbone, vous payez plus ou moins cher vos
émissions personnelles. Vous ne prenez que rarement l’avion,
faites un nombre limité de kilomètres en voiture et avez un
usage modéré de votre chauffage domestique, vous entrez dans
la tranche la plus faible ; vous n’êtes que faiblement ou même
pas taxé. Mais si vous dépensez beaucoup dans des achats
carbonés, si vous consommez plus que la moyenne (par
exemple plus de 3 tonnes par trimestre), le taux de la taxe
augmente, exactement comme le font les impôts sur le revenu.
Cela ressemble beaucoup à la TVA. Rien d’impossible, mais il
faut toutefois avoir à l’esprit qu’en matière de taxation carbone
nombreux sont les gouvernements qui ont reculé pour moins
que cela. Lorsqu’elle avait été mise en place en 1954, la TVA
avait fait l’objet de beaucoup de critiques, essentiellement du
fait de son caractère injuste pour les pauvres, de sa non-
progressivité, mais également parce qu’elle allait fortement
compliquer la comptabilité des entreprises. Le mouvement de
Pierre Poujade (UDCA) y voyait « une horreur économique
[…] qu’il faut combattre par tous moyens ».
Cette idée a cependant un intérêt qu’il ne faut pas négliger :
en imposant peu à peu toute la consommation intérieure, elle
permet de jeter les bases d’une politique fiscale nouvelle, non
plus uniquement basée sur la consommation et la valeur
ajoutée, mais bien sur les gaz à effet de serre et sur ce qui
dégrade l’environnement. Certains observent cependant que
ces taxes sont régressives, c’est-à-dire que, comme la TVA,
elles pèsent beaucoup plus lourdement sur les faibles revenus
que sur les classes aisées. Pour ceux qui ont déjà du mal à
joindre les deux bouts, le fait d’augmenter de quelques points
la TVA peut rendre les choses très inconfortables, là où
les plus riches n’y sentiront qu’un effet marginal. C’est
pourquoi des économistes issus de différentes disciplines,
comme Thomas Piketty, défendent l’idée d’une « carte
carbone personnelle{24} » qui pourrait fonctionner sous la
forme d’une application qui centraliserait toutes nos dépenses
de carbone, et sur laquelle une taxe de plus en plus lourde
serait perçue en fonction de notre quantité d’émission de CO2.
Tout comme les impôts perçus sur les salaires, la taxe serait
conçue pour être très faible sur les petites émissions annuelles
et très forte sur celles qui sont importantes. Fidèle aux idées
qu’il défend, Thomas Piketty étend ici le principe de
redistribution à l’économie de la transition environnementale.
Évidemment, la première objection qui vient à l’esprit
concerne le niveau d’intrusion dans notre intimité qu’induit
une telle taxe. Pour que cela fonctionne, il est nécessaire que
toutes les dépenses individuelles soient clairement identifiées.
Cela rappelle invariablement le crédit social chinois, qui voit
les « bonnes actions » récompensées par des points bonus et
les mauvaises perdre ces mêmes points. Si l’application de
telles pratiques ne devrait pas poser de problèmes en Chine,
il est vraisemblable qu’il en irait tout autrement en Europe et
en France. Il y aurait de surcroît de nombreux obstacles à
régler. Comment neutraliser les effets d’évitement, par
exemple pour les possesseurs de comptes bancaires étrangers
qui ne seraient pas soumis à ce type de déclarations ? Ne faut-
il délivrer des biens carbonés qu’à ceux qui sont identifiés et
peuvent donc s’acquitter de cette taxe carbone
proportionnelle ? Que faire lorsque l’activité des salariés se
trouve être à cheval avec les usages personnels ? Lorsqu’elle
conduit à mettre à leur disposition des véhicules, réserver des
chambres d’hôtels, prendre en charge des déplacements
professionnels… est-ce à créditer sur le compte du salarié ou
de l’entreprise ? Comment limiter l’évasion fiscale des
plus riches, qui pourraient tout aussi bien acheter une partie de
leurs dépenses carbonées depuis l’étranger, à commencer par
les billets d’avion ? En théorie, il faudrait pouvoir imposer que
tous les passagers allant et venant vers l’espace européen
s’identifient lorsqu’ils achètent un billet d’avion. Cela semble
difficile, même si on peut observer que les Américains du
Nord ont bien imposé l’ESTA, une déclaration nominative qui
se situe en dessous de la mise en place d’un visa, mais oblige
néanmoins tous ceux qui pénètrent aux États-Unis et au
Canada à effectuer des déclarations nominatives.
L’objection principale à une telle idée vient directement des
travaux de l’économiste Alfred Pigou, cité plus haut. Celui-ci
fait observer que lorsque les taxes sont les mêmes pour tous,
les efforts à fournir pour les éviter sont identiquement
structurés pour tous. Cela empêche tout à la fois les effets
d’évitement (aller faire le plein de son jet à Guernesey pour ne
pas être pris en compte par le fisc national) et cela donne une
mesure identique à tous de ce que représentent les externalités
CO2 de nos modes de vie (un aller-retour Paris-New York,
c’est 350 euros de taxes). Ce n’est pas neutre, et cela
matérialise le coût environnemental.
Bien entendu, qu’elles soient progressives ou régressives,
ces taxes ne pourraient au début concerner que les dépenses
les plus carbonées (l’énergie, l’acier, les transports, etc.), mais,
au fur et à mesure qu’elles s’étendraient à toute l’économie,
il serait possible d’ajouter l’ensemble des dépenses, y compris
celles du quotidien, et ce qu’elles produisent en termes de
CO2.
L’objectif de ces taxes est de pousser les entreprises à
modifier leurs modes de production. Certes, des taxes
spécifiques existent déjà sur les produits carbonés que
produisent les grands émetteurs de CO2. Néanmoins, beaucoup
bénéficient pour l’instant de crédits carbone, gracieusement
octroyés, qui leur permettent non seulement d’éviter de payer
la moindre taxe liée à leurs émissions, mais parfois même d’en
tirer profit{25} !
L’empreinte de l’usage
des appareils numériques
Si le numérique est désormais partout dans nos vies (en
moyenne, un Français dispose en 2023 de plus de dix
équipements connectés à Internet{36} tandis que ce chiffre est
de seize aux États-Unis{37}) et si la croissance de son impact
est indiscutable, il est important de comprendre que celle-ci
s’effectue dans un contexte de dynamiques complexes et
contradictoires. Ainsi, pour ce qui pousse à la réduction des
émissions du secteur numérique, citons les efforts de
rationalisation des data centers (le fait que les petits
data centers disparaissent au profit des très grands, dont
l’efficacité énergétique est optimisée), ce qui permet à
l’Agence internationale de l’énergie d’affirmer que la
consommation électrique de ceux-ci est restée pratiquement
stable dans le temps malgré leur très fort développement, au
moins jusqu’en 2022{38}. Citons également la loi de Moore qui
veut que la puissance de traitement numérique (stockage,
calcul…) double tous les deux ans, à coût et besoin
énergétique plus ou moins constant. La fibre optique, qui
remplace les réseaux de cuivre, est aussi un facteur de
réduction de la consommation des réseaux. De même de la 5G,
plus performante que les générations précédentes, mais dont
les économies énergétiques ne s’expriment que dans une
perspective temporelle de long terme, dans la mesure où, pour
qu’elles soient visibles, il faudrait arrêter de faire fonctionner
les réseaux précédents (2, 3 et 4G).
Du côté des facteurs de croissance, il y a les nouveaux
usages, au premier titre desquels l’intelligence artificielle, dont
certaines disciplines comme le machine learning nécessitent
structurellement une consommation importante. On estime
ainsi que la facture énergétique de ChatGPT est de l’ordre de
700 000 dollars par jour, ce qui se traduit par des émissions de
CO2 quotidiennes de l’ordre de 2 200 tonnes ! De même,
la démultiplication des équipements électroniques (objets
connectés, électronique embarquée dans les véhicules),
passant de 7 à 11 kilos par Terrien en l’espace de dix ans, est
un puissant facteur d’augmentation des émissions de CO2 du
secteur.
Certaines idées reçues ont cependant la vie dure : non,
envoyer un e-mail avec pièce jointe ne génère pas 25 grammes
de CO2 (des calculs récents convergent plutôt vers un chiffre
six cents à mille fois inférieur), et non également, regarder un
film en streaming ne consomme pas des kilos de CO2, mais
plutôt quelques dizaines de grammes au pire{b}. Et non encore,
l’usage des équipements numériques n’a pour ainsi dire
aucune empreinte CO2, particulièrement en France où
l’électricité est pratiquement intégralement décarbonée du fait
de son origine nucléaire.
Qu’en est-il de l’intelligence artificielle ? Celle-ci est
fréquemment accusée de consommer d’immenses quantités
d’électricité et, selon les spécialistes, cela ne ferait que
commencer.
Pour Alex de Vries, expert et fondateur du Digiconomist,
un cabinet d’étude des tendances numériques, « si chaque
recherche Google utilisait l’IA, cela nécessiterait
29,2 térawattheures d’énergie par an, soit l’équivalent de la
consommation annuelle d’électricité de l’Irlande. Bien que ce
scénario semble peu probable à court terme, une croissance
rapide dans la production de serveurs d’IA pourrait changer la
donne ». D’autres travaux évoquent des chiffres plus
spectaculaires encore. Il convient cependant de noter qu’il
existe une importante confusion entre les phases
d’apprentissage des modèles d’IA, très intensives en énergie
mais limitées à la construction d’un modèle qui ne s’effectue
qu’une seule fois, et les phases d’exploitation, autrement
appelée l’inférence, pour lesquelles la consommation est
moindre mais encore très élevée{c}. Il faut toutefois être
conscient que ces modèles sont pour l’instant largement sous-
optimisés. Le fait de « mettre au travail » – lorsque nous
posons une question sur ChatGPT par exemple – des modèles
comprenant des dizaines de milliards de paramètres pour
répondre à des questions très simples, dont la réponse tient en
quelques phrases, n’est en rien optimal. Il est plus que
vraisemblable que ces systèmes sont pour l’instant sous-
performants et devraient gagner en efficacité avec l’émergence
d’architectures plus spécialisées. Il est par ailleurs intéressant
d’observer que des initiatives existent pour faire fonctionner
des modèles larges directement sur des smartphones{39} qui,
par définition, ne consomment jamais plus de 4 à 6 watts, ce
qui démontre bien que les annonces catastrophistes faites à
l’égard de l’IA sont vraisemblablement exagérées, ou tout
au moins amenées à ne pas perdurer.
Lors des premières années de l’informatique grand public,
les microprocesseurs et les systèmes d’exploitation étaient
encore très rudimentaires. Il n’était pas rare qu’un PC
consomme plusieurs centaines de watts et que certains calculs
entraînent une surchauffe du microprocesseur. Ce n’est
évidemment plus le cas : des dizaines de milliers d’ingénieurs
ont travaillé à accroître la vitesse de calcul tout en optimisant
les architectures afin de minimiser les besoins en ressources de
tous types (calcul, mémoire, stockage, énergie, etc.).
S’il importe de se soucier de la consommation énergétique
des usages numériques et de l’IA en particulier, il est probable
que celle-ci soit victime du même syndrome que les déchets
ménagers dans la psyché collective : les études montrent que
les consommateurs y accordent trop d’importance en pensant
qu’il s’agit des facteurs premiers d’émission de CO2. Aux
États-Unis comme en Europe, lorsqu’on leur demande ce
qu’ils privilégient comme geste environnemental, ils citent le
tri des déchets, sans mesurer que l’utilisation modérée de leur
chauffage, leurs choix alimentaires et leurs modes de transport
sont incomparablement plus importants. Il en est de même
avec le numérique. Ce n’est pas populaire de l’affirmer, mais
c’est un fait que la modération de son usage n’a pour ainsi dire
aucun impact sur l’environnement : dans la mesure où
l’électricité en France est l’une des moins carbonées au
monde, son usage n’induit pour ainsi dire pas d’émissions de
gaz à effet de serre. On peut raisonnablement envisager qu’il
en soit de même, dès à présent, en ce qui concernera l’IA, du
fait de la loi de Moore{d}. Et encore une fois, cela ne signifie
en rien que le numérique est exempt de maux à l’égard de
l’environnement.
{a} L’initiative Net Zéro signifie l’arrêt de toutes les émissions de gaz à effet de
serre, avec une limitation des mesures de compensation à un maximum de 10 % des
émissions initiales.
{b} Une plateforme de type NXP Solid Run (LX2160), avec un port 100G, 16
cœurs, un NVMe 8 To et un peu de RAM consomme environ 60 watts, soit moins
de 1 W/Gb/s (soit plus de deux cents utilisateurs par watt). Il est difficile d’en
extrapoler la consommation totale par utilisateur dans la mesure où il faudrait y
ajouter les besoins en infrastructure (climatisation, etc.) et de transport, mais on
peut estimer qu’elle est inférieure au watt.
{c} La consommation d’une requête sur ChatGPT 4 est estimée à 1 wattheure, ce
qui serait de l’ordre de dix fois supérieur à une requête Google (« AI and its carbon
footprint : How much water does ChatGPT consume ? », MintLounge, 22 octobre
2023).
{d} Apple travaille à intégrer des technologies de LLM directement dans ses
smartphones. Or un smartphone consomme en moyenne entre 3 et 5 watts, ce qui
met largement en péril les affirmations que les grands modèles seraient
structurellement très énergivores (« Efficient large language model inference with
limited memory », Apple, décembre 2023.
Chapitre 4
L’IA pour une révolution verte
Économie circulaire
Mais, si performante que puisse être l’intelligence
artificielle au sein des supply chains, l’enjeu ne peut se
résumer à seulement les améliorer pour qu’elles soient plus
efficaces. Et même si cette amélioration venait à être
significative, elle ne résoudrait que partiellement les enjeux
d’externalités environnementales du mode de consommation
que nous avons généralisé à l’échelle de la planète. Pour
l’instant, ces chaînes logistiques sont à sens unique, et leur
extrémité n’est rien d’autre qu’une unité de traitement
de déchets ou une décharge, plus ou moins contrôlée selon le
niveau de développement des nations où celles-ci se situent.
L’humanité produit environ 2 milliards de tonnes de déchets
par an, générant des perturbations sanitaires et écologiques de
premier plan pour l’ensemble du vivant, sans même compter
5 à 6 % de l’ensemble des émissions de CO2. Pourtant, si
dysfonctionnelle que puisse être cette tragique caractéristique
du monde moderne, l’évolution vers quelque chose de moins
destructeur semble être d’une grande difficulté. Les
gouvernements sont confrontés à une forte résistance de la part
des industriels, mais aussi des consommateurs dans la mesure
où changements d’habitudes et augmentation des prix
paraissent être des conséquences presque inévitables de
l’émergence d’un nouveau modèle.
Notre civilisation, il est vrai, ne s’est pas développée de
sorte qu’elle puisse fonctionner en économie circulaire – c’est-
à-dire pour développer une valorisation après usage de
l’ensemble des produits que nous utilisons au quotidien. Pour
cette civilisation qui a essentialisé la consommation,
lorsqu’une chose est usagée elle doit disparaître aussi
rapidement que possible, par incinération ou par une mise en
décharge, et son remplacement doit être tout aussi aisé. Nous
avons simplement oublié que nous possédions ce nouveau
produit. Pour la nourriture, ce n’est pas très différent, et peut-
être même pire. 40 % de celle-ci n’entreront pas dans notre
bouche. Dans les pays en développement, c’est essentiellement
le dysfonctionnement des chaînes logistiques qui est en cause,
mais dans les pays riches, plus de 60 % de ces pertes se
produisent dans nos réfrigérateurs : nous laissons tout
simplement la nourriture se périmer sans la manger{68}.
Pour essayer de limiter ces maux, les nations introduisent
différentes mesures. En France, la loi « Biodéchets », entrée en
vigueur en janvier 2024, vise principalement à introduire une
valorisation des déchets organiques, soit une quatrième
poubelle qui leur est destinée, en sus de celles dédiées aux
déchets généraux, aux cartons et plastiques et au verre.
Une servitude supplémentaire posant de nombreux défis, en
particulier à ceux qui n’ont que peu de place chez eux. Là
encore, le recours à la technologie pourrait toutefois être
efficace à moyen terme. Ainsi, depuis plusieurs années, les
grands fabricants d’électroménager « blanc » (Samsung{69},
Siemens…) travaillent sur des réfrigérateurs munis de caméras
qui pourraient suggérer à l’utilisateur ce qu’il devrait
consommer en priorité pour éviter le gâchis et les meilleures
recettes possibles à partir des différents produits restés au fond
du frigo. L’expérience vécue par un ami équipé d’un tel
appareil montre que ce n’est encore que faiblement efficace,
notamment parce que les caméras ne voient pas ce qui se
trouve dans des boîtes ou ce qui est empilé. Mais la
dynamique est là, et pourrait à terme avoir une certaine
efficacité, également lorsque nous faisons nos courses pour
nous suggérer des justes quantités évitant le gâchis.
Selon la Fondation Ellen McArthur, l’avènement de l’IA
dans le secteur alimentaire au service de l’économie circulaire
pourrait générer des opportunités économiques à hauteur de
127 milliards de dollars et de 90 milliards dans celui des
déchets électroniques. Étendue à l’ensemble des déchets,
l’opportunité économique à l’échelle de l’Europe s’élèverait
même à 1 800 milliards de dollars{70}. Tout cela dans un
horizon de temps très court, c’est-à-dire d’ici à 2030{71}.
Le principe de l’économie circulaire consiste
essentiellement à limiter le gâchis, tout en essayant de
valoriser ce qui est hors d’usage, ainsi que nos déchets
alimentaires et les contenants des produits que nous achetons.
Le packaging à lui tout seul consomme 40,5 % de l’ensemble
des plastiques produits{72} dont, évidemment, une infime partie
est recyclée. On estime à seulement 30 % la part du plastique
qui est réutilisée. Si en Europe 75 % du verre l’est, ce n’est le
cas que pour 31 % aux États-Unis{73}. Et il faut avoir la
franchise de l’énoncer : le recyclage lui-même n’est pas
toujours une solution optimale{74}. Fondre une bouteille en
verre nécessite 31 fois plus d’énergie (le plus souvent du gaz à
haute teneur en CO2) que celle nécessaire pour produire une
bouteille en plastique. Recycler une bouteille en verre, même
si c’est mieux que de l’envoyer en décharge finale, reste très
polluant. Il est donc nécessaire de trouver des processus de
circularité pertinents, dans la mesure du possible utilisant des
emballages réutilisés tels quels, comme c’était le cas avec les
consignes en verre jusque dans les années 1990 ou encore pour
les bouteilles consommées dans les cafés et restaurants, qui
retournent à l’embouteilleur par le même camion qui a livré
les bouteilles pleines.
Toutefois, même cette approche en apparence vertueuse
n’est pas non plus toujours optimale : des travaux de recherche
ont montré que certains emballages, même lorsqu’ils étaient
directement réutilisés, pouvaient induire d’importants coûts
énergétiques liés à leur transport lors des opérations de
retour{d}, en particulier quand les unités de production et de
réutilisation étaient situées à grande distance. C’est d’ailleurs
l’argument qu’utilise Coca-Cola, lorsque certaines ONG
exigent que le mastodonte des sodas revienne au verre
consigné. Une tentation serait de mettre des petits marqueurs
électroniques NFC sur les boîtes de lait, par exemple pour
faciliter leur détection et leur remise dans la chaîne de
production{75}. Une telle solution est attrayante et fonctionne à
condition d’avoir une réelle concertation entre fabricants,
consommateurs et chaîne de recyclage – le risque étant d’avoir
un remède plus nocif que le mal, avec ces étiquettes contenant
des métaux rares qui finissent dans la nature.
Face à un tel panorama, forte peut être l’inclination à croire
qu’il n’existe pas de solution, ou du moins pas de solution
simple. Et il est exact que, bien que les principes de
réutilisation et de recyclage aient été largement déployés –
cela fait plus de cinquante ans que le tri des ordures a été
initialement introduit dans certaines villes suisses et
allemandes –, l’efficacité de l’ensemble de ces systèmes n’est
pas au niveau que l’on aurait pu espérer. La Commission
européenne escompte obtenir des pays membres un niveau de
recyclage de l’ordre de 65 % en 2025, dont 70 % pour le
plastique et 90 % pour le carton, un objectif qui, de l’avis des
experts, ne sera au mieux tenu que par une poignée de pays.
Or l’avènement de l’intelligence artificielle est
vraisemblablement un facteur qui peut avoir une très forte
incidence sur la mise en place de systèmes circulaires
sensiblement plus efficaces que ceux que nous connaissons
aujourd’hui. À condition toutefois d’accepter de modifier les
pratiques en vigueur.
Dans beaucoup de cas, l’IA est utilisée pour piloter des
processus robotisés. Dès à présent, dans les centres de gestion
des déchets, la qualité du tri s’accroît de façon sensible tandis
que les coûts de traitement baissent du fait de l’avènement des
robots trieurs{e}. C’est d’ailleurs là l’une des applications les
plus communes de l’intelligence artificielle dans la robotique.
L’usage de tels robots permet d’accroître la vitesse de tri d’un
facteur 10, voire 20, par rapport à un opérateur humain et de
renforcer très sensiblement la qualité de tri. Cela est d’autant
plus important que si les composants triés ne sont pas d’un
niveau de pureté très élevée, ils sont généralement très
difficiles à valoriser{76}.
Un autre champ où les robots auront vraisemblablement
un rôle à jouer sur le moyen terme concerne la collecte des
déchets auprès des habitants. Pour toute municipalité, elle
représente l’un des premiers centres de coûts, et plus les
déchets sont collectés fréquemment, plus cette collecte est
onéreuse. Or, dans la mesure où la séparation des déchets chez
l’habitant prend de la place, il est indispensable de collecter
fréquemment si l’on cherche à valoriser le plus fortement
possible ces déchets. Plusieurs entreprises travaillent donc sur
des véhicules autonomes qui permettraient de faire baisser de
façon substantielle le coût de collecte des déchets tout en
accroissant le niveau de tri chez l’habitant{77}. Et depuis
des années plusieurs villes, dont Séoul, Barcelone ou
Cincinnati, ont généralisé les détecteurs de poubelles pleines,
en équipant celles-ci de capteurs, permettant d’ajuster au
mieux les trajets des camions de collecte{78}. Qu’il s’agisse de
déchets issus d’habitations ou de poubelles sur la voie
publique, l’idée d’accroître le niveau de robotisation fait son
chemin et plusieurs villes ont déjà expérimenté à plus ou
moins grande échelle des processus à cette fin.
Si la généralisation de ces machines semble en bonne voie,
cela ne suffira pas à modifier structurellement le modèle : les
plastiques souillés nécessitent beaucoup d’eau pour pouvoir
être réutilisés, certains emballages comprenant de nombreux
sous-composants ne peuvent tout simplement pas être recyclés
à un coût acceptable et certains matériaux, heureusement en
voie de disparition, sont tout simplement impossibles à
valoriser{79}.
Il faut donc envisager de repenser l’ensemble du processus,
ce qui va bien au-delà d’un enjeu technologique et nécessite
une coordination beaucoup plus transverse. Du designer au
consommateur en passant par l’ensemble des étapes de
logistique et de production, les produits doivent entrer dans un
processus qui prend en compte la notion de circularité. Cela
consiste à analyser les cycles précis d’utilisation d’un produit :
est-ce un fast moving consumer good (FMCG), c’est-à-dire un
« produit qui va rapidement être consommé », comme un
shampoing ou une conserve alimentaire ? Quels déchets
directs et indirects va-t-il produire ? Peut-on le récupérer ?
le réutiliser directement ? Faut-il le restructurer
pour le réutiliser, refondre le métal de la boîte de conserve,
réutiliser directement le flacon de shampoing ? Nous avons
bien souvent des réponses toutes faites, par habitude : il est
sale de réutiliser un flacon de parfum ; une boîte de conserve
est une ordure ultime ; elle peut être refondue mais pas
réutilisée, etc.
L’idée de réutilisation est peu à peu devenue l’une des voies
privilégiées par l’industrie des FMCG elle-même{80},
consciente que si rien n’est fait, la quantité de plastiques dans
les océans pourrait tripler, alors même que la quantité
d’ordures ménagères doublerait.
Il n’y a cependant pas ici de solution unique. Et au-delà du
taux de recyclage, les plastiques restent montrés du doigt pour
les risques sanitaires multiples qu’ils peuvent induire. Le verre
est certes une solution intéressante mais, comme cela a été
évoqué, il est lourd, très énergivore à refondre ; quant au fer,
il est intéressant mais difficile à réutiliser sans traitements
importants.
Les usages devront donc évoluer peu à peu (mais
rapidement) et les designers et responsables marketing auront
un rôle de premier plan à jouer en mettant en avant le bénéfice
environnemental, une expérience utilisateur de qualité. Des
technologies d’identification complémentaires à la
reconnaissance visuelle, comme le NFC, pourraient être mises
à profit pour disposer d’une connaissance produit plus
détaillée et savoir combien de fois un contenant a été réutilisé,
combien de temps un produit est passé chez le consommateur.
La conception en elle-même de certains produits devra
impérativement permettre la séparation des différents
matériaux, etc.
Au sein de cette industrie de biens aujourd’hui jetables, l’IA
est également perçue comme un facteur structurel d’efficacité,
en permettant d’identifier les emballages spécifiques, en les
isolant et en les renvoyant dans un cycle aussi court que
possible vers l’utilisateur. Un robot sur une chaîne de tri ne
devrait donc plus simplement isoler le métal, l’aluminium,
le PET, etc., il devrait isoler tous les contenants d’un certain
type et parvenir à recomposer des agrégats de déchets qui
constitueraient une proportion significative du nombre de
références pouvant exister dans un supermarché.
En d’autres termes, en limitant les transports des contenants
– ce qui nécessite d’avoir plutôt de plus petites unités de
production et de stockage – et en limitant la
« retransformation » – le flacon en PET est directement
réutilisé sans être refondu –, il est réellement possible de
réduire très substantiellement les externalités de la
consommation domestique. Évidemment il pourrait être
difficile de garder une diversité d’emballage aussi vaste que
celle qui existe aujourd’hui dans la mesure où c’est une
entrave objective au réusage. En France, la loi AGEC, votée
en 2022, va clairement dans ce sens en imposant un taux de
recyclage d’au moins 60 % pour l’ensemble des emballages,
charge aux industriels de trouver les meilleurs moyens pour y
parvenir.
La question qui reste posée est de savoir si les producteurs
vont accepter de se plier à cette demande de standardisation
qui se fera nécessairement au détriment d’une créativité
marketing qu’aujourd’hui rien n’arrête lorsqu’il s’agit de
produire des packagings que l’on remarquera dans un
supermarché, sans même parler de la largeur de l’inventaire.
Faut-il néanmoins continuer comme si de rien n’était ? Il est
désormais possible de trouver au sein de la même enseigne
plus de 356 références de plaques de chocolat, 351 formules
de lessive différentes, 506 de confitures{81}. Certes, tout cela
découle de la liberté d’entreprendre et des forces du marché.
On peut néanmoins questionner l’apport réel de ce déferlement
de diversité en ce qui concerne l’épanouissement de notre
civilisation. Ne serions-nous pas en droit de remettre en
question cette surabondance consumériste, au prétexte que ce
serait discriminant à l’endroit des plus pauvres pour lesquels la
consommation serait l’un des rares plaisirs restants (entendu
lors d’un dîner) ? Si le développement d’une économie
résiliente passe par des formats d’emballage standardisés sur
lesquels seules les étiquettes pourraient être différenciantes,
devrions-nous considérer que c’est la culture et le mode de vie
occidental dans son ensemble qui seraient remis en cause ?
Construire une chaîne logistique circulaire ne va donc pas
de soi. Parvenir à livrer en temps et en heure les produits dont
ont besoin les consommateurs, à faire en sorte que les rayons
des supermarchés soient convenablement achalandés, a déjà
été un défi qui a nécessité la dédication de plusieurs
générations d’industriels et de distributeurs, une immense
mobilisation de matière grise, de temps et d’argent. Pour que
la logistique de récupération, de tri et de remise en
fonctionnement devienne efficace, il faudra résoudre de
nombreux autres défis, comme ceux de la fluctuation de la
demande, de l’offre de produits et de composants usagés, l’état
très variable des composants retournés, la mise en place de
processus de stockage et de traitement… Encore et toujours,
on a affaire à des modèles d’une grande complexité, pourvus
de nombreuses variables, truffés d’interdépendances.
Un champ dans lequel l’IA peut également se révéler
particulièrement efficace.
Cette capacité éprouvée de l’IA à limiter les ruptures de
charges et de données entre ces acteurs qui peuvent être tout
aussi bien une entreprise minière, un transporteur minéralier,
une usine de transformation, des systèmes de chemin de fer,
des douanes, etc., représente une opportunité rare de repenser
les flux logistiques et d’en créer d’entièrement nouveaux. Ce
qui aurait été pour ainsi dire impossible à faire dans un monde
normal le devient du fait de pouvoir faire mieux fonctionner
ensemble des activités trop souvent en silo, avares de leurs
données.
L’avènement de robots désormais capables d’un haut degré
d’autonomie ne devrait également pas être négligé. Ces robots
peuvent reconnaître finement des objets et pourraient
facilement trier des contenants standardisés de différentes
tailles, qu’il serait facile d’isoler au sein des déchets cartons-
plastiques, puis de nettoyer et enfin de remettre en service.
Tout cela en évitant de passer par des processus de refonte du
verre ou du plastique énergivores et fragilisant l’équation
économique d’une économie circulaire.
C’est là l’un des grands défis de l’économie circulaire : faire
en sorte que régulateurs et innovateurs parviennent à
construire ensemble de nouveaux modèles. Une difficulté que
rencontrent tous ceux qui travaillent sur les nombreux enjeux
transversaux qui se présentent à nous pour créer de nouveaux
modèles sociaux et économiques, parmi lesquels les chaînes
logistiques, les modèles énergétiques, les systèmes de santé
préventifs…
Produire et industrialiser
L’arrivée de l’intelligence artificielle dans les processus
industriels n’est pas un fait récent : dans les années 1990,
un système qui permettait de piloter automatiquement le
transbordement de conteneurs d’un bateau au quai était piloté
par des algorithmes que l’on appelait alors en « logique floue »
(fuzzy logic), afin de limiter les chocs lors de l’appontage des
conteneurs. Il ne s’agissait de rien d’autre que d’une des
applications possibles de l’IA, même si celle-ci restait très
limitée dans son spectre d’emploi et qu’à l’époque il n’y avait
probablement pas de dimension apprenante dans ces
dispositifs. De surcroît, dans leur vaste majorité, ce que l’on
appelait « robot » au sein d’un système industriel aurait plutôt
mérité la dénomination d’« automate », tant il s’agissait de
machines ne disposant d’aucune autonomie, synchronisées de
façon rigide les unes par rapport aux autres. Ces systèmes sont
particulièrement efficaces lorsqu’il s’agit de produire en
grande quantité des biens standardisés, dont les variations de
design sont minimes – dans le cas d’une voiture, la couleur et
d’autres options. C’est d’ailleurs là l’une des raisons
qui expliquent la faible présence de robots dans les secteurs
industriels produisant en petites séries. Une part significative
de la baisse des émissions de CO2 de l’industrie vient de
l’apparition de ces automates qui permettent une production
plus qualitative avec moins de processus transformatifs{83}.
Désormais, ces nouveaux robots, tout à la fois faciles à
programmer et dotés d’un certain degré d’autonomie (ils
peuvent par exemple redresser un produit qui ne se
présenterait pas de la façon attendue sur la ligne de
production), changent largement la donne. L’une des
conséquences unanimement reconnues, c’est l’augmentation
notable de la qualité ; les produits sont plus conformes aux
standards escomptés et les rebuts sont donc moins importants.
L’autre avantage tient à la capacité de traiter des petites séries,
voire des pièces uniques, avec un coût de production proche de
celui d’une très grande série. Cette caractéristique est
essentielle pour limiter les pertes de production ; en adaptant
les produits au besoin réel des commanditaires, il devient
possible d’avoir une efficacité supérieure et donc un moindre
gâchis de ressources. De grands défis perdurent néanmoins :
l’un d’entre eux consiste à créer des protocoles industriels (que
l’on nomme généralement des Scada) qui soient compatibles
avec des modèles d’IA, essentiellement probabilistes{84}. Cette
approche est intéressante pour mêler au processus rigide de
production des modèles prédictifs. Dans le domaine du
traitement des eaux usées par exemple, il est possible
d’anticiper l’évolution météorologique pour mettre en
production des bassins de décantation à l’avance de sorte
qu’ils soient dans l’état biochimique optimal lorsqu’une
grande quantité d’eaux usées parviendront soudainement à
l’unité de traitement.
L’autre difficulté consiste à trouver des données
d’apprentissage qui soient en quantité suffisante pour
permettre de créer des modèles de qualité. Lorsqu’on produit
des tubes de dentifrice, les volumes sont tels qu’il devient
rapidement possible d’entraîner toutes sortes de robots, leur
permettant d’affronter des imprévus pour lesquels ils étaient
auparavant tout à fait désarmés. Mais que faire lorsque la
production concerne des pièces très rares ? Par exemple, des
cuves de centrales nucléaires produites à quelques unités par
décennie ? L’une des approches peut consister à découpler les
enjeux : une soudure de très haute qualité par exemple
ressemble à une autre soudure de très haute qualité ;
la recherche de fissures dans le métal est plus ou moins
identique quel que soit le produit inspecté. Une telle approche
plaide cependant pour des modèles d’IA large, c’est-à-dire
polycompétents, ce qui crée cependant d’autres inconvénients,
comme des risques d’hallucination accrus, autrement dit des
réponses erronées mais semblant crédibles en première lecture.
Les processus d’intelligence artificielle se répandent aussi
dans la planification des opérations de maintenance afin
d’éviter les pannes, bêtes noires des responsables de la
production. Un arrêt non planifié sur un laminoir dans une
aciérie peut induire des coûts de plusieurs dizaines de millions
d’euros et des travaux de réparation s’étendant sur des mois.
S’il s’agit là d’un cas extrême, c’est à peu près la même chose,
avec des coûts moindres, dans toute autre forme d’activité
industrielle. En utilisant les données issues de l’ensemble des
opérations de maintenance et de production, il est désormais
courant de parvenir à définir des fréquences de maintenance
plus adaptées aux réalités des besoins. GetLink (anciennement
Eurotunnel), l’opérateur qui gère le tunnel sous la Manche, a
immensément bénéficié de la mise en place de
dispositifs permettant de détecter les équipements dont la
probabilité de défaillance était élevée, économisant ainsi des
millions d’euros, limitant fortement son empreinte
sur l’environnement en évitant la mise au rebut d’équipements
sophistiqués, leur refabrication, sans même parler de
l’allongement de la durée de vie que ces approches permettent.
Tous ces acteurs commencent par ailleurs à tester l’apport
de l’intelligence artificielle générative, qui, grâce à sa capacité
d’exploiter de grandes quantités de données et de prévoir les
résultats, peut améliorer considérablement les processus de
prise de décision complexes, optimiser les chaînes de
production, améliorer la qualité des produits et réduire les
déchets.
Un peu comme on utilise aujourd’hui des services tels que
MidJourney, qui permet de décrire de façon textuelle les
images que l’on souhaite produire, on pourrait très bien
envisager de faire la même chose avec des systèmes de
conception assistés par ordinateur, en indiquant par exemple :
« Dessine-moi une gare sur quatre étages, comprenant une
douzaine de plateformes et capable de traiter
500 000 passagers par jour. » Exagéré ? Pourtant, tout tend à
laisser penser que cela pourrait être un mode de conception
courant d’ici quelques années{g}…
Des acteurs comme Dassault Systèmes y voient un champ
de développement stratégique, permettant à leurs clients
d’accélérer la conception de leurs produits et, surtout, d’en
réduire la complexité. Ce type de technologies permet
également d’introduire des paramètres et des exigences plus
élevés dans leurs logiciels de conception générative, afin
d’obtenir des solutions plus optimisées, présentant même des
options de conception qui n’auraient peut-être pas
été envisagées. Le fait de parvenir à simuler dans des jumeaux
numériques des solutions pertinentes et innovantes n’est pas le
moindre des avantages de ces nouvelles méthodes de design.
Des constructeurs automobiles comme General Motors
utilisent déjà des algorithmes de conception générative pour
optimiser les pièces et réduire le poids de leurs véhicules.
L’algorithme génère plusieurs voies de conception, qui sont
ensuite évaluées et sélectionnées en fonction de
leurs performances dans des conditions réelles
simulées. Il en résulte des composants plus légers, plus
solides, et généralement plus économiques.
Différentes start-up travaillent à faire en sorte que ces
modèles génératifs induisent par défaut des standards
performants en matière de sécurité et d’environnement{h}.
Le design d’un nouveau système de climatisation devrait par
exemple être d’un rendement élevé, ne pourrait faire appel à
des solutions à base d’énergie carbonée. Il pourrait proposer
des alternatives induisant une meilleure isolation et un plus
faible recours à une énergie primaire, etc. Project Refinery est
probablement l’une des initiatives les plus intéressantes à ce
propos. Il s’agit d’une infrastructure logicielle open source
pour les développeurs de services de conception assistée par
ordinateur leur permettant d’optimiser l’efficacité énergétique
des bâtiments. La phase d’apprentissage de ce modèle d’IA
s’est appuyée sur des références de bâtiments particulièrement
efficaces en termes d’utilisation d’énergie, d’emploi de
matériaux recyclés, etc. De telles initiatives sont amenées à se
répandre dans de nombreux univers, dont celui de l’industrie.
Réindustrialiser
En 2024, la France reste le champion de la
désindustrialisation au sein des grands pays européens : seuls
les minuscules Chypre et Malte font pire. Ni la Grèce, ni la
Roumanie, ni la Bulgarie, des économies pourtant peu
compétitives, ne font moins bien. Si la France était dans la
moyenne européenne – vers 15 % de PIB d’origine industrielle
au lieu de son poussif 9 %{85} –, elle disposerait d’environ
1,2 million d’emplois supplémentaires à forte valeur ajoutée,
sans même compter les emplois indirects.
Il faudrait probablement un livre entier pour analyser les
raisons qui ont abouti à cette situation{86}. Il faut cependant
avoir la franchise d’avancer l’hypothèse que durant près de
trente ans, l’industrie a été vilipendée tout aussi bien par les
citoyens que par les acteurs politiques.
Pour ceux qui avaient une sensibilité de droite, l’industrie
étaitun creuset de forces syndicales hostiles, et pour ceux de
gauche c’était un facteur d’aliénation. Le consensus allait
aux services à forte valeur ajoutée, à la société des loisirs, etc.
C’était tout sauf une priorité, si ça ne l’avait jamais été. Depuis
quelques années, une petite éclaircie se dessine avec un léger
retournement de tendance.
Quel lien avec l’environnement ? On pourrait se féliciter
que ce type d’activité souvent polluante ne soit plus effectué
en France, mais c’est en réalité tout le contraire. Dans la
mesure où l’électricité française est largement décarbonée,
où les chaînes logistiques y sont efficaces, l’activité
industrielle est sensiblement moins polluante en France
qu’ailleurs (voir « Taxe carbone : marxiste ou capitaliste ? »,
p. 45, a fortiori beaucoup moins que dans les pays du Sud-Est
asiatique d’où provient une grande part de notre déficit
industriel. Si ce n’est pas systématiquement vrai,
la réindustrialisation en France est presque systématiquement
favorable à l’environnement. En toute logique, s’il existait un
prix du carbone très élevé aux frontières de l’Europe, cela
recréerait même une compétitivité locale pour beaucoup
d’activités de production.
C’est d’ailleurs aussi pour cela que l’idée qu’il faille
réindustrialiser est désormais largement acquise, parfois même
avec excès, comme lorsqu’on souhaite à tout prix que des
usines de composants électroniques soient réinstallées en
France. Cela revient à se méprendre sur le niveau de
sophistication auquel sont parvenues des nations comme
Taïwan{i} ou la Corée du Sud, qui ont continuellement choyé
leur industrie de semi-conducteurs, créant des filières de
formation, suscitant des sous-traitants ultraspécialisés et même
des réglementations sur mesure pour ces acteurs stratégiques.
Si des opportunités pour ce type d’acteurs existent en Europe,
elles ne peuvent s’exprimer que dans une logique de temps
long et d’écosystème : s’en remettre principalement aux
subventions est dangereux et potentiellement dispendieux.
De surcroît, l’industrie doit-elle prendre la même forme
d’organisation que celle qu’elle avait il y a cinquante ans ?
Il y a en effet toutes les raisons de penser le contraire.
D’abord, du fait que les taxes carbone et les contraintes
induites par la réglementation CSRD votée en 2022 vont agir
comme des barrières douanières à l’encontre de ceux qui n’ont
pas les mêmes standards de qualité environnementale et que
l’attention donnée aux processus de décarbonation va y être
une priorité. Puis du fait que les chocs qu’ont successivement
provoqués la crise sanitaire du Covid et ensuite celle de la
guerre en Ukraine sur les acteurs industriels les ont convaincus
de la nécessité de raccourcir leurs chaînes logistiques. Enfin,
parce que la « plaque européenne », c’est-à-dire la plateforme
logistique relativement intégrée que représente l’Union
européenne, est désormais privilégiée. Or, au sein de cette
dernière, la France, avec la qualité de son énergie et de ses
systèmes de transport, fait figure de favorite.
Pourrait subsister l’argument qu’en France, le coût du
travail est particulièrement élevé, légèrement inférieur à ce
qu’il est en Allemagne, où le niveau de qualification des
travailleurs est toutefois incontestablement supérieur. Mais
même cet inconvénient est remis en cause par la
« démanufacturisation » de l’industrie : annoncé depuis des
décennies, ce mouvement de remplacement par les robots est
désormais réel et a tendance à s’accélérer{j}. Ceux-ci ne
coûtent désormais plus aussi cher qu’auparavant. Là où des
millions d’euros étaient nécessaires pour automatiser un site,
des montants sensiblement moins importants suffisent
désormais, grâce au numérique et à ce principe d’industrie 4.0
qui devient – enfin – concret. La conséquence est un
accroissement de la productivité, une bien moins faible
sensibilité des sites industriels au coût du travail et,
relativement, une plus grande sensibilité aux coûts
énergétiques, ce qui favorise mécaniquement la France.
L’industrie est donc de moins en moins manufacturière.
On pourrait épiloguer pour savoir si c’est une mauvaise
nouvelle pour l’emploi. Toutes les données indiquent le
contraire ; les pays les plus robotisés (Corée du Sud, Japon,
Suède, Finlande…) sont tous sans exception des pays de plein-
emploi. De surcroît, les robots ont largement tendance à
susciter en nombre des emplois qualifiés de services à
l’industrie{87}.
L’une des questions qui se posent concerne donc le modèle
industriel qu’il convient d’adopter. Essayer de reproduire celui
qui fut en vigueur tout au long du XXe siècle n’a pas de sens.
Les processus de production sont désormais largement
globalisés et, qu’on l’apprécie ou non, il n’y aura pas de retour
en arrière dans un avenir prévisible tant ils sont largement
intégrés. Cela ne veut pas dire qu’au sein de ces processus,
il n’y ait pas d’importants mouvements. Cela a été évoqué,
l’Europe et la France sont en train d’amorcer un début de
réindustrialisation et d’une certaine façon la poussée
d’inflation que l’économie mondiale vient de rencontrer est
aussi une conséquence de la volonté de nombreux pays de
relocaliser des productions manufacturières. Au moins une
partie de cette inflation provient de coûts d’industrialisation
plus élevés du fait d’investissements provisoires ou définitifs.
En fonction du type de production, on parle de modèles qui
semblent très éloignés les uns des autres.
L’autre modèle productif concerne les toutes petites usines.
Selon une étude de l’Insee, la taille moyenne des sites
industriels créés en France en 2021 est de 100 salariés, 40 %
d’entre eux ayant même moins de 100 salariés. Si ces
nouveaux sites sont en général modernes et avec un niveau
d’automatisation élevé, plusieurs études pointent l’absence de
spécialisation et de collaboration des PME et ETI françaises
comme une faiblesse congénitale de cet écosystème.
Les industries automobiles et celle des semi-conducteurs ont
en commun le fait de développer des gigafactories, pour
produire des sous-composants, des batteries comme des
produits finis. Ces entités de production sont largement
robotisées avec l’objectif d’atteindre de hauts niveaux de
productivité et de baisser les coûts en couvrant de larges zones
de commercialisation. Une Tesla produite à Berlin pourra se
vendre au sein d’un marché de 650 millions de personnes
touchant aussi bien le nord de l’Europe, le Moyen-Orient,
l’Afrique et quelques autres parties du monde. Faut-il évoquer
l’importance de l’IA dans ces processus productifs ? Tesla, par
l’entremise de son fondateur, a fait de cette technologie l’un
des piliers de son activité{88} et il est évident que ses usines
sont parmi les plus avancées au monde en ce qui concerne
l’utilisation de l’IA{89}. La question de l’impact de ces usines
sur l’environnement est probablement plus polémique. Sans
remettre en cause l’apport du véhicule électrique dans la
cause environnementale, on peut s’interroger sur la
perpétuation d’un modèle de transport que l’on sait impossible
à rendre résilient s’il s’agit de transposer à l’identique le
véhicule thermique vers le véhicule électrique.
Il en découle d’importants points de faiblesse dans les
chaînes logistiques, imposant de faire venir de loin les sous-
composants et de créer d’importants stocks par précaution.
C’est pourquoi ce qui offre probablement les plus grandes
perspectives pour l’intelligence artificielle au sein du monde
industriel concerne la synchronisation des processus de
production de façon étendue. Dans le chapitre précédent sur
les transports, j’ai mis en évidence la complexité que
représentent les flux liés à la production de biens.
Une difficulté supplémentaire consiste à synchroniser le plus
finement possible ces flux avec les outils de production, et cela
à grande échelle. C’est là également une complexité qui n’est
qu’imparfaitement traitée par un opérateur humain. Chaque lot
de marchandises fait l’objet de bons de commande,
de certificats de livraison, comprenant des réserves
éventuelles, de factures, de mises en stock, en production, etc.
Des éléments que les ERP{k} ont largement automatisés, mais
qui n’ont pour ainsi dire aucune forme de flexibilité : dès
qu’un imprévu se manifeste, il a une forte propension à
bloquer l’ensemble du système, si performant que celui-ci
puisse être.
L’IA peut donc être utilisée pour améliorer la résilience de
la chaîne d’approvisionnement et prévenir des aléas de nature
variable. L’analyse prédictive peut aider à anticiper les
modèles de demande et à optimiser la gestion des stocks, elle
peut prendre la décision de mettre en route les chaînes de
production lorsque les coûts de l’énergie ou les coûts
logistiques sont optimaux, et ainsi maximiser ses marges et
minimiser les atteintes à l’environnement{l}. Il est probable
qu’il existe d’importantes opportunités de création de valeur
pour des petits acteurs qui sauraient saisir une opportunité de
créer des sous-composants qui s’inséreraient astucieusement
dans la supply chain française ou européenne. Certains acteurs
comme Cisco{90} ont déjà compris cette dynamique en utilisant
l’intelligence artificielle pour avoir une bonne compréhension
de la façon dont la demande peut évoluer ainsi que pour
prévenir les risques de défaillance de certains sous-traitants.
Cela crée aussi des opportunités pour de petits producteurs
locaux qui disposent de marques fortes, par exemple dans le
domaine agroalimentaire, sans pour autant être propriétaires de
leurs chaînes logistiques. En ayant une capacité prédictive des
prix, des engorgements possibles… ils seraient à même
d’accroître leurs marges et donc leur résilience. Ce modèle de
microproduction, qui a souvent été vanté mais qui s’est révélé
généralement difficile à appliquer, pourrait être profondément
repensé à l’aune de l’IA : comment concentrer ses flux
logistiques lorsqu’un seul camion par semaine peut rejoindre
son exploitation de miel au fond des Cévennes ? Un système
productif bien pensé pourrait concentrer les commandes de
sorte qu’elles soient toutes affectées à ce véhicule dans un sens
comme dans l’autre. D’une façon plus générale, l’IA pourrait
être utilisée pour automatiser les très nombreuses tâches
administratives qui encombrent toute petite entreprise et qui
sont actuellement effectuées manuellement. Elle pourrait
également automatiser un certain nombre de tâches de service
client, de marketing et de comptabilité. De même, elle pourrait
plus facilement personnaliser les produits, cela à coût
marginal.
Robotique et IA
L’autre champ dans lequel les enjeux de l’intelligence
artificielle sont potentiellement très prometteurs, c’est
évidemment celui de la robotique, qui par son essence même
est intrinsèquement liée à l’intelligence artificielle. Celle-ci
trouve un domaine d’application très limité par rapport au
potentiel qu’en décrivent les médias, et cela s’explique encore
largement du fait du prix de ces équipements qui, a fortiori
difficiles d’accès pour les grandes exploitations occidentales,
le sont plus encore pour les petits agriculteurs qui constituent
la vaste majorité des exploitations à l’échelle globale.
Le développement des systèmes robotiques fait cependant des
bonds de géant ces dernières années, largement emmenés par
la montée en maturité de l’intelligence artificielle. Que vaut en
effet un robot, si sophistiqué soit-il, s’il n’est pas capable de se
mouvoir dans tous les contextes et disposer d’un haut degré
d’autonomie ? Les robots les plus répandus sont d’ailleurs
souvent les tracteurs agricoles eux-mêmes. Les tracteurs John
Deere ont été les premiers à utiliser un GPS de haute précision
(RTK), de l’ordre de 2 à 3 centimètres, complété par des
caméras pour la détection d’obstacles et le suivi de sillons, leur
ouvrant la voie à un niveau d’autonomie élevé, permettant
d’envisager qu’ils se passent de conducteur dans les années à
venir{b}.
Beaucoup d’acteurs se sont lancés dans ce domaine,
généralement avec une approche spécialisée. Par exemple,
FarmWise a développé un soc de binage afin de retirer les
mauvaises herbes en utilisant des technologies de visualisation
qui différencient celles-ci des plantes cultivées.
De nombreuses start-up font progresser ce domaine spécifique,
certaines utilisent du désherbant plutôt qu’un soc de binage,
d’autres de l’électricité{c}.
D’autres robots ont été développés pour réussir la délicate
tâche de cueillir les fruits et légumes sans les abîmer. Dans le
cas de certains légumes comme les groseilles, on estime que
20 % de la récolte ne peut être vendue en barquette du simple
fait que les fruits sont écrasés lors de cette étape. Il y a donc
une alliance à trouver entre la « mécatronique » (soit
l’assimilation des techniques mécaniques et électroniques) et
les systèmes de visualisation, un domaine très prometteur dans
la mesure où des fruits qui étaient auparavant considérés
comme impossibles à faire récolter par des machines
leur deviennent de plus en plus accessibles{d}. De même, des
robots permettent de trier les fruits comme le raisin pour
éliminer les baies imparfaites ou les matières étrangères{e}.
Certaines entreprises cherchent également à développer des
robots multifonctionnels qui peuvent effectuer diverses
opérations allant de la plantation à la récolte. Parmi ces
entreprises, on trouve tout aussi bien des acteurs historiques –
comme John Deere – que de nouveaux entrants – dont Small
Robot Company, FarmBot –, qui s’adressent à de plus petites
exploitations, voire au marché domestique.
Un lecteur attentif pourrait faire observer que tout cela
n’a que peu à voir avec les enjeux environnementaux.
Cependant, l’une des importantes formes de pollution, pour
ainsi dire inhérente à l’agriculture, réside dans les surdosages
effectués par une estimation vague des besoins réels du terrain.
Une critique récurrente à l’égard de l’agriculture intensive
concerne les « fuites » phytosanitaires, le fait que ces produits
se retrouvent fréquemment en grandes quantités dans les
rivières, modifiant les biotopes, quand ce n’est pas directement
dans notre sang. L’une des premières fonctions que peuvent
avoir les systèmes de décision à base d’IA concerne
l’optimisation des ressources, qu’il s’agisse de mécanisation
ou d’application d’intrants. Dans un cas, on économise de
l’énergie, du labeur humain et on use moins les machines,
dans l’autre on réduit l’usage de produits phytosanitaires, les
quantités qui ne seraient pas absorbées par la plante et qui
risqueraient de se retrouver dans une rivière.
Dans certains cas, la différence entre un geste agricole
traditionnel et un autre utilisant l’IA peut être radicale :
un robot bineur, par exemple, peut dans certains cas remplacer
entièrement les désherbants qui sont utilisés en agriculture{f}.
Ces robots peuvent d’ailleurs être autonomes en énergie (ils
peuvent rejoindre des points de charge utilisant des panneaux
solaires) et même travailler la nuit. Ils ne sont en réalité limités
que par l’usure de certaines parties mécaniques, leurs pneus,
leur soc, ou électriques (batterie) et offrent donc un important
potentiel{g}.
De même, pour ce qui est de l’optimisation de l’eau, des
start-up se spécialisent dans le développement de robots
chargés de doser la quantité d’eau optimisant ce qui sera
absorbé par la plante. D’autres posent des microdoseurs de
façon automatisée, au pied de chaque plant, sans parler de
start-up comme Manna{96}, CropX ou Jain Logic qui allient
robotique, imagerie satellitaire, irrigation par microgouttes et
intelligence artificielle pour maximiser l’utilisation de l’eau
par les plantes et éviter les déperditions.
Mais les conséquences de l’agriculture ne se limitent pas
aux abus de ressources. Elle peut aussi par exemple appauvrir
les sols sur lesquels elle s’effectue, sans même polluer les
écosystèmes environnants. On reproche également à
l’agriculture, en particulier celle qui est intensive, d’affecter le
biotope en supprimant les haies dans lesquels les espèces de
toutes natures peuvent se développer et en éliminant les
espèces non sollicitées des grands espaces agricoles comme
les plaines américaines du Midwest, la plaine de la Beauce ou
le Cerrado brésilien. De même, on stigmatise souvent
l’agriculture intensive qui appauvrit les sols, réduirait leur
fertilité et leur capacité à soutenir les rendements sur le long
terme sans apports importants de produits phytosanitaires.
Enfin, et c’est loin d’être anecdotique, on évoque
régulièrement l’importance de l’agriculture dans le
développement de gaz à effet de serre. Selon la FAO,
l’agriculture représenterait environ 24 % des émissions
mondiales de gaz à effet de serre en 2017{h}. À la différence de
nombre d’autres secteurs, le CO2 n’y est pas le principal gaz à
effet de serre, il se situe loin en effet derrière le protoxyde
d’azote (N2O), issu des engrais azotés, de la décomposition
des résidus de récolte et d’autres processus liés au traitement
des sols, comme certaines formes de labour. Le protoxyde
d’azote est près de 300 fois plus puissant que le CO2 comme
gaz à effet de serre sur une période de cent ans ; c’est pourquoi
son contrôle peut avoir un rôle important sur le réchauffement
climatique. À un niveau probablement comparable se trouve le
méthane, issu de la mastication et des gaz de ruminants ainsi
que du fumier et de la riziculture inondée, tous deux
d’importants émetteurs de méthane.
Ceux qui défendent les modèles intensifs prétendent qu’ils
sont plus productifs à l’hectare{i}, et que les modèles
concurrents{j} créent également des externalités nocives.
Il existe d’ailleurs une véritable guerre entre ceux qui prônent
des modèles différents et ceux qui pensent qu’il est urgent
d’améliorer le modèle intensif dominant.
Pourquoi défendrait-on ce modèle intensif dont on ne cesse
de lire dans les médias qu’il est particulièrement nocif ? L’un
des principaux arguments serait que ce modèle permet
d’importants rendements par hectare, et qu’en conséquence il
préserverait l’espace dévolu aux forêts et aux biotopes
diversifiés. Toutefois, s’il est difficile de nier que les modèles
intensifs ont été conçus pour produire en masse en limitant le
recours au labeur humain et qu’ils ont réussi à créer un niveau
productif – au sens économique du terme – très élevé, il est
hasardeux de contester qu’ils sont structurellement liés – au
moins de façon partielle – à une baisse de la biodiversité{97} et
que leurs conséquences négatives s’étendent bien au-delà des
parcelles cultivées. Quelle part de leur efficacité provient du
fait qu’il s’agisse des modèles dominants – au moins dans les
pays développés et à revenus intermédiaires – pour lesquels
toutes les pratiques et infrastructures ont été dimensionnées ?
Car il est également difficile de contester que ceux qui
favorisent la biodiversité au sein du système agricole sont
moins productifs{98}. Certains travaux mettent en avant
l’intensité manufacturière des différentes formes d’agriculture
non intensives (au premier titre desquelles l’agriculture
biologique), même si, pour pouvoir faire une comparaison
exacte, il conviendrait de valoriser les externalités
environnementales positives créées, ce qui se révélerait
d’autant plus complexe qu’on ne paie aujourd’hui que
rarement un agriculteur pour entretenir le biotope situé au-delà
de ses parcelles{k}.
Le caractère très antagonisé de ce débat entre les modèles
intensifs et les autres est l’un des plus difficiles à trancher car
il est hautement scientifique, ce qui limite très fortement le
nombre d’individus à même de débattre de façon argumentée à
ce propos. Il oppose donc ceux qui défendent l’ordre établi,
forts de nombreux travaux fortement financés par l’industrie,
et ceux qui envisagent d’autres modèles. Dans ce dernier camp
se sont agrégés les adeptes d’une vision holistique et
harmonieuse d’une agriculture proche de la nature, dont
l’agroforesterie et l’agriculture biologique sont des formes
abouties. Ce débat pourrait aussi se résumer à l’opposition
entre ceux qui sont en faveur des solutions technologiques,
de la biologie et de la chimie synthétique et ceux qui sont
contre, pour lesquels toute forme de technologie est par
essence suspecte. Il existe évidemment d’autres voies (et
d’autres voix) comme l’agriculture de conservation qui est
jugée compatible avec les engrais de synthèse et même, dans
certains pays, avec les OGM.
Cela a déjà été énoncé : la forte variabilité du rendement
des modèles entre eux et de chaque modèle en fonction du
contexte (géographique, climatique, biologique, social et
économique) dans lequel il est mis en œuvre rend impossible
l’avènement d’un modèle unique. En revanche, il semble y
avoir, tout au moins dans certains pays, une forme de
consensus sur le fait que les modèles agricoles puissent être
des facteurs d’externalités positives nettes, ce qui serait en soi
une forme de révolution par rapport aux pratiques actuelles.
L’initiative « 4 pour 1 000 », lancée par la France à la suite de
la COP21 et de l’accord de Paris, propose par exemple
d’augmenter de 0,4 % chaque année le stock de carbone dans
tous les sols du monde. Le raisonnement derrière ce chiffre
repose sur un calcul simple : les émissions annuelles totales de
CO2 dues aux activités humaines représentent actuellement, à
l’échelle mondiale, l’équivalent d’un quatre-millième du stock
de carbone (C) des sols de la planète (environ
2 400 gigatonnes de carbone). Un stockage annuel de 4 pour
1 000 (0,4 %) sur toute la profondeur du sol compenserait
alors l’ensemble de ces émissions. Cet objectif initial a ensuite
été ajusté pour viser un stockage annuel de 0,4 % uniquement
dans l’horizon de surface (0-30 centimètres) des sols
mondiaux. Atteindre cet objectif ambitieux nécessite toutefois
des changements profonds dans les pratiques agricoles et
l’utilisation des terres{99}.
En mettant en œuvre toutes les pratiques identifiées sur
toutes les surfaces où cela est techniquement faisable, il est
possible d’atteindre un stockage supplémentaire de 1,9 ‰ par
an. La majorité du potentiel de stockage supplémentaire se
trouve dans les sols agricoles à grande échelle, où le stockage
supplémentaire pourrait dépasser l’objectif de 0,4 %.
Essentiellement, le rapport suggère qu’en adoptant des
pratiques agricoles spécifiques, il est techniquement possible
d’atteindre l’objectif de capter 0,4 % des gaz à effet de serre
par an grâce à l’agriculture. Cependant, la réalisation effective
de ce potentiel dépend de l’adoption généralisée et de la bonne
mise en œuvre de ces pratiques.
C’est là où l’intelligence artificielle prend tout son sens.
Face à des modèles avec un nombre de variables
particulièrement grand, il est impossible d’espérer trouver une
martingale qui serait applicable partout avec la même
efficacité. Une telle approche serait même particulièrement
inefficace au vu de la disparité des contextes. Il faut donc être
capable d’optimiser des pratiques à partir de contextes initiaux
très hétérogènes.
Depuis quelques années, de nombreuses universités
développent des systèmes à base d’intelligence artificielle,
le plus souvent en open source, pour optimiser la capture de
gaz à effet de serre dans l’agriculture. C’est par exemple le cas
de l’école de la résilience Doerr à Stanford{100}, qui travaille
sur différents modèles à base de machine learning. C’est
également le cas de l’Université du Minnesota, qui développe
des solutions en partenariat avec le ministère de l’Agriculture
des États-Unis{101}, ou encore de Cornell University, qui a
monté un ensemble de cours sur cette pratique{102}. Le secteur
privé n’est pas en reste. Microsoft par exemple a initié le
programme AI for Health, un programme de bourses sur
différents thèmes, au sein desquels les sujets d’optimisation de
l’agriculture à des fins environnementales sont
particulièrement présents. Et, surtout, Google investit
fortement dans sa filiale Mineral{103}, visant à accroître la
quantité de données disponibles dans l’agriculture afin de
faciliter l’apprentissage des modèles d’IA. Enfin,
de nombreuses start-up se sont également positionnées sur ce
sujet. Terramera et Regen Network sont parmi celles dont les
programmes sont les plus concrètement avancés et accessibles
dans certains pays.
S’il est difficile de prédire dans quelles directions les
modèles agricoles devraient évoluer du fait de ces nouveaux
outils, plusieurs axes semblent néanmoins difficiles à
contester. Les écosystèmes diversifiés, qu’ils soient agricoles
ou sauvages, démontrent par exemple une bien plus importante
capacité de capture de gaz à effet de serre. Or la complexité en
agriculture n’est jamais simple à gérer, surtout à grande
échelle : les machines agricoles fonctionnent le plus souvent
mieux lorsque la matière première qu’elles traitent est
uniforme, libre de tous produits parasites. C’est d’ailleurs une
zone de friction constante entre fermiers produisant de façon
intensive et écologistes favorables à l’agriculture biologique,
les seconds accusant les premiers de faire de l’« industrie
agricole », les premiers rétorquant aux seconds qu’ils ne
comprennent rien aux contraintes de production. Ce rapport
antagonisé pourrait changer avec l’arrivée de l’IA qui peut
mettre en œuvre des modèles de polyculture vertueux, par
exemple le maïs et le haricot : le maïs fournit un support pour
les haricots grimpants, et les haricots fixent l’azote,
bénéficiant ainsi au maïs. Les systèmes de visualisation par
intelligence artificielle peuvent optimiser les traitements
agricoles de façon à optimiser la pousse de ces deux cultures
simultanées. Puis les robots de tri peuvent les séparer sans que
l’on y consacre un travail manuel important.
De même, dans un système qui se robotise peu à peu, il est
envisageable de réintroduire des haies à une fréquence plus
importante. Si celles-ci avaient été supprimées dans les années
1950 et 1960 pour faciliter le passage des grands engins
agricoles, les robots, qui ne comptent pas leurs heures et qui
ont plus d’aisance à manœuvrer dans les courbes et limites
d’exploitations, permettent de reconsidérer le modèle intensif
traditionnel qui consiste à faire d’immenses champs sans haies
pour faciliter les passages d’engins mécaniques. Tout cela
participe d’une logique où le système agricole est de plus en
plus intégré à une dynamique de restauration de la
biodiversité.
Enfin, le fait d’avoir des chaînes de distribution plus
intégrées (voir p. 99) permet de maintenir des coûts à un bas
niveau en traitant de plus petites quantités, ce qui est
évidemment un facteur important si l’on souhaite moderniser
l’agriculture familiale, dominante dans les pays en
développement.
Ce que l’on observe toutefois, c’est que la biochimie en
agriculture tout comme les émissions de carbone, de protoxyde
d’azote ou de méthane sont liées à des phénomènes
complexes, que ne maîtrise généralement pas le fermier. Des
expérimentations d’accompagnement « anthropo-
agronomiques » de riziculteurs à Bali ont abouti à une
réduction drastique des émissions de méthane (– 70 % dans la
phase d’étude avec un groupe de référence), tout
en accroissant la productivité de l’ordre de 70 %{104}, ce qui
montre à quel point les gains possibles restent considérables,
même dans les agricultures en modèles intensifs.
Cependant, comme l’observe l’agro-anthropologue Steve
Lansing qui a supervisé ces expérimentations, le risque est, en
cas de « mauvais réglage » de l’ensemble des paramètres,
d’accroître substantiellement les émissions de protoxyde
d’azote en voulant baisser les émissions de méthane. Il a par
ailleurs rencontré de nombreuses difficultés lors de son
expérimentation : l’une a consisté à convaincre les
agriculteurs, l’autre à s’assurer de la nature optimale de tous
ces paramètres de production. Si l’intelligence artificielle n’est
probablement que de peu d’aide pour la partie consistant à
convaincre les agriculteurs, elle peut exceller lorsqu’il s’agit
de finement régler les paramètres pour optimiser la
productivité{l}.
Ces approches remettent aussi en question ce qui caractérise
la frontière entre agriculture intensive et agriculture
biologique. L’objectif n’est plus de définir le modèle par ce
que l’on met dans le champ, mais bien par ce qui en sort
(résidus chimiques, gaz à effet de serre, etc.). L’usage d’IA et
de robotique peut donc être hautement productif, en optimisant
l’usage de l’eau, en minimisant le recours aux intrants,
et surtout en réduisant voire en annulant les externalités
environnementales.
Il est vraisemblable que l’agriculture de conservation et plus
encore l’agriculture raisonnée ou durable soit en train de
prendre un essor significatif dans de nombreux pays –
un modèle que vouent pourtant aux gémonies beaucoup de
militants de l’agriculture biologique. En allant plus loin,
il n’est pas impossible que l’on assiste à une forme de
convergence des agricultures : une agriculture néobiologique
dans la mesure où le recours à des intrants y est limité,
et néanmoins fortement technologique, car l’optimisation des
dosages passe par une importante acquisition de données et
éventuellement par l’utilisation de systèmes robotisés. Ce que
pourrait en outre y ajouter l’intelligence artificielle, et en
particulier celle des modèles génératifs spécialisés dans
l’agriculture, se résume probablement à un paradigme
nouveau. Un paradigme où la productivité pourrait se trouver
aussi chez les acteurs de petite taille, les unités familiales
disposant d’un accès aux technologies comparable à celui des
grandes exploitations. Ces exploitations seraient
potentiellement très intensives, tout en étant à externalités
neutres ou positives, et de ce fait préserveraient un espace
disponible plus important pour les forêts et les biotopes
diversifiés.
Comme cela a été exprimé plus haut, il est vraisemblable
que ce sont d’abord les technologies à haut potentiel de
croissance – les applications logicielles donc – à faible coût de
distribution qui vont se diffuser. Mais il faut aussi faire
l’hypothèse qu’avec les progrès des capteurs, des
microcontrôleurs et autres technologies « mécatroniques »,
celles qui allient mécanique et électronique tout en restant
fortement liées à la loi exponentielle de Moore, ces robots
agricoles vont désormais voir leurs coûts de distribution
baisser fortement et vont finir par se répandre également dans
les pays intermédiaires ou en développement. Quelles sont les
formes d’intelligence artificielle qui seront le plus utilisées ?
Comme évoqué au début de ce chapitre, la complexité propre
au monde agricole permet d’envisager un grand nombre de cas
d’application, avec de vastes différences de l’un à l’autre. Les
modèles de langage de grande taille (LLM) pourraient assister
l’agriculteur dans ses prises de décision, ce seront des
systèmes visibles et en contact direct avec les fermiers, mais
un système de binage de précision utilisant de la
reconnaissance visuelle sera lui beaucoup plus intégré,
invisible, remplissant toutefois un rôle essentiel.
De l’offre à la demande
Il y a donc lieu d’envisager de nouvelles solutions.
La première, et la plus évidente qui vient à l’esprit, c’est bien
entendu de relancer le tarif heures creuses pour inviter les
usagers à consommer lorsque la demande est faible. Ces
dernières années, plusieurs fournisseurs ont développé des
offres de ce type, imposant généralement la mise en place de
technologies spécifiques chez l’utilisateur. L’idée générale est
de différencier les usages que l’on peut différer, par exemple
un ballon d’eau chaude qui peut maintenir sa température
plusieurs jours, et l’éclairage ou une télévision, dont la
consommation est faible au regard du ballon d’eau chaude.
Différencier ces usages nécessite toutefois la mise en place
d’équipements spécifiques, des interrupteurs télécommandés
au niveau du tableau électrique de la maison. Il faut en outre
prévenir le foyer de sorte que celui-ci ne s’étonne pas de ne
plus avoir d’électricité pour certains usages. On pourrait alors
envisager d’interrompre momentanément beaucoup
d’équipements. Les plus souvent évoqués sont les machines à
laver, les sèche-linge, les pompes à chaleur, les véhicules
électriques et les ballons d’eau chaude. La plupart de ces
usages peuvent facilement être différés, une machine à laver
qui serait lancée à 2 heures du matin plutôt qu’à 18 heures ne
change pas grand-chose pourvu que celle-ci ne soit pas trop
bruyante, ce qui est le cas des modèles récents.
La consommation d’une pompe à chaleur peut être réduite,
voire coupée sans indisposer le foyer si cela ne dure pas trop
longtemps. Un véhicule électrique, tant qu’il est suffisamment
chargé le matin, peut facilement reporter sa charge de quelques
heures. Un ballon récent d’eau chaude conserve une
température d’eau élevée pendant plusieurs jours.
Si ce principe est ancien (les tarifs bleus différenciés sont
évoqués un peu plus haut), jusqu’à la crise énergétique de
l’hiver 2023, le sentiment d’abondance a prévalu, et l’absence
d’incitation à économiser l’énergie durant les périodes de
consommation intense a largement eu tendance à aggraver le
pic d’utilisation qui se situe fréquemment entre 17 heures et
21 heures, ou le matin entre 7 heures et 10 heures. Ce sont,
chaque jour, les moments où des centaines de millions
d’individus sur la planète font des gestes à fort impact
énergétique : prendre une douche, faire la cuisine, lancer des
machines à laver, mettre le véhicule électrique à charger, etc.,
des usages qui pour la plupart peuvent être reportés sans
conséquence autre que de réduire la tension qui peut exister
sur le réseau électrique.
Les difficultés liées à la mise en œuvre de ces types de
réseaux (autrement appelé smartgrids) sont néanmoins
multiples. La première d’entre elles se situe dans le fait qu’il
est nécessaire d’avoir un régulateur qui favorise la mise en
place d’offres commerciales à forte variabilité de prix. Ce
n’est pas le cas par exemple en France où certaines analyses
semblent indiquer que le tarif heures creuses d’EDF peut
revenir en réalité plus cher que le tarif standard{109}. Pour les
autres acteurs, il faut admettre que l’avantage économique de
leurs offres est suffisamment peu attractif pour qu’elles n’aient
qu’une diffusion limitée, largement souscrites par des
consommateurs militants qui par nature ne sont qu’une faible
minorité de la population. Il y a là donc la nécessité d’une
alliance entre le régulateur (en France, la Commission de
régulation de l’électricité) et les innovateurs qui peuvent être
des start-up de différentes natures, des opérateurs
énergétiques, etc.
Évoquer la nécessité d’une alliance nécessite de convoquer
l’histoire. Après la Seconde Guerre mondiale, le Conseil
national de la Résistance français prit la décision de
nationaliser la plupart des producteurs d’électricité, un choix
qui ne sera que partiellement suivi par ses voisins. Dans la
foulée, décision sera prise d’unifier l’ensemble des réseaux
autour de la même norme technique, comprenant entre autres
choses le 240 volts alternatif à 50 hertz chez les particuliers{b}.
Ce choix très colbertiste eut comme conséquence de créer une
taille critique de marché qui permit de susciter des acteurs
aujourd’hui de dimension mondiale. EDF évidemment,
et également Engie dans la production et la distribution
d’électricité, Sonepar et Rexel dans la distribution
d’équipements électriques, Legrand et Schneider en ce qui
concerne la fabrication de ces équipements. Quatre-vingts ans
plus tard, la situation est paradoxalement assez semblable à ce
qu’elle était alors : la demande ne cesse de croître, notamment
du fait de l’électrification du parc de véhicules électriques,
tandis que de nombreux standards sont en compétition.
Alors que la France fait un effort d’une ampleur unique
en Europe pour accroître la décarbonation de son système de
production d’électricité, se profile également le choix de la
façon dont elle organise le pilotage de la consommation.
Nombreux sont les pays qui essaient de structurer ce sujet,
avec des approches parfois extrêmement variées. Dans
certains, le régulateur a fortement encouragé les offres
rémunérant la flexibilité de la demande : au Danemark, les
prix pour le consommateur domestique peuvent ainsi varier
d’un facteur 5 suivant la demande sur le réseau. Tout cela
est vertueux mais reste compliqué à gérer et surtout est loin
d’être optimal. À première vue, on pourrait encourager tous les
véhicules électriques à se recharger de préférence durant les
heures creuses, c’est-à-dire en dehors du début de matinée et
de la fin de l’après-midi. Mais comment gérer les cas
particuliers, le médecin qui retourne travailler vers 23 heures
et qui doit avoir un véhicule chargé, ou le taxi qui doit se
recharger fréquemment ? Une solution peut être l’adaptation
tarifaire que proposent déjà les fournisseurs d’électricité, mais
celle-ci n’est qu’un pis-aller qui ne tient qu’imparfaitement
compte des conditions réelles du réseau.
Or ce réseau ne cesse d’accroître sa complexité : côté
production, des milliers de nouveaux fournisseurs d’énergie
intermittente s’y greffent ; côté consommation, il faut
envisager que les véhicules électriques puissent un jour y
injecter une partie de leur électricité emmagasinée lors des
périodes de forte demande – une option d’autant plus
envisageable quand on sait que le taux de charge moyen de
l’ensemble des véhicules électriques est à tout moment de
l’ordre de 80 %{110}. D’un point de vue théorique, si l’on
pouvait piloter la demande de l’ensemble des équipements,
la résilience du réseau et sa décarbonation seraient très
importantes{c}. Pour ce faire, il convient, aux côtés du réseau
de transport d’énergie, de disposer d’une excellente
compréhension de ce qui constitue sa consommation actuelle
et future, et de pouvoir faire des arbitrages dynamiques, à une
échelle locale comme nationale. Il s’agit donc d’un modèle
probabiliste, largement multivarié, un contexte que
l’intelligence artificielle traite efficacement. Là également,
cela devra se faire au niveau du réseau : prédire son évolution
et optimiser les scénarios afin d’équilibrer offre et demande. Si
d’importantes quantités d’énergie sont injectées dans le réseau,
il serait possible de recharger les véhicules électriques plus
que d’habitude, voire de chauffer les ballons d’eau chaude à
une température supérieure à la moyenne et d’inciter les
industriels à produire durant ces périodes.
À toute cette complexité, il faut ajouter qu’avec
l’accroissement de la variabilité inhérente au développement
des énergies renouvelables, la transportabilité de l’énergie se
réduit. Il est faux de croire que l’on puisse transporter tout
surplus de production électrique d’un bout à l’autre de
l’Europe. Longtemps propagée par les acteurs voulant
favoriser une Europe reposant exclusivement sur les énergies
renouvelables, cette idée de « foisonnement » (multiplicité de
sources énergétiques renouvelables et multiplicité
géographique de zones de production interconnectées) est en
réalité une vue de l’esprit : entre la plupart des pays européens,
les capacités d’interconnexion ne représentent pas plus de
15 % de la capacité de production nationale{d}. Il est donc
impossible d’exporter vers l’Allemagne depuis l’Espagne
l’énergie qui lui manquera les jours sans vent. C’est pourquoi
avoir un réseau dynamique, qui effectue des arbitrages en
fonction des hypothèses de consommation et de transport,
serait un facteur important de renforcement de sa résilience en
optimisant à tout moment le modèle énergétique. Cela
permettrait en outre d’accroître les capacités d’exportation{e},
en limitant la consommation intérieure lors des périodes où
l’électricité a le plus de valeur.
Du côté des particuliers, il s’agit de faire les mêmes
arbitrages, si possible en connaissance de cause. En regardant
ce que prévoit l’agenda du conducteur du véhicule à batterie, il
serait possible de donner un prix à l’énergie disponible dans sa
batterie. S’il n’a que quelques kilomètres à faire le lendemain,
ce prix pourrait être faible. S’il a prévu un long voyage, celui-
ci serait très élevé, voire infini. Là où un système électrique
classique est incapable de prendre en compte les cas
particuliers, au-delà de quelques hôpitaux et acteurs industriels
électro-intensifs, un modèle de grille électrique basée sur des
systèmes prédictifs à base d’IA permet une très forte
résilience.
Dans ce champ, l’une des forces de l’IA, c’est sa capacité à
rapprocher des données qui sont a priori éparses : celles de
nos usages passés de l’énergie, ce qui est prévu dans notre
agenda, ce que donne comme information la localisation des
téléphones du foyer, etc. L’agrégation de ces données permet
de créer instantanément des scénarios prenant en compte toute
cette complexité. De nombreux acteurs se sont positionnés sur
ce marché.
Pour un pays comme la France, dont l’énergie est déjà l’une
des plus décarbonées au monde, l’opportunité d’un tel modèle
serait de descendre plus encore le niveau de CO2 présent dans
la production électrique, tout en accroissant la résilience du
réseau ainsi que les opportunités d’exportation d’une énergie
très décarbonée du fait de sa forte proportion de nucléaire. En
effet, si l’on parvient à minimiser la consommation lors des
périodes de forte demande, cela accroîtra mécaniquement la
part exportable de l’électricité.
Bien entendu, tout cela repose aussi et de façon importante
sur la capacité du consommateur à faire évoluer ses usages.
Comprendre que sa machine à laver ne démarre pas
immédiatement mais qu’elle sera néanmoins faite le lendemain
matin nécessite une expérience utilisateur appropriée : il faut
donner l’heure à laquelle la machine sera terminée et expliquer
l’avantage qu’il y a à faire ainsi, voire les économies qui
seront générées de la sorte.
Cette dynamique cependant ne se fera pas sans qu’un
régulateur intelligent s’attelle à ce chantier ; il ne s’agit plus de
mettre autour de la table des acteurs classiques, des
électriciens, des distributeurs, des producteurs, mais bien
d’aller chercher ceux qui sont impliqués dans la construction
de solutions à base de données, qui maîtrisent la data, les
enjeux d’intelligence artificielle et surtout qui partent des
usages.
{a} La conséquence est que le taux d’usage de cette énergie baisse, renchérissant
structurellement son coût, dans la mesure où une grande part de celui-ci provient de
la dette financière liée à la fabrication des centrales. Si leur taux d’usage était de
50 %, cela pourrait renchérir le prix d’une centrale de l’ordre de 60 %.
{b} Durant des décennies perdureront les reliquats de systèmes qui préexistaient
avant la nationalisation du système de production et de distribution de l’électricité
en France ; celui-ci utilisait du 110, du 120, du 220 et du 240 volts, du 25 hertz, du
40 hertz, du 50 hertz et du 60 hertz, du courant biphasé, triphasé (ce qui est
désormais le standard) et du courant à cinq phases.
{c} La France consomme 480 térawattheures d’électricité par an. Ses moyens de
production totaux sont (en janvier 2024) de l’ordre de 130 gigawattheures, ce qui
donne un niveau de charge moyen de 42 %. Les systèmes de production bas-
carbone y représentent la vaste majorité : nucléaire 63 gigawattheures, hydraulique
29 gigawattheures, solaire 11 gigawattheures et éolien 22 gigawattheures. Par
comparaison, les moyens carbonés (fioul, gaz, charbon) y comptent pour
14 gigawattheures. Un pilotage de la demande permettrait donc de réduire
drastiquement le besoin de recourir à des sources carbonées.
{d} Ainsi, la capacité d’interconnexion électrique de la France est de l’ordre de
18,3 gigawattheures, répartis avec ses sept voisins, là où sa capacité maximale de
production se situe aux alentours de 124 gigawattheures.
{e} Du fait de sa position centrale en Europe, les opportunités d’exportation
d’électricité sont parmi les plus importantes qui soient.
Troisième partie
Collaboration et compétition
L’une des conséquences vraisemblables de l’interaction
entre les AI companions et les AI platforms, dès lors qu’elles
seront déployées à larges échelles, sera de créer des systèmes
de négociation automatisés à multiples parties. Non seulement
ces interactions pourraient chercher à optimiser le remplissage
des systèmes de transport dans les villes en « négociant » entre
individus (par le biais des AI companions) et les IA
coordinatrices, mais elles pourraient aussi rapidement
introduire des négociations tierces. Par exemple, en profiter
pour nous proposer de rappeler quelqu’un de notre famille
(voire l’appeler) en attendant l’horaire du train proposé,
ou nous proposer une offre de vélo partagé à prix réduit pour
ne pas prendre le train. On conçoit que tout cela pourrait
rapidement provoquer des réactions en chaîne : ces
négociations élaborées ne seraient plus nécessairement
bidirectionnelles – je négocie avec mon dentiste pour avoir un
rendez-vous rapidement –, mais multipartites – je dois
absolument voir mon dentiste car j’ai une rage de dents et suis
prêt à payer un prémium, ou engager des bonus qui ne
sont renouvelés qu’une fois par an pour avoir ce rendez-vous
et décaler d’autres rendez-vous. Dans ce contexte complexe de
négociation entre plusieurs entités, des méthodes comme la
valeur de Shapley{e} peuvent être utilisées pour quantifier la
contribution de chaque IA, garantissant ainsi une allocation
équitable des ressources ou des récompenses. C’est
particulièrement pertinent lorsqu’on considère les nombreuses
interactions et contributions possibles entre différentes IA.
Cela n’a l’air de rien, mais des modèles d’organisation
collective qui sont aujourd’hui pour ainsi dire impossibles à
créer pourraient soudainement le devenir. Essayer de modifier
l’agenda d’une dizaine de personnes pour recaler une simple
réunion peut aisément nécessiter de longues heures de travail.
Synchroniser leurs systèmes de transport, replacer dans
l’agenda de chacun d’autres réunions qui auraient été
déplacées est également long et fastidieux. Or des AI
companions et des AI platforms pourraient vraisemblablement
faire cela en quelques secondes. D’une certaine façon,
l’émergence de ces processus pourrait signer la fin de l’ère
industrielle. Une ère au sein de laquelle c’est la demande qui a
structuré l’offre, des immenses infrastructures, bureaux,
voitures maisons, trains, routes, etc., qui sont massivement
sous-utilisées tout simplement parce que l’on ne savait pas
faire autrement. Dans le monde à venir, l’optimisation
et la personnalisation de masse pourraient devenir la norme.
En outre, ce type d’approche pourrait mettre en œuvre
des systèmes de coercition douce particulièrement puissants.
Si les réseaux sociaux ont réussi à capter notre attention
chaque jour des heures durant, pourquoi ce type de méthodes
ne serait-il pas mis en place pour des actions favorables à
l’environnement ? Un AI companion pourrait très bien
chercher à faire des arbitrages où il nous proposerait d’aller en
vacances dans les Pyrénées, en train, plutôt qu’en Thaïlande,
en avion. Ou nous retenir quelques minutes dans une tâche
importante ou agréable pour ne pas que nous nous lancions
dans une pratique utilisatrice de ressources en forte demande.
Si cet AI companion connaît nos goûts, nos aspirations, rien
n’indique que ces modèles réflexifs élaborés ne seraient pas
capables de nous proposer des alternatives intéressantes à ces
pratiques nocives pour l’environnement. On pourrait
évidemment facilement objecter que ces mécanismes
fonctionneraient surtout lorsque ses agents ont une sensibilité
forte au prix ; et il est exact que c’est là une limite à ce
modèle ; ce qui n’en milite que plus fortement pour une
progressivité de la taxe carbone.
En outre, ces IA pourraient dans certains cas faire des
arbitrages qui consisteraient à compenser des émissions
qu’elles n’auraient pas pu éviter en achetant des crédits
carbone. Si ces mécanismes sont souvent décriés dans la
mesure où ils n’évitent pas les émissions, ils pourraient être
utiles dans le cas où nous devrions effectuer un dépassement
inévitable – faire un long voyage en avion pour aller voir sa
famille – et proposer un mécanisme de compensation qui soit
en conformité avec le type d’émissions que l’on a produit :
restauration d’écosystèmes fragiles pour l’achat de meubles en
bois tropicaux, plantation durable d’arbres pour un voyage en
avion, etc.
Il est probable que, au moins dans un certain temps, ces
dispositifs effectuent des arbitrages dont les conséquences ne
seraient pas désirées – par exemple, recourir à de la nourriture
livrée plutôt que cuisinée à la maison. Le recours à des
travailleurs faiblement payés, utilisant un scooter à essence,
la présence d’un grand nombre d’emballages, etc., ne seraient
pas forcément pris en compte. D’un autre côté, cuisiner à la
maison prend du temps mais peut aussi avoir
des conséquences sociales et diététiques : la cuisine faite à la
maison est plus fréquemment mangée en famille, et elle est
généralement moins salée et moins grasse{113}. De fait, la prise
en compte des externalités d’un arbitrage par rapport à un
autre peut s’avérer très complexe. Il ne faut pas s’attendre à ce
que les plateformes d’IA prennent nécessairement en compte
les externalités qui n’ont pas de traduction économique sans
une importante contrainte externe. Après tout, ces
métaplateformes n’ont pas eu beaucoup d’états d’âme lorsqu’il
s’est agi de capter notre attention en masse{114}. Lorsqu’un
marché des externalités environnementales viendra à s’ouvrir
largement, il est possible qu’elles cherchent à l’accaparer, au
détriment des éventuels problèmes que cela pourrait créer par
ailleurs. Le rôle du régulateur sera donc là important.
{a}Les chiffres officiels sont comme suit : Alphabet (Google), plus de 1,6 milliard
(pour Gmail seul) ; Apple, plus de 1 milliard d’utilisateurs d’iPhone (pas
nécessairement le même nombre de comptes iCloud) ; Meta (Facebook), plus de 2,8
milliards (pour Facebook seul) ; Microsoft, plus de 1,3 milliard de comptes pour
Windows 10 et 258 millions pour Office 365 Commercial ; Amazon, plus de 200
millions d’abonnés à Prime.
{b} D’ici 2025-2027, il est raisonnable d’envisager d’avoir des smartphones non
plus avec 12 Go de RAM pour le haut de gamme, mais plutôt 32 Go de RAM, en
SSD/NVMe, ce qui permettrait de faire fonctionner des modèles de l’ordre de
20 Go sans grande difficulté.
{c} L’effet rebond a été initialement théorisé par William Stanley Jevons au
XIXe siècle. Celui-ci observa en effet que l’introduction de la machine à vapeur de
Watt, qui permettait d’accroître largement le rendement de celle-ci, au lieu de faire
décroître les besoins en charbon les décupla, en généralisant l’usage de ce type de
machine.
{d}Dans la théorie des jeux, un modèle non coopératif étudie comment les agents
prennent des décisions indépendamment et souvent en concurrence, cherchant à
maximiser leurs propres gains sans accord contraignant. À l’inverse, un modèle
coopératif examine comment les agents peuvent former des coalitions et établir des
accords pour optimiser des résultats collectifs ou partagés. Il serait possible de
modéliser les relations entre les IA coordinatrices et les AI companions sous forme
de graphes, où les nœuds pourraient représenter des composants individuels (par
exemple, des unités de traitement, des bases de données) et les arêtes des
communications ou des dépendances.
{e}En théorie des jeux, plus précisément dans un jeu coopératif, la valeur de
Shapley donne une répartition équitable des gains aux joueurs.
Chapitre 10
Une journée dans la vie
de Sophie
Avant-propos
{1}Sizing the Prize. What’s the Real Value of AI for Your Business and How
Can You Capitalise ?, PWC, août 2023.
Chapitre 7. – L’agriculture
{91}Matthew J. Smith, « Getting value from artificial intelligence in agriculture »,
Animal Production Science, 2018, 60 (1).
{92} Michael Gomez Selvaraj et al., « AI-powered banana diseases and pest
detection », Plant Methods, 2019, 15 (1).
{93} Victoria Masterson, « Here’s what happened when AI and humans met in a
strawberry-growing contest », World Economic Forum, 29 janvier 2021.
{94}Gilles Babinet, Big data, penser l’homme et le monde autrement, Le Passeur
Éditeur, 2015.
{95}
Joyce Chimbi, « Information technology transforms the way Kenyan farmers
manage crops and market their produce », Alliance for Science, 12 avril 2023
{96} « L’irrigation intelligente “VENUE DE L’ESPACE” pour les agriculteurs
indiens », Rivalis, août 2023.
{97}Global Assessment Report on Biodiversity and Ecosystem Services, IPBES,
2019.
{98} Verena Seufert, Navin Ramankutty, Jonathan Foley, « Comparing the yields of
organic and conventional agriculture », Nature, 2012, 485 (7397), p. 229-232. Cette
étude est une méta-analyse qui a mis en évidence le fait que les rendements de
l’agriculture biologique sont en moyenne 25 % inférieurs à ceux de l’agriculture
intensive. Certains travaux évoquent des rendements encore inférieurs : Loïc
Chaveau, « Le bio peut-il nourrir le monde ? », Sciences et avenir, 11 février 2016.
{99} L’Institut national de recherche pour l’agriculture, l’alimentation et
l’environnement (Inrae) a développé des scénarios à cette fin dans lesquels l’apport
de l’intelligence artificielle est envisagé. « Prospective : agriculture européenne
sans pesticides chimiques en 2050 », Inrae, 21 mars 2023.
{100} « Applying AI to understand Agroforestry at Scale », Standford
University/School of Sustainability Doerr.
{101}« University of Minnesota to lead new $20M AI Institute focusing on climate-
smart agriculture and forestry », University of Minnesota, mai 2023.
{102} « AI-Climate Institute at Cornell : Advancing climate-smart agriculture
through artificial intelligence », Cornell University, novembre 2023.
{103}
Elliott Grant, « M is for Mineral. Mineral is now an Alphabet company »,
X Company, 10 janvier 2023.
{104} Claire Turrell, « Bali rice experiment cuts greenhouse gas emissions and
increases yields », Mangabay, 11 août 2023.
Conclusion
{125}Ian Bremmer, Mustafa Suleyman, « The AI power paradox : Can States learn
to govern artificial intelligence – Before it’s too late ? », Foreign Affairs,
septembre-octobre 2023.
{126} « Fact sheet : President Biden issues executive order on safe, secure, and
trustworthy artificial intelligence », The White House, 30 octobre 2023.
{127}
« Une approche européenne de l’intelligence artificielle », Union européenne,
décembre 2023.
{128}
Vincent Bretagnolle, « Les mégabassines ne résoudront pas la crise de l’eau »,
CNRS. Le Journal, 19 septembre 2023.
{129}« Mégabassines : des lacunes dans le rapport du BRGM ? », Radio France,
14 février 2023.
{130}Juri Allik, Anu Realo, « Individualism-collectivism and social capital »,
Journal of Cross-Cultural Psychology, 2004, 35 (1), p. 29-49.
{131}Youth Risk Behavior Survey Data Summary and Trends Report : 2009-2019,
Center for Disease Control and Prevention, 2020.
DU MÊME AUTEUR
CHEZ ODILE JACOB
Comment les hippies, Dieu et la science ont inventé Internet, 2023.