Ia 1
Ia 1
Ia 1
Titre :
M : Bouhafs Daoui
Février 2023
1
1-Introduction
2
Sept ans plus tard, à la suite de l'initiative prophétique du Cabinet du
Japon, les gouvernements et l'industrie réinvestissent dans l'intelligence
artificielle, mais à la fin des années 1980 les décideurs désabusés
retirent à nouveau leurs fonds. On peut donc dire que ce cycle en dents
de scie, où alternent périodes de gel et de dégel, caractérise le soutien à
l'intelligence artificielle. Mais il reste toujours des idéalistes pour faire des
prédictions osées.
Quoi qu'il en soit, malgré des hauts et des bas et malgré les réticences
des technocrates et des investisseurs, l'intelligence artificielle progresse.
Des problèmes qu'on pensait inaccessibles en 1970 ont été résolus et
leurs solutions sont distribuées commercialement. Cela est aussi dû aux
progrès de l'algorithmique qui a permis de programmer des solutions que
l'on ne pouvait atteindre autrefois que par des heuristiques. Néanmoins,
aucune machine dotée d'une intelligence artificielle forte n'a encore été
construite, contrairement aux prévisions optimistes de la première
génération de chercheurs. « Nous ne pouvons qu'entrevoir le court
terme » a concédé Alan Turing, dans un article célèbre de 1950 qui
préfigure la recherche moderne sur les machines pensantes Mais,
ajoute-t-il, nous ne pouvons pas envisager l'ampleur du travail qui reste
à accomplir .
3
intelligence artificielle, l'approche neuronale refait surface dans
les années 1980, inspirant les travaux sur le connexionnisme.
2-Automates
3- Raisonnement formel
5
Frege, Russell et Whitehead ont présenté un traitement formel des
fondements des mathématiques dans leur chef-d'œuvre Principia
Mathematica en 1913. Inspiré par le succès de Russell, David Hilbert a
défié les mathématiciens des années 1920-1930 de répondre à cette
question fondamentale : « Le raisonnement mathématique peut-il être
entièrement formalisé On répondit à sa question par les théorèmes
d'incomplétude de Gödel, la machine de Turing et le lambda-
calcul de Church. Leur réponse était surprenante à plusieurs titres. Tout
d'abord, ils prouvèrent qu'il y avait, en fait, des limitations dans ce que la
logique mathématique pouvait accomplir.
Mais aussi (et plus important encore pour l'IA) leurs travaux ont suggéré
que, sous ces conditions, toute forme de raisonnement mathématique
pouvait être mécanisée. La thèse de Church impliquait qu'un appareil
mécanique, manipulant des symboles aussi simples que des 0 et des 1,
pouvait imiter tout processus concevable de déduction mathématique.
Cette notion-clé se traduisit par la machine de Turing — une simple
construction théorique qui capturait l'essence de la manipulation de
symboles abstraits. Cette invention inspira une poignée de scientifiques
qui commencèrent alors à discuter de la possibilité de machines
pensantes.
6
que la machine peut composer des pièces de musique élaborées et
scientifiques de toutes complexité et longueur.
On peut citer comme exemples de travaux de cette veine les robots tels
que les Tortues de Bristol de William Grey Walter et la Bête de Johns
Hopkins (en). Ces machines n'utilisent pas d'ordinateurs, d'électronique
numérique ni de raisonnement symbolique ; elles étaient entièrement
contrôlées par des circuits analogiques
8
8- Test de Turing
9
des démonstrations inédites et élégantes. Simon raconte qu'ils ont
« résolu le vénérable problème corps-esprit, expliquant comment un
système composé de matière peut avoir des propriétés de l'esprit ».
C'est l'une des premières formulations d'un mouvement philosophique
que John Searle appellera plus tard « intelligence artificielle forte » :
comme les humains, les machines peuvent posséder un esprit.
13-Les percées
.
11
labyrinthe, revenant en arrière dès qu'ils se heurtent à une impasse. Ce
paradigme est appelé « raisonnement par tâtonnements » ou retour sur
trace.
14-Langage naturel
Un but majeur de la recherche en IA est de permettre aux ordinateurs de
communiquer en langage naturel comme l'anglais. Un des premiers
succès était le programme STUDENT de Bobrow, qui pouvait résoudre
des problèmes algébriques rédigés pour lycéens.
12
« possède un ») par des liaisons entre ces nœuds. Le premier
programme d'IA à utiliser un réseau sémantique a été écrit par Ross
Quillian57 et la version la plus performante (et controversée) a été
la Conceptual dependency theory de Roger Schank.
15-Micro-mondes
À la fin des années 1960, Marvin Minsky et Seymour Papert du
Laboratoire d'IA du MIT ont proposé que la recherche d'IA se concentre
sur des situations artificiellement simplifiées appelées aussi micro-
mondes. Ils ont mentionné à juste titre que dans les sciences
performantes comme la physique, les principes fondamentaux étaient
souvent mieux compris en utilisant des modèles simplifiés tels que des
avions sans friction, ou des corps parfaitement rigides. La majorité de la
recherche s'est alors centrée sur un « monde-blocs », qui consistait en
un ensemble de blocs colorés de formes et tailles variées disposés sur
une surface plane.
13
La plus grande réussite de ces programmes micro-mondes a été
le SHRDLU de Terry Winograd. Ce dernier pouvait communiquer en
anglais à l'aide de phrases ordinaires, planifier des opérations et les
exécuter.
16-L'optimisme
La première génération de chercheurs en IA fait les prévisions suivantes
à propos de leur travail :
17-Le financement
En juin 1963 le MIT reçoit une subvention de 2,2 millions de dollars de la
toute jeune ARPA (« Agence pour les projets de recherche avancée »,
qui deviendra plus tard la DARPA). L'argent est utilisé pour financer
le Projet MAC (en) qui englobe le « Groupe IA » fondé
par Minsky et McCarthy cinq ans plus tôt. L'ARPA continue à fournir trois
millions de dollars par an jusqu'aux années 1970. L'ARPA fait des
14
subventions similaires au programme de Newell et Simon à Carnegie-
Mellon et au projet Stanford I.A. (fondé par John McCarthy en 1963). Un
autre laboratoire important d'IA est établi à l'université
d'Édimbourg par Donald Michie en 1965. Ces quatre institutions
continuent d'être les principaux centres de recherche en IA au niveau
académique pendant de nombreuses années.
15
pour 10 ans par la critique dévastatrice de Marvin Minsky sur
les perceptrons73. Malgré l'image négative de l'intelligence artificielle
dans le grand public à la fin des années 1970, de nouvelles idées sont
explorées en programmation logique, raisonnement de bon sens et dans
d'autres directions.
19-Les problèmes
Au début des années 1970, les capacités des programmes d'IA sont
limitées. Les plus performants peinent à manipuler des versions
simplistes des problèmes qu'ils sont supposés résoudre et tous les
problèmes sont, d'une certaine manière, des « broutilles ». De fait, les
chercheurs en IA font face à plusieurs limites fondamentales
insurmontables et bien que certaines limites soient dépassées depuis,
d'autres demeurent de vrais obstacles.
16
impossible ». Néanmoins comme la puissance informatique augmente,
ça finira par devenir possible.
17
découvrent que la quantité d'information correspondante est très grande,
bien qu'un enfant l'acquière très rapidement. À cette époque, il n'était
pas envisageable de construire une telle base de données ni un
programme capable de gérer autant d'information.
18
les logiques non monotones et modales) pour essayer de résoudre ces
problèmes.
26-Critiques universitaires
Plusieurs philosophes émettent de fortes objections aux affirmations des
chercheurs en IA. Un des premiers opposants est John Lucas, qui
s'appuie sur le théorème d'incomplétude de Gödel pour contester
l'aptitude des démonstrateurs automatiques de théorèmes à démontrer
certaines affirmations. Hubert Dreyfus ridiculise les promesses non
tenues des années soixante et critique les hypothèses de l'IA,
argumentant que le raisonnement humain avait en fait besoin de très
peu de « traitement symbolique » mais surtout de sentiment
d’embodiment, d'instinct, d'un « savoir-faire » inconscient. L'argument de
la chambre chinoise avancé par John Searle en 1980, tente de montrer
qu'on ne peut pas dire qu'un programme « comprend » les symboles
qu'il utilise (une qualité appelée « intentionnalité »). Si les symboles n'ont
aucun sens pour la machine, on ne peut, dixit Searle, qualifier la
machine de « pensante ».
21
décennie, qu'une nouvelle génération de chercheurs se réattaque au
problème, notamment en France, Guy Perennou et Serge Castan.
22
le but est d'avoir des machines qui peuvent résoudre des problèmes, pas
des machines qui pensent comme des humains. Mais la critique la plus
sévère de l'approche fondée sur la déduction automatique vient du
théoricien de l'informatique Stephen Cook qui montre dans son célèbre
article The Complexity of Theorem-Proving Procedures (« La complexité
des procédures de démonstration de théorèmes ») qu'il n'y a pas de
procédures automatiques efficaces de démonstration de théorèmes sauf
si P = NP.
23
viennent à l'esprit, ainsi on peut prétendre qu'il vole, qu'il mange des
vers, etc.. On sait que ces faits ne sont pas toujours vrais et que les
déductions à partir de ces faits ne sont pas toutes « logiques », mais ces
ensembles structurés d'hypothèses font partie du contexte de nos
discussions ou de nos pensées. Minsky appelle ces structures des
« cadres ». Schank, quant à lui, introduit une variante des cadres qu'il
appelle des « scripts » afin de répondre à des questions sur des romans
anglophones. Certains affirment que quelques années plus tard
la programmation orientée objet empruntera aux cadres de l'intelligence
artificielle la notion d'« héritage ».
26
en informatique et en intelligence artificielle à grande échelle.
La DARPA a aussi réagi en fondant la Strategic Computing
Initiative (Initiative Informatique Stratégique) et en triplant ses
investissements en IA entre 1984 et 1988.
27
35-La crise : le second hiver de l'IA
1987−1993
La fascination de la communauté économique pour l'intelligence
artificielle a gonflé puis chuté dans les années 1980 en suivant le
schéma classique d'une bulle économique. L'effondrement de l'IA a eu
lieu au niveau de la perception que les investisseurs et les agences
gouvernementales en avaient — le domaine scientifique continue ses
avancées malgré les critiques. Rodney Brooks et Hans Moravec,
chercheurs dans le domaine voisin de la robotique, plaident pour une
approche entièrement neuve de l'intelligence artificielle.
28
Finalement, les premiers systèmes experts à succès comme le Xcon ont
un coût de maintenance trop élevé. Ils sont difficiles à mettre à jour, ils
ne peuvent pas apprendre, ils sont trop « fragiles (en) » (ainsi, ils
peuvent faire des erreurs grotesques quand les paramètres sortent des
valeurs habituelles), et s'empêtrent dans des problèmes (tels que le
problème de qualification). Les systèmes experts se sont révélés utiles,
mais uniquement dans des contextes très spécifiques.
29
raisonnement abstrait est en fait la capacité humaine
la moins intéressante ou importante (cf. le paradoxe de Moravec). Ils
défendent une intelligence « par la base. »
30
On a commencé à s'en servir avec succès dans le secteur
technologique, même sans avoir vraiment été mise en avant. Quelques
réussites sont venues avec la montée en puissance des ordinateurs et
d'autres ont été obtenues en se concentrant sur des problèmes isolés
spécifiques et en les approfondissant avec les plus hauts standards
d'intégrité scientifique. Néanmoins, la réputation de l'IA, dans le monde
des affaires au-moins, est loin d'être parfaite. En interne, on n'arrive pas
à vraiment expliquer les raisons de l'échec de l'intelligence artificielle à
répondre au rêve d'un niveau d'intelligence équivalent à l'Homme qui a
captivé l'imagination du monde dans les années 1960. Tous ces facteurs
expliquent la fragmentation de l'IA en de nombreux sous-domaines
concurrents dédiés à une problématique ou une voie précise, allant
même parfois jusqu'à choisir un nom qui évite l'expression désormais
souillée d'« intelligence artificielle ». L'IA a du coup été à la fois plus
prudente mais aussi plus fructueuse que jamais.
31
par le système de questions-réponses conçu par IBM, au centre de
recherche Watson.
40-Agents intelligents
Un nouveau paradigme, les « agents intelligents », s'est
progressivement imposé au cours des années 1990. Bien que les
premiers chercheurs aient proposé des approches modulaires de type
« diviser pour régner » en intelligence artificielle, l'agent intelligent n'a
pas atteint sa forme moderne avant que Judea Pearl, Allen Newell et
d'autres n'y amènent des concepts de théorie de la décision et
d'économie. Quand la définition économique de l'agent rationnel s'est
combinée à la définition informatique de l'objet ou encore du module, le
paradigme de l'agent intelligent s'installe.
32
artificielle comme l'« étude des agents intelligents ». C'est une
généralisation de certaines des premières définitions de l'IA : elle va au-
delà de l'étude de l'intelligence humaine ; elle étudie tout type
d'intelligence.
33
généralement l'optimisation mathématique. Des descriptions
mathématiques s'appliquent aux paradigmes primordiaux de
l'« intelligence computationnelle » comme les réseaux neuronaux et
les algorithmes évolutionnistes.
34
tenues de l'hiver de l'IA continuent de hanter la recherche en intelligence
artificielle, comme le New York Times le rapporte en 2005 : « Les
scientifiques en informatique et les ingénieurs logiciel ont évité
l'expression 'intelligence artificielle' par crainte d'être considérés comme
de doux illuminés rêveurs. »
35
Cortana en 2014. Mais ces assistants restent du domaine de
l'intelligence artificielle faible.
- L’accès tout d’abord à des volumes massifs des données. Pour pouvoir
utiliser des algorithmes de classification d’image et de reconnaissance
d’un chat par exemple, il fallait auparavant réaliser soi-même un
échantillonnage. Aujourd’hui, une simple recherche sur Google permet
d’en trouver des millions.
36
- Ensuite la découverte de la très grande efficacité des processeurs de
cartes graphiques des ordinateurs pour accélérer le calcul des
algorithmes d’apprentissage. Le processus étant très itératif, cela pouvait
prendre des semaines avant 2010 pour traiter l’intégralité d’un
échantillonnage. La puissance de calcul de ces cartes, (capables de plus
de mille milliards d’opérations par seconde) a permis un progrès
considérable pour un coût financier restreint (moins de 1000 euros la
carte).
37
Parmi les techniques d’apprentissage machine (machine learning), c’est
celle de l’apprentissage profond (deep learning) qui paraît la plus
prometteuse pour un certain nombre d’application (dont la
reconnaissance de voix ou d’images). Dès 2003, Geoffrey Hinton (de
l’Université de Toronto), Yoshua Bengio (de l’Université de Montréal) et
Yann LeCun (de l’Université de New York) avaient décidé de démarrer
un programme de recherche pour remettre au goût du jour les réseaux
neuronaux. Des expériences menées simultanément à Microsoft, Google
et IBM avec l’aide du laboratoire de Toronto de Hinton ont alors
démontré que ce type d’apprentissage parvenait à diminuer de moitié les
taux d’erreurs pour la reconnaissance vocale. Des résultats similaires
ont été atteints par l’équipe de Hinton pour la reconnaissance d’image.
38
Bibliographie :
1. McCorduck 2004
2. Kurzweil 2005 maintient ↑ Turing 1950, p. 460
3. McCorduck 2004, McCorduck 2004 ; Russell et Norvig 2003,
4. McCorduck 2004, ; Buchanan 2005, McCorduck 2004,
5. Butler 1863
6. Needham 1986,
39