Cours SysExpert

Télécharger au format ppt, pdf ou txt
Télécharger au format ppt, pdf ou txt
Vous êtes sur la page 1sur 28

Un Système Expert (Définition)

 Un système expert est un outil capable de reproduire les


mécanismes cognitifs d'un expert, dans un domaine
particulier. Il s'agit de l'une des voies tentant d'aboutir à
l'intelligence artificielle.

 Plus précisément, un système expert est un logiciel capable


de répondre à des questions, en effectuant un raisonnement
à partir de faits et de règles connues. Il peut servir
notamment comme outil d‘ aide a la décision.

1
Composition:

Un système expert se compose de 3 parties :


1- une base de faits: Une base de faits est l'une des entrées d'un moteur
d'inférence. C'est un ensemble de connaissances appelées "faits" et
considérés comme vrais. À partir de ces faits, le moteur d'inférence va leur
appliquer les règles issues de sa base de règles pour en déduire d'autres
faits et ainsi résoudre un problème de logique.
Base de faits :
 Pierre est le père de Jean
 Jean est le frère de Simon
 Nathalie est la mère de Simon

2
Composition:

2- Base de règles: "emmagasinent" la connaissance sous forme de


règles : SI ... ALORS ... afin d’être le plus proche de la façon naturelle de la
représentation des connaissances. La partie entre le SI et le ALORS
s’appelle la partie prémisses de la règle. Elle correspond à une conjonction
d’expressions qui doivent être vérifiées pour que la règle se déclenche. La
partie qui suit le ALORS s’appelle la partie conclusion. Elle correspond à une
conjonction d’actions.

Base de règles :
 si x est frère de y alors la mère de x est aussi la mère de y ;
 si x est frère de y alors le père de x est aussi le père de y.

3
Composition:

3- Moteur d’inférence: permet aux systèmes experts de


conduire des raisonnements logiques et de dériver des
conclusions à partir d'une base de faits et d'une base de
règles.

Déductions possibles du moteur d‘ inférence:

o Nathalie est la mère de Jean.

 Pierre est le père de Simon.

4
Système Expert (Principe)

 But :
– Modélisation d'un expert humain
– résolution de tâches.
– Explications sur les raisonnements
 Composition :
– Base de connaissances
– Moteur d'inférence

5
Cycle du moteur d'inférence :

 Phase d’évaluation

1/ Etape de Filtrage ou détection : Elle consiste à définir pour l’ensemble


des règles de BC, les règles potentiellement applicables → résultat
ensemble de règles.

2/ Etape de Sélection avec réduction de conflits: Elle consiste à choisir parmi


l’ensemble des règles applicables, la règle à appliquer effectivement →
résultat une règle.

 Phase d’exécution

Elle consiste à appliquer la règle choisie et mettre à jour la base de faits


BDF.
6
7
Mode de raisonnements

– Chaînage avant (données)


– Chaînage arrière (but)
– Chaînage mixte

8
Expert Système-expert
du
domaine
Moteur
d’inférences

Interface
utilisateur

Cogniticien

Base
de Utilisateur
connaissances

9
Participants au développement

 Un ou plusieurs experts du domaine, capable(s) et


intéressé(s) à formaliser les procédures d'analyse et
de prise de décisions.
 Un ou plusieurs "ingénieurs de la connaissance",
capable(s) et intéressé(s) à formaliser les
connaissances sous forme d'un système expert.

10
Différents rôles

 Informaticien
– construction du moteur d’inférences et de l’interface utilisateur
 Ingénieur de la connaissance (cogniticien)
– consultation des experts du domaine
– design, construction et débogage de la BDC
 Experts du domaine
– connaissance « sémantique » du domaine en terme de relation entre
faits et événement (pas de connaissance procédurale)
 Utilisateur
– Information sur le problème individuel à résoudre mais pas sur le
domaine (il ne connaît pas quelles informations sont utiles)

11
Raisons favorisant le développement d'un
système expert

 Existence d'un grand nombre d'observations


systématiques
 Existence d'une procédure d'analyse et de prise de
décisions acceptée
 Solutions souhaitées non évidentes du premier coup, ou
difficiles à obtenir autrement
 Intérêt économique du projet (disponibilité d'une
information intelligente 24/24h, complexité excessive,
etc.)

12
Phases de développement

1. Spécification du cahier des charges


2. Choix d'une architecture du système, de son interface
utilisateur, et d'un langage de traitement. Prévision des
mécanismes de modification ultérieure du système
3. Sélection d'un sous-ensemble représentatif du
problème pour l'élaboration d'un démonstrateur
4. Acquisition des informations et élaboration du
mécanisme d'ajoût et de modification de la base de
connaissances
5. Implantation du "moteur d'inférences" (règles
d'inférence)
6. Test, ajustement et documentation du système
13
Base de faits

 Mémoire de travail
– Au début de la session : contient ce que l'on sait du cas examiné
avant toute intervention du moteur d'inférences.
– Puis : complétée par les faits déduits par le moteur ou demandés à
l'utilisateur.
– Exemple : dans le domaine médical,
– Base de faits = liste de symptômes en début de session et un
diagnostic lorsque celle-ci se terminera.
 Le type d'un fait
– les faits élémentaires sont :
 booléens : vrai, faux
 symboliques : c'est-à-dire appartenant à un domaine fini de
symboles
 réels : pour représenter les faits continus.
– Par exemple, actif est un fait booléen, profession est un fait
symbolique et rémunération est un fait réel.
14
 Les formules ou conditions
– Dans un système expert d'ordre 0, on pourra par exemple
écrire des formules de la forme :
actif ou ¬ actif
– Dans un système d'ordre 0+, on pourra trouver les formules :
actif et (profession  medecin ou remuneration  20000)
– Dans un système d'ordre 1, on pourra trouver :
$ X maladie(X) et X  grippe et symptome(X) = forteFievre

15
La base de règles

 Elle rassemble la connaissance et le savoir-faire de l'expert. Elle


n'évolue donc pas au cours d'une session de travail.
 Une règle est de la forme :
Si <conjonction de conditions> alors <conclusion>
où les conclusions sont de la forme :
<Fait> = <valeur>.
 Une base de règles est un ensemble de règles et sa signification
logique est la conjonction de la signification logique de chacune
des règles.
– si A ou B alors C
ou
– si A alors B et C
Il n'en est par contre pas de même de
– si A alors B ou C

16
La représentation des connaissances incertaines

 On peut reconnaître globalement un objet sans être


capable d'identifier à 100% chacun de ses détails.
 théorie des probabilités : degré de vraisemblance d'un fait.
– De nombreux générateurs de systèmes experts offrent la
possibilité aux utilisateurs de nuancer leur certitude
concernant un fait en leur associant un degré de
vraisemblance.
– il n'est pas raisonnable d'attendre d'un être humain, expert
ou non, qu'il puisse définir avec précision de tels degrés de
vraisemblance.
 logique floue, logique modale,...

17
Moteur d’inférences : Chaînage avant

 Saisie des faits initiaux


 Début
– Phase de filtrage => Détermination des règles
applicables
– Tant que ensemble de règles applicables n'est pas vide
ET que le problème n'est pas résolu Faire
 Phase de choix => Résolution des conflits
 Appliquer la règle choisie (exécution)
 Modifier (éventuellement) l'ensemble des règles
applicables
– Fin faire
 Fin
18
ALGORITHME DU CHAINAGE AVANT
ENTREE : BF, BR, F

 DEBUT
– TANT QUE F n'est pas dans BF ET QU'il existe dans BR
une règle applicable FAIRE
 choisir une règle applicable R (étape de résolution de
conflits, utilisation d'heuristiques, de métarègles)
 BR = BR - R (désactivation de R)
 BF = BF union concl(R) (déclenchement de la règle R, sa
conclusion est rajoutée à la base de faits)
– FIN DU TANT QUE
– SI F appartient à BF ALORS
 F est établi
– SINON
 F n'est pas établi

19  FIN
Exemple : les règles

 REGLE r1
SI animal vole ET animal pond des oeufs
ALORS animal est un oiseau
 REGLE r2
SI animal a des plumes
ALORS animal est un oiseau
 REGLE r3
SI animal est un oiseau ET animal a un long cou ET
animal a de longues pattes
ALORS animal est une autruche
20
Exemple : les faits

 F1 : animal a des plumes


 F2 : animal a un long cou
 F3 : animal a de longues pattes

21
22
Chaînage arrière

 Le principe est le suivant :


– Le moteur recherche les règles qui concluent sur le but à vérifier, et
s'assurent que ces règles sont "déclenchables".
– La règle est déclenchable si ses prémisses sont vérfiées.
– Si parmi les règles sélectionnées, une règle est déclenchable, alors le
but est vérifié.
– Si ce n'est pas le cas, alors les prémisses à vérifier deviennent de
nouveaux buts, appelés sous-buts, et le processus est réitéré.
 Les principales conditions d'arrêt :
– L'ensemble des sous-buts est vide (succès) = tous les sous-buts ont
été vérifiés et le problème est résolu
– Impasse ou échec : Soit un des sous - buts n'est pas vérifiable avec
la règle courante et il faut choisir une nouvelle règle pour le vérifier, et
si cela n'est pas possible, alors il y a échec.
23
Moteur d’inférences : Chaînage arrière

 Phase de filtrage
 Si l'ensemble des règles sélectionnées est vide Alors
questionner l'utilisateur
 Sinon
– Tant que le but n'est pas résolu ET qu'il reste des règles
sélectionnées Faire
 Phase de choix
 Ajouter les sous-buts (partie gauche de la règle choisie)
 Si un sous-but n'est pas résolu Alors mettre le sous-but en
but à résoudre
– Fin faire

24
25
Conclusions : Les systèmes experts sont partout

 terme "système expert" un peu suspect de nos jours


– dans le monde commercial, on parle souvent de "bases de
données" plutôt que de "systèmes experts".
 Par exemple, la réservation d'un vol sur une ligne aérienne
implique nécessairement
– (1) une base de connaissance (les vols assurés par la
compagnie),
– (2) un ensemble de faits à considérer (votre demande de
destination avec une gamme de départs et arrivées possibles),
– (3) une logique de règles ayant trait aux trajets disponibles, aux
dates de départ et aux réservations déjà faites.
 Un tel système correspond donc à la définition générale d'un
système expert

26
Conclusions : Types de système expert (1)

Haton & Haton (1989) distinguent différents types de systèmes experts


 Systèmes d'interprétation de données.
– P.ex., systèmes de diagnostic en médecine ("de quelle maladie s'agit-
il?"), système d'interprétation géologique ("les mesures seismologiques
permettent-elles de croire à l'existence de dépôts minéraux
importants?"), systèmes d'évaluation psychologique ("s'agit-il d'un cas
suicidaire?"), etc.
 Systèmes de prédiction.
– P.ex., systèmes de prédiction météorologique ("Il pleut aujourd'hui en
France. Va-t-il pleuvoir en Suisse demain?"), prédictions géopolitiques
("Les conflits de guerre sont particulièrement fréquents en situation de
crise économique. Quelles combinaisons précises de facteurs
économiques, sociologiques et politiques prédisent un déclenchement
d'hostilités?"), etc.

27
Conclusions : Types de système expert (2)

 Systèmes de planification.
– P.ex., système de réservation de vols aériens, planification
des altitudes de vol selon les vents connus et les corridors
disponibles, planification des actions d'assemblage d'un
robot industriel, planification des interventions requis pour
la construction d'un bâtiment, etc.
 Systèmes de conception.
– P.ex., Développement et simplification de circuits intégrés,
aménagement d'une cuisine optimale dans un espace
donné, clonage de gènes, création d'un nouveau composé
chimique, etc.

28

Vous aimerez peut-être aussi