Chiadmibouna
Chiadmibouna
Chiadmibouna
*-*-*-*-*
PREMIER MINISTRE
*-*-*-*-*-*-*-*
HAUT COMMISSARIAT AU PLAN
*-*-*-*-*-*-*-*-*-*-*-*-*-*
INSTITUT NATIONAL
DE STATISTIQUE ET D’ECONOMIE APPLIQUEE
Juin 2007
PREMIERE PARTIE : Présentation Générale
Dédicace
Hassan BOUNA
Dédicace
Mohammed Salah
Remerciement
Au terme de ce travail, nous tenons à exprimer notre profonde gratitude à Monsieur
CHAOUBI, notre encadrant à l’INSEA pour sa patience, ses précieux conseils qui nous ont
été d’une très grande utilité et pour l’intérêt qu’il a accordé à notre travail durant toute la
période de notre projet.
Nous remercions également Monsieur Mokhtar CHEMAOU, notre encadrant au
Crédit agricole du Maroc pour nous avoir accueilli parmi son équipe pendant deux mois et
demi de stage et pour le grand soutien et les grands efforts qu’il n’a pas économisés à nous
accorder.
Nous remercions également M. Professeur à l’INSEA, pour avoir été parmi les
membres de jury.
Enfin, nous adressons nos vifs remerciements au personnel du Département audit et
qualité du risque au Crédit agricole du Maroc, et à tous ceux qui ont contribué de prés ou de
loin à la réussite de ce travail.
Merci infiniment !
Résumé
En vue d’une maîtrise optimale des risques encourus par les institutions financières,
notamment le risque de crédit, l’amélioration du système de surveillance prudentielle s’avère
fort nécessaire à cause des profondes mutations que connaît le paysage financier actuellement.
C’est dans cette optique que s’inscrit notre projet de fin d’études à travers lequel nous avons
traité la problématique de la minimisation des risques d’impayés afin d’optimiser les fonds
propres de l’organisme en question (le CAM). C’est ainsi que nous avons engagé une étude
basée sur l’approche dite de notation interne conforme aux normes bancaires internationales
dictées par le comité Bâle II. Ainsi,à travers cette approche, nous avons abouti à élaborer deux
modèles, le premier basé sur la méthode DISQUAL, et le deuxième sur la Régression
Logistique, qui nous ont permis à la fois de calculer les scores des modalités, les probabilités
de défaut associées et d’identifier les classes de risques. Nous avons constaté à la fin de notre
application que le premier modèle est plus pertinent que le deuxième après avoir effectué
plusieurs tests. Enfin, nous avons achevé notre étude par une automatisation du modèle
DISQUAL à travers une application à l’aide du logiciel VB-Excel.
Mots clés : Risque de crédit, Bâle II, ACM, AFD, CHA, Régression logistique, Disqual, classe de
risque, score, PDM, Fonds propres.
Conclusion -------------------------------------------------------------------------------------- 72
ANNEXE I -------------------------------------------------------------------------------------- 73
ANNEXE II ------------------------------------------------------------------------------------- 75
Bibliographie ----------------------------------------------------------------------------------- 81
Introduction
Afin d'améliorer et promouvoir la qualité de l'actuel système de surveillance
prudentielle, les autorités en charge de régulation et de réforme bancaire internationale ont
engagé un nouveau processus qui couvre explicitement la gestion de trois types de risque:le
risque de crédit, le risque de marché et le risque opérationnel et ce, dans le cadre du nouvel
accord piloté par la banque des règlements internationaux Bâle II. Il s'agit alors de conforter la
robustesse et la stabilité du système bancaire international en obligeant les banques à se
prémunir contre une prise de risques trop lourde. C'est dans ce sens que le comité Bâlois
recommande aux institutions financières de mettre en place de nouveaux systèmes
d'évaluation et de mesure de risques qui devraient respecter les 3 piliers suivants dictés par le
comité:
1. Exigences minimales en fonds propres pour couvrir les actifs pondérés en fonction du
risque.
2. Contrôle des procédures et de la méthode interne d'affectation des fonds propres
(processus de surveillance prudentielle).
3. Les établissements sont soumis à la discipline de marché et tenus de publier les
informations complètes sur la nature, le volume et les méthodes de gestion de leurs risques
aussi que sur l'adéquation de leurs fonds propres.
En effet, depuis 1988, un ratio international de solvabilité, le ratio Cooke, est appliqué
par les banques. Il définit les exigences en fonds propres qu'elles doivent respecter en fonction
des risques encourus. Bien que ce ratio présente actuellement certaines faiblesses du fait qu'il
n'intègre pas le fonctionnement interne de la banque, le comité Bâlois a proposé en 1999 la
mise en place d'un nouvel ratio, dit ratio de Mc Donough qui repose sur le 1 pilier cité ci-
dessus.
Le nouvel accord encourage la mise en place des approches dites de notations internes
pour la gestion du risque de crédit. De ce fait, le Crédit Agricole du Maroc, à la réponse des
exigences dictées par Bank Al Maghrib et dans le cadre de la modernisation de son système
d'information, envisage d'élaborer un nouveau processus de maîtrise de risques à travers la
construction d'un modèle de notation interne conforme aux normes bancaires internationales.
En effet, La mesure de risques repose sur plusieurs méthodes statistiques telles l'analyse
linéaire discriminante de Fisher, la méthode de Disqual, la régression logistique ou modèle
logit…(voire le tableau 32)
Dans le présent sujet, nous allons nous contenter de traiter notre problématique en
procédant par les deux méthodes:la méthode de DISQUAL et la régression logistique. Ces
deux méthodes permettraient à la fois de déterminer les classes de risques et les probabilités
de défauts correspondantes.
Ainsi, notre étude va se reposer sur 5 axes principaux qui aborderont l'approche en
mettant l'accent sur les points suivants:
F Cadre global et théorique.
F Identification de notre problématique et précision des risques des clients
tombés en impayé.
F Séparation des clients « BONS » et des « DEFAUTS ».
Problématique
Dans le cadre de la nouvelle réforme bancaire recommandée par le comité Bâlois
(BâleII), les institutions financières ont entamé une nouvelle phase au niveau de la
réorganisation de leur système d'information qui va avec l'amélioration de leur processus
prudentiel pour assurer une gestion optimale des risques encourus notamment le risque de
crédit, à travers la détermination des classes de risque et la probabilité de défaut
correspondante, et par la suite l’optimisation des fonds propres. C'est dans ce sens que le
Crédit Agricole du Maroc, à la réponse des exigences de BAM, envisage d’adopter un
système de notation interne de sa clientèle.
Ainsi, notre présent sujet va aborder l'approche dite de notation interne dictée par
BAM à travers l'élaboration d'un modèle fondé sur des méthodes statistiques à savoir la
méthode DISQUAL et la régression logistique qui nous permettront de discriminer les clients
selon l’identification des classes de risques et le calcul des probabilités de défaut associées.
I. MISSIONS
Acteur majeur dans le développement de l'agriculture et la modernisation du monde
rural, le Crédit Agricole joue, depuis sa création en 1961, un rôle essentiel dans le
financement de l'agriculture et dans la consolidation du secteur dans son ensemble. Le Crédit
agricole pérennise ce rôle de promotion du monde rural à travers son développement de la
banque Universelle.
Par ailleurs, CAP 2008, le nouveau plan d'entreprise du Crédit Agricole du Maroc, se
propose d'afficher ses ambitions stratégiques pour lui permettre d'envisager l'avenir avec
sérénité et confiance, sa mission est triple :
• Définir une stratégie de déploiement de l'activité de la banque afin de pérenniser et de
sécuriser sa croissance.
• Modifier en profondeur la culture de l'entreprise pour ancrer dans le quotidien le réflexe de
l'optimisation du rapport rendement / risque.
• Mettre en place des outils de gestion qui souscriront la banque au standard des normes de la
place.
II. HISTORIQUE
Création de la CNCA (1961-1967)
• en fonction de la Caisse Nationale de Crédit Agricole.
• Implantation des caisses locales sous formes de succursales.
Début de l’activité bancaire (1970-1987)
• Lancement de la collecte des dépôts et des activités bancaires.
• Financement de l’agro-industrie en 1979.
• Réorientation de la CNCA et financement de nouveaux secteurs en 1987 dont la pêche
côtière, l’artisanat, le tourisme, le commerce et les services…
Nouvelles dispositions pour la CNCA (1988-1996)
• Impôt sur les sociétés.
• Dispositions de la nouvelle loi bancaire.
• Mise en place de la salle des marchés en 1996.
Nouveau positionnement stratégique de la CNCA (1997–2001)
(Banque rurale de proximité avec une nouvelle identité visuelle) :
• Mise en place des directions de réseau décentralisées.
• Plan d’entreprise « Oufok » 2003 lancé en 1999 : une nouvelle stratégie visant
principalement à mettre à niveau l’institution et à engager les actions de redressement de sa
situation financière et ce, dans le cadre d’un positionnement rénové en tant que banque rurale
généraliste de proximité, agissant en partenaire actif de toute la filière agricole et de
l’ensemble du monde rural.
La stabilité et la solvabilité du système bancaire sont une condition sine qua non pour
le bon fonctionnement du système financier. Afin d’adapter et d’augmenter la souplesse de
l’actuel système de surveillance, les autorités en charge de la régulation bancaire
internationale ont engagé un processus de réforme du calcul des fonds propres nécessaires à la
couverture des risques et ce, dans le cadre du comité de Bâle II, mais avant de présenter les
nouvelles recommandations concernant la gestion des risques, on va présenter le déroulement
historique des recommandations du comité Bâle dictées pour les institutions financières en
vue de cerner les différents risques présents dans le marché financier.
I. LES PRINCIPAUX RISQUES BANCAIRES
I.1. Risque de crédit
Le risque de crédit peut être défini comme le risque de pertes consécutives au défaut d’un
emprunteur sur un engagement de remboursement de dettes qu’il a contractées. En
général, on distingue trois composantes :
• Le risque de défaut correspond à l’incapacité du débiteur à faire face à ses
obligations.
• La deuxième composante du risque de crédit provient de l’incertitude pesant sur le
taux de recouvrement une fois le défaut survenu.
La dégradation de la qualité du crédit constitue la troisième source de risque portant sur une
dette. Si la perception de la qualité de l’emprunteur se détériore, la prime de risque accordée
par les marchés financiers s’accroît en conséquence. De plus, si l’emprunteur bénéficie d’une
note de la part d’une agence de notation, celle-ci est susceptible de se dégrader suite à la
perception négative des marchés.
I.2. Risque de marché
Le risque de marché est présenté de la manière suivante dans le texte de la Commission
Bancaire française: Le risque de marché, défini comme le risque de pertes sur les positions du
bilan et du hors bilan à la suite de variations des prix de marché, recouvre :
• Les risques relatifs aux instruments liés aux taux d’intérêt et titres de propriété du
portefeuille de négociation.
• Le risque de change et le risque sur les produits de base encourus pour l’ensemble de
l’activité de bilan et hors- bilan.
I.3. Risque opérationnel
Le risque opérationnel a été officiellement défini et pris en compte dans le document soumis à
consultation par le comité de Bâle (2001) comme le risque de pertes pouvant résulter de
procédures internes inadéquates ou non appliquées des personnes, des systèmes ou
d’évènements externes. Ces évènements de risque sont les fraudes internes ou externes, les
risques qui touchent aux relations clients, les problèmes liés à la gestion du personnel, les
dommages qui pourraient toucher les actifs physiques, l’interruption totale ou partielle des
systèmes ou des processus, et la mauvaise exécution de certains processus qu’ils soient
internes ou externes à la banque.
• Une plus grande différenciation dans le traitement des risques de crédits : l’incitation à
adopter un nouveau système de notation interne concernant le risque de crédit permettant aux
banques d’estimer par elles-mêmes, aux moyens de leurs informations internes, la charge en
capital, c’est à dire le montant des fonds propres nécessaires pour couvrir ce risque de crédit.
Pour ce faire, la banque note ses clients à partir des informations recueillies en internes et
publiques, pour les classer ensuite en portefeuilles homogènes. Cette note dérivera du calcul
de la perte attendue définie comme étant le produit de la probabilité de défaut (qui sera
estimée par la banque), la perte en cas de défaut et de l’exposition au moment du défaut.
• L’importance de la discipline de marché reposant sur la communication régulière
d’informations par la banque au marché, ce qui accentue son pouvoir de contrôle et de
sanction des banques. La diffusion d’informations significatives par les banques apporte des
éléments aux intervenants et facilite l’exercice d’une discipline de marché efficace. Une
amélioration de la transparence présentera des avantages pour les banques bien gérées, les
investisseurs et les déposants ainsi que pour le système financier d’une manière générale pour
éviter le risque systémique.
Trois piliers indissociables sont à la base de ce nouveau dispositif qui renforce les
synergies entre contrôle interne et externe des risques (Figue 13).
III.1. Les exigences minimales en fonds propres
L’ancien ratio minimum de fonds propres ne couvrait que deux types de risques dans la
définition des actifs pondérés, le risque de crédit et le risque de marché. L’accord Bâle II
comporte des changements substantiels du traitement du risque de crédit, le maintien inchangé
du dispositif de 1996 sur le risque de marché et l’introduction explicite du risque opérationnel
qui conduit à inclure une mesure de ce risque au dénominateur du ratio de fonds propres
d’une banque.
Le risque opérationnel est définit comme étant : « le risque de perte résultant de
l’inadaptation ou la défaillance de procédures, de personnes ou de système, où d’événements
extérieurs ».
Un aspect novateur du premier pilier est la sensibilité au risque de crédit de la dotation
en fonds propres qui tient aussi compte de la solvabilité de l’emprunteur et de la qualité des
garanties qu’il apporte. En premier lieu, les banques ont le choix entre trois options pour
déterminer le niveau de fonds propres requis ; elles peuvent utiliser d’une part les évaluations
externes d’agences de notation reconnues (approche standardisée) et d’autre part leurs
modèles de notation interne (approche NI) en adoptant une approche simple ou complexe. En
deuxième lieu, les exigences minimales de fonds propres dépendent de la catégorie de
contrepartie correspondante et de ses risques spécifiques : grandes entreprises, Etats et
administrations publiques, banques, particuliers et petites entreprises, et participations.
III.2. Processus de surveillance prudentielle
L’objectif principal du deuxième pilier est de s’assurer que les banques évaluent au
mieux l’adéquation de leurs fonds propres au regard de leur profil de risque.
Premièrement il incite les professionnels bancaires à développer leur techniques de
gestion et de contrôle de l’ensemble des risques et ainsi à mettre en place des procédures
d’évaluation du capital économique nécessaire pour couvrir l’ensemble de ces risques. Le
capital économique représente les fonds propres que la banque doit détenir pour absorber les
pertes exceptionnelles. Il est nécessaire de le calculer pour le rapprocher au capital
réglementaire.
Dans un second temps il définit les prérogatives du comité de Bâle en matière de contrôle et le
cas échéant, ses possibilités d’intervention sur les exigences et les processus de gestion des
risques afin de garantir le respect des normes. De plus il incite les autorités de contrôle à
adapter les exigences minimales en fonds propres de chaque établissement en fonction de son
profil et de la qualité de leur suivi.
III.3. Discipline de marché
La diffusion disciplinée et rigoureuse d’informations au marché constitue le troisième pilier.
En communiquant des informations détaillées sur tous les types de risques, une banque
permet à tous les autres acteurs du marché de mieux analyser son profil de risque et
l’adéquation de ses fonds propres.
1- Définition du Défaut
On dit Défaut lorsque :
« L’établissement estime improbable que le débiteur rembourse en totalité son crédit
sans qu’il y ait besoin de prendre des mesures appropriées telles que la réalisation
d’une garantie »
OU / ET
« L’arrière du débiteur sur l’un de ses engagements significatifs dépasse 90 jours… »
D’autres signes de défaut :
« L’établissement attribue à une exposition le statut de CES ou créance irrégulière… »
« L’établissement comptabilise une annulation ou constitue une provision après avoir
constaté une détérioration significative de la qualité de crédit par rapport à
l’exposition »
« L’établissement cède la créance en enregistrant une perte économique significative »
« L’établissement autorise la restructuration en urgence de la créance impliquant
vraisemblablement une réduction de l’engagement financier… »
Horizon de défaut :
C’est la maturité du crédit ou la maturité moyenne du portefeuille, dans notre étude on
va se contenter de l'horizon d'un an.
2- Processus de recouvrement
Nous allons essayer de présenter durant cette partie les différentes étapes de
construction de la base de données, l’échantillon de notre étude ainsi que les caractéristiques
de notre portefeuille d’étude, à travers des études descriptives qui montrent la répartition des
clients de notre portefeuille selon les différents critères retenus pour l’étude.
I. ELABORATION DE LA BASE DE DONNEES
I.1. Définition du portefeuille d’étude
Concernant le portefeuille du crédit agricole, il est constitué de quatre marchés à
savoir : petites et moyennes entreprises agricoles (PMEA), filière agricole (FA), petites et
moyennes industries, petites et moyennes entreprises professionnelles (PMI et PME
professionnelles) et enfin le marché corpo (constitué des entreprises agricoles dont le chiffre
d’affaires est très élevé).
En ce qui concerne notre marché sur lequel on a abordé notre travail, c’est le marché
PMI et PME professionnelles et ce, pour plusieurs raisons : les autres marchés sont déjà notés
par une société extérieure et la disponibilité partielle des données. De plus, Ce marché
représente 20% du portefeuille du CAM.
I.2. les étapes de la construction de la base de données
• Première phase
Dans la première phase de la construction de la base de données, on a réservé presque
une semaine pour réfléchir aux variables qui peuvent être intéressantes dans notre étude, que
ce soit des variables quantitatives de types ratios financiers qui reflètent l’état financier de
l’entreprise ou des variables qualitatives qui reflètent la manière d’organisation ou de
management de l’entreprise et aussi le secteur d’activité, et ceci en discussion avec nos
encadrants. Cette phase nous a permis de faire sortir des critères qui s’avèrent nécessaires à
l’évaluation du portefeuille, comme le montre bien le tableau ci-dessous :
Chaque information pour l’analyse du risque à posteriori a été décrite à partir du canevas
suivant :
Quoi Préciser l’information
Où Où est l’information ?
Comment Comment l’obtenir (élément permettant de la calculer)
Pourquoi à quoi sert cette information ? pour quels enjeux ?
A. Secteur d’activité
A.1. Tendance du secteur
Quoi Tendance du secteur
Où Rapport de gestion, études sectorielles
comment Choix parmi la liste suivante :
§ En croissance
§ Stable
§ En déclin
pourquoi Indique si le marché est porteur ou pas
B. Structure financière
S’assurer de la certification des comptes et relever les éventuelles réserves
B.1. Solvabilité
Quoi Solvabilité
Où Comptes de l’entreprise
Comment Fonds propres / Total bilan
pourquoi
B.2. Rentabilité
Quoi Rentabilité (rentabilité d’exploitation et rentabilité financière)
Ou Comptes de l’entreprise
Comment Rentabilité d’exploitation : EBE / CA HT
Rentabilité financière : Résultat net / capitaux propres
pourquoi
C. Atouts de la relation
C.1. Ancienneté dans le secteur
Quoi Ancienneté dans le secteur
Où
Comment Nombre d’années de l’entreprise dans le secteur
Pourquoi
D. Relations bancaires
D.1. Nombres de banques en relation avec le client
Quoi Nombre de banques en relation avec le client
Où
Comment Nombre de banques, liste de banques, nombre de comptes bancaires
pourquoi
• Deuxième phase
Après la détermination des critères qui s'avèrent nécessaires pour évaluer la qualité du
portefeuille, nous avons passé à l’étape de la consultation des données disponibles concernant
les différentes variables où nous avons exclu pas mal de critères à cause de l'indisponibilité
des informations concernant notre portefeuille.
• Troisième phase
Cette phase a été caractérisée par une réunion où nous avons rencontré les chefs de
service des département audit et qualité de risque et département des études stratégiques.
Pendant cette phase, nous avons défini toutes les variables proposées ainsi que la variable
correspondante à la qualité du client « bon » ou « défaut », enfin notre base de donnée est de
35 entreprises qui construisent le portefeuille réparti sur 4 ans d’historique c'est à dire 141
observations et un horizon de travail d'un an.
• Quatrième phase
Nous avons calculé certains ratios financiers à partir des états de synthèse des
entreprises qui construisent notre portefeuille d’étude à savoir les ratios de solvabilité, ratios
de rentabilité d’exploitation, ratios de rentabilité financière, fonds de roulement net global,…
D’après ces deux tableaux présentés ci-dessus, on remarque que la moyenne de ratio de
solvabilité pour les deux catégories de clients est bien assez différente ce qui montre que ce
critère discrimine bien les deux groupes, ceci est aussi remarqué pour le ratio du rentabilité
financière et service de la dette, alors que les autres critères ont des moyennes proches pour
les deux groupes de clients, tandis que la variance correspondante aux différents pour les deux
types de clients est inégales en générale, comme le montre bien le graphique ci-dessous :
10
6
moyenne
4 moyenne pour la
catégorie "DEFAUT"
2
moyenne pour la
0 catégorie "BON"
1 2 3 4 5
-2
les variables (I)
On déduit d’après le graphique ci-dessus que les deux variables 1 et 3 qui correspondent
respectivement au ratio de solvabilité et de rentabilité financière, ont des valeurs différentes
pour les deux catégories de clients, alors que les autres variables ont des valeurs proches, et
cela est aussi valable pour le variable 2 qui correspond au service de la dette (voir
graphique17 annexe II), ce qui va être vérifié par la suite à travers les tests d’égalités de la
variance et de la moyenne, comme il est présenté dans le tableau ci-dessous calculé par
SPSS :
Tableau : tests d’égalité de la moyenne et de la variance pour les deux types de clients
Diffé
F2 Sig. t ddl Sig.(bila) moye Diff écart Borinf Borsup
solva
(R1) 4,2137942 0,0419724 -1,247287 139 0,21439 -1,510648 1,21115 -3,905 0,884
rentfin
(R3) 3,3660042 0,0686931 -1,806515 139 0,073001 -1,542439 0,85382 -3,231 0,1457
servdett
(R6) 8,605748 0,003921 -1,523915 139 0,129802 -742,985 487,55 -1707 220,99
2 : Test de Levene sur l'égalité des variances
On constate selon le tableau ci-dessus que l’hypothèse d’égalité de la variance est rejetée
pour les deux variables explicatives, le ratio de solvabilité et service de la dette, puisque la
significativité du test est inférieur à 5%, alors qu’elle est acceptée pour la variable rentabilité
financière. Tandis que l’hypothèse d’égalité de la moyenne pour les deux groupes de clients
concernant les trois variables, le ratio de rentabilité, rentabilité financière et service de la
dette, est acceptée.
II.2. Les modalités des critères retenus
Afin d’utiliser seulement des variables qualitatives, nous avons discrétisé les variables
quantitatives en classes de catégories dont le nombre dépend du type des variables
quantitatives et aussi du nombre d’observations ou d’individus dans chaque classe.
• Ancienneté
Ancient Inférieur à 3ans Entre 3ans et 8ans Supérieur à 8ans
code 1 2 3
Pourcentage 30% 27% 43%
• Intérêt
intérêt Inférieur à 7% Entre 7% et 8,5% Supérieur à 8,5%
Code 1 2 3
pourcentage 39% 22% 39%
• Solvabilité
Solva (R1) Inférieur à 0 Entre 0 et 0,20 Supérieur à 0,20
Code 1 2 3
pourcentage 8,5% 62% 29,5%
• Rentabilité d’exploitation
Rent d’exploi (R2) Inférieur à 0,035 entre 0,035 et 0,12 Supérieur à 0,12
Code 1 2 3
pourcentage 46% 36% 18%
• Rentabilité financière
• Service de la dette
• Qualité du secteur
D’après le tableau ci-dessus, on remarque que les clients bons sont caractérisés ou
majoritaires pour les modalités suivantes : solv_3, rentexpl_3, c'est-à-dire la population
des clients qui ont un ratio de solvabilité supérieur à 0,2, un ratio de rentabilité
d’exploitation supérieur à 0,12 et un taux d’intérêt sollicité entre 7 et 8,5%. Alors que les
clients en défaut ont une part grande pour la modalité sol_1, caractérisée par un ratio de
solvabilité inférieur à zéro, comme il y a des modalités où les pourcentages
correspondants aux deux groupes de clients sont presque égaux, par exemple les modalités
rentexp_1, rentfin_2, annciennté_2, ce qui veut dire qu’elles ne peuvent pas être des
modalités discriminantes.
Conclusion :
Au seuil de signification Alpha=0,05 on rejette l'hypothèse nulle selon laquelle l'échantillon
suit une loi normale pour toutes les variables explicatives, puisque toutes les p-values sont
inférieures au seuil fixé, autrement dit, la non normalité des ratios financiers présentés ci-
dessous est significative au seuil de 5%.
I.4.2. La dépendance des variables descriptrices avec la variable expliquée
Nous allons utiliser le test de khi deux, fournit par le logiciel statistique XL-stat, afin de tester
l’hypothèse de l’indépendance de la variable expliquée (variable dichotomique) avec les
différentes variables explicatives, comme il est présenté dans le tableau ci-dessous :
H0 : il y a indépendance entre la variable expliqué Y et le descripteur X
Les valeurs de khi-deux pour les différentes variables représentées dans le tableau ci-dessus,
indiquent que l’hypothèse d’indépendance est rejetée au seuil de signification 5%, sauf pour
les deux variables FRNG/CA et intérêt dont les valeurs de khi-deux sont inférieures
au seuil fixé. Donc on peut déduire qu’il y a une dépendance en général entre la variable
expliquée et les variables explicatives choisies et que les deux variables FRNG/CA et taux
d’intérêt ne sont pas des facteurs de discrimination.
Conclusion
D’après l’étude de la statistique univariée, il s’avère que le ratio de solvabilité peut être un
facteur de discrimination pour les deux catégories du clients, et selon le test de khi deux, nous
avons constaté que le ratio FRNG/CA ainsi que le taux d’intérêt sont indépendants de la
variable expliquée, c a dire que ces deux variables ne sont pas qualifiées d’être des facteurs de
discrimination. Ce que nous allons vérifier par la suite à travers les deux méthodes de
discrimination, Disqual et la Régression Logistique.
APPROCHE THEORIQUE :
Projet fin d’étude
2006-2007 - Méthode Disqual
- Régression Logistique
- Validation du modèle
Le tableau Z est appelé tableau disjonctif complet dont le terme général s’écrit :
Zij = 1 si l’individu i choisit la modalité j de la question q
Zij = 0 autrement
Les marges en ligne du tableau disjonctif complet sont constantes et égales au nombre s
de questions :
Zi.= ∑ Zij= s
Les marges en colonne : Z.j= ∑ Zij correspondent au nombre de sujets ayant choisi la
modalité j de la question q.
On vérifie que, pour chaque sous-tableau Zq, l’effectif total est : zq = ∑z.j = n
La somme des marges donne l’effectif total z du tableau Z soit : Z=∑∑zij=ns
I.2. Principes de l’analyse des correspondances multiples
Les principes de cette analyse sont les mêmes que l’AFC c’est-à-dire :
- Mêmes transformations de tableaux de données ;
- Même critère d’ajustement ;
- Même distance, celle du c 2 Khi deux.
L’analyse des correspondances multiples présente par ailleurs des propriétés
particulières dues à la nature du tableau disjonctif complet.
I.2.1. Critère d’ajustement et distance du c 2
Les individus sont tous affectés d’une masse identique mi avec : mi=1/n V i=1,…, n
Chacune des modalités j est pondérée par sa fréquence mj= Z.j/ns
La distance, dans Rn, entre deux modalités j et j’est la suivante :
n zij zij '
d ( j, j ' ) = å n(
2
- )2
i =1 z. j z. j '
Deux modalités choisies par les mêmes individus coïncident. Par ailleurs, les modalités
de faible effectif sont éloignées des autres modalités.
La distance, dans Rp, entre deux individus i et i’est la suivante :
1 p n
d (i, i ' ) = å ( z ij - z i ' j ) 2
2
s j =1 z. j
Deux individus sont proches s’ils ont choisi les mêmes modalités. Ils sont éloignés s’ils
n’ont pas répondu de la même manière.
I.2.2. Axes factoriels et facteurs
n
1
La matrice X à diagonaliser est de terme général : x jj ' =
s × z. j '
åz
i =1
ij × z ij '
Dans Rp, le αème axe factoriel est engendré par le vecteur propre uα associé à la αème plus
grande valeur propre de la matrice X.
Si on note Cα le αème facteur dans Rp et Dα le αème facteur dans Rn, on aura :
XCα = λα Cα et X’Dα = λα Dα.
I.2.3. Facteurs et relations quasi-barycentriques
La coordonnée factorielle de l’individu i sur l’axe α est donnée par :
1 p z ij
Cai = ×å × Daj
la j =1 z i.
Par construction du tableau disjonctif complet, il en découle :
1
Cai = × å Daj
s × la jÎPi
1 n z ij
Daj = ×å × Cai
la i =1 z. j
C’est-à-dire :
n
1
Daj = × å Cai
z. j la iÎQ j
2
æ z ij 1 ö
n
n
d ( j , G ) = nå ç
2
- ÷ = -1
ç
i =1 è z . j
÷
nø z. j
Résultat : la distance d’une modalité au centre de gravité du nuage est d’autant plus
grande que l’effectif des individus ayant choisi cette modalité est faible.
• Inertie d’une modalité
L’inertie I (j) d’une modalité j vaut :
I (j) =1/s (1-z.j/n)
En voie de conséquence : la part d’inertie due à une modalité de réponse est d’autant
plus grande que l’effectif dans cette modalité est plus faible.
Ainsi, à l’occasion de la discrétisation d’une variable continue on évite les classes à
faible effectif ayant l’inconvénient de perturber les directions des premiers axes factoriels,
d’où la construction de classes équilibrées en termes d’effectifs s’avère nécessaire.
• Inertie d’une question
L’inertie de la question q, notée I (q) vaut :
pq
I ( q) = å I ( j ) = 1/s (pq-1)
j =1
Ainsi la part d’une d’inertie due à une question est fonction croissante du nombre de
modalités de réponse. D’où l’intérêt d’avoir un nombre équilibré de modalité pour toutes les
questions afin de leur faire jouer le même rôle.
• Inertie totale
L’inertie totale de toute les modalités est égale à : p/s - 1
L’inertie totale dépend uniquement du nombre de variables et de modalités et non des
liaisons entre les variables, c’est une quantité qui n’a pas de signification statistique.
I.2.5. Règles d’interprétation
Les règles d’interprétation des résultats sont sensiblement les mêmes qu’en AFC, on calcule
la contribution et la qualité de représentation de chaque modalité et de chaque individu si
ceux-ci ne sont pas anonymes pour l’analyse.
Par ailleurs, la notion de variable doit être prise en compte au moment de
l’interprétation, à travers ses modalités.
La contribution d’une variable nominale au facteur α est la somme des contributions
de ses modalités sur ce facteur :
Cra (q ) = å Cra ( j )
jÎq
Il faut donc maximiser la part u ' Eu , ce qui équivalent à maximiser u ' Eu sous
u ' Gu
contrainte u ' Gu = 1 .
On peut montrer que le vecteur u qui permet de donner la meilleure fonction
discriminante n’est autre que le vecteur propre de la matrice G -1 E correspondant à la plus
grande valeur propre. Cette dernière est dite le pouvoir discriminant de la fonction.
Les fonctions discriminantes d’ordre 2,3,…correspondent aux valeurs propre l2, l3….
Un autre modèle fournit une fonction linéaire des descripteurs comme outil de
discrimination, c’est la régression logistique. Il repose sur des hypothèses qui généralisent
celles de l’analyse discriminante de Fisher dans le cadre multinormal. Cependant il modélise
la probabilité à posteriori et non les lois conditionnelles sur les groupes. De plus il permet
d’utiliser pour descripteurs des variables binaires et/ou des variables continues. Il présente
donc un grand intérêt. Pourtant la comparaison entre l’analyse discriminante de Fisher et la
régression logistique est assez délicate et le choix entre ces deux méthodes n’est pas toujours
évident.
La préparation des données constitue une phase importante pour l’élaboration d’un tel
modèle. En effet, les variables explicatives doivent être arrangées en classes pour bien
prélever l’information et afin de bien discriminer entre les groupes. La régression logistique
binaire de la variable se fera ensuite sur les modalités des variables.
Afin de construire le meilleur modèle, compte tenu des données, nous utiliserons une
méthode de sélection automatique des variables dite méthode descendante : rapport de
vraisemblance. Il s’agit de partir d’un modèle de régression contenant toutes les variables,
puis à chaque pas effectuer des tests permettant d’éliminer les variables non significatives
En régression linéaire, on cherche à faire passer une droite au milieu du nuage des points
(X, Y), de sorte que l’ensemble des valeurs moyennes de Y pour toutes les valeurs de X est
approché par une droite, d’équation :
e bX i
pi = P(Yi=1/Xi=x) =
1 + e bX i
La première forme est la linéarisation de cette seconde expression.
Variables explicatives qualitatives
Dans le cas d’un variable qualitative à modalités non ordonnées, on va introduire une variable
indicatrice par modalité.
Exemple : CSP = 1 ou 2 ou 4 ou 5
On définit CSPi = 1 si CSP=i
= 0 sinon
pi
= e Z = e bX = e b 0 e b1 X 1 ...e bqXq
1 - pi
On s'aperçoit que la quantité exp ( b ) (appelée Odds-ratio) représente le facteur par lequel le
rapport pi/ (1-pi) augmente lorsque X varie d'une unité. Cette quantité est indépendante de
X. Ainsi, avec cette expression on obtient une valeur de paramètre qui est plus interprétable
que le b dans la forme linéarisée (il est difficile de se représenter un Logit) et qui n'a pas
l'inconvénient souligné précédemment dans la forme non-linéaire. La seule information
réellement utilisable est le signe des paramètres, indiquant si la variable associé influence la
probabilité à la hausse ou à la baisse.
I.4. Significativité du modèle
I.4.1. Test du rapport de vraisemblance
Pour tester l'adéquation d'un modèle, on utilise une approche qui consiste à comparer un
modèle sans paramètre autre que la constante, et le modèle avec tous les paramètres que l'on
veut tester.
H0 : β1=…=βq=0 vs H1 : il existe i tel que βi ≠ 0 V i=1…q
LRT = 2(l ( a ) - l ( à ))
Sous H0 LRT ~ χ2q
Avec :
l(a) : log de la vraisemblance du modèle estimé à q variables
l(à) : log de la vraisemblance du modèle avec seulement une constante
Règle de décision :
Au niveau de signification a : on rejette H0 si LRT ! c q ,1-a
bˆ k
W= avec s ( bˆk ) : l’écart type estimé de b̂ k
s ( bˆ k )
Sous H0 : W suit approximativement la loi normale N (0,1).
Règle de décision :
Au niveau de signification a : on rejette H0 si W ! f (1 - a ) avec f : la fonction de
réciproque de la loi normale N (0,1).
I.4.3 Autres tests de validité générale du modèle
Des tests de bonne adéquation du modèle ont été proposés par plusieurs auteurs et intégrés
dans les logiciels.
• Le critère d’Akaiké
AIC = -2 log L + 2 k
Ou L est la vraisemblance et k le nombre de paramètres à estimer.
• Le critère de Schwartz
SC = -2 log L + k log n
Ou de plus n est le nombre total d’observations.
Ces deux critères sont utiles pour comparer deux modèles différents portant sur les mêmes
données. Le modèle pour lequel ces statistiques sont faibles sera préféré
prévision
groupe 0 1
réalité 0 a b N1
1 c d N2
Chaque individu se trouve dans une et une seule case du tableau. Le dénombrement des
observations dans chaque case permet de calculer les taux de bons classements et les taux
d’erreurs :
- Pourcentage de bien classés:
§ Du groupe1 : a/N1
§ Du groupe 2 : d/N2
Si cette courbe coïncide avec la diagonale, c’est que le modèle n’est pas plus performant
qu’un modèle aléatoire ; alors que, plus cette courbe est proche du coin du carré meilleur est
le modèle, car il permet de capturer le plus possible de vrais événements avec le moins
possible de faux événements.
III. LES BOITES À MOUSTACHES
La boîte à moustaches (ou « box plot »), inventée par J-W Tukey, est une représentation très
populaire, car simple et synthétique, de la dispersion d’une série de données. Elle consiste à
placer les valeurs de certains quantiles sur une échelle verticale ou horizontale. Elle permet de
visualiser instantanément certaines caractéristiques de tendance centrale, de dispersion et de
forme des variables. Elle permet aussi de comparer deux populations.
Valeur maximale
q3
Médiane q2
q1
Valeur minimale
Les limites supérieure et inférieure des boîtes correspondent aux quartiles supérieur et
inférieur. La hauteur de la boite correspond à l’intervalle interquartile, de sorte que la boîte
renferme les 50% du milieu des valeurs d’un groupe. Plus la boite est grande, plus l’étendue
des observations est importante. Les lignes émanant de chaque boîte «les moustaches » vont
jusqu’à la plus petite et à la plus grande observation du groupe, à moins d’un intervalle
interquartile du bord de la boite.
Après avoir construit l’outil discriminant, il faut analyser ses performances et
notamment sa capacité à discriminer entre les deux groupes. Pour cela on juxtapose sur le
même graphique les deux boîtes à moustaches définies respectivement pour les deux groupes
et le cas idéal serait que ces deux boîtes à moustaches soient totalement écartées l’une de
l’autre dans ce cas on aurait une parfaite discrimination.
- Régression Logistique
I. APPLICATION DE l’ACM
Valeurs propres
0,300
F1
0,200
F2
F3 F4
F5
F6 F7 F8 F9
0,100 F10 F11 F12
F13 F14
F15 F16
F17 F18 F19 F20
F21 F22
F23 F24
0,000
lamda
AXES wilks ddl2 ddl3 Signification
F10 0,87335585 1 139 1,486E-05
F7 0,74866592 1 139 2,1178E-09
F5 0,67937538 1 139 1,7035E-11
F13 0,6106712 1 139 6,5947E-14
F3 0,55450199 1 139 0
F18 0,52755232 1 139 0
F4 0,50326672 1 139 0
F21 0,48094678 1 139 7,9689E-18
F20 0,46280306 1 139 3,1708E-18
On remarque d’après le tableau ci-dessus, que les axes les plus discriminants selon le
critère de lambda de wilks sont : F10, F7, F5, F13, F3, F18, F4, F21 et F20 qui sont ordonnés
1,0
,5
0,0
-,5 CLIENT
1
F7
-1,0 0
-,8 -,6 -,4 -,2 0,0 ,2 ,4 ,6 ,8
F10
On remarque d’après le graphe ci-dessus que les deux axes factoriels F10 et F7
discriminent moyennement les deux groupes de clients, alors que les autres axes factoriels,
leurs pouvoirs de discriminations sont faibles comme le montre la figure8 annexe II.
Les coefficients de discrimination associés aux axes les plus discriminants, cités ci-
dessus, sont représentés dans le tableau ci-dessous, donné par SPSS :
F3 1,28675087
F4 -0,8699266
F5 -1,5081493
F7 2,17258134
F10 2,44370003
F13 1,95233594
F18 -1,4995868
F20 1,31323397
F21 -1,5947691
En disposant maintenant des scores des axes factoriels, on pourra ainsi déduire les
scores des modalités, puisque les axes factoriels sont des combinaisons linéaires des variables
initiales, plutôt des modalités, et cela par la méthode Grille de score « scorecard ».
(Voire annexe I).
III. LES SCORES ASSOCIES À CHAQUE MODALITE
En appliquant la méthode de scorecard, on obtient le tableau ci-dessus, qui représente
les scores associés à chaque modalité de la variable explicative initiale, déduite de ceux
correspondants aux axes factoriels les plus discriminants :
taux d’intérêt
montant échéance
montant demandé/Dette
D’après le tableau ci-dessus ainsi que le tableau qui représente la répartition des
clients bons et défauts (Tableau3), on observe que le score des modalités caractérisant le BON
client est de signe positif, alors que le DEFAUT client porte un score négatif, donc on peut
déduire par la suite les caractéristiques des types de clients, comme il est montré dans le
tableau ci-dessus :
Le calcul de score pour un client sera la somme des scores (coefficients) des modalités qui le
caractérisent ; ainsi on retient la formule suivante :
CLIENT 0 1 total
Réalité 0 52 16 68
1 4 69 73
% 0 76,4705882 23,5294118 100
1 5,47945205 94,5205479 100
Selon la règle d’affectation retenue par le modèle (Tableau30 annexe II), on remarque
selon le tableau ci-dessus que le pourcentage de bons clients qui sont bien classés est de
3,00000
2,00000
1,00000
0,00000
-1,00000
-2,00000
n =68 n =73
client
Courbe ROC
1,00
,75
,50
,25
Sensitivité
0,00
0,00 ,25 ,50 ,75 1,00
1 - Spécificité
Les segments diagonaux sont générés par des liaisons.
5 [1,4 ; 1,8[ 0
6 [1,8 ; 2,5[ 0
7 [2,5 ; 3[ 0
8 [3 ; ∞ [ 0
D’après le tableau ci-dessus, qui montre les différentes erreurs associés aux différents
Politique Politique Politique Politique Politique
n°1 n°2 n° 3 n°4 n°5
Seuil de sélection Note > -0,5 Note > 0 Note > 0,5 Note > 1 Note > 1,25
Nombre de dossier 141 141 141 141 141
Taux de bon classement 80,5% 85,5% 85,1% 79,5% 77,5%
Taux d’erreur 19,5% 14,5% 14,9% 20,5% 22,5%
Erreur de type I 22% 5,5% 5% 4,5% 3%
Erreur de type II 17% 23,5% 24,8% 36,5 42%
stratégies ou politiques d’octroi de crédit selon le seuil choisi, nous constatons que le seuil qui
assure un minimum d’erreur (taux d’erreur) est égal à 0 qui représente un taux de bon
classement pour les bons et les défauts clients et qui est de 85,5%, c’est à dire un taux d’erreur
égal à 14,5%, Comme nous remarquons aussi que l’erreur de type I est diminué avec
Conclusion
Après l’élaboration du modèle de Notation basé sur la méthode Disqual qui nous a permis de
déterminer les scores associés à chaque modalité, de construire des classes de risques ainsi
que de calculer les probabilités de défauts associées, et qui a été jugé bon à travers plusieurs
tests à savoirs : le taux de bons classements, courbe de ROC et les boites à moustaches, nous
aurons recours dans le chapitre suivant à la construction d’un modèle de Scoring en procédant
par la Régression Logistique.
Nous constatons d’après le tableau ci-dessus, que les variables retenues pour la
construction du modèle logistique (variables pertinents) ainsi que leurs coefficients associées
sont soit de signe positif, qui augmente par conséquence la probabilité d’être un défaut client,
ou de signe négatif, ce qui augmente la probabilité d’être un bon client.
II.2. Significativité du modèle
II.2.1. test de Wald
H0: b i = 0 VS H1: βi ≠ 0 i=1…7 a = 5%
Règle de Décision :
On rejette H0 si W > f (1 - a ) = f (0.95) = 1.65
Donc nous avons calculé la statistique de Wald (W) pour les différentes variables retenues
afin de juger leurs niveaux de signification, comme il est présenté dans le tableau ci-dessous :
Donc on remarque d’après le tableau ci-dessus que toutes les variables sont
significatives différentes de zéro au seuil de 5% puisque toutes les valeurs de la statistique de
Wald (W) sont supérieures à 1,65.
Conclusion
Les faibles valeurs concernant les deux statistiques calculées SC et AIC pour le modèle retenu
par la régression logistique justifient bien la validité du modèle.
39,7% 60,3%
Courbe ROC
1,00
,75
,50
,25
Sensitivité
0,00
0,00 ,25 ,50 ,75 1,00
1 - Spécificité
Les segments diagonaux sont générés par des liaisons.
1,2
1,0
,8
Predicted probability
,6
,4
,2
0,0
-,2
N= 68 73
0 1
CLIENT
On constate d’après la figure ci-dessus que les boîtes à moustaches des deux
catégories de clients (BON) et (DEFAUT) s’éloignent un petit peu l’une de l’autre, et que les
probabilités moyennes estimées pour les deux catégories de clients sont différentes, ce qui
signifie que notre modèle est moyennement bon.
Conclusion
Le modèle calculé par la méthode de régression logistique, qui contient les variables
explicatives retenues par la méthode Descendante (Rapport de Vraisemblance), est validé par
plusieurs tests, en plus il a donné des résultats moyennement satisfaisants en terme de taux de
bon classement et taux d’erreur associé.
Donc on déduit du tableau ci-dessus que la meilleure stratégie qui permet d’obtenir un taux de
bons classements assez bon est celle correspondante au seuil de 0,5.
D’après le tableau ci-dessus, il s’avère bien que le modèle basé sur la méthode Disqual
est plus performant en terme de taux de bons classements que celui fondé sur la régression
logistique.
VI.2. Courbe de ROC et l’indice de Gini
Comme une deuxième techniques de comparaison entre les deux modèles de discriminations,
nous avons utilisé la courbe de ROC, comme le montre le graphique ci-dessous :
Graphique7 : Comparaison entre les deux méthodes de discrimination par la courbe de ROC
Courbe ROC
1,00
,75
,50
Source de la courbe
,25 Ligne de référence
Sensitivité
Predicted group
0,00 DISQUAL
0,00 ,25 ,50 ,75 1,00
1 - Spécificité
Les segments diagonaux sont générés par des liaisons.
D’après le tableau ci-dessus, on remarque que les valeurs de l’indice de Gini pour les deux
méthodes justifient et valident ce qui a été trouvé par le taux de bons classements et aussi les
courbes de ROC associées, ce qui veut dire en conclusion que le modèle calculé par la
méthode Disqual est préférable au modèle obtenu par la méthode Logistique.
Toutefois, le Scoring reste une technique qui nécessite un suivi régulier, vu le besoin
d’actualiser les critères explicatifs, vérifier l’efficacité du score et l’exactitude des prévisions.
La figure ci-dessus présente les informations préliminaires que doit remplir le client,
concernant le nom de la société, le secteur d’activité, la durée d’existence dans le secteur, et
le montant demander.
La figure ci-dessus présente la page qui exhibe le score du client, la classe de risque et la
probabilité de défaut moyenne correspondante, ce score permet d’évaluer la qualité du client
en se basant sur le seuil fixé.
Graphique12 : page représentant la règle de décision
La figure ci-dessus présente la page d’aide qui donne une idée sur la méthode
d’élaboration d’une décision concernant la méthode Disqual, et qui donne par défaut le seuil
d’affectation de client égale à zéro.
Conclusion
ANNEXE I
Méthode Grille de score c’est une méthode qui permet d’obtenir le score de modalités des
variables qualitatives a partir de score des axes factorielles les plus discriminants, obtenu par
l’application de l’analyse factorielle discriminante (ACM) au tableau disjonctif complet
(TDC) et l’AFD.
k
On a S = å d j Z j , avec Z j = XU j Avec U j : coordonnées des modalités sur l'axe n°j
j =1
k k k
Alors, S = å d j Z j = å d j XU j = X å d jU j
j =1 j =1 j =1
$ !#!"
grille de score
Classification automatique
Les techniques de classification automatique permettent d’obtenir d’une manière automatique
des groupes d’individus en se basant sur leurs descripteurs, ces groupes sont censé être
homogènes de point de vue les descripteurs étudiés. Les techniques de classification font
appel à des algorithmes numériques et non pas aux calculs algébriques.
La classification ascendante hiérarchique, est une des techniques les mieux adaptées aux
données quantitatives, elle se base sur un critère de groupement, qui se rapporte soit à la
distance entre groupes ; en considérant l’existence d’une distance : distance moyenne entre
groupes d ( X , Y ) = moyenne d ( x, y ) , distance du saut minimal d ( X , Y ) = inf d ( x, y ) ,
xÎ X xÎ X
yÎY yÎY
ANNEXE II
Tableau27 : La forme de la base de donnée finale de travail pour la régression logistique
Tableau28 : Cordonnées des modalités sur les axes les plus discriminants
CLIENT Fonction
0 1,10834119
1 -1,0324274
1000
800
600
moyenne
Série1
400
Série2
200
0
-200 1 2 3
variables (II)
F10
F7
F13
CLIENT
F21
1
Demande de crédit
Remplir le dossier
Notation du client Z
Za : Notation ancienne
Non
Oui
Non
Surveillance et
Z≥Za contrôle
Oui
Octroi du crédit
Trois Piliers
Risque de marché
Risque opérationnel
Risque de crédit
Approche standard
Bibliographie
Ouvrages
• Mireille.B (2001) « Analyse discriminante : application au risque et scoring financier»
• Eric. M (1990) « Analyse bancaire de l’entreprise. Méthodologie »
• Michel.J (1999) « Méthodes de base de l’analyse des données »
• Banque de France « Détection précoce des défaillances d’entreprises dans le secteur
de la construction »
Publications
• Comité de Bale sur le contrôle bancaire (Juin 2004) « Convergence internationale
de la mesure et des normes de fonds propres », Banque des Règlements
Internationaux.
• Projet de fin d’étude (juin 2005) « Elaboration d’un modèle statistique d’évaluation
de risque de contrepartie au sein de CCG »
Notes de cours
• Mr. Nsiri Said Ramadan (2007), cours d’analyse de données, INSEA.
• Mr. Touhami abdelkhalake (2007), cours d’économétrie avancée, INSEA.
• Mr. Benchekroun kamal (2007), cours d’analyse de la variance, INSEA.
Sites Web
• www.bankelmaghreb.com
• www.cedric.cnam.fr