Cours de Génie Industriel

Télécharger au format docx, pdf ou txt
Télécharger au format docx, pdf ou txt
Vous êtes sur la page 1sur 85

Cours de génie industriel

GÉNIE INDUSTRIEL

1. Six Sigma

1.1. Contrôle qualité

1.2. Défauts/Erreurs

1.3. Indices de capabilité

1.4. Niveaux de qualité

1.5. Modèle de Taguchi

2. Maintenance préventive

2.1. Estimateurs empiriques

2.2. Modèle de Weibull

2.3. Topologie des systèmes

2.4. Méthode ABC

3. Plans d'expériences

3.1. Plans factoriels complets

3.2. Plans factoriels fractionnaires

L e génie industriel englobe la conception, l'amélioration et l'installation de systèmes. Il


utilise les connaissances provenant des sciences mathématiques, physiques et sociales, ainsi
que les principes et méthodes propres à l'art de l'ingénieur, dans le but de spécifier, prédire et
évaluer les résultats découlant de ces systèmes.

Nous pouvons résumer tous les domaines qui touchent au génie industriel (et pas seulement....
cela peut s'appliquer avec adaptation ad hoc à l'administration) par l'objectif d'optimiser et
contrôler les performances globales de l'entreprise (coûts, délais, qualité) car:

On ne peut améliorer que ce que l'on mesure!


Remarquons que certaines techniques de génie industriel ont déjà été abordées dans d'autres
chapitres comme les techniques de gestion quantitatives, l'optimisation (recherche
opérationelle), l'analyse financière, l'analyse des files d'attentes, et autres...

Danc ce chapitre nous traiterons uniquement des deux aspects du SQC (Statistical Quality
Control) soit du contrôle statistique de la qualité (dont c'est le métier du "qualiticien") dans le
cadre de la fabrication et de la mise en production de biens ou de services.

Selon l'utilisation nous distinguons trois domaines principaux qui dans l'ordre conventionnel
sont:

1. Contrôle statistique de processus, surveillance de fabrication ou réglage de qualité


(Statistical
Process Control, SPC). Il s'agit de la surveillance d'un processus de fabrication pendant la
production de produits de masse, pour découvrir des différences de qualité et pour pouvoir
intervenir et conduire directement.

2. Contrôle de réception ou examen d'échantillon de réception (Acceptance Sampling, AC). Il


s'agit du contrôle d'entrée, d'un contrôle pendant la production et d'un contrôle final des
produits dans une entreprise (ou usine) sans influence directe sur la production. Ainsi le
montant
de rebut produit est mesuré. Le contrôle initial sert aussi à refuser la marchandise arrivante.
Elle
n'influence par conséquent la production que de manière indirecte.

3. Maintenance préventive et contrôle du veilissement et de la défaillance et impacts critiques


(Analyse des Modes de Défaillances, de leurs Effets et de leur Criticité, AMDEC). Il s'agit
principalement de calculer la durée de vie de composants ou de machines afin de prévoir des
remplacements à l'avance et les actions y relatives à mener pour éviter les situations critiques
humaines ou financières.

Indiquons que depuis la fin du 20ème siècle, il est à la mode de regrouper les deux premiers
points dans une méthodologie de travail appelée "Six Sigma" que nous allons aborder
immédiatement. Enfin, signalons que dans la pratique, pour avoir un intérêt de la direction
d'une entreprise, il faut toujours trouver une relation quantitative entre non-qualité et les coûts
pour pouvoir faire bouger les choses...

SIX SIGMA
Six Sigma est à l'origine une démarche qualité limitée dans un premier temps aux techniques
de "maîtrise statistique des procédés" (M.S.P.) appelée aussi "statistiques des processus
qualité" (S.P.Q. ou S.P.C. en anglais pour Statistical Process Control).

C'est une méthodologie de travail utile pour satisfaire les clients dont l'idée est de délivrer des
produits/services de qualité, sachant que la qualité est inversement proportionnelle à la
variabilité. Par ailleurs, l'introduction de la qualité doit être optimisée afin de ne pas trop
augmenter les coûts. Le jeu subtil entre ces deux paramètres (qualité/coûts) et leur
optimisation conjointe est souvent associé au terme de "Lean management". Si nous y
intégrons Six Sigma, nous parlons alors de "Lean Six Sigma".
Six Sigma intégre tous les aspects de la maîtrise de la variabilité en entreprise que ce soit au
niveau de la production, des services, de l'organisation ou de la gestion (management). D'où
son intérêt! Par ailleurs, dans Six Sigma un défaut doit être paradoxalement la bienvenue car
c'est une source de progrès d'un problème initialement caché. Il faut ensuite se poser plusieurs
fois la question "Pourquoi?" (traditionnellement 5 fois) afin de bien remonter à la source de
celui-ci.

Nous distinguons deux types de variablité dans la pratique:

- La "variabilité inhérente" au processus (et peu modifiable) qui induit la notion de


distribution des mesures (le plus souvent admise par les entreprises comme étant une loi
Normale).

- La "variabilité externe" qui induite le plus souvent un biais (déviation) dans les distributions
dans le temps.

Les processus de fabrication dans l'industrie de pointe ayant une forte tendance à devenir
terriblement complexes, il faut noter que les composants de base utilisés pour chaque produit
ne sont pas toujours de qualité ou de performance égale. Et si de surcroît, les procédures de
fabrication sont difficiles à établir, la dérive sera inévitablement au rendez-vous.

Que ce soit pour l'une ou l'autre raison, au final bon nombre de produits seront en dehors de la
normale et s'écarteront ainsi de la fourchette correspondant à la qualité acceptable pour le
client. Cette dérive est fort coûteuse pour l'entreprise, la gestion des rebuts, des retouches ou
des retours clients pour non-conformité générant des coûts conséquents amputant
sérieusement les bénéfices espérés.

Comme nous allons le voir dans ce qui suit, une définition possible assez juste de Six Sigma
est: la résolution de problèmes basée sur l'exploitation de données. C'est donc une méthode
scientifique de gestion.

contrôle qualité
Dans le cadre des études qualité en entreprise, nous renonçons souvent à un contrôle à 100% à
cause du prix que cela engendrerait. Nous procédons alors à une prise d'échantillons. Ceux-ci
doivent bien évidemment être représentatifs, c'est-à-dire quelconques et d'égales chances (in
extenso le mélange est bon).

Le but de la prise d'échantillons étant bien évidemment la probabilité du taux de défaillance


réel du lot complet sur la base des défaillances constatées sur l'échantillonnage.

Rappelons avant d'aller plus loin que nous avons vu dans le chapitre de Statistique la loi
hypergéométrique (et son interprétation) donnée pour rappel par (cf. chapitre de Statistiques) :

  (1)
Lors d'un échantillonnage, nous avons normalement un paquet de n éléments dont nous en
tirons p. Au lieu de  prendre m (nombre entier!) comme le nombre d'éléments défectueux nous
allons implicitement le définir comme étant égal à :

  (2)

où  est la probabilité (supposée connue ou imposée...) qu'un pièce soit défectueuse. Ainsi,
nous avons pour probabilité de trouver k pièces défectueuses dans un échantillon de p pièces
parmi n :

  (3)

La probabilité cumulée de trouver k pièces défectueuses (entre 0 et k en d'autres termes) se


calcule alors avec la distribution hypergéométrique cumulative :

  (4)

Exemple:

Dans un lot n de 100 machines, nous admettons au maximum que 3 soient défectueuses (soit
que ). Nous procédons à un échantillonnage p à chaque sortie de commande de 20
machines.

Nous voulons savoir dans un premier temps qu'elle est la probabilité que dans cet
échantillonnage p trois machines soient défectueuses et dans un deuxième temps quel est le
nombre de machines défectueuses maximum autorisé dans cet échantillonnage p qui nous
dirait avec 90% de certitude que le lot de n machines en contienne que de 3 défectueuses.

x H(x)

0 0.508 0.508
1 0.391 0.899
2 0.094 0.993
3 0.007 1.000
Tableau: 1  - Application loi hypergéométrique

Ainsi, la probabilité de tirer en une série de tirages trois machines défectueuses dans
l'échantillon de 20 est de 0.7% et le nombre de pièces défectueuses maximum autorisé dans
cet échantillon de 20 qui nous permet avec au moins 90% de certitude d'avoir 3 défectueuses
est de 1 pièce défectueuse trouvée (probabilité cumulée)!
Les valeurs H(x) peuvent être calculées facilement avec MS Excel. Par exemple la première
valeur est obtenue grâce à la fonction LOI.HYPERGEOMETRIQUE(0;20;3;100).

DÉFAUTS/ERREURS
Intéressons-nous donc à exposer pour la culture générale un exemple pratique et particulier de
ce qui n'est qu'une application simple de la théorie des statistiques et probabilités.

Imaginons une entreprise fabricant trois copies d'un même produit sortant d'une même chaîne,
chaque copie étant composée de huit éléments.

Remarque: Nous pouvons tout aussi bien imaginer une société de services développant
(fabricant) trois copies d'un logiciel (produit) sortant d'une même équipe de développement
(chaîne), chacun composé d'un nombre égal de modules (éléments).

Supposons que le produit P1 a un défaut, le produit P2 zéro défauts et le produit P3 deux


défauts.

Ici, Six Sigma suppose implicitement que les défauts sont des variables indépendantes ce qui
est relativement rare dans les chaînes de fabrication machines mais plus courant dans les
chaînes dans lesquelles des humains sont les intervenants. Cependant, nous pouvons
considérer lors de l'application SPC sur des machines qu'un échantillonage du temps dans le
processus de mesure équivaut à avoir une variable aléatoire!!

Remarques:

R1. Dans le cadre de l'exemple du logiciel pris plus haut, l'indépendance est peu probable si
nous ne prenons pas un exemple dans lequel les modules sont personnalisés selon les besoins
du client.

R2. L'inconstance des résultats de production de certaines machines dont les réglages bougent
pendant le fonctionnement... (ce qui est courant), voir que la matière première change de
qualité pendant la production (ce qui est aussi courant!) posent donc de gros problèmes
d'application des méthodes SPC.

La moyenne arithmétique des défauts nommée dans le standard Six Sigma "Defects Per Unit"
(D.P.U.) est alors défini par :

  (5)

et donne dans notre exemple :

  (6)

ce qui signifie en moyenne que chaque produit a un défaut de conception ou fabrication.


Attention! Cette valeur n'est pas une probabilité pour les simples raisons qu'elle peut d'abord
être supérieure à 1 et qu'ensuite elle a comme dimension des [défauts]/[produits].
De même, l'analyse peut être faite au niveau du nombre total d'éléments défectueux possibles
qui composent le produit tel que nous sommes amenés naturellement à définir selon le
standard Six Sigma le "Defects per Unit Opportunity" (D.P.O.) :

  (7)

ainsi, dans notre exemple, nous avons :

  (8)

et ceci peut être vu comme la probabilité d'avoir un défaut par élément de produit puisque
c'est une valeur sans dimensions :

  (9)

Par extension nous pouvons argumenter que 87.5% des éléments d'une unité n'ont pas de
défauts et comme Six Sigma aime bien travailler avec des exemples de l'ordre du million
(c'est plus impressionnant) nous avons alors les "Defects Per Million Opportunities"
(D.P.M.O.) qui devient :

  (10)

ce qui dans notre exemple donne :

  (11)

Comme la probabilité D qu'un élément d'une pièce soit non défectueux est de 87.5% (soit
12.5% de taux de rebus) alors, par l'axiome des probabilités conjointes (cf. chapitre de
Probabilités), la probabilité qu'un produit dans son ensemble soit non défectueux est de :

  (12)

ce qui dans notre exemple donne :

  (13)

ce qui n'est pas excellent...


Remarque: Dans Six Sigma, les probabilités conjointes sont aussi naturellement utilisées pour
calculer la probabilité conjointe de produits non défectueux dans une chaîne de processus de
production P connectés en série. Cette probabilité conjointe est appelée dans Six Sigma
"Rolled Troughput Yield" (R.T.Y.) ou "Rendement Global Combiné" (R.G.C.) et vaut :

  (14)

Ce type de calcul étant très utilisé par les logisticiens qui nomment le résultat "taux de
disponibilité" ainsi que par les chefs de projets pour la durée d'une phase d'un projet lorsqu'ils
considèrent la durées des tâches comme indépendantes.

Ainsi, dans une chaîne industrielle basée sur l'exemple précédent pour avoir une quantité Q
bien définie de produits (supposés utiliser qu'un seul composant de chaque étape) au bout de
la chaîne il faudra à l'étape A prévoir :

  (15)

soit 52.42% de composants A de plus que prévus. Il faudra prévoir à l'étape B:

  (16)

soit 37.17% de composants de plus. Et ainsi de suite...

Rappelons maintenant que la densité de probabilité d'avoir k fois l'événement p et N-k fois
l'événement q dans n'importe quel arrangement (ou ordre) est donné par (cf. chapitre de
Statistiques):

  (17)

et est appelée la loi binomiale ayant pour espérance et écart-type (cf. chapitre de
Statistiques) :

  (18)
Ainsi, dans le standard Six Sigma, nous pouvons appliquer la loi binomiale pour connaître
quelle est la probabilité d'avoir zéros éléments défectueux et 8 autres en bon état de marche
sur un produit de la chaîne de fabrication de notre exemple (si tous les éléments ont la même
probabilité de tomber en panne...):

  (19)

et nous retombons bien évidemment sur la valeur obtenue avec les probabilités conjointes
avec :

  (20)

Ou la probabilité d'avoir un élément défectueux et sept autres en bon état sur un produit de la
chaîne de fabrication :

  (21)

nous voyons que la loi binomiale nous donne 39.26% de probabilité d'avoir un élément
défectueux sur 8 dans un produit.

Par ailleurs, dans le chapitre de statistiques, nous avons démontré que lorsque la probabilité p
est très faible et tend vers zéro mais que toutefois la valeur moyenne   tend vers une
valeur fixe si n tend vers l'infini, la loi binomiale de moyenne  avec k épreuves était
donnée alors donnée par :

  (22)

avec :

  (23)

Remarque: Dans un cadre pratique, il est fait usage de l'estimateur de maximum de


vraisemblance de la loi expontentielle pour déterminer la moyenne et l'écart-type ci-dessus
(cf. chapitre de Statistiques).

Ce que Six Sigma note naturellement :

  (24)

avec :
  (25)

Ainsi, dans notre exemple, il est intéressant de regarder la valeur obtenue (qui sera forcément
différente étant donné que nous sommes loin d'avoir une infinité d'échantillons et que p est
loin d'être petit) en appliquant une telle loi continue (la loi continue la plus proche de la loi
binomiale en fait) :

  (26)

avec :

  (27)

ce qui est un résultat encore plus mauvais qu'avec la loi binomiale pour nos produits.

Cependant, si p est fixé au départ, la moyenne  tend également vers l'infini


théoriquement dans la loi de Poissons de plus l'écart-type  tend également vers l'infini.

Si nous voulons calculer la limite de la distribution binomiale, il s'agira donc de faire un


changement d'origine qui stabilise la moyenne, en 0 par exemple, et un changement d'unité
qui stabilise l'écart, à 1 par exemple. Ce calcul ayant déjà été fait dans le chapitre de
Statistique, nous savons que le résultat est la loi Normale :

  (28)

Ainsi, dans notre exemple, nous avons  et l'écart-type est donné par l'estimateur sans
biais de l'écart-type (cf. chapitre de Statistique) :

  (29)

ce qui dans notre exemple donne .

Pour calculer la probabilité nous calculons la valeur numérique de la loi de Gauss-Laplace


pour  :

  (30)
Ainsi, en appliquant la loi Normale nous avons 24.19% de chance de tirer au premier coup un
produit défectueux. Cet écart par rapport aux autres méthodes s'expliquant simplement par les
hypothèses de départ (nombre d'échantillons fini, probabilité faible, etc.)

Remarque: Ceux qui penseraient utiliser la loi triangulaire (cf. chapitres de Statistiques)
doivent tout de suite l'oublier. Effectivement, comme en qualité la valeur optimiste sera le
zéro par définition, la probabilité que le nombre de défauts soit égal à 0 sera immédiatement
de zéro.

INDICES DE CAPABILITÉ
Six Sigma défini plusieurs indices permettant de mesurer pendant le processus de fabrication
la capabilité de contrôle dans le cas d'un grand nombre de mesures de défauts répartis souvent
selon une loi de Gauss-Laplace (loi Normale).

Basiquement, si nous nous imaginons dans une entreprise, responsable de la qualité d'usinage
d'une nouvelle machine, d'une nouvelle série de pièces, nous allons être confrontés aux deux
situations suivantes:

1. Au début de la production, il peut y avoir de gros écarts de qualité dûs à des défauts de la
machine ou de réglages importants mal initialisés. Ce sont des défauts qui vont souvent être
rapidement corrigés (sur le court terme). Dès lors pendant cette période de grosses
corrections, nous faisons des contrôles par lot (entre chaque grosse correction) et chacun sera
considéré comme une variable aléatoire indépendante et identiquement distribuée (selon une
loi Normale) mais de moyenne et écart-type bien évidemment différents.

2. Une fois les gros défauts corrigés, nous n'allons avoir en théorie plus que des défauts
minimes très difficilements contrôlables et ce même sur long terme. Alors l'analyse statistique
ne se fait plus forcément par lot de pièces mais par pièces et l'ensemble des pièces sur le long
terme est considéré comme un unique lot à chaque fois.

Ces deux scénarios mettent en évidence que nous n'effectuons alors logiquement pas les
mêmes analyses en début de production et ensuite sur le long terme. Raison pour laquelle en
SPC nous définissons plusieurs indices (dont les notations sont propre à ce site Internet car
elles changent selon les normes) dont 2 principaux qui sont:

D1. Nous appelons "Capabilité potentielle du procédé court terme" le rapport entre l'étendue
de contrôle E de la distribution des valeurs et la qualité de Six Sigma (6 sigma) lorsque le
processus est centré (c'est-à-dire sous contrôle) tel que :

  (31)

ce qui s'écrit aussi :

  (32)
où USL est la limite supérieure de contrôle/tolérance ou "Upper Specification Level" (USL)
de la distribution et LSL la limite inférieure ou "Lower Specification Level" (LSL) que nous
imposons souvent (mais pas toujours!) dans l'industrie comme à distances égales par rapport à
la moyenne théorique souhaitée.

Ce rapport est utile dans l'industre dans le sens où l'étendue E (qui est importante car elle
représente la dispersion/variation du processus) est assimilée à la "voix du client" (ses
exigences) et le 6 sigma au dénominateur au comportement réel du procédé/processus et que
la valeur 6 est censée inclure quasiment toutes les issues possibles. Il vaut donc mieux espérer
que ce rapport soit au pire égal à l'unité!

Voici typiquement un exemple en gestion de projets où lorsque le client ne paie pas pour une
modélisation du risque fine on tombe sur ce type de distribution (le client accepte que le
consultant puisse garantir une variation qui ne dépassera pas les 50% de l'estimation sans
modélisation du risque):

  (33)

Remarque: En MSP, l'étendue E est souvent notée IT, signifiant "intervalle de tolérance".

L'écart-type au dénominateur étant donné par la relation démontrée dans le chapitre de


Statistique dans le cas de k variables aléatoires indépendantes et identiquement distribuées
selon une loi Normale (mais d'écart-type et moyenne non-identique):

  (34)

où CT est l'abréviation de "court terme" (abréviation souvent non précisée dans la pratique car
supposée connue dans le contexte). Cet écart-type est bien évidemment le meilleur pour le
premier scénario dont nous avons fait mention plus haut. Car entre chaque grosse correction,
les lots sont considérés comme indépendants et ne peuvent pas être analysés comme un seul et
unique lot (ce serait une abérration!).

Attention cependant! Comme souvent dans la situation court terme (lors de la correction des
grosses sources d'erreurs donc) les lots de tests sont petits, même très petits, afin de diminuer
les coûts en production. Dès lors l'écart-type se trouvant sous la racine (qui est l'estimateur de
maximum de vraisemblance de la loi Normale) n'a pas une valeur vraiment correcte... Il est
alors bon d'utiliser soit d'autres méthodes de calcul assez empiriques comme le font de
nombreux logiciels, soit de calculer un intervalle de confiance de l'indice de capabilité en
calculant l'intervalle de confiance de l'écart-type court terme comme nous l'avons vu dans le
chapitre de Statistique.

D2. Nous appelons "Performance globale du procédé long terme" le rapport entre l'étendue de
contrôle E de la distribution des valeurs et la qualité de Six Sigma (6 sigma) lorsque le
processus est centré tel que :

  (35)

ce qui s'écrit aussi :

  (36)

L'écart-type au dénominateur étant donné cette fois par le cas où nous considérons tous les
gros défauts corrigés et le processus stable afin de considérer toutes les pièces fabriquées
comme un seul et unique lot de contrôle:

  (37)

où LT est l'abréviation de "long terme" (abréviation souvent non précisée dans la pratique car
supposée connue dans le contexte). Cet écart-type est bien évidemment le meilleur pour le
deuxième scénario dont nous avons fait mention plus haut. Car les variations étant par
hypothèses maintenant toutes petites, l'ensemble de la fabrication peut être supposée comme
étant un seul et unique lot de contrôle sur le long terme (bon cela n'empêche pas qu'il faut
parfois nettoyer les valeurs extrêmes qui peuvent se produire).

Le tolérancement des caractéristiques est donc très important pour l'obtention de la qualité et
de la fiabilité des produits assemblés. Traditionnellement, une tolérance s'exprime sous la
forme d'un bipoint [Min,Max]. Une caractéristique est alors déclarée conforme si elle se situe
dans les tolérances.

Le problème du tolérancement consiste à tenter de concilier la fixation des limites de


variabilité acceptable les plus larges possibles pour diminuer les coûts de production et
d'assurer un niveau de qualité optimal sur le produit fini.
Deux approches tentent de résoudre ce problème:

1. Le tolérancement au pire des cas garanti l'assemblage dans toutes les situations à partir du
moment où les caractéristiques élémentaires sont dans les tolérances.

2. Le tolérancement statistique tient compte de la faible probabilité d'assemblages d'extrêmes


entre eux et permet d'élargir de façon importante les tolérances pour diminuer les coûts et c'est
donc à celui-ci que nous allons nous intéresser ici comme vous l'aurez compris.

Un processus est dit "limite capable" (soit limite stable par rapport aux exigences du client en
d'autres termes) s'il le ratio donné ci-dessus (en choisissant 6 fois l'écart-type) est supérieur à
1. Mais dans l'industrie on préfère prendre en réalité la valeur de ~1.33 dans le cas d'une
distribution Normale des données.

Bien évidemment, la valeur  de l'écart-type peut-être être calculée en utilisant les
estimateurs de maximum de vraisemblance avec ou sans biais vus dans le chapitre de
Statistiques mais il ne s'agit en aucun cas dans la réalité pratique de l'écart-type théorique
mais d'un estimateur. Par ailleurs, nous verrons plus loin qu'en fonction de l'écart-type utilisé,
les notations des indicateurs changent!

Remarque: En entreprise, il faut faire attention car l'instrument de mesure rajoute son propre
écart-type (erreur) sur celui de la production.

Comme nous l'avons démontré au chapitre de Statistique, l'erreur-type (écart-type de la


moyenne) est :

  (38)

Dans la méthodologie Six Sigma nous prenons alors souvent pour les processus à long terme
et sous contrôle:

  (39)

quand nous analysons des cartes de contrôles dont les variables aléatoires sont des
échantillons de n variables aléatoires indépendantes et identiquement distribuées et que les
limites n'ont pas été imposées par un client ou par une politique interne ou des contraintes
techniques! Bien évidemment, il faut bien être conscient que UCL et LCL n'ont pas la même
expression dans des cas plus complexes et donc pour des distributions autre que la loi
Normale!

Par ailleurs l'expression précédente diffère aussi pour les processus à court terme car
l'exemple donnée ci-dessus est pour un cas de mesures sur le long terme uniquement pour
rappel!
Le lecteur remarquera que nous avons maintenant:

  (40)

Normalement, au sein des entreprise, l'étendue de contrôle est fixe (le numérateur) et donc
quand la valeur de l'écart-type type est grande (plus de variations, moins de contrôles) la
valeur de l'indice est faible et lorsque l'écart-type est faible (moins de variations, plus de
contrôles) la valeur de l'indice est élevé.

Comme le montre les deux exemples ci-dessous :

  (41)

L'indice  impose que la moyenne (l'objectif) est centrée entre LSL et USL. Dès lors, la
moyenne est confondue avec ce que nous appelons la "cible" T du processus.

Mais la moyenne  dans la réalité peut être décalée par rapport à l'objectif T initial qui doit
lui toujours (dans l'usage courant) être à distance égale entre USL et LSL comme le montre la
figure ci-dessous dans le cas particulier d'une loi Normale :

  (42)

Mais ce n'est pas forcément le cas dans la réalité où les ingénieurs (quelque soit leur domaine
d'application) peuvent choisir des LSL et USL asymétriques par rapport à la moyenne ne
serait-ce que parce que la loi n'est pas toujours Normale (typiquement le cas en gestion de
projets...)! D'où la définition suivante :
D2. Nous appelons alors "Capabilité potentielle décentrée court terme du procédé" (dans le
cas décentré) ou "Process Capability Index (within)" la relation :

  (43)

avec :

  (44)

où est appelé le "dégré de biais" et T le "target" donné naturellement par:

  (45)

qui donne le milieu de la distribution relativement au bi-point [LSL,USL] imposé (ne pas
oublier que l'écart-type au dénominateur de la relation antéprécédente est l'écart-type court
terme!).

Au fait cet indicateur de capabilité de contrôle peut sembler très artificiel mais il ne l'est pas
totalement.... Effectivement il y a quelques valeurs remarquables (celles qui intéressent
l'ingénieur) qui permettent de se faire une bonne idée ce qu'il se passe avec celui-ci:

1. Si la moyenne et la cible sont confondues nous avons alors:

  (46)

nous nous retrouvons donc avec  et donc et le critère de jugement de la valeur
de l'indice sera basée sur l'indice de capabilité centrée court terme.

2. Si faute d'un mauvais contrôle du processus nous avons :

  (47)

alors la moyenne  est soit au-dessus de USL soit en-dessous de LSL ce qui a pour
conséquence d'avoir  et donc .

3. Si nous avons :

  (48)

alors la moyenne  est comprise entre les valeurs USL et LSL ce qui a pour conséquence
d'avoir  et donc .
4. Si nous avons:

  (49)

alors cela signifie simplement que la moyenne est confondue avec USL ou LSL et nous avons
alors  et .

Comme l'interprétation reste cependant délicate et difficile, nous construisons les indices
"Upper Capability Index CPU" et "Lower Capability Index CPL" donnés par:

  (50)

Voyons d'où viennent ces deux valeurs et comment les utiliser:

Démonstration:

D'abord, nous avons besoin de deux formulations particulière du degré de biais k.

Si:

  (51)

alors nous pouvons nous débarrasser de la valeur absolue:

  (52)

Si:

  (53)

alors nous pouvons nous débarrasser de la valeur absolue:


  (54)

Nous avons alors lorsque :

  (55)

et respectivement lorsque :

  (56)

C.Q.F.D.
A long terme dans certaines entreprises il est intéressant de savoir qu'elles sont les plus
mauvaises valeurs prises par les indices CPU et CPL (c'est le cas dans le domaine de la
production mais pas forcément de la gestion de projets)

Les plus mauvaises valeurs étant trivialement les plus petites, nous prenons souvent (avec
quelques une des notations différentes que l'on peut trouver dans la littérature spécialisée...):

  (57)

Voici par exemple un diagramme d'analyse de la capabilité produit par le logiciel Minitab (en
anglais) avec les différents facteurs susmentionnés sur un échantillons de 68 données suivant
une loi Normale (un test de normalité a été fait avant):

  (58)

Deux lectures typiques sont possibles (nous expliquerons la partie inférieure gauche du
graphique plus loin):

1. En production: Le processus est capable (valeur >1.33) mais avec une (trop) forte déviation
vers le gauche par rapport à la cible définie ce qui n'est pas bon (CPL ayant la valeur la plus
petite) et doit être corrigé.

2. En gestion de projets: Les tâches redondantes sont sous contrôle (valeur >1.33) mais avec
une forte déviation vers le gauche ce qui peut être bon si notre objectif est de prende de
l'avance par rapport au planifié (rien à corriger).
Il faut vraiment prendre garde au fait que dans la réalité il n'est pas toujours possible de
prendre la loi Normale or tous les exemples donnés ci-dessus ce sont basés sur cette
hypothèse simplificatrice.

Toujours le cadre de la gestion de la qualité en production, la figure ci-dessous représente


bien la réalité dans le cadre d'un processus court ou long terme:

  (59) Source: MSP/SPC de Maurice Pillet

Chaque petite gaussienne en gris clair, représente une analyse de lots. Effectivement, nous
voyons bien que leurs moyennes ne cessent de bouger pendant la période de mesures (que
cette variation soit grande ou très faible).

Or la relation définissant supposait, comme nous l'avons mentionné que le processus est
sous contrôle centré (donc toutes les gaussiennes sont alignées) et sur une optique court-
terme.

De même, la relation définissant  supposait, comme nous l'avons mentionné que le


processus est sous contrôle, sur une optique court terme et décentré par choix (ou à cause du
fait que la loi n'est pas Normale).

Par contre, si le processus n'est pas centré parce qu'il n'est pas sous contrôle alors qu'il devrait
l'être, la variable aléatoire mesurée est la somme de la variation aléatoire des réglages X de la
machine et des variations aléatoires non-contrôlables des contraintes des pièces Y.

L'écart-type total est alors, si les deux variables aléatoires suivent une loi normale, la racine
carrée de la somme des écart-types (cf. chapitre de Statistiques):
  (60)

Or, si nous n'avons qu'une seule mesure, il vient en prenant l'estimateur biaisé (c'est un peu
n'importe quoi de l'utiliser dans ce cas là mais bon...) :

  (61)

Or dans le cas d'étude qui nous intéresse Y représente la moyenne expérimentale (mesurée) du
processus qu'on cherche à mettre sous contrôle. Cette moyenne est notée traditionnellement m
dans le domaine.

Ensuite,  n'étant pas connu on prend ce qu'il devrait être: c'est la cible T du processus.
Ainsi, nous introduisons un nouvel indice appelé "Capabilité potentielle décentrée moyenne
court terme du procédé" :

  (62)

où encore une fois il faut se rappeler que l'écart-type dans la racine au dénominateur est
l'écart-type court terme!

Nous voyons immédiatement que plus  est proche de  mieux c'est (dans les domaines
de production du moins).

Nous avons donc finalement les trois indices de capabilités court terme centré et non centré
les plus courants (nous avons délibérément choisi d'uniformiser les notations et de mettre le
maximum d'infos dans celles-ci):

  (63)

De même nous avons aussi les trois indices de capabilités long terme centré et non centré les
plus courants (nous avons délibérément choisi d'uniformiser les notations et de mettre le
maximum d'infos dans celles-ci):

  (64)

Enfin, indiquons que bien que ce soit pas très pertinent, il arrive parfois que certains
ingénieurs fassent les deux analyses (court terme + long terme) en même temps sur la même
base de données de mesures.
Cependant, pour faire de l'analyse objective sur les indices de capabilité vus jusqu'à
maintenant, il faudrait d'abord que les instruments de mesure soient eux-mêmes capables... ce
que nous appelons souvent les "méthodes R&R" (Répétabilité, Reproductibilité).

Le principe consiste alors à évaluer la dispersion courte terme ou respectivement long terme
de l'instrument de mesure afin de calculer une "capabilité de processus de contrôle" définie
par:

  (65)

Dans les cas classiques, nous déclarons le moyen de contrôle capable pour une suivi MSP
lorsque cette capabilité est supérieure à 4 et nous allons de suite voir pourquoi. Rappelons
pour cela d'abord que:

  (66)

Mais la variance observée est au fait la somme de la "vraie" variance et de celle de


l'instrument telle que:

  (67)

Or nous avons:

 et   (68)

En mettant le tout au carré, nous en déduisons:

  (69)

D'où:

  (70)
Ce qui nous donne:

  (71)

Soit:

  (72)

Ce qui se traduit par le graphique de la figure suivante qui montre bien l'intérêt d'un  au
moins égal à 4!

  (73)

Dans la pratique, signalons que pour déterminer  on se sert d'une pièce étalon mesurée par
interférométrie LASER et s'assurer ensuite que tous les essais répétés de mesure se fassent sur
les deux mêmes points de mesure.

Une fois ceci fait, on effectue plusieurs mesures de la cote étalon et on prend l'écart-type de
ces mesures. Ce qui donnera le .
L'étendue E est elle imposée par le client ou par des ingénieurs internes à l'entreprise. Elle
sera souvent prise comme étant au plus dixième de l'unité de tolérance d'une pièce.

Par exemple, si nous avons un diamètre intérieur de  (étendue de tolérance de 2


microns ce qui est déjà du haut de gamme niveau de précision car à notre époque le standard
se situe plutôt autour des 3!), notre appareil devra alors avoir selon la règle précédemment
citée une étendue de 0.2 microns.... Il est alors aisé de déterminer qu'elle devra être l'écart-
type maximum de l'instrument si on se fixe une capabilité de processus de contrôle de 4 (et
encore... 4 c'est grossier!).

Certains ingénieurs apprécient de savoir à combien d'éléments en millions d'unités produites


(parties par million: PPM) seront considérées comme défectueuses relativement.

Le calcul est alors aisé puisque l'ingénieur a à sa disposition au moins les informations
suivantes:

  (74)

et que les données suivent une loi Normale alors il est immédiat que (cf. chapitre de
Statistiques):

  (75)

et:

  (76)

valeurs très aisées à obtenir avec n'importe quel tableur comme MS Excel par exemple.

Nous avons alors

  (77)

il en est de même pour la capabilité long-terme (il suffit de prendre alors l'expression
correspondante de l'écart-type).

NIVEAUX DE QUALITÉS

GÉNIE INDUSTRIEL

1. Six Sigma
1.1. Contrôle qualité

1.2. Défauts/Erreurs

1.3. Indices de capabilité

1.4. Niveaux de qualité

1.5. Modèle de Taguchi

2. Maintenance préventive

2.1. Estimateurs empiriques

2.2. Modèle de Weibull

2.3. Topologie des systèmes

2.4. Méthode ABC

3. Plans d'expériences

3.1. Plans factoriels complets

3.2. Plans factoriels fractionnaires

Signalons un point important relativement à Six Sigma. Au fait, objectivement, l'idée de cette
méthode est certes de faire de la SPC (entre autres, mais ça ce n'est pas nouveau) mais surtout
de garantir au client selon la tradition couramment admise avec un écart-type ayant une borne
supérieure de  avec une déviation à la moyenne (en valeur absolue) de 1.5  par rapport
à la cible ce qui garantit au plus 3.4 PPM (c'est-à-dire 3.4 rejets par million).

Remarque: Ce choix empirique vient de la mise en pratique de la méthode Six Sigma par son
créateur (Bill Smith). Il a observé dans son entreprise (Motorola) que sous contrôle statistique
il avait quasimment systématiquement une déviation comprise entre 1.2 et 1.8 à la moyenne
pour tous ses procédés industriels.

Voyons d'où vient cette dernière valeur à l'aide des deux tableaux suivants:

1. D'abord construisons un tableau de type idéal qui présente des données d'un procédé court
terme (mais les calculs sont parfaitement identiques pour du long terme) centré sur la cible (de
cible nulle ici, ce qui est un cas typique), de moyenne nulle (donc sur la cible et alors donc
) et d'écart-type unitaire avec USL et LSL symétriques (ce qui restreint par contre le
champ d'application):

Cp Cpk Défauts (PPM) Niveau de qualité Sigma Critère

0.5 0.5 133614 1.5 Mauvais


0.6 0.6 71861 1.8  
0.7 0.7 35729 2.1  
0.8 0.8 16395 2.4  
0.9 0.9 6934 2.7  
1 1 2700 3 
1.1 1.1 967 3.3  
1.2 1.2 318 3.6  
1.3 1.3 96 3.9 Limite
1.4 1.4 27 4.2  
1.5 1.5 6.8 4.5  
1.6 1.6 1.6 4.8  
1.7 1.7 0.34 5.1  
1.8 1.8 0.067 5.4  
1.9 1.9 0.012 5.7  
2 2 0.002 6 Excellent
Tableau: 2  - Capabilité, Niveau de qualité Sigma et P.P.M. dans procédé centré

où tout les données sont obtenues à l'aide des relations suivantes à partir de l'indice de
capabilité potentielle uniquement:

  (78)

si l'écart-type est réduit (ce qui peut toujours être fait et ne change point la justesse des
résultats!). Et puisque dans le tableau ci-dessus LSL et USL sont symétrique par rapport à la
cible:

  (79)

et les PPM sont conformément à ce que nous avons vus juste avant donnés par:

  (80)

et donc puisque dans l'exemple ci-dessus LSL et USL sont symétrique par rapport à la cible
cela se simplifie en:

  (81)
où par exemple la valeur du PPM donnée à la ligne "Limite" est  obtenue avec Maple à l'aide
de la commande:

>evalf((1-1/sqrt(2*Pi)*int(exp(-x^2/2),x=-infinity..3.9))*2)*1E6;

ou avec MS Excel (version anglais):

=(1-NORMDIST(3.9;0;1;1))*1E6

Il nous reste à voir d'où provient le "niveau de qualité sigma" noté  qui est au fait donné à
l'aide du tableau que nous avions construit dans le chapitre de Statistique:

Taux de défection
Niveau de qualité Taux de non-défection
en parties par
Sigma assuré en %
million
68.26894 317'311
95.4499 45'500
99.73002 2'700
99.99366 63.4
99.999943 0.57
99.9999998 0.002
Tableau: 3  - Capabilité, Taux de non-défection en % et PPM

et nous avions donné la commande Maple pour obtenir ses valeurs qui sont toutes valables
pour tout écart-type et toute espérance!

2. Maintenant construisons le tableau au pire selon Six Sigma, soit un tableau en procédé non
centré (c'est-à-dire où n'est pas satisfait) avec une déviation de la moyenne de
 (donc à droite mais on pourrait prendre à gauche et les résultats seraient les mêmes)
par rapport à la cible et d'écart-type unitaire avec USL et LSL symétriques (ce qui restreint
toujours le champ d'application):

Cp Cpk Défauts (PPM) Niveau de qualité Sigma Critère

0.5 0 501350 1.5 Mauvais


0.6 0.1 382572 1.8  
0.7 0.2 27412 2.1  
0.8 0.3 184108 2.4  
0.9 0.4 115083 2.7  
1 0.5 66810 3 
1.1 0.6 35931 3.3  
1.2 0.7 17865 3.6  
1.3 0.8 8198 3.9 Limite
1.4 0.9 3467 4.2  
1.5 1 1350 4.5  
1.6 1.1 483 4.8  
1.7 1.2 159 5.1  
1.8 1.3 48 5.4  
1.9 1.4 13 5.7  
2 1.5 3.4 6 Excellent
Tableau: 4  - Capabilité, Niveau de qualité Sigma et P.P.M. dans procédé décentré

où tout les données sont obtenues à l'aide des relations suivantes à partir de l'indice de
capabilité potentielle uniquement:

  (82)

et donc:

  (83)

d'où:

  (84)

et les PPM sont conformément à ce que nous avons vus juste avant donnés par:

  (85)

où la ligne "Limite" du tableau précédent est par exemple obtenue avec Maple à l'aide de la
commande:

>evalf((1-1/sqrt(2*Pi)*int(exp(-(x-1.5)^2/2),x=-infinity..
(1.3*3))))*1E6+evalf((1/sqrt(2*Pi)*int(exp(-(x-1.5)^2/2),x=-infinity..-(3*(1.3+1)))))*1E6;

ou avec MS Excel:
=(((1-NORMDIST(3*1.3;1.5;1;1))+NORMDIST(-3*(1.3+1);1.5;1;1)))*1E6

On comprend enfin en voyant cette fameuse ligne "Limite" pourquoi un procédé sous-
contrôle est dit "limite capable" avec un indice de capabilité potentielle de 1.33 étant donné le
nombre de PPM!

Donc le but dans la pratique c'est bien évidemment d'être dans la situation du premier tableau
avec pour valeur correspondante dans ce premier tableau à un niveau de qualité sigma de
 pour avoir l'équivalent des 3.4 PPM du deuxième tableau (car il est plus facile de
centrer un procédé que de contrôler ses écarts).

Toute l'importance des valeurs calculées ci-dessous est dans l'application de procédés de
fabrication à n-étapes en série (considérés sous la dénomination de "processus"). Cette
application sera présentée dans le chapitre sur les Techniques de Gestion.

Exemple:

Faisons un résumé de tout cela en considérant une nouvelle petite production de  pièces
par lot de 10 (afin d'ajuster en cours de production). La mesure de côtes de 5 pièces chaque
heure pendant 10 heures avec une tolérance de  soit en termes de centièmes un
étendue de:

  (86)

et une cible de  (en termes d'écarts). Nous avons les données suivantes:

  1 2 3 4 5 6 7 8 9 10
1 -2 -4 -1 0 4 0 3 0 1 -1
2 0 -3 0 -2 1 -2 0 1 -1 2
3 -1 0 -3 -1 0 0 -1 -1 3 1
4 1 1 -2 2 2 0 1 0 4 0
5 -1 -1 -3 0 0 3 3 2 1 0
-0.6 -1.4 -1.8 -0.2 1.4 0.2 1.2 0.4 1.6 0.5
1.1 2.0 1.3 1.4 1.6 1.7 1.7 1.1 1.9 1.1
4 7 0 8 7 9 9 4 5 4
Tableau: 5  - Application d'analyse de maîtrise statistique des procédés

Nous voyons immédiatement que le processus de fabrication a été non-stationnaire pendant


cette première production il faudra donc apporter des corrections à l'avenir:
  (87)

ou sous forme de carte de contrôle (comme je les aime) avec la représentation d'un écart-type
de  (ce qui est suffisant pour des petites quantité des pièces bon marché à fabriquer):

  (88)

Donc on devine quand même que le processus est limite....

Remarque: Une chose intéressante c'est que l'on peut analyser aussi ce graphique en utilisant
les outils mathématiques de l'analyse des séries temporelles (cf. chapitre d'Économétrie).

D'abord, si nous voulons faire une étude statistique pertinente des différentes données ci-
dessus nous pouvons calculer la moyenne générale des écarts qui sous l'hypothèse d'une
distribution Normale est la moyenne arithmétique (cf. chapitre de Statistiques):
  (89)

Ensuite l'écart-type des données de toutes les pièces est de:

  (90)

en utilisant l'estimateur de maximum de vraisemblance de la variance de la loi Normale:

  (91)

nous avons une valeur supérieur à 1 ce qui est donc non-conforme à ce que Six Sigma exige
dans son niveau de qualité.

Donc l'erreur-standard (l'estimateur de l'écart-type de la moyenne) est de:

  (92)

Donc l'intervalle de confiance à 95% de la moyenne est de (cf. chapitre de Statistiques):

  (93)

Soit dans notre cas:

  (94)

Et l'inférence statistique avec notre écart-type long terme utilisant le test d'hypothèse bilatéral
du donne (cf. chapitre de Statistiques):

  (95)

Ce qui nous donne dans notre cas:

  (96)

soit:

  (97)

Nous remarquons alors que sur une analyse long terme nous avons les intervalles:
  (98)

Calculons maintenant la performance globale du procédé long terme (si supposé centré
donc!). Nous avons:

  (99)

Mais avec un instrument ayant un  de 4, cela correspond réellement à:

  (100)

De plus, indiquons que comme nous savons faire un calcul d'intervalle de confiance pour  
(voir le calcul fait précédemment), il est alors aisé d'en avoir un pour  aussi!

Si l'analyse de la performance globale du procédé long terme est non centrée (ce qui est le cas
ici) nous utilisons donc:

  (
101)

et nous savons encore une fois qu'à cause de l'instrument, cette valeur est un peu sous-
évaluée! Nous avons bien évidemment:

  (102)

donc le processus n'est pas centré (on s'en doutait...). Alors il faut calculer la capabilité
potentielle décentrée moyenne long terme du procédé  selon les relations déterminées
plus haut:

  (103)

Bref, que ce soit de la valeur de ,  ou , nous voyons que les valeurs sont toutes
limites capable (c'est-à-dire que la valeur est supérieure à 1 - voir définition plus haut pour un
rappel de ce que signifie "limite capable").

Si nous faisons alors nos calculs de PPM selon les relations obtenues plus haut avec la valeur
de  et de  obtenues, nous avons alors:
  (104)

Ensuite dire ce chiffre est bon ou mauvais cela est difficile car il nous manque l'information
de savoir quel est le coût de production, le coût de revient et de réparation d'un produit et le
tout est lui-même dépendant de la quantité total fabriquée! Mais nous pouvons utiliser aussi le
modèle de Taguchi pour connaître la valeur des paramètres (moments) calculés qu'il serait
préférable de ne pas dépasser!

Calculons maintenant les indices de capabilité court terme! Pour cela, il nous faut l'estimateur
de la moyenne de l'ensemble en considérant chaque échantillon comme une variable aléatoire.
Nous savons (cf. chapitre de Statistiques) que cette moyenne est aussi la moyenne
arithmétique dans le cas d'une loi Normale et elle est strictement égale à celle que l'on calcule
en considérant l'ensemble des échantillons comme une seule et unique variable aléatoire.
Donc il vient que:

  (105)

En ce qui concerne l'écart-type par contre ce n'est pas pareil. Mais nous savons (cf. chapitre de
Statistiques) que la loi Normal est stable par la somme. Par exemple, nous avions démontré
que étant donné deux variables aléatoires indépendantes et distribuées selon une loi Normale
(en imaginant que chaque variable représente deux de nos dix échantillons), nous avions donc
pour leur some.:

  (106)

Or nous avons aussi démontré dans le chapitre de Statistiques que de par la propriété de
linéarité de l'espérance, nous avons:

  (107)

ce qui est conforme à notre remarque précédent pour la variance:

  (108)

Donc in extenso:

  (109)

et dans notre cas particulier:


  (110)

nous avons une valeur supérieur à 1 ce qui est donc non-conforme à ce que Six Sigma exige
dans son niveau de qualité.

Donc l'erreur-standard (l'estimateur de l'écart-type de la moyenne) est de:

  (111)

Donc l'intervalle de confiance à 95% de la moyenne est de (cf. chapitre de Statistiques):

  (112)

Soit dans notre cas:

  (113)

Nous remarquons donc qu'en court terme, l'intervalle est beaucoup plus large qu'en long terme
ce qui est normal étant donné la faible valeur de k (qui vaut donc 5 dans notre exemple).

Et l'inférence statistique avec notre écart-type long terme utilisant le test d'hypothèse bilatéral
du donne (cf. chapitre de Statistiques):

  (114)

Ce qui nous donne dans notre cas:

  (115)

soit:

  (116)

Nous remarquons alors que sur une analyse long terme avec les intervalles:

  (117)
Les variations peuvent donc être énormes avec une probabilité cumulée de 95% et il faudra
prendre garde dans un cas pratique d'apporter des réglages au plus vite afin de diminuer aux
maximum les moments!

Calculons maintenant la capabilité potentielle du procédé court terme (si supposé centré
donc!). Nous avons:

  (118)

Donc nous avons:

  (119)

ce qui est normal car si les mesures que nous avons étaient vraiment faites sur une longue
période alors ce serait très problématique alors que sur une courte période c'est déjà un peu
plus normal. D'où cette relation d'ordre entre les deux indices.

Mais avec un instrument ayant un  de 4, cela correspond réellement à:

  (120)

De plus, indiquons que comme nous savons faire un calcul d'intervalle de confiance pour  
(voir le calcul fait précédemment), il est alors aisé d'en avoir un pour  aussi!

Si l'analyse de la capabilité potentielle du procédé court terme est non centrée (ce qui est le
cas ici) nous utilisons donc:

  (121
)

et nous savons encore une fois qu'au cause de l'instrument, cette valeur est un peu sous
évaluée! Nous avons bien évidemment:

  (122)

donc le processus n'est pas centré (on s'en doutait...). Alors il faut calculer la capabilité
potentielle décentrée moyenne court terme du procédé  selon les relations déterminées
plus haut:
  (123)

Bref, que ce soit de la valeur de ,  ou , nous voyons que les valeurs sont toutes
limites capable.

Si nous faisons alors nos calculs de PPM selon les relations obtenues plus haut avec la valeur
de  et de  obtenues, nous avons alors:

  (124)

Ensuite dire ce chiffre est bon ou mauvais cela est difficile car il nous manque l'information
de savoir quel est le coût de production, le coût de revient et de réparation d'un produit et le
tout est lui-même dépendant de la quantité total fabriquée! Mais nous pouvons utiliser aussi le
modèle de Taguchi pour connaître la valeur des paramètres (moments) calculés qu'il serait
préférable de ne pas dépasser!

Modèle de Taguchi
Dans le cadre des SPC il est intéressant pour un industriel d'estimer les pertes financières
générées par les écarts à la cible (attention on peut appliquer également cette approche dans
d'autres domaines que l'industrie!)

Nous pouvons avoir une estimation relativement simple et satisfaisante de ses pertes (coûts)
sous les hypothèses suivantes:

H1. Le processus est sous contrôle (écart-type constant) et suit une loi de densité symétrique
décroissante à gauche et à droite par rapport à la cible (qui peut être une côte, un nombre
d'erreurs par périodes, etc.)

H2. Le coût est nul lorsque la production (ou le travail) est centrée sur la cible (minimum).

H3. Le coût augmente de manière identique lorsque la production se décentre sur la gauche et
sur la droite (ce qui n'est plus le cas dans le domaine de l'administration par exempl). La
fonction de coût passe donc selon H2 et H3 par un minimum sur la cible.

Dès lors, si nous notons Y le décentrage par rapport à la cible T et L la perte financière ("loss"
en anglais d'où le L). Nous avons:

  (125)

Même si nous ne connaissons pas la forme de cette fonction, nous pouvons l'écrire sous forme
de développement de Taylor autour de T tel que (cf. chapitre de Suites et Séries):

  (126)
Si nous développons au troisième ordre:

  (127)

Or par l'hypothèse H2, nous avons L(T) qui est nul. Il reste alors:

  (128)

et comme par H3, la dérivée de la fonction L(Y) est nulle en T puisqu'il s'agit d'un minimum
alors:

  (129)

Ce qui est noté en SPC:

  (130)

et est appelée "fonction de perte de Taguchi" ou plus simplement "fonction perte de qualité".

Bon c'est bien joli d'avoir cette relation  mais comment doit-on l'utiliser?

Au fait, c'est relativement simple. Sous les hypothèses mentionnées plus haut, si nous avons
en production des mesures de défauts (côtes, retards, pannes, bug, etc.) alors il suffit de
calculer leur moyenne arithmétique  (estimateur de la moyenne d'une loi Normale) et
ensuite de savoir le coût financier ou horaire L que cela a engendré pour l'entreprise ou
l'institution (parfois cette moyenne est calculée sur la base d'un unique échantillon...).

Donc la relation précédente devient:

  (131)

avec L et  connus.

Et comme T est donné par les exigences du client ou du contexte alors il est aisé d'obtenir le
facteur k:

  (132)
qui est au fait mathématiquement parlant le point d'inflexion de la fonction mathématique L .

Cette dernière relation est parfois notée:

  (133)

Une fois que nous avons k avec une bonne estimation, il est possible de connaître L pour toute
valeur Y et ainsi nous pouvons calculer en production le coût d'une déviation quelconque par
rapport à la cible.

Exemple:

Considérons une alimentation pour une chaîne stéréo pour laquelle T vaut 110 [V]. Si la
tension sort des  alors la stéréo tombe en panne et doit être réparée. Supposons
que le coût de réparation est (tous frais directs et indirects compris!) de 100.-. Alors le coût
associé pour une valeur donnée de la tension est:

  (134)

Voyons maintenant une manière élégante de calculer le coût moyen de Taguchi (perte unitaire
moyenne). Nous avons bien évidemment dans une chaîne de production sur plusieurs pièces
d'une même famille:

  (135)

où les  sont des variables aléatoires normales (gaussiennes par hypothèse). Or, nous avons
démontré dans le chapitre de Statistique lors de notre étude de l'intervalle de confiance sur la
variance avec moyenne empirique connue que:

  (136)

Donc:

  (137)

Donc:
  (138)

Cette dernière expression présente l'avantage de montrer très clairement que pour minimiser
la perte il faut agir sur la dispersion et l'ajustement de la moyenne sur la valeur nominale.

Or nous avons démontré que (il est important dans les présents développements que nous
utilisions les notations qui distinguent les différents estimateurs!):

  (139)

Donc:

  (140)

Et si n est grand nous avons alors pour un lot de produits:

  (141)

où le premier terme entre crochets représente donc l'écart-type de Y autour de sa propre


moyenne et le deuxième terme la déviation de Y par rapport à la cible T.

MAINTENANCE PRÉVENTIVE

GÉNIE INDUSTRIEL

1. Six Sigma

1.1. Contrôle qualité

1.2. Défauts/Erreurs

1.3. Indices de capabilité

1.4. Niveaux de qualité

1.5. Modèle de Taguchi

2. Maintenance préventive
2.1. Estimateurs empiriques

2.2. Modèle de Weibull

2.3. Topologie des systèmes

2.4. Méthode ABC

3. Plans d'expériences

3.1. Plans factoriels complets

3.2. Plans factoriels fractionnaires

L'évolution des techniques de production vers une plus grande robotisation des systèmes
techniques plus complexes a augmenté l'importance de la fiabilité des machines de
production. Aussi, un arrêt imprévu coûte cher à une entreprise. De même, dans l'industrie
aéronautique et spatiale, les problèmes de fiabilité, de maintenabilité, de disponibilité sont
capitaux. La maintenance garantit le niveau de fiabilité pour l'ensemble des composantes
(mécaniques, électromécaniques et informatiques).

L'existence d'un service de maintenance a pour raison le maintien des équipements (systèmes)
et aussi la diminution des pannes. En effet, ces dernières coûtent cher, elles occasionnent :

- Des coûts d'intervention, de réparation

- Des coûts de non qualité du produit

- Des coûts indirects tels que des frais fixes, pertes de production, la marge bénéficiaire
perdu...

De ce fait, il faut tout mettre en oeuvre pour éviter la panne, agir rapidement lorsqu'elle
survient afin d'augmenter la disponibilité du matériel. Pour ce faire, il faut modéliser la vie
des équipements. L'ensemble des méthodes et techniques relatives à ses problématiques sont
habituellement classifiées sous le nom de "Analyse des Modes de Défaillance, des Effets et de
leur Criticité" AMDEC.

Nous distinguons principalement deux classes de systèmes: les systèmes non-réparables


(satellites, bien de conommations à faibles coûts, etc.) et les systèmes réparables (machines de
production, moyens de transports, etc.) où les approches théoriques sont différentes. Pour la
deuxième catégorie il est possible d'utiliser aussi les chaînes de Markov, les réseaux de Petri
ou la simulation par Monte-Carlo.

L'idée est dans les textes qui vont suivre de faire un petit point sur ces méthodes, d'en
rechercher l'efficacité et de permettre au praticiens ingénieurs ou techniciens de mieux
appréhender ces problèmes. Une large place sera faite au modèle de Weibull d'application
importante dans le domaine.

ESTIMATEURS EMPIRIQUES
Dans le cadre de l'étude de fiabilité non accélérée (le vieilissement accéléré est un sujet trop
complexe pour être abordé sur ce site), nous sommes amenés à définir certaines variables dont
voici la liste :

- sera le nombre d'éléments bons à (instant initial)

- le nombre d'éléments bons à

- le nombre d'éléments défaillant entre et noté aussi

- l'intervalle de temps observé égal à .

Définitions:

D1. Nous définissons le "taux de défaillance par tranche temporelle" par la relation :

  (142)

qui s''interprète donc comme étant le % d'éléments défectueux par rapport au nombre
d'éléments survivants sur une tranche de temps donnée.

Cette dernière relation est aussi parfois appelée "hazard ratio" (HR) ou "survie relative".

D2. Nous définissons la "fonction de défaillance" par la relation (densité de probabilité de


défaillances à l'instant ) :

  (143)

en remarquant bien que le dénominateur n'est pas le même que celui qui définit la taux de
défaillance par tranche!

Cette fonction s'interprète donc comme étant le % d'éléments défectueux dans la tranche de
temps étudiée par rapport au nombre total d'éléments initialement testés. Il s'agit de
l'indicateur qui intéresse le plus souvent l'ingénieur!

D3. Nous définissons naturellement la "fonction de défaillance cumulée" par :

  (144)

que tend vers 1 lorsque le temps tend vers l'infini.


Cette fonction s'interprète donc comme étant le % d'éléments défectueux cumulé par rapport
au nombre total d'éléments initialement testés.

D4. Nous définissons in extenso la "fonction de fiabilité" par (il s'agit du deuxième terme de
la précèdente relation):

  (145)

Son nom provient par l'interpratition du rapport dans le cadre de la définition de la fonction de
défaillance cumulée.

Pour se rappeler des termes se souvenir que R provient de l'anglais "reliability" qui signifie
"fiabilité" alors que le F en anglais signifie "failure" qui signifie en "panne".

Par suite nous avons aussi:

  (146)

Cette dernière relation servant au calcul des lois de fiabilité!

Puisque :

et   (147)

la fonction de défaillance peut être vue comme une probabilité ce qui nous amène à définir
naturellement son espérance :

  (148)

Relation très utile dans la pratique qui donne en théorie le pourcentage moyen d'éléments en
panne à l'instant .

Exemple:

Nous avons relevé sur un lot de 37 moteurs d'un type donné les défaillances suivantes
répertoriées par tranches (données par des clients ou mesuré en internes sur des bancs
d'essais):

0à 1'000 à 2'000 à 3'000 à 4'000 à 5'000 à


1'000 h. 2'000 h. 3'000 h. 4'000 h. 5'000 h. 6'000 h.
1 4 7 12 11 2
Tableau: 6  - Défaillances des moteurs par tranches d'effort
Il faut que nous estimions la valeur de la fonction de fiabilité , la fonction de défaillance
et la défaillance par tranche . Les calculs sont élémentaires et nous obtenons le
tableau suivant :

Nombre de
Intervalle défaillances Cumul des
Survivants
d'observation dans défaillants
l'intervalle
0 - 37 0 100% 0 -

1 36 1 97% 2.7% 27
1'000 h.
1'000 à
4 32 5 86% 10.8% 111
2'000 h.
2'000 à
7 25 12 67% 18.9% 218
3'000 h.
3'000 à 4'000
12 13 24 35.1% 32.4% 480
h.
4'000 à 5'000
11 2 35 5.4% 5.4% 846
h.
5'000 à
2 0 37 0% - 1
6'000 h.
Tableau: 7  - Analyse des défaillances des moteurs par tranches d'effort

Nous voyons ci-dessus par exemple que le taux de défaillance n'est pas constant bien
évidemment!

Concernant les taux de défaillance, les ingénieurs reconnaissent souvent trois tranches
d'analyses suivant que certains objets étudiés soient jeunes, en fonctionnement normal ou
considérés en vieillissement.

On considère alors assez intuitivement (et parfois grossièrement) que le taux de défaillance
suit une courbe en baignoire comme représenté ci-dessous (dans les tables techniques c'est
souvent le taux de défaillance en fonctionnement normal qui est donné):
  (149)

alors que si vous observez le tableau précédent, le taux de défaillance ne suit pas du tout une
courbe en baignoire (c'est donc un contre-exemple).

Les ingénieurs en fiabilité découpent souvent la baignoire en trois parties visibles ci-dessus
mais sous la dénomination technique suivante:

- D.F.R.: Decreasing Failure Rate (les composants jeune ayant des problèmes de fabrication
non identifiés lors de procédé sont éliminés du lot ce qui a pour effet de diminuer le taux de
défaillance). La loi de Weibull est relativement bien adaptée pour modéliser cette phase.

- C.F.R.: Constant Failure Rate (les composants sont dans un état stationnaire). La loi de
Poisson est relativement bien adaptée pour modéliser les arrivées de pannes, et la loi
exponentielle pour modéliser le temps entre pannes successives..

- I.F.R.: Increasing Failure Rate (les composants sont en fin de vie et leur taux de défaillance
augmente). La loi de Weibulle est à nouveau relativement bien adaptée pour modéliser cette
phase.

Remarque: Contrairement à ce que pas mal de théoriciens pensent..., les logiciels


informatiques grand public ont aussi leur taux de défaillance qui suit une courbe en baignoire.
Effectivement, au début il y a des bugs non détectés qui font que la défaillance va diminuer au
fur et à mesure de leur détection et leur correction. Ensuite, à cause des mises-à-jour
fréquentes de l'environnement qui ont tendance à rajouter d'autres problèmes (service pack),
le taux de défaillance se maintient à peu près constant. Enfin, avec le temps, l'évolution des
technologies environnantes (framwork) rendent l'applicatif obsolète et des fonctions ne
répondent ou n'agissent plus correctement ce qui fait à nouveau augmenter le taux de
défaillance.

Vis-à-vis de l'efficacité de la rénovation, indiquons qu'elles peuvent (en simplifiant) très


fréquemment se ranger en trois catégories:

1. As good as new: C'est de la maintenance préventive dans le sens que nous changeons une
pièce lorsque sa durée de vie l'amène à une taux de défaillance que nous considérons comme
trop élevé et dont la rupture non anticipée coûtera plus cher que sa non-anticipation.
2. As bad as old: C'est de la maintenance déficiente dans le sens que nous changeons une
pièce que lorsqu'elle est arrivée à rupture ce qui engendre majoritairement des coûts d'arrêts
plus élevés que la maintenance préventive qui consiste elle à anticiper au plus juste la casse.

3. Restauration partielle: C'est de la maintenance préventive minimale dans les sens que nous
réparons la pièce défaillante plutôt que de la remplacer par une nouvelle. A nouveau le
problème du coût doit être calculé en faisant un audit des besoins et des délais de l'entreprise.

Revenons en à d'autres définitions au passage à la limite du continu.

Nous savons donc que le "taux de défaillance instantané" aura pour unité l'inverse du temps
tel que . Ce taux est dans le cadre de notre étude pas nécessairement constant dans le
temps nous l'avons constaté!

Soit R(t) le pourcentage cumulé d'objets analysés toujours en état de bon fonctionnement d'un
échantillon testé au temps t. Le nombre d'objets tombant en panne durant le temps
infinitésimal dt est donc égal à :

  (150)

ce qui correspond donc à la diminution du stock initial en bon fonctionnement au temps t.

Nous pouvons alors écrire la relation:

    (151)

soit :

  (152)

Définition: La "probabilité conditionnelle de défaillance" (rien à voir avec les probabilités


conditionnelles cependant....) entre t et t + dt est définie par:

  (153)

où F(t) et R(t) sont respectivement la fonction cumulée de défaillance (probabilité cumulée de


tomber en panne au temps t) et la fonction fiabilité appelée également "fonction de survie".
R(t) valant 1 au temps 0 et... 0 après un temps infini comme nous l'avons déjà vu avant!

Dès lors, peut s'interpréter comme la défaillance instantanée! En analyse de survie, le


facteur de dt est nommé aussi parfois "fonction de risque".

Remarque: Par la même démarche intelectuelle, plutôt que de définir une fonction de
défaillance F(t) et de survie R(t) avec sa fonction de risque, nous pouvons définir une fonction
de réparibilité avec sa fonction de M(t) qui serait alors une "fonction de maintenabilité".
Si nous intégrons (attention u représente maintenant le temps!) :

  (154)

Comme nous avons :

  (155)

d'où :

  (156)

Par ailleurs, puisque nous avons vu que , nous avons alors la "fonction de
densité/répartition de défaillance instantanée":

  (157)

Nous pouvons obtenir cette relation et interprétation sous une autre manière:

  (158)

où nous retrouvons donc F(t) la fonction de probabilité cumulée de défaillance. Evidemment


pour déterminer la loi f(t), nous utilisons les outils statistiques d'ajustements habituels (cf.
chapitre de Statistiques).

Nous avons alors la relation très importante (voir la plus importante!) dans la pratique que
relie la loi de densité de la loi de fiabilité:

  (159)
Nous avons ci-dessus les trois expressions les plus générales liant les lois de fiabilité et le taux
instantané de défaillance.

Puisque f(t) est la fonction de densité de défaillance au temps t, nous pouvons introduire la
"moyenne du temps de bon fonctionnement" (M.T.B.F. qui provient de l'anglais: Mean Time
Between Failures) qui n'est que l'espérance mathématique de la défaillance dans le cas où le
temps de réparation ou de changement est considéré comme négligeable:

  (160)

Ainsi, si la répartition des pannes est équiprobable (fonction de densité uniforme), ce qui est
plutôt rare, la moitié des équipement seront hors service à M.T.B.F.

Remarque: En observant 100'000 disques durs, des ingénieurs de Google auraient observé en
moyenne 8% de pertes par an! Donc un taux de perte plus élevé qu'avec le M.T.B.F. annoncé
des fabricants qui serait d'environ 300'000 heures! Le taux de perte est plus élevé les 3
premières années! Mais peut être que les disques qui survivent vivent plus longtemps!

Si le temps de réparation ou de changement est pas négligeable, il faut remplacer la M.T.B.F.


par la MUT (voir plus bas la signification des ces abréviations) car ces deux-ci sont alors
considérées comme égales.

Nous avons aussi en utilisant l'intégration par parties et la relation précédente:

Donc une autre manière de l'exprimer:

  (161)

Nous avons donc la relation:

  (162)

d'où le fait que certains calculent une approximation de la MTBF en faisant une simple
moyenne arithmétique des temps entre panne d'un système réparable!
Par ailleurs, il faut savoir que certains y incluent le temps de réparation et d'autres pas... (car
le premier cas est assez difficile à obtenir). Au fait, mathématiquement le M.T.B.F. calculé ne
devrait pas comprendre pas le temps de réparation!

Nous avons alors en approximation pour un composant réparable qui est vendu à des
consommateurs:

  (163)

soit de manière abrégée sous la forme:

  (164)

Il est nécessaire avant d'aller plus loin de donner quelques indications sur les termes
employés, en particulier pour les M.T.B.F. (Mean Time Between Failures), M.U.T. (Mean Up
Time), M.T.T.R. (Mean Time To Repair), M.D.T. (Mean Down Time).

Pour les matériels réparables, nous avons le chronogramme type ci-dessous où le lecteur
remarquera qu'il est équivalent de définir le M.T.B.F. comme étant le temps entre la fin de
deux pannes soit entre le début de deux pannes (et en interne d'une entreprise on y inclut le
temps de réparation, dans le cas contraire d'un produit vendu on inclut pas le temps de
réparation):

  (165)

et pour les matériels non réparables avec le M.T.T.F. (Mean Time To Failure):
  (166)

Pour ceux faisant de la maintenant préventive, nous ajoutons également la M.T.B.R. (Mean
Time Between Removal) ou M.T.B.M. (Mean Time Beetween Maintenance) qui idéalement
pour une machine complexe doit être le plus grand possible si elle est de bonne qualité.

Remarques:

R1. En ce tout début de 21ème siècle les pays devraient en toute rigueur légiférer pour obliger
tous les industriels à communiquer la M.T.T.F. et M.T.B.F. de leurs produits afin que le
consommateur puisse mieux faire son choix à l'achat et comparer les valeurs par rapport à la
garantie fournie! Malheureusement ce n'est pas le cas et cela permettrait de mettre en
évidence une mauvaise tradition actuelle dans l'industrie des produits grand public qui est de
fabriquer des composants dont la durée de vie tourne autour des 200'000 heures afin d'assurer
aux industriels un renouvellement de leur marché.

R2. L'expression anglaise Mean Time Between Failures est parfois traduite à tort en français
par "Moyenne des Temps de Bon Fonctionnement ". Mais le temps moyen entre deux
défaillances intègre dans son calcul les temps de réparation et de maintenance, alors que la
moyenne des temps de bon fonctionnement ne les intègre pas!

R3. Pour un composant non réparable certains constructeurs communiquent la M.T.B.F.


quand même... qui est en toute rigueur alors égale à la M.T.T.F. Mais sinon dans un cas
général, la M.T.T.F est bien plus longue que la M.T.B.F..

Certains industriels mettent alors dans la datasheet de leurs produits le "taux de disponibilité"
défini par:

  (167)

et dont le but est qu'il soit le plus proche possible de 1 (c'est-à-dire de faire tendre vers zéro le
MTTR).
La classification des systèmes en termes de disponibilité conduit communément à 7 classes de
non prise en compte (système disponible 90% du temps, et donc indisponible plus d'un mois
par an) à ultra disponible (disponible 99.99999% du temps et donc indisponible seulement 3
secondes par an): ces différentes classes correspondent au nombre de 9 dans le pourcentage de
temps durant lequel les systèmes de la classe sont disponibles (une année comporte 525'600
minutes):.

Indisponibilité
Type Pourcentage disponibilité Classe
(minutes par an)
non géré 50'000 (~35 jours) 90% 1
géré 5'000 (~3.5 jours) 99% 2
bien géré 500 (~8 heures) 99.9% 3
tolérence fautive 50 99.99% 4
haute disponibilité 5 99.999% 5
très haute disponibilité 0.5 99.9999% 6
très grande haute disponibilité 0.05 99.99999% 7
Tableau: 8  - Classes de défaillances AMDEC

L'usage de ces paramètres dans le cadre de fiabilité font dire que nous avons une "approche en
valeurs moyennes".

Signalons enfin un cas simple: Certains composants (électroniques typiquement) ont dans leur
période de maturité un taux de défaillance constant. La loi de probabilité cumulée de la
défaillance qui en découle s'en déduit alors immédiatement puisque :

  (168)

La fonction de densité des éléments défaillants au temps t est alors:

  (169)

Elle suit donc une loi exponentielle! Cette loi et ses moments nous sont connus (cf. chapitre
de Statistiques). Il devient alors facile déterminer le MTTF (dans un cas non réparable, sinon
nous parlerons de la MTBF) et son écart-type (inverse du taux de défaillance) ainsi qu'un
intervalle de confiance.

Par ailleurs, si nous calculons la fiabilité R(t) au temps correspondant à la MTTF pour un
matériel non réparable ou MTBF pour un matériel réparable (inverse du taux de défaillance
dans le cas de la loi exponentielle) nous obtiendrons toujours une probabilité cumulée de
36.8% (donc en gros une chance sur trois de fonctionner à ce moment là et 2 chances sur 3 de
tomber en panne) et non de 50% comme on peut le penser intuitivement (ce qui est le cas
seulement si la loi de probabilité est symétrique).
Etant donné que les tables techniques de fiabilité dans l'industrie supposent presque toujours
le taux de fiabilité constant alors nous comprenons mieux l'importance de celle-ci (nous en
auronts un exemple lors de notre présentation des topologies de systèmes).

Rappellons aussi que nous avons vu dans le chapitre de Probabilités que si nous avons un
ensemble d'événements indépendants (mécanismes indépendants) avec une probabilité
donnée, alors les probabilités calculées sur l'ensemble dans sa totalité implique la
multiplication des probabilités.

Donc dans un mécanisme ayant des pièces indépendantes mais essentielles (système dit en
"série") la fonction de densité de fiabilité globale sera égale à la multiplication des lois de
probabilités cumulées R(t) et ce qui équivaut donc dans le cas d'une loi exponentielle d'avoir
une seule loi exponentielle dont le taux de défaillance global est égal à la somme des taux de
défaillances des différentes pièces.

Un autre exemple: En mécanique, où le phénomène d'usure est à l'origine de la défaillance, le


taux de défaillance est souvent du type linéaire (il augement donc de manière constant avec le
temps et est non nul lors du premier allumage de l'appareil):

  (170)

Alors:

  (171)

Soit:

  (172)

Comme:

  (173)

cette intégrale ne peut se calculer ques par une méthode numérique. Dès lors on préfère
prendre des lois rapprochées à l'aide d'ajustement du Khi-Deux comme par exemple la loi de
Weibull qui est un peu la poubelle à tout mettre dans le domaine..

Il faus savoir que dans les banques de données de fiabilité communes et gratuitement
disponibles sur le marché sont normalement donnés: la dénomination du matériel ou du
composant, la MTBF, la taux de défaillance moyen, le patrimoine statistique, un coefficient
multiplicatif du taux de défaillances dépendant de l'environnement ou des contraintes
d'utilisation.
MODÈLE DE WEIBULL
Encore une fois, les techniques de maintenances utilisent les probabilités et statistiques donc
nous renvoyons le lecteur au chapitre du même nom. Cependant, il existe dans le domaine de
la maintenance (et pas seulement) une fonction de densité de probabilité très utilisée appelée
"loi de Weibull".

Elle est complètement empirique et est définie par :

  (174)

où avec qui sont respectivement appelés "paramètre


d'échelle" , "paramètre de forme" et "paramètre d'emplacement" .

La loi de Weibull est aussi souvent notée sous la forme suivante en posant , ,
 :

  (175)

Elle peut être calculée dans MS Excel. sous cette dernière forme en utilisant la fonction
LOI.WEIBULL( ).

Remarque: Elle peut être vue comme une généralisation de la fonction de distribution
exponentielle avec l'avantage qu'il est possible de jouer avec les trois paramètres de manière à
obtenir presque n'importe quoi.

  (176)
En annulant , nous obtenons la "distribution de Weibull à deux paramètres" :

  (177)

qui a une application pratique importante et dont nous avons calculé les estimateurs des
paramètres dans le chapitre de Statistiques.

Exemple:

Dans le diagramme ci-dessous, nous avons pour étant égal à zéro: en rouge,
en vert, en noir, en bleu , en magenta :

  (178)

et le tracé de la fonction de distribution et respectivement de répartition de la loi de Weibull


de paramètre avec nul:
  (179)

En posant encore une fois et en assumant que nous avons la "distribution de


Weibull à un paramètre" :

  (180)

où le seul paramètre inconnu est le paramètre d'échelle . Nous assumons que le paramètre
est connu à priori de expériences passées sur des échantillons identiques.

Nous retrouvons également parfois cette relation dans la littérature sous la forme:

  (181)

Le MTBF est alors donnée par l'espérance de la loi de Weibull avec non nul:

  (182)

Posons :

  (183)

avec :
  (184)

Ce qui donne :

  (185)

La première intégrale nous est déjà connue, nous l'avons déjà vue dans le chapitre de Calcul
Différentiel. Il s'agit simplement de la fonction gamma d'Euler :

  (186)

Nous avons finalement :

  (187)

En annulant  il vient le cas courant en fiabilité:

  (188)

Remarque: Si par le plus grand des hasards , alors comme nous l'avons démontré lors
de notre étude de la fonction Gamma d'Euler :

  (189)

Dans le cas où il faut faire appel aux tables numériques obtenues par les algorithmes
vus dans le chapitre de Méthodes Numériques.

De même :

  (190)

Finalement :
  (191)

Remarque: Certains spécialistes, lorsqu'il est fait usage des deux moments d'ordre deux dans
l'analyse probabiliste de la défaillance, parlent parfois "d'approche en moyenne quadratique"...

TOPOLOGIE DES SYSTÈMES


Lorsque nous travaillons avec des systèmes réels non réparables (mécaniques, électroniques
ou autres), nous sommes confrontés à des contraintes différentes suivant le type de montage
que nous avons. L'étude de ce type de systèmes est aussi appelé "Reliability Block
Diagramm".

Les deux hypothèses principales de l'étude de ces systèmes sont:

H1. La panne d'un composant est indépendante des autres

H2. Pas de pannes arrivant conjointement

Nous reconnaissons 5 topologies principales dont chaque composant est représenté par un
bloc:

T1. Topologie série:

Si un seul composant est défectueux le système ne fonctionne plus (les exemples sont
tellement nombreux et simples à trouver que nous n'en citerons pas).

Alors dans l'hypothèse où la panne d'un composant est indépendante des autres, la probabilité
cumulée de défaillance est égale au produit des probabilités cumulées (cf. chapitre de
Probabilités).

  (192)

Comme souvent il est fait usage de la loi exponentielle, la multiplication de plusieurs termes
de probabilités cumulées étant relativement longue à écrire, nous lui préférons l'utilisation de
la probabilité de fiabilité cumulée R.

Ainsi, la fiabilité (probabilité de fonctionnement) d'un système série est donnée par:

  (193)
Ce qui nous amène bien à une valeur nulle pour la fiabilité si au minimum un bloc a une
fiabilité nulle.

Ce qui se note traditionnellement dans le domaine:

  (194)

Remarque: Le lecteur attentif aura remarque que le système série est toujours moins fiable
que sa composant la moins fiable!

Attention!! Dans le cas des composantes électroniques, le taux de défaillance est souvent
considéré comme constant par souci de simplification et la fonction de densité est alors celui
de la loi exponentielle:

  (195)

Or, nous avons démontré que dans le cas d'un système non réparable:

  (196)

Et comme nous avons démontré dans le chapitre de Statistique que l'espérance de la loi
exponentielle est:

  (197)

Nous avons aussi démontré plus haut que:

  (198)

Donc:

  (199)

Alors pour un système série à taux de défaillance constant:

  (200)

Ainsi, dans ce cas particulier:


  (201)

et... le problème sur Internet c'est que les pages web qui parlent de système à topologie série
(ou parallèle) font implicitement usage d'une loi exponentielle d'où parfois de grosse erreurs
de la part des praticiens qui utilisent cette dernière relation sans avoir étudié les détails
mathématiques sous-jacents.

T2. Topologie parallèle:

Contrairement au système précédent, le système continue à fonctionner si au moins un


composant fonctionne (typiquement les systèmes de redondance dans les avions, les fusées ou
les centrales nucléaires).

  (202)

En d'autres termes, il s'arrête de fonctionner si et seulement si:

  (203)

Donc il vient immédiatement que:

  (204)

Nous avons donc pour le système parallèle dont les composantes sont à taux de défaillance
constant et tous identiques (pour simplifier l'étude):

  (205)
Nous avons alors:

  (206)

En posant:

  (207)

et en remplaçant dans l'expression antéprécédente nous avons:

  (208)

Il n'est pas possible d'intégrer cette dernière relation de manière formelle mais si on compare
pour différentes valeurs de n fixées alors nous voyons très vite que:

  (209)

T3. Topologie k/n:

Ce système fonctionne si k parmi n composants de même loi de fiabilité R fonctionnent. C'est


typiquement le cas des disques RAID en informatique pour lesquels il en faut plus d'un qui
fonctionne toujours à la fin et ce nombre est déterminé par le volume de données.

Nous avons alors la représentation schématique suivante:

  (210)
Donc chercher la loi de probabilité cumulée de fiabilité revient à se poser la question de la
probabilité cumulée d'avoir k éléments qui fonctionnent parmi n qui sont non distinguables.

Cela revient donc à utiliser la loi binomiale (cf. chapitre de Statistiques) pour laquelle nous
avons démontré que la probabilité cumulée était donnée alors par:

  (211)

T4. Topologie série/parallèle et parallèle/série à configuration symétrique:

Ce sont simplement des compositions simples de des deux premiers systèmes étudiées
précédemment.

Nous avons d'abord le système série/parallèle:

Or, comme les systèmes séries sont donnés par:

  (212)

et les parallèles par:

  (213)

la composition des deux donne trivialement dans notre cas ci-dessus:

  (214)

Et nous avons dans la famille aussi le système parallèle/série:


  (215)

où en utilisant exactement la même démarche que précédemment nous avons:

  (216)

T5. Topologie complexe:

Au fait, il ne s'agit pas vraiment de systèmes complexes mais ils nécessitent simplement une
petite maîtrise des axiomes de probabilités. L'exemple particulier qui va nous intéresser est le
suivant (typiquement filtre RLC en cascade):

  (217)

dénommé "réseau avec bridge".

Et nous devinons que ce qui rend le système complexe est le composant 5. Nous pouvons
alors considérer une première approche qui est de décomposer le problème.

Le système par rapport au composant 5 sera soit dans l'état:


  (218)

s'il est défectueux avec une loi de densité probabilité:

  (219)

et ayant lui-même une fiabilité de:

  (220)

selon nos résultats précédents du système complexe série/parallèle.

Soit dans l'état suivant s'il est fonctionnel avec une loi de densité probabilité :

  (221)

et ayant lui-même une fiabilité de:

  (222)
selon nos résultats précédents du système complexe parallèle/série.

Comme le système ne peut pas être dans les deux états en même temps, nous avons affaire à
une probabilité disjointe (cf. chapitre de Probabilités) soit la somme des densités auxquelles
nous devons associer les autres composants. Dès lors nous avons:

  (22
3)

Nous pouvons alors à l'aide de l'ensemble des 5 topologies précédentes faire une évaluation de
la fiabilité d'un système quelconque!

Une autre stratégie pour les systèmes complexes consiste de les décomposer en système séries
ou parallèles simples. Si cela n'est pas possible, nous pouvons calculer la fiabilité de chaque
configuration du système qui est considérée comme fonctionnant et faire ensuite la somme
des probabilités de fonctionnement de chaque configuration.

Faisons un exemple en considérant le cas particulier suivant:

  (224)

Et considérons la table de vérité suivante avec les  configurations possibles:

Etat n° Bloc 1 Bloc 2 Bloc 3 Sortie


1 0 0 0 0
2 1 0 0 0
3 0 1 0 0
4 1 0 1 1
5 0 1 1 1
6 1 1 1 1
7 1 1 0 0
8 0 0 1 0
Tableau: 9 - Table de vérité d'un système de maintenance préventive

Le principe (il faut le savoir...) consiste à dire qu'un état UP (valant donc: 1) est affecté à la
valeur  du bloc i concerné et que l'état DOWN (valant donc: 0) est affecté à la valeur  
du bloc i. Chaque valeur sera multipliée avec les autres pour obtenir la fiabilité totale du
système à un état donné.
Ainsi, dans l'exemple précédent, nous avons donc que 3 états qui permettent au système de
fonctionner. Calculons leur fiabilité respective. Les états n°4 et n°5 donnent donc par
définition:

  (225)

L'état n°6 donne lui par définition:

  (226)

et nous sommons le tout comme indiqué ultérieurement:

  (227)

Et nous pouvons vérifier que cette approche est effectivement correcte en prenant la relation
générale d'un tel système démontrée plus haut:

  (228)

ce qui montre que nous avons bien le même résultat et que l'approche par décomposition
fonctionne aussi.

Enfin, signalons pour terminer que lorsque nous incluons dans les systèmes des éléments qui
permettent de tolérer ou d'accepter certaines erreurs nous parlons alors de "tolérance aux
fautes" et nous en distinguons principalement de trois types:

- Redondance active: Dans ce cas tous les composants redondants fonctionnent en même
temps.

- Redondance passive: Un seul élément redondant fonctionne, les autres sont en attente, ce qui
a pour avantage de diminuer ou de supprimer le vieillissement des éléments redondants mais
en contrepartie nécessite l'insertion d'un composant de détection de panne et de commutation.

- Redondance majoritaire: Cette redondance concerne surtout des signaux. Le signal de sorite
sera celui de la majorité des composants redondants.

MÉTHODE ABC
Dans une entreprise, les tâches sont nombreuses et les équipes d'entretien et de maintenant
sont systématiquement réduites à leur minimum dans les temps qui courent.

De plus, les technologies les plus évoluées en matière de maintenance coûtent cher ou peuvent
coûter très cher, et ne doivent pas être appliquées sans discernement.

Il convient par conséquent de s'organiser de façon efficace et rationnelle. L'analyse ABC,


utilisant implicitement la loi de probabilité cumulée de Pareto (cf. chapitre de Statistiques),
permet d'y remédier relativement bien. Ainsi, un classement des coûts par rapport aux types
de panne donne des priorités sur les interventions à mener (cette méthode empirique est aussi
utilisée dans de nombreux autres domaines dont un qui est très connu: la gestion de stocks).

L'idée consiste dans un premier temps comme pour l'analyse de Pareto (cf. chapitre de
Techniques de Gestion) de classer les pannes par ordre croissant de coût de maintenance (ou
de coût d'impact en cas de panne) chaque panne se rapportant un système simple ou complexe
et à établir un graphique faisant correspondre les pourcentages de coûts cumulées aux
pourcentages de type de panne cumulés.

Ensuite, nous distinguons par tradition trois zones:

- Zone A: Dans la majorité des cas, environ 20% des pannes représentent 80% des coûts et il
s'agit donc de la zone prioritaire.

- Zone B: Dans cette tranche, les 30% de pannes suivantes coûtent 15% supplémentaires.

- Zone C: 50% des pannes restante ne revient qu'à 5% des coûts.

Voyons un exemple en considérant que les données suivantes ont été recueillies et que nous
aimerions faire une analyse du % de machines sur lesquelles il faudrait que nous nous
concentrions pour diminuer le coût d'heures de pannes d'environ 80% (dans la réalité on
s'intéressera plus au % du coût financier!).

N° de Machine Heures d'arrêt Nb. de pannes


Machine n°1 100 4
Machine n°2 32 15
Machine n°3 50 4
Machine n°4 19 14
Machine n°5 4 3
Machine n°6 30 8
Machine n°7 40 12
Machine n°8 80 2
Machine n°9 55 3
Machine n°10 150 5
Machine n°11 160 4
Machine n°12 5 3
Machine n°13 10 8
Machine n°14 20 8
Tableau: 10  - Analyse ABC sur pannes machines
Ensuite, dans MS Excel ou ailleurs nous pouvons aisément établir le tableau suivant:

Machine Arrêt [h.] Cumul [h.] %Cumulé Pannes Cumul %Cumulé


pannes
11 160 160 21.19% 4 4 4.30%
10 150 310 41.06% 5 9 9.68%
1 100 410 54.30% 4 13 13.98%
8 80 490 64.90% 2 15 16.13%
9 55 545 72.19% 3 18 19.35%
3 50 595 78.81% 4 22 23.66%
7 40 635 84.11% 12 34 36.56%
2 32 667 88.34% 15 49 52.69%
6 30 697 92.32% 8 57 61.29%
14 20 717 94.97% 8 65 69.89%
4 19 736 97.48% 14 79 84.95%
13 10 746 98.81% 8 87 93.55%
12 5 751 99.47% 3 90 96.77%
5 4 755 100.00% 3 93 100.00%
Tableau: 11  - Normalisation des données pour analyse ABC

Nous avons alors graphiquement:

  (229)

où les zones A, B et C sont arrondis à des points existants. Ainsi, la zone critique A compte les
machines 11, 10, 1, 8, 9 et 3. Une amélioration de la fiabilité de ces machines peut donc
procurer jusqu'à 78.8% de gain de temps sur les pannes.
Maintenant déterminons les paramètres de la loi de répartition de Pareto:

  (230)

Nous devons déterminer  et k les autres paramètres nous sont donnés par nos mesures (le
tableau).

Nous pouvons jouer de la manière suivante:

  (231)

d'où:

  (232)

Donc à l'aide de:

  (233)

on doit pouvoir déterminer les deux paramètres recherchés en considérant l'expression comme

l'équation d'une droite dont k est la pente et  l'ordonnée à l'origine:

  (234)

Une régression linéaire simple (cf. chapitre de Méthodes Numériques) nous donne:

 et   (235)

donc:

  (236)

Nous avons donc au final:


  (237)

Ce qui donne alors le tableau suivant (les xi de la loi de Pareto sont les %Cumulé de panne):

Machine %Cumulé coûts %Cumulé panne %Cumulé loi


[h.] Pareto
11 21.19% 4.30% 61.76%
10 41.06% 9.68% 78.01%
1 54.30% 13.98% 82.89%
8 64.90% 16.13% 84.48%
9 72.19% 19.35% 86.29%
3 78.81% 23.66% 88.05%
7 84.11% 36.56% 91.12%
2 88.34% 52.69% 93.08%
6 92.32% 61.29% 93.75%
14 94.97% 69.89% 94.29%
4 97.48% 84.95% 95%
13 98.81% 93.55% 95.32%
12 99.47% 96.77% 95.43%
5 100.00% 100.00% 95.53%
Tableau: 12  - Comparaisons données expérimentales/théoriques

Nous pouvons alors obtenir la vraie courbe de Pareto correspondante facilement dans MS
Excel:

  (238)
La différence entre l'expérimentale est la théorique est non négligeable... Comme k est
inférieur à 1, alors comme nous l'avons vu démontré dans le chapitre de Statistiques, la loi de
Pareto n'a ni espérance, ni variance.

Il faut faire attention au fait que dans le domaine de la gestion la loi de Pareto est utilisée un
peut à torts et à travers alors que une autre loi de probabilité pourrait être beaucoup plus
adaptée.

Par ailleurs, un simple test d'ajustement du Khi-Deux (cf. chapitre de Statistiques) nous
montre qu'il faut rejeter l'approximation par une loi de Pareto. Par ailleurs des logiciels
spécialisés comme @Risk rejettent l'approximation par Pareto au-delà des 20 meilleurs
ajustements, le meilleur ajustement étant selon ce même logiciel une loi log-normale.

PLANS D'EXPÉRIENCE

GÉNIE INDUSTRIEL

1. Six Sigma

1.1. Contrôle qualité

1.2. Défauts/Erreurs

1.3. Indices de capabilité

1.4. Niveaux de qualité

1.5. Modèle de Taguchi

2. Maintenance préventive

2.1. Estimateurs empiriques

2.2. Modèle de Weibull

2.3. Topologie des systèmes

2.4. Méthode ABC

3. Plans d'expériences

3.1. Plans factoriels complets

3.2. Plans factoriels fractionnaires

Le comportement des produits industriels est généralement fonction de nombreux


phénomènes, souvent dépendants les uns des autres. Pour prévoir ce comportement, le produit
et les phénomènes sont modélisés, et des simulations sont effectuées. La pertinence des
résultats des simulations dépend évidemment de la qualité des modèles.

En particulier, dans le cadre de la conception ou reconception d'un produit, les modèles font
généralement intervenir un certain nombre de grandeurs physiques (paramètres) que l'on
s'autorise à modifier. Le comportement des produits industriels est généralement fonction de
nombreux phénomènes, souvent dépendants les uns des autres. Pour prévoir ce
comportement, le produit et les phénomènes sont modélisés, et des simulations sont
effectuées.

Or, ces essais sont coûteux, et ce d'autant plus que le nombre de paramètres à faire varier est
important. En effet, la modification d'un paramètre peut par exemple exiger un démontage et
un remontage du produit, ou bien la fabrication de plusieurs prototypes différents (cas d'une
pièce produite en série), ou encore l'interruption de la production pour changer d'outil (cas
d'un process de fabrication)... Le coût d'une étude expérimentale dépend donc du nombre et
de l'ordre des essais effectués.

L'idée consiste alors à sélectionner et ordonner les essais afin d'identifier, à moindres coûts,
les effets des paramètres sur la réponse du produit. Il s'agit de méthodes statistiques faisant
appel à des notions mathématiques simples le plus souvent. La mise en oeuvre de ces
méthodes comporte trois étapes :

1. Postuler un modèle de comportement du système (avec des coefficients pouvant être


inconnus)

2. Définir un protocole d'expérience, c'est-à-dire une série d'essais permettant d'identifier les
coefficients du modèle

3. Faire les essais, identifier les coefficients et conclure.

Les plans d'expériences ("Design of Experiment" (D.O.E.) en anglais abrégés PEX en


français) permettent d'organiser au mieux les essais qui accompagnent une recherche
scientifique ou des études industrielles. Ils sont applicables à de nombreuses disciplines et à
toutes les industries à partir du moment où l'on recherche le lien qui existe entre une grandeur
d'intérêt, y (quantité de rebus, défauts, détections, amplitude, etc.), et des variables  dans un
but d'optimisation. Raison pour laquelle il existe des logiciels pour les traiter comme MiniTab
ou principalement JMP pour ne citer que les plus connus.

Indiquons également que les plans d'expérience sont un des pilier de la chimiométrie (outils
mathématiques, en particulier statistiques, pour obtenir le maximum d'informations à partir
des données chimiques).

Il existe trois grandes familles de plans d'expériences:

1. Les "plans de criblages": dont l'objectif est de découvrir les facteurs les plus influents sur
une réponse donnée en un minimum d'expériences. C'est la plus simples des familles car
proche de l'intuition expérimentale (elle est parfois considérée comme une sous-famille de la
deuxième famille).
2. Les "plans de modélisation": dont l'objectif est de trouver la relation mathématique qui lie
les réponses mesurées aux variables associés aux facteurs soit via une démarche
mathématique analytique ou purement matricielle. Les plans factoriels complets et
fractionnaires (2 niveaux par facteurs avec modèles linéaires) ainsi que les plans pour surfaces
de réponse (au moins 3 niveaux par facteurs avec modèles du second degré) font partie de
cette famille.

3. Les "plans de mélange": dont l'objectif est le même que la deuxième famille mais où les
facteurs ne sont pas indépendants et sont contraints (par exemple leur somme/ ou leur rapport
doit être égale à une certaine constante).

Le principe global se base sur le fait que l'étude d'un phénomène peut, le plus souvent, être
schématisé de la manière suivante : nous nous intéressons à une grandeur, y  qui dépend d'un
grand nombre de variables, (et leur ordre n'a pas d'influence... ce qui est par contre
problématique en chimie...).

La modélisation mathématique consiste à trouver une fonction f telle que:

  (239)

qui prenne en compte l'influence de chaque facteur seul ou des facteurs combinés
(interactions). Cette fonction est donc déterministe (la réponse dépend uniquement des
facteurs sans aucune incertitude possible, ce qui revient à ignorer les bruits tels que les erreurs
de mesure) et invariant (le comportement n'évolue pas au cours du temps).

Une méthode classique d'étude consiste en la mesure de la réponse y pour plusieurs valeurs de
la variable  tout en laissant fixe la valeur des (n-1) autres variables. Nous itérons alors cette
méthode pour chacune des variables.

Ainsi, par exemple, si nous avons 8 variables et si l'on décide de donner 2 valeurs
expérimentales à chacune d'elles, nous sommes conduits à effectuer  expériences.

Ce nombre élevé dépasse les limites de faisabilité tant en temps qu'en coût. Il faut donc
réduire le nombre d'expériences à effectuer sans pour autant perdre sur la qualité des résultats
recherchés.

L'utilisation d'un plan d'expérience donne alors une stratégie dans le choix des méthodes
d'expérimentation. Le succès des plans d'expériences dans la recherche et l'industrie est lié au
besoin de compétitivité des entreprises : ils permettent une amélioration de la qualité et une
réduction des coûts.

Remarque: La méthode des plans d'expériences a été mise au point au début du siècle, dans
les années 1920, par Ronald A. Fisher (celui du Test de Fisher). Elle a pris un essor
considérable avec le développement de l'informatique et la puissance de calcul qui
l'accompagne.

Le traitement des résultats se fait enfin à l'aide de la régression linéaire simple ou multiple et
l'analyse de variance.
Avec les plans d'expériences, le but est donc d'obtenir le maximum de renseignements (mais
pas tous!) avec le minimum d'expériences (et donc le minimum de coût) dans le but de
modéliser ou d'optimiser des phénomènes étudiés.

Un expérimentateur qui lance une étude s'intéresse à une grandeur qu'il mesure à chaque
essai. Cette grandeur s'appelle la "réponse", c'est la grandeur d'intérêt. La valeur de cette
grandeur dépend de plusieurs variables. Au lieu du terme "variable" on utilisera le mot
"facteur". La valeur donnée à un facteur pour réaliser un essai est appelée "niveau". Lorsqu'on
étudie l'influence d'un facteur, en général, on limite ses variations entre deux bornes (oui faut
bien s'avoir s'arrêter un jour et être raisonnable...) appelées respectivement: "niveau bas" et
"niveau haut".

Bien évidemment, lorsque nous avons  plusieurs facteurs  ceux-ci représentent un


point dans  appelé alors "espace expérimental".

L'ensemble de toutes les valeurs que peut prendre le facteur entre le niveau bas et le niveau
haut, s'appelle le "domaine de variation du facteur" ou plus simplement le "domaine du
facteur". Nous avons l'habitude de noter le niveau bas par -1 et le niveau haut par +1 pour des
raisons d'approximation de mathématiques car l'approche utilise un développement en série de
MacLaurin autour de zéro! Ce n'est donc pas une recommandation de procéder ainsi mais une
obligation car les logiciels implémentent les séries de MacLaurin!

Donc par exemple pour un facteur ayant un domaine de variation compris entre un niveau
haut de 20 [°C] correspond à +1 et un niveau bas de 5 [°C] correspondant à -1 nous devrons à
la fin de notre étude transformer toutes les valeurs expérimentales en "unités centrées
réduites" dans lesquelles doivent être utilisées les .

Ainsi, nous avons deux points d'entrée (20,5) et deux de sorties (+1,-1). Toute valeur
intermédiaire est donnée simplement par l'équation de la droite:

  (240)

La pente est donc triviale à obtenir...., pour déterminer b, nous avons simplement une
équation à une inconnue:

  (241)
ou (ce qui revient au même):

  (242)

Donc le passage de variables non normalisées, notées x, aux normalisé, notées X, s'écrit alors:

  (243)

soit dans un cas de sorties (+1,-1):

  (244)

et inversement...:

  (245)

soit dans un cas de sorties (+1,-1):

  (246)

Le regroupement des domaines de tous les facteurs définit le "domaine d'étude". Ce domaine
d'étude est la zone de l'espace expérimental choisie par l'expérimentateur pour faire ses essais.
Une étude, c'est-à-dire plusieurs expériences bien définies, est représentée par des points
répartis dans le domaine d'étude.

Par exemple, pour deux facteurs, le domaine d'étude est une surface et l'espace expérimental
est :
  (247)

Les niveaux  représentent les coordonnées d'un point expérimental et y est la valeur de la
réponse en ce point. On définit un axe orthogonal à l'espace expérimental et on l'attribue à la
réponse. La représentation géométrique du plan d'expériences et de la réponse nécessite un
espace ayant une dimension de plus que l'espace expérimental. Un plan à deux facteurs utilise
un espace à trois dimensions pour être représenté : une dimension pour la réponse, deux
dimensions pour les facteurs.

A chaque point du domaine d'étude correspond une réponse. A l'ensemble de tous les points
du domaine d'étude correspond un ensemble de réponses qui se localisent sur une surface
appelée la "surface de réponse" (raison pour laquelle ce domaien d'études est parfois appelé:
"plans d'expérience pour l'estimation de surfaces de réponse") par exemple avec des facteurs:

  (248)
Le nombre et de l'emplacement des points d'expériences est le problème fondamental des
plans d'expériences. On cherche à obtenir la meilleure précision possible sur la surface de
réponse tout en limitant le nombre d'expériences!

L'ingénieur va souvent rechercher une fonction mathématique qui relie la réponse aux
facteurs.

Pour cela, nous simplifions le problème en se rappelant (cf. chapitre de Suites et Séries) que
toute fonction quelque soit sont nombre de variables peut être approchée en une somme de
série de puissance en un point donné

Nous prenons alors un développement limité de la série de Taylor:

  (249
)

Soit autour de (ce que nous pouvons nous permettre car nous prenons toujours
des unités centrées réduites comme vues plus haut!), nous avons la série de MacLaurin au
deuxième ordre et en changeant de notation pour :

  (250)

où y est donc la réponse et les  les facteurs et les  sont les coefficients du
modèle mathématique adopté a priori. Ils ne sont pas connus et doivent être calculés à partir
des résultats des expériences.

L'intérêt de modéliser la réponse par un polynôme est de pouvoir calculer ensuite toutes les
réponses du domaine d'étude sans être obligé de faire les expériences en passant par un
modèle appelé "modèle postulé" ou "modèle a priori".

Deux compléments doivent être apportés au modèle précédemment décrit:

1. Le premier complément est le "manque d'ajustement". Cette expression traduit le fait que le
modèle a priori est fort probablement différent (ne serait-ce que par l'approximation de
l'approche) du modèle réel qui régit le phénomène étudié. Il y a un écart entre ces deux
modèles. Cet écart est le manque d'ajustement ("lack of fit" en anglais).
2. Le second complément est la prise en compte de la nature aléatoire de la réponse (sans que
cette dernière soit toutefois stochastique sinon il faut utiliser d'autres outils!). En effet, si l'on
mesure plusieurs fois une réponse en un même point expérimental, on n'obtient pas
exactement le même résultat. Les résultats sont dispersés. Les dispersions ainsi constatées
sont appelées "erreurs expérimentales".

Ces deux écarts, manque d'ajustement et erreur expérimentale, sont souvent réunis dans un
seul écart, notée e.

Le modèle utilisé par l'expérimentateur s'écrit alors au deuxième ordre et au premier degré
(toujours dans le cas particulier de deux facteurs!):

  (251)

Remarques:

R1. Si nous prenons en compte les termes du deuxième degré, nous parlons alors de "modèle
quadratique complet".

R2. Si nous arrêtons le développement au premier ordre et au premier degré (sans


interactions), nous parlons alors de "modèle affine".

Dans la pratique nous notons cette dernière relation (nous enlevons le terme d'erreur):

  (252)

où nous avons la notation abusive:

  (253)

Ce modèle sans erreur est souvent appelé "modèle contrôlé avec interactions" (linéaire d'ordre
2).

Évidemment, plus le degré du polynôme utilisé est élevé plus nous avons, théoriquement, de
chances d'avoir un modèle proche de la réalité. Mais les polynômes de degré élevé réclament
beaucoup de points expérimentaux et leur validité peut vite diverger en dehors du domaine
expérimental. Si l'étude l'exige, nous préférons utiliser des fonctions mathématiques
particulières pour mieux ajuster le modèle aux résultats expérimentaux.

Cependant, en pratique, les interactions d'ordre élevé ont souvent une influence très faible sur
la réponse (bon cette affirmation dépend fortement du domaine d'activité...!). Il est donc
possible de ne pas les inclure dans le modèle, ce qui conduit à faire moins d'essais. Ce
principe est utilisé dans la construction de nombreux plans d'expériences, comme nous le
verrons dans la partie suivante. Dans de nombreuses applications, on obtient des résultats tout
à fait satisfaisants en se limitant aux interactions doubles.
Pourquoi nous satisfaisons-nous de cette relation approchée de quatre termes? Pour la simple
raison que:

1. La réponse peut être non nulle lorsque tous les facteurs sont nuls (c'est le premier
coefficient )

2. La réponse dépend trivialement (intuitivement) de la somme des effets du premier et


deuxième facteurs de manière indépendante (coefficients ).

3. La réponse dépend aussi des interactions entre les deux facteurs  (coefficients ).

Chaque point expérimental dont les  sont données  permet alors d'obtenir une valeur de la
réponse y. Cette réponse est modélisée par un polynôme dont les coefficients sont les
inconnues qu'il faut déterminer.

PLANS FACTORIELS COMPLETS


Donc dans un plan d'expérience de 2 facteurs à 2 niveaux, nous avons besoin d'au moins (et
au plus pour des raisons de coûts!) de 4 mesures pour avoir un système de quatre équations à
quatre inconnues qui sont les coefficients .

Remarque: Pour une étude de 2 facteurs à 3 niveaux, nous ne pouvons plus prendre le modèle
linéaire. Il nous faut alors prendre les termes quadratiques du développement de Taylor.

Dans la pratique, puisque pour chacun des facteurs nous devons nous fixer un niveau bas et un
niveau haut pour pouvoir travailler raisonnablement.... alors si nous avons deux facteurs, nous
avons un espace expérimental défini par 4 points {(haut, haut), (bas, bas), (haut, bas),
(bas,haut)}, correspondant aux 2 fois 2 niveaux ( ), nous suffit pour permettre d'obtenir
alors nos quatre équations à 4 inconnues et alors de déterminer les 4 coefficients.

Ainsi, les points à prendre pour notre expérience correspondent naturellement aux sommets
(géométriquement parlant) de l'espace expérimental.

Nous avons alors le système d'équations:

  (254)

ou explicitement écrit:
  (255)

Il vient alors immédiatement ce que les ingénieurs dans le domaine, appellent les "effets
moyens", des différents facteurs:

  (256)

où  a un statut particulier car il représente la réponse théorique moyenne (au centre du


domaine d'étude).

Effectivement, si nous posons dans une ligne quelconque:

  (257)

soit au centre du domaine [+1,-1] de chaque variable alors nous obtenons tout naturellement:

  (258)

qui est donc la réponse de l'expérience au centre du domaine d'étude.

Soit sous forme matricielle:

  (259)

Ce qui s'écrit de manière générale pour des modèles linéaires du deuxième ordre sous la
forme générale (cf. chapitre d'Algèbre Linéaire):

  (260)
La matrice X contenant  lignes est appelé "plan factoriel complet (PFC) 2n avec
interactions" (le terme "factoriel" venant du fait que tous les facteurs varient simultanément).

La matrice X dans la pratique est appelée "matrice d'expérimentation" ou encore "matrice des
effets" et est souvent représentée de la manière suivante dans le cas particulier précédent:

Essai n° Repos Facteur 1 Facteur 2 Facteur 12 Réponse


1 +1 -1 -1 +1
2 +1 +1 -1 -1
3 +1 -1 +1 -1
4 +1 +1 +1 +1
Tableau: 13  - Matrice d'expérimentation

Mais l'on voit tout de suite que dans la pratique la deuxième colonne (Repos) est inutile car
elle vaut toujours +1 et elle est implémentée de manière cachée dans les logiciels.

Il en est de même pour la cinquième colonne (Facteur 12) car elle se déduit automatiquement
de la troisième et quatrième colonne (c'est la multiplication des termes ligne par ligne... ce que
certains appellent la "multiplication de Box").

Remarque: Observez donc que la première colonne vaut toujours +1 et il y a toujours aussi
une ligne avec uniquement des +1!

Ainsi, dans la pratique (logiciels) et dans de nombreux ouvrages on représente à juste titre
uniquement le tableau suivant (ce qui masque le fait que nous avons affaire à une matrice
carrée):

Essai n° Facteur 1 Facteur 2 Réponse


1 -1 -1
2 +1 -1
3 -1 +1
4 +1 +1
Tableau: 14  - Matrice d'expérimentation simplifiée

pour un plan d'expérience de 2 facteurs à 2 niveaux avec interactions en modèle linéaire (sans
erreur) ou encore plus extrême ("notation de Yates")... en termes d'écriture:

Essai n° Facteur 1 Facteur 2 Réponse


1 - -
2 + -
3 - +
4 + +
Tableau: 15  - Matrice d'expérimentation avec notation de Yates
On voit que dans cette forme d'écriture qu'outre le fait que les deux colonnes Facteur 1 et
Facteur 2 sont orthogonales, elles sont aussi "balancées", dans le sens qu'il y a autant de + et
de - dans chacune des colonnes.

Lorsque le nombre de facteurs est grand, il n'est pas toujours facile pour tout le monde de
poser rapidement les facteurs +, -. Alors il existe une petite marche à suivre appelée
"algorithme de Yates" qui permet vite d'arriver au résultat voulu:

D'abord nous commençons toutes les colonnes par -1 et nous alternons les -1 et les +1 toutes
les  lignes pour la j-ème colonne.

Remarques:

R1. Si le type de tableau précédent contient des valeurs codées, nous parlons de "plan
d'expérience" sinon avec les unités physiques habituelles nous parlons de "tableau
d'expérimentation".

R2. Dans le cas des tableaux codés, il est d'usage d'indiquer sous le tableau un deuxième
tableau avec les correspondances entre les unités codées et les unités physiques.

Insistons sur une chose importante: C'est que si nous avions 3 facteurs à 2 niveaux, alors nous
avons  possibilités d'expériences (soit 8). Or, huit correspond exactement au nombre de
coefficients que nous avons également dans le modèle linéaire avec interactions d'une réponse
à trois variables:

  (261)

ce qui correspond aussi aux termes seulement linéaires et sous forme condensée du
développement en série de MacLaurin d'une fonction f de trois variables.

Et ainsi de suite.... pour n facteurs à deux niveaux. C'est la raison pour laquelle les plans
factoriels complets linéaires  sont traditionnellement les plus utilisés car ils sont
mathématiquement intuitifs et simples à démontrer.

Par ailleurs, il est important de remarquer que tous ces plans linéaires complets approximés au
deuxième ordre sont sous forme matricielles des matrices carrées  orthogonales et donc
bien évidemment inversibles (cf. chapitre d'Algèbre Linéaire)!

Cependant les matrices précédentes ne satisfont pas la relation suivante vue dans le chapitre
d'Algèbre Linéaire:

  (262)

mais ont pour particularité pour tout plan d'expérience complet de satisfaire la relation:

  (263)
Donc contrairement aux matrices orthogonales qui par définition ont toutes les colonnes (ou
lignes) qui forment une base orthonormée (norme unitaire), les matrices des plans
d'expérience ont pour différence de ne pas avoir les normes de la base orthogonale à l'unité.

Ainsi, nous définissons la matrices A dont les coefficients sont tous des +1 ou des -1 ET
satisfaisant la relation précédente comme étant une "matrice de Hadamard". Ces dernières ont
par ailleurs pour propriété d'exister que pour les ordres 1, 2, 4, 8, 12, 16, 20, 24, ...

Démonstration:

Sachant que les cas d'ordre 1 et 2 sont triviaux et que le cas impair est à éliminer
immédiatement (impossibilité d'orthogonalité), faisons la démonstration pour . Puisque
toutes les colonnes doivent être obligatoirement orthogonales (pour que la matrice soit
inversible et donc le système résoluble), nous pouvons toujours écrire le problème sous la
forme (forme particulière pour n valant 4 mais facilement généralisable):

  (264)

et si nous notons m comme étant l'ordre de la matrice. Alors nous avons par sommation de
toutes les lignes:

  (265)

donc n doit être divisible par 4 pour  pour que toutes les colonnes soient orthogonales et
donc que la matrice soit de Hadamard sachant que x, y, z, w ont pour valeur 1.

Remarque: Nous pouvons donc avoir des matrices par exemple d'ordre 4, avec des
coefficients +1 ou -1 mais qui ne sont pas des matrices de Hadamard (car les colonnes ne
seraient pas orthogonales).

C.Q.F.D.

Il s'ensuit alors trivialement la relation suivante:

  (266)

Pour clore cette partie, résumons un constat simple:

Plan Facteurs Interactions Somme


2 1 3
3 4 7
4 11 15
5 26 31
6 57 63
7 120 127
... ... ... ...
Tableau: 16  - Types de plans avec facteurs & interactions

PLANS FACTORIELS FRACTIONNAIRES


En pratique, les plans complets ne sont utilisables que sur des systèmes avec très peu de
facteurs, ou lorsque chaque essai prend très peu de temps. Lorsque n est plus grand ou égal 3
alors les coûts des expériences peut très vite devenir onéreux.

Dans le cas de 3 facteurs à 2 niveaux nous avons l'équation et le tableau d'expérience suivant:

Essai n° Facteur 1 Facteur 2 Facteur 3 Réponse


1 - - -
2 + - -
3 - + -
4 + + -
5 - - +
6 + - +
7 - + +
8 + + +
Tableau: 17  - Plan d'expérience à 3 facteurs complet sous forme de Yates

Soit sous forme de tableau d'expérience complet:

Essai n° Repos F1 F2 F3 F 12 F 13 F 23 F 123 Réponse


1 + - - - + + + -
2 + + - - - - + +
3 + - + - - + - +
4 + + + - + - - -
5 + - - + + - - +
6 + + - + - + - -
7 + - + + - - + -
8 + + + + + + + +
Tableau: 18  - Plan d'expérience à 3 facteurs et interactions complet sous forme de Yates

ou de matrice d'expérience complète:


  (267)

où à nouveau il est facile de contrôler que toutes les colonnes sont orthogonales et balancées
(même nombre de + ou de - dans chaque colonne ou autrement dit la somme de leurs colonnes
est nulle) et que la matrice est bien de type Hadamard.

Les plans réduits (plans factoriels fractionnaires), consistant à sélectionner certaines


combinaisons, ont donc été proposés. Ils permettent naturellement de réduire les coûts mais
diminuent également l'information disponible sur le comportement du système! Il faut donc
s'assurer de la pertinence de la sélection par rapport au modèle à identifier.

Pour réduire les coûts d'expérimentation nous allons jouer avec les maths. D'abord reprenons
le problème actuel sous forme explicite:

  (268)

Pouvons-nous en réduire l'écriture afin de minimiser le nombre d'expériences à faire? La


réponse est Oui mais en contre partie nous allons perdre la mesure des effets purs (nous
parlons alors parfois de "confusion").

L'écriture inférieure la plus proche est une matrice de Hadamard d'ordre 4. Ce qui signifie
bien évidemment que nous ne devons conserver 4 lignes sur les 8 et que celles-ci doivent
rester orthogonales, balancées et satisfaire la relation:

  (269)

L'idée, appelée "méthode de Box et Hunter", est alors dans un premier temps de rassembler
les facteurs d'influence (en indices) tel que (développements similaires pour tout n):
  (270)

Ecrivons cela de la manière suivante:

  (271)

Changeons de notation:

  (272)

Tout naturellement, si nous considérons cette nouvelle notation comme des variables propres,
ce système unique se sépare maintenant en deux sous-systèmes (appelés respectivement
"contrastes" dans le domaine) pour être résoluble:
    et      (273)

e qui permet de diviser le nombre d'essais par deux par rapport à un plan complet. En
résolvant un de ces deux systèmes, nous disons que les interactions sont "aliasées" avec les
effets purs en négatif ou en positif.

Il est ensuite de tradition de garder que le système aliasé positivement:

  (274)

car si les interactions sont nulles, nous retrouvons à l'identique la matrice d'expérience d'un
plan factoriel complet ! Cependant, nous obtenons au mieux que des relations entre les
coefficients et l'identification rigoureuse de leur valeur individuelle sera impossible. Ainsi, il
n'est pas possible de réduire indéfiniment le coût d'une étude expérimentale sans en dégrader
la robustesse.

Remarque: Il est même intéressant d'observer que le troisième facteur est confondu (peut être
assimilé) avec l'interaction 12 des facteurs 1 et 2 dans le plan factoriel .

Ensuite, c'est à l'expérimentateur de bien connaître son analyse et de savoir si:

1. Parmi les facteurs aliasés s'il y a des interactions ou non!

2. Dans le facteur aliasé l'influence forte sur la réponse vient de l'interaction ou de l'effet pur
seul!

Une fois les coefficients déterminés, sous l'hypothèse que chacun des facteurs ou interactions
est indépendant (hypothèse limite acceptable...) certains ingénieurs font une analyse de la
variance de la droite de régression obtenue au final ou déterminent le coefficient de
corrélation afin de déterminer si l'approximation linéaire du modèle est acceptable dans le
domaine d'étude et d'application.

Enfin signalons qu'il semblerait que les ingénieurs désignent (à vérifier car je ne suis pas un
spécialiste):

- les plans factoriels où aucune interaction est prise en compte dans le modèle à priori linéaire
sous le nom de "plans Plackett et Burmann" (mais ces plans peuvent cacher des alias si
l'expérience est mal connue).
- les plans factoriels avec interactions dans le modèle à priori linéaire construits à l'aide de
graphes linéaires (cf. chapite de Théorie des Graphes) sous le nom de "plans de Taguchi" (au
fait il s'agit simplement de plans factoriels complets ou fractionnaires construits avec l'aide de
graphes).

- les plans foctoriels partiels dont le nombre d'essai est toujours divisé par deux avec
interactions aliasés sous le nom de "plans de Box et Hunter".

- les plans factoriels avec interactions dans le modèle à priori non linéaire de degré n sous le
nom de "plans de Koshal".

Un aspect mérite encore d'être précisé: c'est la vérification de la validité du modèle


mathématique du premier degré. Or aucun de ces plans ne prévoit un tel test de validité
utilisant des statistiques élaborées. C'est pourquoi il est préconisé de toujours ajouter au moins
un point expérimental au contre du domaine expérimental. La valeur de la réponse en ce point
sera comparée à la valeur déduite des autres points expérimentaux grâce au modèle
mathématique. Si les deux valeurs sont semblables, le modèle mathématique sera adopté, si
elles ne le sont pas nous devrons rejeter ce modèle et compléter les résultats déjà obtenus par
des expériences permettant de passer au second degré.

Vous aimerez peut-être aussi