0% ont trouvé ce document utile (0 vote)
15 vues22 pages

Chp3 M1 Part2

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1/ 22

Chapitre 3 : Analyse de la variance

Section II: Anova 2 facteurs

K. Meziani

1/22

K. Meziani Chapitre 3 : Analyse de la variance


Anova 2 facteurs

☛ Expliquons Y en fonction de 2 facteurs à respectivement J ∈ N∗ et


K ∈ N∗ modalités.
☛ Soit Yijk l’observation i qui admet la modalité j pour le premier facteur
et la modalité k pour le second facteur.
☛ Soit njk le nombre d’observations admettant les modalités (j, k), t.q. :
J X
X K J
X K
X
njk = n, njk = n+k et njk = nj+ .
j=1 k=1 j=1 k=1

☛ Les resultats de ce chapitre peuvent être généralisés aux ANOVA 3


facteurs, 4 facteurs, ...

2/22

K. Meziani Chapitre 3 : Analyse de la variance


Anova 2 facteurs

Définition Soient J = {1, · · · , J} et K = {1, · · · , K }. Le plan est dit

Complet si ∀(j, k) ∈ J × K, njk ≥ 1,


Imcomplet si ∃(j, k) ∈ J × K, njk = 0,
n
Équilibré si ∀(j, k) ∈ J × K, njk = I = JK
.

3/22

K. Meziani Chapitre 3 : Analyse de la variance


Modèle Régulier

Facteur I | Facteur II Modalité 1 ··· Modalité K


Modalité 1 Yi11 = µ11 + εi11 ··· Yi1K = µ1K + εi1K
.. .. .. ..
. . . .
Modalité J YiJ1 = µJ1 + εiJ1 ··· YiJK = µJK + εiJK

Modèle Régulier:

Yijk = µjk + εijk , i ∈ {1, . . . , njk }, j ∈ {1, . . . , J}, k ∈ {1, . . . , K }


i.i.d.
où εijk ∼ N (0, σ 2 ).

4/22

K. Meziani Chapitre 3 : Analyse de la variance


Modèle Régulier : Forme matricielle
On utilise un ordonnancement lexicographique. Soit njk le nombre d’observations
dans la cellule (j, k)

Y ·jk = (Y1jk , · · · , Ynjk jk )⊤ ∈ Rnjk

Alors
Y ⊤ = (Y ⊤ ⊤ ⊤ ⊤ ⊤ ⊤
·11 , · · · , Y ·1K , Y ·21 , · · · , Y ·2K , . . . , Y ·J1 , · · · , Y ·JK ) ∈ R
n

ϵ⊤ = (ϵ⊤ ⊤ ⊤ ⊤ ⊤ ⊤
·11 , · · · , ϵ·1K , ϵ·21 , · · · , ϵ·2K , . . . , ϵ·J1 , · · · , ϵ·JK ) ∈ R
n

µ = (µ11 , · · · , µ1K , · · · , µJK )⊤ ∈ RJK

1n11 0
 
..
 0 1n12 .
 
n×JK
C = ∈R

 .. ..
.
. 0

1nJK

5/22

K. Meziani Chapitre 3 : Analyse de la variance


Modèle Régulier : Forme matricielle

Soient J = {1, . . . , J} et K = {1, . . . , K }

Yijk = µjk + εijk , i ∈ {1, . . . , njk }, j ∈ J , k ∈ K

Rang (C ) = JK , rang plein.

Modèle de régression linéaire Gaussien (ANOVA 2 facteurs) :

Y = Cµ + ϵ ϵ ∼ N (0n , σ 2 I n ).

6/22

K. Meziani Chapitre 3 : Analyse de la variance


Modèle singulier
À partir du Modèle Régulier (Yijk = µjk + εijk ), considérons la décomposition µjk
suivante: ∀ j ∈ J , ∀ k ∈ K, µjk = µ + αj + βk + γjk

(αj )j représente l’effet principal du premier facteur


(βk )k représente l’effet principal du second facteur
(γjk )jk représente l’interactionentre les 2 facteurs.

Fact I | Fact II Modalité 1 ··· Modalité K


Modalité 1 Yi11 = µ + α1 + β1 + γ11 + εi11 ··· Yi1K = µ + α1 + βK + γ1K + εi1K
.. .. .. ..
. . . .
Modalité J YiJ1 = µ + αJ + β1 + γJ1 + εiJ1 ··· YiJK = µ + αJ + βK + γJK + εiJK

i.i.d.
Modèle singulier: εijk ∼ N (0, σ 2 ), ∀i = 1, · · · , njk

Yijk = µ + αj + βk + γjk + εijk , ∀ j ∈ {1, . . . , J}, ∀ k ∈ {1, . . . , K }.

7/22

K. Meziani Chapitre 3 : Analyse de la variance


Modèle singulier : Forme matricielle

Définissons les matrices de rang plein suivantes A ∈ Rn×J et B ∈ Rn×K


 
1n11 0
 .. 
 0 1n12 . 
 ..
 
.. 
 . . 0 
 
 1n1K 
1n1+ 0  1n21 0
   

..  .. 
0 1n2+ .  0 1n22 .
   
A= , B=
  
.. ..  .. ..

. . 0  . . 0
  

1nJ+ 1n2K
 
 
 1n 0 
 J1 

 0 .. 
 1nJ2 . 

 . .. 
 .. . 0 
1nJK

8/22

K. Meziani Chapitre 3 : Analyse de la variance


Modèle singulier : Forme matricielle

Définissons α =∈ RJ , β ∈ RK et γ ∈ RJK t.q.

α = (α1 , · · · , αJ )⊤ , β = (β1 , · · · , βK )⊤ , γ = (γ11 , · · · , γ1K , · · · , γJK )⊤

X = [1n | A | B | C ] ∈ Rn×(1+J+K +JK ) , θ ⊤ = (µ, α⊤ , β ⊤ , γ ⊤ ), θ ∈ RJK +J+K +1

Rang (X ) = JK n’est pas de rang plein.

Modèle de régression linéaire Gaussien (ANOVA 2 facteurs) :

Y = µ1n + Aα + Bβ + C γ + ϵ = X θ + ϵ, ϵ ∼ N (0n , σ 2 I n ).

9/22

K. Meziani Chapitre 3 : Analyse de la variance


Estimation du modèle

Modèle Régulier (C est de rang plein JK )


b = arg minµ∈RJK ∥Y − C µ∥2
µ
Modèle singulier (X ∈ Rn×(1+J+K +JK ) n’est pas de rang plein)
θ = arg minθ∈R1+J+K +JK ∥Y − X θ∥2
b

La prédiction est unique:

Y
b = PX Y = X b
θ, Y
b = PC Y = C µ
b

b = (C ⊤ C )−1 C ⊤ Y est unique.


Modèle Régulier : µ
Modèle singulier: bθ n’est pas unique car X n’est pas de rang plein ⇒
pour exhiber une unique solution, on doit donc poser donc
(1 + J + K + JK ) − Rang (X ) = (1 + J + K + JK ) − (1 + JK ) = 1 + J + K
contraintes.

10/22

K. Meziani Chapitre 3 : Analyse de la variance


Contraintes classiques utilisées:

1 Constr. of type cell analysis: µ = αj = βk = 0 ∀j ∈ J ,∀k ∈ K


2 Constr. of type reference cell : α1 = β1 = γj1 = γ1k = 0 ∀j ∈ J ,
∀k ∈ K
3 Constr.
PJ of P
type sum: P
K K PJ
α = k=1 βk = k=1 γj ′ k = j=1 γjk ′ = 0 ∀j ′ ∈ J ,∀k ′ ∈ K
j=1 j

11/22

K. Meziani Chapitre 3 : Analyse de la variance


Notations: Moyenne empirique (ME)

ME des Observ. Cadre général Plan equilibré


admettant njk = I
modalité

1
Pnjk 1
PI
(j, k) Y ·jk = njk i=1
Yijk Y ·jk = I i=1
Yijk

PK Pnjk
1 1
PI PK
j Y ·j· = nj·
Yijk Y ·j· = IK
Yijk
1
PKk=1 i=1 1
PK i=1 k=1
= nj· k=1
njk Y ·jk = K k=1
Y ·jk
PJ Pn PI PJ
k Y ··k = n1·k jk
Yijk Y ··k = IJ1 Yijk
1
PJ j=1 i=1 PJ i=1 j=1
= n·k j=1
n jk Y ·jk = J1 j=1 Y ·jk

12/22

K. Meziani Chapitre 3 : Analyse de la variance


Notations: Moyenne empirique (ME)

ME of Cadre général Plan equilibré


njk = I

1
P Pnjk 1
P PI
Toutes observ. Y ··· = n j,k i=1
Yijk Y ··· = IJK j,k i=1
Yijk

Y ·j· = K1P k Y ·jk Y ·j· = K1 P k Y ·jk


P P
ME Y ·jk Pnjk
admettant j = K1 1
k njk
Y
i=1 ijk
= IK1 Y
i,k ijk

Y ··k = J1 j Y ·jk Y ··k = J1 j Y ·jk


P P
ME Y ·jk
Pnjk
= J1 j n1jk = IJ1
P P
admettant k Y
i=1 ijk
Y
i,j ijk

1
P 1
PI P
ME Y ·jk Y ··· = JK
1
P j,k 1Y ·jk
Pnjk Y ··· = JK
1
P i=1 j,k Y ·jk
= JK j,k njk
Y
i=1 ijk
= IJK Y
i,j,k ijk

13/22

K. Meziani Chapitre 3 : Analyse de la variance


EMCO dans le Modèle singulier (n = IJK Plan
equilibré)

Proposition

Pour la contrainte µ = 0, αj = 0, ∀j ∈ J et βk = 0, ∀k ∈ K

➡ µ
b = 0,
bj = 0, ∀j ∈ J ,
➡ α
➡ βbk = 0, ∀k ∈ K,
γjk = Y ·jk , ∀(j, k) ∈ J × K.
➡ b

14/22

K. Meziani Chapitre 3 : Analyse de la variance


EMCO dans le Modèle singulier (n = IJK Plan
equilibré)

Proposition

Pour la contrainte α1 = β1 = 0, γj1 = 0, ∀j ∈ J et γ1k = 0, ∀k ∈ K,

➡ µ
b = Y ·11 ,
bj = Y ·j1 − Y ·11 , ∀j ∈ J ,
➡ α
➡ βbk = Y ·1k − Y ·11 , ∀k ∈ K,
γjk = Y ·jk + Y ·11 − Y ·j1 − Y ·1k , ∀(j, k) ∈ J × K.
➡ b

Remarques:

α
b1 = βb1 = 0,
γj1 = 0, ∀k ∈ K, et ∀j ∈ J .
γ1k = b
b

15/22

K. Meziani Chapitre 3 : Analyse de la variance


EMCO dans le Modèle singulier (n = IJK Plan
equilibré)
Proposition
PJ PK PK
Contrainte j=1
αj = k=1
βk = 0, k=1
γj ′ k = 0, ∀j ′ ∈ J et
PJ
j=1
γjk ′ = 0, ∀k ′ ∈ K

➡ µ
b = Y ··· ,
bj = Y ·j· − Y ··· , ∀j ̸= J, j ∈ J ,
➡ α
➡ βbk = Y ··k − Y ··· , ∀k ̸= K , k ∈ K,
γjk = Y ·jk + Y ··· − Y ·j· − Y ··k ,
➡ b

Remarques:
PJ−1
bJ = −
α j=1
α
bj ,
PK −1
βbK = − k=1
βbk ,
PJ−1 PK −1
γJk = −
b j=1
bj ∀k ∈ K et b
α γjK = − k=1
bj ∀j ∈ J .
α
16/22

K. Meziani Chapitre 3 : Analyse de la variance


Idée de la preuve:

Rappelons que dans le Modèle Régulier, l’EMCO de µjk est

µ
bjk = Y ·jk

Rappelons que l’estimation de Y bijk est unique et la même quelque soit la


contrainte utilisée. Alors, par identification il vient que

µ
bjk = Y ·jk = µ
b+α
bj + βbk + b
γjk

On conclue en utilisant les contraintes.

Les résultats dans la proposition précédente est uniquement vraie dans le


cadre du plan equilibré. Mais, il est facile de le calculer dans le cadre d’un
plan equilibré.

17/22

K. Meziani Chapitre 3 : Analyse de la variance


Estimateur non biaisé de σ 2

Proposition

Les estimateurs dans la previous proposition sont sans biais sous les
postulats [P1]–[P3].
sous n’importe quelle contrainte, un estimateur non biaisé de σ 2 est
I X
J X
K
∥Y − PX Y ∥2 1 X
b2 =
σ = (Yijk − Y ·jk )2 .
n − JK n − JK
i=1 j=1 k=1

où Y
b = PX Y = PC Y
De plus, sous [P4]

b2
(n − JK )σ
2
∼ χ2 (n − JK ).
σ

18/22

K. Meziani Chapitre 3 : Analyse de la variance


Tests
Définissons les modèles ci-dessous:

Mµ : Y = µ1n + ϵ
Mµ,α : Y = µ1n + Aα + ϵ
Mµ,β : Y = µ1n + Bβ + ϵ
Mµ,α,β : Y = µ1n + Aα + Bβ + ϵ
Mµ,α,β,γ : Y = µ1n + Aα + Bβ + C γ + ϵ

où ϵ ∼ N (0n , σ 2 I n ).
Sous R :

- Tests de Type I : par la commande anova(Mµ,α,β,γ )


- Tests de Type II : par la commande Anova(Mµ,α,β,γ )

b2 est calculated à partir du modèle complet Mµ,α,β,γ , t.q.


✍σ
J X
I X K 2
1 X ∥Y − P[1n A B C]Y ∥ ∥Y − PX Y ∥2
b2 =
σ (Yijk −Y ·jk )2 = =
n − JK n − JK n − JK
i=1 j=1 k=1

19/22

K. Meziani Chapitre 3 : Analyse de la variance


Commentaires:

• Rang (X ) = Rang ([1n A B C ]) = JK ,


• Rang (1n ) = 1,
• Rang ([1n A]) = J,
• Rang ([1n B]) = K ,
• Rang ([1n A B]) = J + K − 1.

20/22

K. Meziani Chapitre 3 : Analyse de la variance


Tests ligne par ligne
anova(.) Ligne 1. H0 : Mµ vs H1 : Mµ,α FI
Ligne 2. H0 : Mµ,α vs H1 : Mµ,α,β F∗
Ligne 3. H0 , : Mµ,α,β vs H1 : Mµ,α,β,γ F
Anova(.) Ligne 1. H0 : Mµ,β vs H1 : Mµ,α,β FII
Ligne 2. H0 : Mµ,α vs H1 : Mµ,α,β F∗
Ligne 3. H0 : Mµ,α,β vs H1 : Mµ,α,β,γ F

d.l.,n−JK F
Théorème Test de taille α : R = {Test. Stat. > q1−α }

2
FI = ∥P1n Y − P[1n A] Y ∥ /((J b2 )
− 1)σ d.l. = J − 1

2
FII = ∥P[1n B] Y − P[1n | A | B] Y ∥ b2 )
/((J − 1)σ d.l. = J − 1

F = ∥P[1n A B] Y − PX Y ∥2 /((J − 1)(K − 1)σ


b2 ) d.l. = (J − 1)(K − 1)

F ∗ = ∥P[1n A] Y − P[1n 2
A B] Y ∥ /((K b2 )
− 1)σ d.l. = K − 1

21/22

K. Meziani Chapitre 3 : Analyse de la variance


Idée de la preuve

➦ Tout d’abord notons

Rang (X ) − Rang ([1n A B]) = JK − (J + K − 1) = (J − 1)(K − 1)


Rang ([1n A B) − Rang ([1n A]) = (J + K − 1) − J = K − 1
Rang ([1n A B]) − Rang ([1n A]) = (J + K − 1) − J = K − 1
Rang ([1n A]) − Rang (1n ) = J − 1

➦ Par la proposition
b2
(n − JK )σ
∼ χ2 (n − JK ).
σ2
➦ On conclue par Théorème “donuts” du chapitre 2. □

22/22

K. Meziani Chapitre 3 : Analyse de la variance

Vous aimerez peut-être aussi