MA101Stat Diapos
MA101Stat Diapos
MA101Stat Diapos
Statistique
Maxime Ossonce
ENSTA – 1A
2018/2019
Introduction
Outline
1. Introduction
1.1 Population
1.2 Estimateurs
1.3 Convergences de variables aléatoires
2. Estimation
3. Vecteurs gaussiens
4. Intervalles de confiance
5. Tests d’hypothèse
6. Suppléments
Bibliographie
Introduction
Inférence statistique
Inférence statistique
Population
Echantillon
Statistique
Tn : (Rn , Rn ) → (R, R)
n
1X
(x1 , . . . , xn ) → xn = xk .
n
k=1
Estimation
Un estimateur sera une statistique dont l’objet sera de se faire une idée
de la loi parente P élément de P.
. Si le modèle est paramétrique, l’estimation sera dite paramétrique.
. Si une valeur estimée de θ est souhaitée, on parlera d’estimation
ponctuelle (par exemple, par maximum de vraisemblance).
. Si un ensemble de valeurs est souhaitée, on aura affaire à une
estimation par intervalle de confiance.
. Les tests d’hypothèse permettent de répondre à la question : la vraie
valeur de θ est-elle dans l’ensemble Θ0 ⊂ Θ ou dans Θ\Θ0 ?
Xn (ω) → X(ω) ; ∀ω ∈ N c .
Convergence en probabilité
On dit que la suite de v.a.r. (Xn ) converge en probabilité vers une v.a.r.
P
X, et on note Xn −
→ X, si on a
Convergence dans L1
E[|Xn − X|] → 0.
Convergence en loi
On dit que la suite de v.a.r. (Xn ) converge en loi vers une v.a.r. X, et on
L
note Xn −→ X, si pour toute fonction continue bornée ϕ à valeurs
dans R on a :
lim E[ϕ(Xn )] = E[ϕ(X)].
. Pour une suite de v.a.r., la convergence en loi est équivalente à la
convergence ponctuelle des fonctions de répartition FXn vers FX
aux points de continuité de FX .
. La v.a. X peut ne pas être définie sur le même espace probabilisé
que (Xn ).
. La convergence en loi est plus faible que la convergence en
probabilité :
P L
Xn −→ X ⇒ Xn −→ X.
La loi des grands nombres (LGN) sera utilisée pour construire des
estimateurs.
Théorème 1.1
Si (Xn ) est une suite de v.a.r. i.i.d. d’espérance µ, alors la variable
aléatoire X n = X1 +···+X
n
n
converge en probabilité vers µ :
P X n − µ > −−−→ 0 ; ∀ > 0.
n→∞
TCL
Lemme de Slutsky
Outline
1. Introduction
2. Estimation
2.1 Définition
2.2 Biais, risque et convergence
2.3 Comportement asymptotique
2.4 Construction d’un estimateur
3. Vecteurs gaussiens
4. Intervalles de confiance
5. Tests d’hypothèse
6. Suppléments
Estimateur
Premier exemple
Biais
νn ) := E[b
bθ (b νn ] − ν(θ).
Risque quadratique
νn ) = b2θ (b
Rθ (b νn ) + Var(b
νn ).
Relation d’ordre
L’estimateur θbn sera dit meilleur que θen , et on notera θbn θe ssi :
Rθ (θbn ) ≤ Rθ (θen ) ; ∀θ ∈ Θ
. n’est pas une relation d’ordre total sur l’ensemble des estimateurs
de g(θ) (voir exercice 8 du sujet 1).
. Un estimateur θbn sera admissible si aucun autre estimateur n’est
strictement meilleur que lui i.e. il n’existe pas d’estimateur θen tel
que θen θbn et ∃θ R (θen ) < R (θbn ).
θ θ
Convergence
Application du TCL
Vitesse de convergence
Construire un estimateur
Trois méthodes :
. Méthode empirique.
. Méthode des moments
n
1X p
bn (p) :=
µ Xk .
n
k=1
fθ (x1 , . . . , xn ).
Moments
Delta méthode
. On note σ
bn2 (p) l’estimateur empirique de Var(X p ).
√
n (θbn − θ) L 1
−→ N 0, .
bn (p)
σ |f 0 (θ)|2
En dimension supérieure
On suppose :
ν(θ) = φ(µθ (1), . . . , µθ (q)).
. L’estimateur des moments est
Modèle dominé
On suppose que les lois (Pθ )θ∈Θ admettent une densité fθ par rapport à
une mesure commune, e.g. :
. la mesure de comptage µ,
. la mesure de Lebesgue λ.
La densité fθ est :
. la distribution de probabilité dans le cas d’une domination par µ,
fθ (x1 , . . . , xn ) = Pθ (X = x).
. la fonction de densité dans le cas où Pθ λ.
θ 7→ Ln (θ; x1 , . . . , xn ) = fθ (x1 , . . . , xn )
Densité Vraisemblance
P ( nk=1 Xk = t)
L(θ; x)
P
0 5 10 15 20 0 θb 1
t θ
Outline
1. Introduction
2. Estimation
3. Vecteurs gaussiens
4. Intervalles de confiance
5. Tests d’hypothèse
6. Suppléments
Vecteurs gaussiens
Moyenne empirique
Vecteurs gaussiens
Application linéaire
Y = AX ∼ N (0, σ 2 Id ).
Vecteurs gaussiens
Loi du khi-deux
Soit Z un n-échantillon gaussien centré réduit.
Définition 3.2
La loi du carré de la norme euclidienne du vecteur est appelée loi du
khi-deux (centré) à n degrés de liberté. On note
n
X
2
kZk = Zk2 ∼ χ2 (n).
k=1
n-échantillon
Vecteurs gaussiens
Variance empirique
. Les v.a.r. X n et σ
bn2 sont indépendantes.
. X n et X − X n sont des projections orthogonales sur deux
sous-espaces orthogonaux (Cochran).
Loi de Student
√ Xn − µ
Tn := n .
bn
σ
. Tn ∼ T (n − 1) est appelée statistique de student de l’échantillon.
. Tn2 ∼ F(1, n).
K1 n2
. La loi de Fisher F(m, n) est la loi de K2 n1 quand Ki ∼ χ2 (ni ) et K1
et K2 indépendantes.
Intervalles de confiance
Outline
1. Introduction
2. Estimation
3. Vecteurs gaussiens
4. Intervalles de confiance
5. Tests d’hypothèse
6. Suppléments
Comportements asymptotiques
Intervalles de confiance
h i
. P θn , θn 3 θ = P({θbn− ≤ θ} ∩ {θbn+ ≥ θ}).
b− b+
Quantiles
Le quantile qα d’ordre α ∈ [0, 1] d’une loi réelle µ est le réel tel que, si
X ∼ µ,
P(X ≤ qα ) = α.
. qα est la fonction réciproque de la fonction de répartition F,
. obtenue par interpolation linéaire dans le cas discret.
. Lorsque la loi est symétrique :
Intervalles de confiance
Exemple gaussien I
Exemple gaussien II
1 − α = P(−tn ≤ Tn ≤ tn )
bn tn
σ bn tn
σ
= P − √ ≤ µ − Xn ≤ √
n n
bn tn
σ bn tn
σ
= P Xn − √ ≤ µ ≤ Xn + √ .
n n
Intervalles de confiance
Exemple
0 θ 1
Tests d’hypothèse
Outline
1. Introduction
2. Estimation
3. Vecteurs gaussiens
4. Intervalles de confiance
5. Tests d’hypothèse
5.1 Tests paramétriques
5.2 Tests du χ-deux
6. Suppléments
Principe
Construction
P(H0 ) (Tn ∈ Rα ) = α.
Puissance
Exemple
Hypothèses composites
Biais et consistance
Test UPP
Rapport de vraisemblance
p-value
Tests d’adéquation
Loi multinomiale
. O ∼ M (n, π) .
QK πk
. P(O = o) = n! k=1 nk ! .
Ajustement
p
X (oi − ei )2
kn = .
ei
i=1
Homogénéité
p X
X m
(oij − eij )2
kn = .
eij
i=1 j=1
Indépendance
Outline
1. Introduction
2. Estimation
3. Vecteurs gaussiens
4. Intervalles de confiance
5. Tests d’hypothèse
6. Suppléments
6.1 Statistique bayésienne
6.2 Estimation non paramétrique
Motivation
Lois à densité
π(θ)f (x|θ)
π(θ|x) = .
f (x)
. π(θ|x) est la probabilité a posteriori.
. π(θ) est l’a priori sur θ.
. f (x|θ) est la vraisemblance.
. f (x) n’intervient pas lors de l’estimation par maximum a posteriori
(MAP).
Estimation ponctuelle
Région de crédibilité
Rk (x) = {θ : π(θ|x) ≥ k}
. Permet de créer des régions de volume minimal.
Facteur de Bayes
P(M1 |x)P(M2 )
B12 =
P(M2 |x)P(M1 )
Fonction de répartition
n
b 1X p.s.
Fn (y) = 1xi ≤y −−→ F (y) = P(X1 ≤ y)
n
i=1
Densité
La densité est
F (y + h) − F (y)
f (y) = F 0 (y) ≈ .
h
. Estimateur de Rosenblatt :
n
b 1 X
fn (y) = 1y≤xi <y+h .
nh
i=1
. Estimateur à noyau :
n
1 X y − xi
fbn (y) = K .
nh h
i=1