Poly Probabilités
Poly Probabilités
Poly Probabilités
ELEMENTS DE PROBABILITES
B. Ouhbi
2
Table des matières
3
4
4.8 Médiane . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
4.9 Fonction du taux de hasard . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
4.10 Inégalité de Bienaymé-Tchebichev . . . . . . . . . . . . . . . . . . . . . . . . . . 31
4.11 Quelques lois usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
4.11.1 Loi uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
4.11.2 Loi normale ou loi de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . 32
4.11.3 Loi exponentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
4.11.4 Loi gamma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
4.11.5 Loi du chi-deux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
4.11.6 Loi log-normale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
4.11.7 Loi de Weibull . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
4.12 Fonction génératrice des moments . . . . . . . . . . . . . . . . . . . . . . . . . . 34
5
6
B Exemple 1.7. F = {∅, Ω} est une σ-algèbre car elle vérifie les 3 axiomes ; elle est apelée
σ-algèbre triviale.
Une probabilité P sur (Ω, F) est une application de F dans [0, 1] qui vérifie les propriétés
suivantes :
1. P(Ω) = 1
2. P(A) ≥ 0 pour tout A ∈ F
3. Pour toute famille dénombrable d’événements A1 , A2 , . . . , deux à deux disjoints, nous
avons P
P(∪n An ) = n P(An ) (σ-additivité)
1. Le sens de cette convergence sera précisé dans le chapitre 7.
8
Remarque 1.1. La probabilité est un cas particulier des applications appelées mesures ; parfois
nous disons mesure de probabilité.
Définition 1 L’espace (Ω, F, P) est apelé espace probabilisé ou espace de probabilité ou encore
modèle de probabilité.
En conclusion, nous pouvons dire que toute expérience aléatoire se décrit mathématiquement
par la donnée d’un espace probabilisé (Ω, F, P).
Remarque 1.2. Lorsque l’espace fondamental est dénombrable, nous pouvons nous affranchir de
la définition de la tribu en l’identifiant à l’ensemble de tous les parties de l’espace fondamental.
Dans ce cas tout sous ensemble de l’espace fondamental est un événement ; pour simplifier,
l’espace probabilisé en question sera noté : (Ω, P).
Un événement A tel que P(A) = 1 est dit presque sûr (p.s.) ou de mesure pleine. On dit aussi
que P est portée par A. Nous verrons qu’ il y a des événements de mesure pleine différents
de Ω.
Un événement B tel que P(B) = 0 est dit négligeable. Nous verrons également qu’il y a des
événements négligeables différents de ∅.
Remarque 1.3. Parfois, lorsque plusieurs probabilités sont en jeu, on note : P − p.s. ou P-
négligeable, afin de faire référence à la probabilité appropriée.
Soit un espace de probabilité (Ω, F, P), tel que pour tout ω ∈ Ω, {ω} ∈ F. Un élément ω ∈ Ω,
tel que P({ω}) 6= 0, est appelé atome ponctuel de P.
La probabilité P est dite discrète ou purement atomique, s’il existe un événement A, (i.e.
A ∈ F), au plus infini dénombrable, de mesure pleine. P est dite continue ou diffuse si pour tout
ω ∈ Ω on a P({ω}) = 0.
Les résultats suivants découlent directement de la définition de probabilité.
n ! = 1 · 2 · · · (n − 1) · n.
9
Par convention 0! = 1.
Lorsque les n objets sont partiellement indistingables et forment r familles disctinctes comp-
tant n1 , n2 , ..., nr objets chacune, alors
n!
Proposition 3 Le nombre de permutations de n objets partiellement distincts est égal à n1 !···nr !
Démonstration. On a n choix pour le 1er élément de (s1 , ..., sm ), (n−1) choix pour le deuxième
élément, etc.
B Exemple 1.9. Une urne contient 3 boules numérotées de 1 à 3. En tirant au hasard, et sans
remise, les trois boules de l’urne, la probabilité d’obtenir le numéro 321 est égale à 1/6, car le
nombre de permutations de trois boules est 3 ! = 1 · 2 · 3 = 6.
B Exemple 1.10. En tirant 2 boules, sans remise, dans l’urne précédente, la probabilité d’ob-
tenir le numéro 23 est égale à 1/6, car le nombre de combinaisons de 2 boules parmi 3 est égal
3!
à (3−2) ! = 6.
B Exemple 1.11. Dans une urne contenant m boules blanches et n boules noires, nous effec-
tuons r (r ≤ m) tirages sans remise. La probabilité que les r tirages donnent tous des boules
r /C r
blanches est égale à Cm r
m+n . En effet, il y a Cm façons différentes de tirer r boules parmi m
r
et Cm+n façons de tirer r boules parmi m + n.
B Exemple 1.12. Soit [a, b] ⊂ [0, 1]. La probabilité qu’un point tiré au hasard dans [0, 1] soit
un point de [a, b], est égale à (b − a).
10
Chapitre 2
2.1 Introduction
Le système axiomatique de Kolmogorov est complété par la définition de la probabilité
conditionnelle et de l’indépendance de deux événements.
Les événements considérés dans ce chapitre sont supposés être définis sur le même espace de
probabilité (Ω, F, P).
B Exemple 2.1. Dans l’expérience du jet de deux dés, si le premier est un 3, quelle est la
probabilité que le total dépasse 6 ?
L’espace fondamental de cette expérience est : Ω = {1, 2, 3, 4, 5, 6}2 . L’événement “le premier
jet donne un 3” est : A = {(3, x) : x = 1, 2, 3, 4, 5, 6}. L’événement “le total dépasse 6” est :
B = {(x, y) : x + y > 6}.
Par conséquent, nous avons :
A ∩ B = {(3, 4), (3, 5), (3, 6)} d’où P(B | A) = P(A∩B) |A∩B|
P(A) = |A| = 2 .
1 1
B Exemple 2.2. Quelle est la probabilité que les deux enfants d’une famille soient des garçons,
sachant qu’au moins un est un garçon ?
L’espace fondamental est : Ω = {F F, F G, GF, GG} avec P(F F ) = P(F G) = P(GF ) = P(GG) =
1/4 (probabilité uniforme sur Ω).
Les événements concernés sont :
Deux garçons : A = {GG}
Au moins un garçon : B = {F G, GF, GG}
Nous observons que A ⊂ B. Par conséquent : P(A | B) = P(A)/P(B) = 1/3.
1. |C| désigne le cardinal de l’ensemble C
11
12
La probabilité conditionnelle est aussi une probabilité car elle vérifie les trois axiomes des
mesures de probabilité, i.e., pour tout événement B tel que P(B) > 0,
1. P(A | B) ≥ 0
2. P(B | B) = 1
S P
3. P( n≥0 An | B) = n≥0 P(An | B), (Ai ∩ Aj = ∅, i 6= j)
La démonstration est laissée en exercice.
Par conséquent, la réalisation ou non de l’événement B n’a aucune influence sur la probabilité
de l’événement A.
De manière générale, une famille finie ou infinie dénombrable d’événements (Ai , i ∈ I) est
dite indépendante si, pour tout sous ensemble fini J de I, on a
Y
P(∩j∈J Aj ) = P(Aj ) (2.4)
j∈J
Remarque 2.1. Notons que dans le dernier cas ci-dessus, l’indépendance des événements deux
à deux ne suffit pas pour que les événements soient indépendants.
Remarque 2.2. Le fait que deux événements A et B soient incompatibles n’implique pas
qu’ils soient indépendants. Au contraire, pour deux événements incompatibles A et B tels que
P(A) × P(B) 6= 0, on montre par la relation (2.2) qu’ils ne peuvent pas être indépendants.
Démonstration. (1) P(Ac ∩ B) = P(B) − P(A ∩ B) = (1 − P(A))P(B) = P(Ac )P(B). Les points
(2) et (3) peuvent être démontrés de la même manière.
B Exemple 2.3. Soit une expérience aléatoire décrite par (Ω, F, P) avec
et P la probabilité uniforme sur Ω, i.e. pour tout ω ∈ Ω on a P({ω}) = 1/|Ω| = 1/9. Considérons
maintenant les trois événements suivants
Nous avons
d’où
De même, nous avons : P(A2 ∩ A3 ) = P(A3 )P(A3 ) et P(A3 ∩ A1 ) = P(A3 )P(A1 ). D’autre part
Par conséquent
XX
P[(A1 × Ω2 ) ∩ (Ω1 × A2 )] = P(A1 × A2 ) = P1 ({ω1 })P2 ({ω2 })
A1 A2
= P1 (A1 )P2 (A2 ) = P(A1 × Ω2 )P(Ω1 × A2 ).
Remarque 2.3. Dans le cas d’espaces probabilisés généraux, (Ω1 , F1 , P1 ) et (Ω2 , F2 , P2 ) l’espace
produit est noté (Ω1 ×Ω2 , F1 ⊗F2 , P1 ⊗P2 ). La tribu F1 ⊗F2 est engendrée par tous les ensembles
A1 × A2 avec A1 ∈ F1 et A2 ∈ F2 . Et la probabilité produit P = P1 ⊗ P2 est définie de la même
manière que ci-dessus.
Démonstration. Par récurrence sur n ∈ N∗ . Nous remarquons qu’elle est trivialement vérifiée
pour n = 1. Supposons qu’elle est vérifiée pour n entier quelconque > 1. Nous allons montrer
qu’elle est vérifiée pour n+1. Nous avons P(∪n+1 n n
i=1 Ai ) = P(∪i=1 Ai )+P(An+1 )−P((∪i=1 Ai )∩An+1 ).
En utilisant l’hypothèse de récurrence et en arrangeant les termes du deuxième membre, nous
obtenons le résultat énoncé.
¤
15
P(A | Bj )P(Bj )
P(Bj | A) = P
k∈I P(A | Bk )P(Bk )
Démonstration. Par la relation P(Bj |A) × P(A) = P(A|Bj ) × P(Bj ) et le théorème des pro-
babilités totales nous obtenons le résultat énoncé.
3.1 Introduction
Une variable aléatoire (v.a.) est définie par référence à une expérience aléatoire comme une
application, soit X, dont la valeur dépend du résultat ω de cette expérience. Les variables
aléatoires que nous allons étudier dans ce cours prennent leurs valeurs dans l’ensemble R ou
au plus dans Rd , (d > 1).
De manière plus précise, une variable aléatoire réelle (v.a.r.) est définie comme suit.
Définition 5 Une v.a. réelle sur l’espace probabilisé (Ω, F, P), est une application X définie sur
Ω et à valeurs dans R telle que, pour tout x ∈ R,
{ω : X(ω) ≤ x} ∈ F (3.1)
Remarques. 1) Une application sur (Ω, F) vérifiant (3.1) est dite mesurable.
2) L’événement {ω : X(ω) ≤ x} sera noté simplement : {X ≤ x}.
B Exemple 3.1. Dans l’expérience du jet de deux dés, la somme, le produit, la différence, etc.,
des points amenés par les dés définissent autant de v.a., i.e.
Quelques propriétés :
1. 1Ω = 1 et 1Ø = 0
2. 1A∩B = 1A · 1B
3. 1A∪B = 1A + 1B − 1A · 1B
4. 1Ac = 1 − 1A
17
18
5. A ⊂ B ⇐⇒ 1A ≤ 1B et A = B ⇐⇒ 1A = 1B
6. (1A )−1 (1) = A et (1A )−1 (0) = Ac .
Une v.a. discrète peut être représentée comme suit
X
X= xi 1Ai (3.3)
{i:xi ∈E}
B Exemple 3.2. Jet d’un dé (non pipé). La loi de la v.a. X(ω) = ω est pX (ω) = 1/6 pour tout
ω ∈ Ω, et elle est appelée loi uniforme.
La fonction FX (·), définie sur R et à valeurs dans [0, 1], par la formule
X
FX (x) = pX (y) (3.5)
{y∈E:y≤x}
est appelée fonction de répartition de la v.a.d. X. C’est une fonction croissante et constante par
morceaux.
Considérons deux v.a.d. X1 , X2 définies sur le même espace de probabilité et à valeurs dans
E1 , E2 respectivement.
Définition 7 (Indépendance de deux variables aléatoires) .
Les v.a. X1 , X2 sont dites indépendantes si, pour tout x1 ∈ E1 , x2 ∈ E2 , nous avons
P(X1 = x1 , X2 = x2 ) = P(X1 = x1 )P(X2 = x2 ) (3.6)
Proposition 13 Soit X et Y deux v.a.d. indépendantes et g : R → R une application. Alors les
v.a.d. g ◦ X et g ◦ Y sont indépendante.
19
6
B Exemple 3.5. Soit une P v.a.d. X à valeurs dans N∗ et de loi pX (n) = πn2
. Cette v.a. ne
possède pas d’espérance car 1/n = ∞.
Proposition 14 Soient une v.a.d. X : Ω P → E et une fonction g : E → F , (E, F ⊂ R),
alors g ◦ X est une v.a.d. et E [g(X)] =
P x∈E g(x)P(X = x) à condition que E |g(X)| =
x∈E |g(x)|p(x) < +∞.
Proposition 15 Si X et Y sont deux v.a.d. indépendantes, possédant des espérances finies,
alors
E [X · Y ] = E X · E Y (3.8)
Démonstration. On a
∞
X
X= xi 1Ai avec Ai = {X = xi }
i=1
X∞
Y = yj 1Bj avec Bj = {Y = yj }
j=1
d’où
X X
X ·Y = xi yj 1Ai 1Bj = xi yj 1Ai ∩Bj
i,j i,j
donc X · Y est une v.a. discrète de valeur xi yj sur Ai ∩ Bj et ∪i,j Ai ∩ Bj = (∪i Ai ) ∩ (∪j Bj ) = Ω.
Du fait que X et Y sont indépendantes, nous avons, pour tous i et j
P(Ai ∩ Bj ) = P(X = xi , Y = yj ) = P(X = xi )P(Y = yj ) = P(Ai )P(Bj )
Par la définition de l’espérance d’une v.a.d., nous avons pour la v.a.d. X · Y
X
E [XY ] = xi yj P(Ai ∩ Bj )
i,j
XX
= xi yj P(Ai )P(Bj )
i j
X X
= { xi P(Ai )}{ yj P(Bj )}
i j
= E XE Y.
20
Remarque 3.1. Nous verrons dans le chapitre 5 qu’une condition nécessaire et suffisante pour
que (3.8) soit vérifiée, est que les v.a. X et Y soient non corrélées.
Le moment d’ordre k, (k ∈ N∗ ), est défini par
X
µk = E [X k ] = xk p(x) (3.9)
x∈E
Le moment centré d’ordre 2, m2 , est noté σ 2 (X) ou V ar(X) et il est appelé variance de la
v.a. X. La variance mesure le degré de dispersion des valeurs de la v.a. autour de sa moyenne.
La racine carrée de la variance est appelée écart-type.
X ∞ X
X ∞ k
XX X
P(X ≥ n) = P(X = k) = P(X = k) = kP(X = k) = E X.
n≥1 n=1 k=n k≥1 n=1 k≥1
Si Y∼ b(n, p), alors elle peut être représentée par la somme de n v.a. de Bernoulli de pa-
ramètre p indépendantes, i.e.
Y = X1 + · · · + Xn (3.13)
Considérons une suite infinie de v.a. de Bernoulli : X1 , X2 , · · · i.i.d. ∼ B(p). Alors une v.a.
géométrique Y , définie relativement à cette suite, s’écrit comme suit
{Y = k} = {X1 = 0, . . . , Xk−1 = 0, Xk = 1}
λk
p(k) = P(X = k) = e−λ , (k ∈ N) (3.15)
k!
L’espérance et la variance sont : E X = V ar X = λ.
Proposition 17 (Théorème de Poisson) Soit une suite de probabilités (pn , n ∈ N), telle
que pn → 0, et npn → λ, (λ > 0) lorsque n → ∞. Alors
b(n, pn ) → P (λ)
i.e. pour tout k = 0, 1, 2, ... nous avons : b(n, pn )(k) → P (λ)(k), lorsque n → ∞.
22
λ λ
b(n, pn )(1) ∼ b(n, pn )(0) → e−λ
1 1!
λ λ2 −λ
b(n, pn )(2) ∼ b(n, pn )(1) → e
2 2!
λ λk −λ
b(n, pn )(k) ∼ b(n, pn )(k − 1) → e .
1 k!
¤
n
X
pX+Y (n) = P(X + Y = n) = P(X = k, Y = n − k)
k=0
Xn
= P(X = k)P(Y = n − k)
k=0
Xn
= pX (k)pY (n − k)
k=0
= pX ∗ pY (n)
24
¤
Chapitre 4
4.1 Introduction
La théorie de la v.a. discrète que nous venons d’exposer ne suffit pas à traiter rigoureusement
les deux cas suivants :
– les suites infinies des v.a. telles que le jeu de pile ou face,
– le choix au hasard d’un point sur un segment.
En effet, dans ces deux cas l’espace fondamental n’est pas dénombrable.
Remarque 4.1. La loi PX est une probabilité sur (R, B(R)), où B(R) est la σ-algèbre engendrée
par les intervalles de R, appelée σ-algèbre borélienne. C’est la plus petite σ-algèbre contenant
les intervalles de R. Une application mesurable définie sur (R, B(R)) et à valeurs dans (R, B(R))
est dite borélienne.
25
26
Remarque 4.2. Dans certains ouvrages la fonction de répartition est définie par FX (x) =
P(X < x), ce qui implique sa continuité à gauche.
etc.
B Exemple 4.1.
Remarque 4.3. Pour plus de précision, il faut souligner que fX est une application measurable
de (R, B(R)) dans (R, B(R)). La densité d’une v.a. est définie p.s., donc il peut y avoir plusieurs
fonctions qui peuvent être la densité d’une même v.a..
La fonction fX s’appelle la densité de probabilité de PX ou de la v.a. X. Elle vérifie les
propriétés suivantes :
27
ou
1
fX (x) = lim P(x < X ≤ x + ∆x) (4.6)
∆x→0 ∆x
Remarque 4.5. Nous verrons qu’à part les v.a. discrètes, il existe d’autres v.a. qui ne sont pas
absolument continues.
Si la v.a. X est absolument continue, alors
Z
FX (x) = fX (u)du (4.7)
]−∞,x]
d
fX (x) = FX (x) (4.8)
dx
6 6
1 1
¡
¡
¡
¡
¡
- ¡ -
0 1 0 1
La densité de cette loi est : f (x) = 1[0,1] (x). A l’aide de la relation (4.7), la fonction de
répartition s’écrit comme suit
0 si x<0
F (x) = x si 0≤x≤1
1 si x>1
Notons aussi que, par exemple, les fonctions : f1 (x) = 1]0,1[ (x), f2 (x) = 1]0,1] (x), f3 (x) =
1[0,1[ (x), etc., sont aussi de densités de la même f.r. F .
n
X
s(Pn ) = mi ∆αi , (mi = inf f (x), x ∈ [xi−1 , xi ]) (4.10)
i=1
Proposition 21 Soient g une fonction bornée sur [a, b], ξ un point de ]a, b[ et α(x) = 1(x − ξ).
Si g est continue au point ξ, alors
Z b
g dα = g(ξ) (4.15)
a
Proposition 22 Soient α une fonction monotone croissante sur [a, b], fn une suite de fonctions
Riemann-Stieltjes intégrables sur [a, b] pour tous n = 1, 2, ... telles que fn → f uniformément
sur [a, b]. Alors f est Riemann-Stieltjies intégrable sur [a, b] et
Z b Z b
fn dα → f dα, lorsque n → ∞.
a a
29
2. Dans le cas d’une v.a. discrète, nous obtenons la formule déjà connue
X
EX = xp(x) (4.18)
x
3. Dans le cas d’une v.a. mixte, de f.r. F de points de discontinuité x1 , x2 , ..., xr de sauts
p1 , p2 , ..., pr respectivement, nous avons
Xr r Z xi+1
X
0
EX = xi pi + xFac (x)dx (4.19)
i=1 i=0 xi
où x0 = −∞ , xr+1 = ∞,
Roù p(x) est la loi de X. Pour que l’espérance d’une v.a. à densité existe, il faut et il suffit que
R |x|f (x)dx < ∞.
B Exemple 4.4. Soit X ∼ U [0, 1] (loi uniforme sur [0, 1]) et ϕ(x) = x2 , (x ∈ R). Alors
Z Z 1
1
E [ϕ ◦ X] = x2 1[0,1] (x)dx = x2 dx = .
R 0 3
B Exemple 4.5. Calcul de l’espérance d’une v.a. X de f.r. donnée dans l’exemple 4.3.
Z 0 Z 1 Z 2 Z 3
1 1 3
E (X) = x · 0dx + x · dx + x · dx + x · dx
−∞ 0 5 1 10 2 10
Z +∞
1 1 1 3
+ x · 0dx + 0 · + 2 · +3· = .
3 5 10 10 2
Proposition 24 (Théorème fondamental) .
Pour que X ait pour densité de probabilité la fonction f, il faut et il suffit que, pour toute
application bornée ϕ,
Z
E [ϕ ◦ X] = ϕ(x)f (x)dx
R
30
De cette définition, nous déduisons la relation suivante qui est beaucoup plus utile en pratique
Nous en déduisons que V ar(X) < ∞ si, et seulement si, E [X 2 ] < ∞. Les v.a. possèdant des
variances sont appelées v.a. du deuxième ordre.
B Exemple 4.6. Variance de X ∼ U [0, 1]. On a déjà calculé : E X = 1/2 et E [X 2 ] = 1/3, donc
V ar(X) = 1/12.
Quelques propriétés de la variance :
1. V ar(aX + b) = a2 V ar(X), (a, b ∈ R) ;
2. si X et Y sont indépendantes 2 alors V ar(X + Y ) = V ar(X) + V ar(Y ) ;
(b−a)2
3. si a ≤ X ≤ b, alors V ar(X) ≤ 4 .
Proposition 26 Si la v.a. X admet un moment d’ordre n, (n > 1), alors elle admet également
tous les moments d’ordre ≤ n.
B Exemple 4.7. Calcul de la variance d’une v.a. X de f.r. donnée dans l’exemple 4.3. Pour le
moment d’ordre 2, on a :
Z 0 Z 1 Z 2 Z 3
1 1 3
E (X 2 ) = x2 · 0dx + x2 · dx + x2 · dx + x2 · dx
−∞ 0 5 1 10 2 10
Z +∞
1 1 1 7
+ x2 · 0dx + 02 · + 22 · + 32 · = .
3 5 10 10 2
La variance de X s’écrit comme suit :
µ ¶2
2 7 2 3 5
V ar[X] = E [X ] − (E [X]) = − = .
2 2 4
2. On verra dans le ch.5 qu’il suffit que X et Y soient non corrélées
31
4.8 Médiane
Définition 9 On appelle médiane d’une v.a.r. X un nombre M réel tel que
f (x)
λ(x) = (4.25)
1 − F (x)
Lorsque X mesure la durée de vie d’un système ou d’un individu, la fonction de hasard
s’appelle fonction du taux de défaillance ou fonction du taux de mortalité ou fonction de risque,
et lorsque X mesure la durée de réparation d’un système, elle s’appelle fonction de taux de
réparation.
D’après la définition ci-dessus, on peut écrire
1
λ(x) = lim P(x < X ≤ x + h|X > x) (4.26)
h↓0 h
ou
Proposition 28 Soit une v.a.r. X de carré intégrable. Alors pour tout ε > 0, nous avons :
V ar(X)
P (|X − E X| ≥ ε) ≤ . (4.29)
ε2
Démonstration. Pour toute v.a.r. Y et tout ε > 0, nous avons clairement
Y2
1{|Y |≥ε} ≤ .
ε2
En intégrant les deux membres de cette inégalité, on obtient :
EY 2
P(|Y | ≥ ε) ≤ .
ε2
En posant Y = X − E X dans cette dernière inégalité, on obtient le résultat énoncé.
¤
Interprétation. Pour ² = kσ, (σ est l’écart-type de la v.a. X), en appliquant l’inégalité de
Bienaymé-Tchebichev, on a
1
P(| X − µ |≥ kσ) ≤ (4.30)
k2
Il y a donc une probabilité inférieure à 1/4 pour que X s’écarte de 2σ de sa moyenne ou une
probabilité inférieure à 1/9 pour que X s’écarte de 3σ de sa moyenne, etc.
a+b (b−a)2
L’espérance et la variance sont : E X = 2 et V ar X = 12 .
1 z2
ϕ(z) = √ exp(− ). (4.31)
2π 2
Sa fonction de répartition est
Z z
1 u2
Φ(z) = √ e− 2 du. (4.32)
2π −∞
33
Fonction de répartition
½
1 − e−λx si x ≥ 0
F (x) =
0 si x < 0.
où Γ(·) est la fonction eulérienne gamma définie par la formule suivante
Z ∞
Γ(a) = ta−1 e−t dt (a ∈ C) (4.39)
0
Proposition 29 Si MX (t) est définie pour tout t dans [−t0 , t0 ], (t0 > 0), alors :
1. X possède des moments finis de tous ordres ;
P tk
2. MX (t) = ∞ k
k=0 k! E [X ].
Problème de moments : Sous quelles conditions une distribution de probabilité est-elle définie
de manière unique par ses moments ? Il n’existe pas de condition nécessaire et suffisante. En
revanche, nous avons différentes conditions suffisantes dont la plus simple exige que la fonction
génératrice des moments soit finie dans un voisinage de 0.
36
Chapitre 5
Convergences stochastiques et
théorèmes limites
satisfait :
1. pXY (x, y) ≥ 0 pour tout (x, y) ∈ E × F ,
P
2. (x,y)∈E×F pXY (x, y) = 1.
La fonction pXY (·, ·) est appelée la loi conjointe de X et Y. Les probabilités définies par
X
P(Y = y) = pY (y) = pXY (x, y) (5.2)
x∈E
X
P(X = x) = pX (x) = pXY (x, y) (5.3)
y∈F
Définition 10 (Covariance) .
Soient deux v.a.r. X et Y du deuxième ordre (i.e. E X 2 < ∞ et E Y 2 < ∞). La covariance de X
et Y est définie par la relation suivante
37
38
Propriétés :
1. Cov(X, Y ) = E [XY ] − E [X]E [Y ]
2. Cov(X, X) = V ar(X)
3. Cov(X, Y ) = Cov(Y, X)
4. Cov(aX + bY, Z) = a Cov(X, Z) + b Cov(Y, Z), (a, b ∈ R)
Remarque 5.1. De la première propriété nous déduisons que l’égalité E XY = E XE Y est
vérifiée, si, et seulement si, Cov(X, Y ) = 0.
Remarque 5.2. Il faut noter que la réciproque de la proposition précedente est fausse en
général.
Cov(X, Y )
ρXY = p (5.7)
V ar(X) · V ar(Y )
et on note
p
Xn −→ X
Proposition 31 Entre les quatre modes de convergence, ci-dessus, nous avons les implications
suivantes :
– La convergence presque sûre implique la convergence en probabilité qui implique la conver-
gence en loi.
– La convergence dans Lq implique la convergence dans Lp , si q > p ≥ 1 qui implique la
convergence en probabilité.
λ λ λ
Proposition 33 Si Xn −→ X et Yn −→ Y , alors Xn + Yn −→ X + Y pour λ = p.s., Lp et p.
L L
Proposition 34 Si Xn −→ X et si g est une application continue de R dans R, alors g(Xn ) −→
g(X).
40
Notons Sn = X1 + · · · + Xn , ≥ 1.
Sn p
−→ E X1 . (5.8)
n
B Exemple 5.2. Pour une suite d’événements (An , n ≥ 1) indépendants et de même probabilité
1 Pn
p, la loi forte des grands nombres dit que les fréquences n k=1 1Ak convergent p.s. vers p lorsque
n → ∞. Ce résultat justifie l’estimation des probabilités par les fréquences.
B Exemple 5.3. La fonction de répartition empirique d’un n-échantillon est définie par
n
1X
Fn (x) = 1{Xi ≤x} . (5.10)
n
i=1
Par la loi forte des grands nombres nous obtenons directement, pour tout x ∈ R, lorsque n → ∞
p.s.
Fn (x) −→ E 1{X1 ≤x} = F (x). (5.11)
Sn − nµ L
√ −→ N (0, 1) (5.12)
σ n
B Exemple 5.4. (Théorème de De Moivre-Laplace). Soit (Xn , n ≥ 1), une suite de v.a. i.i.d.
avec Xn ∼ B(p), (0 < p < 1), alors µ = p et σ 2 = p(1 − p) > 0. Suivant la proposition 37, nous
avons
S − np L
p n −→ N (0, 1). (5.13)
np(1 − p)
41
B Exemple 5.5. L’application du TLC à la suite des fonctions empiriques Fn (·), lorsque n → ∞,
donne, pour tout x ∈ R,
√ L
n(Fn (x) − F (x)) −→ N (0, σ 2 (x)) (5.14)