Prob Abilites
Prob Abilites
Prob Abilites
I On appelle expérience aléatoire toute expérience dont le résultat dépend du hasard, c’est-à-dire tout
expérience qui, renouvelée dans les mêmes conditions, ne donne pas à chaque essai les mêmes résultats.
I On appelle issue ou réalisation d’une expérience aléatoire tout résultat possible de cette expérience.
I L’ensemble des issues d’une expérience aléatoire est appelé univers de cette expérience.
Exemple 1.1
Remarque. Cette année, nous n’étudierons que les expériences aléatoires possédant un univers fini.
Il existe bien entendu des expériences aléatoires à univers infini (par exemple, jouer à pile ou face jusqu’à ce
qu’un pile sorte).
http://laurentb.garcin.free.fr 1
© Laurent Garcin MPSI Lycée Jean-Baptiste Corot
Exemple 1.2
Modélisation
Dans un premier temps, il est essentiel de modéliser correctement l’expérience aléatoire comme le montre les
exemples suivants.
Successif/simultané Supposons que l’on tire deux cartes dans un jeu de 52 cartes. On s’intéresse aux valeurs
et aux couleurs de ces deux cartes. Combien y a-t-il d’issues possibles ?
Si l’on tire successivement les deux cartes, il y a 52 choix possibles pour la première carte et 51 choix
possibles pour la seconde donc en tout 52 × 51 = 2652 issues possibles. Notamment les issues (7♥, V♠)
et (V♠, 7♥) sont deux issues distinctes.
Si l’on tire simultanément les deux cartes, iln’y a aucune raison de distinguer les issues (7♥, V♠) et
(V♠, 7♥). Le nombre d’issues possibles est 522 = 1326.
Avec remise/sans remise Supposons que l’on tire successivement 2 boules dans une urne contenant 10
boules numérotées de 1 à 10. On s’intéresse aux valeurs affichées par ces deux boules. Combien y a-t-il
d’issues possibles ?
S’il s’agit d’un tirage avec remise i.e. si l’on remet la première boule dans l’urne après l’avoir tirée, il y
a 10 choix possibles pour la première boule et à nouveau 10 choix possibles pour la seconde boule donc
10 × 10 = 100 issues possibles.
S’il s’agit d’un tirage sans remise, alors il y a 10 choix possibles pour la première boule mais plus que
9 choix possibles our la seconde donc 10 × 9 = 90 issues possibles (on n’a plus accès aux issues du type
(n, n)).
Discernable/indiscernable Supposons que l’on lance simultanément deux dés et qu’on s’intéresse aux ré-
sultats affichés par ces deux dés. Combien y a-t-il d’issues possibles ?
A priori, on peut se dire qu’il y a 6 issues possibles pour chacun des deux dés donc 6 × 6 = 36 issues
possibles en tout. Notamment les issues (1, 6) et (6, 1) sont deux issues distinctes. Mais ceci n’est vrai
que si l’on peut distinguer les deux dés i.e. si les deux dés sont discernables.
Si les deux dés sont indiscernables, on ne peut pas distinguer l’issue (1, 6) de l’issue (6, 1). Dans ce cas,
le nombre d’issues possibles est 62 + 6 = 21 en distinguant les tirages faisant apparaître deux chiffres
distincts et les « doubles ».
http://laurentb.garcin.free.fr 2
© Laurent Garcin MPSI Lycée Jean-Baptiste Corot
Remarque. On remarquera que le nombre d’issues possibles s’exprime souvent à l’aide de nombre d’arrange-
ments ou de nombre de combinaisons.
On appelle probabilité sur un univers fini Ω toute application P : P(Ω) → [0, 1] telle que
I P(Ω) = 1 ;
I si A et B sont deux événements incompatibles, P(A ∪ B) = P(A) + P(B).
On appelle espace probabilisé fini tout couple (Ω, P) où Ω est un univers fini et P une probabilité sur Ω.
Une probabilité sur un univers fini est entièrement caractérisée par les images des événements élémentaires.
Proposition 2.2
Modélisation
Il ne faut pas croire qu’une probabilité liée à une expérience aléatoire est intrinsèque à cette expérience.
Généralement, on modélise une expérience aléatoire en choisissant la probabilité de chaque issue (ou bien,
c’est l’énoncé qui s’en charge). Bien entendu le choix de la probabilité est déterminée par le bon sens ou par
l’observation de la réalité. Par exemple, en lançant une pièce un grand nombre de fois, on constate qu’on
obtient autant de « pile » que de « face ». Il semble donc raisonnable de supposer que la probabilité de chaque
issue « pile » ou « face » est 12 .
Un autre exemple consisterait à tirer une carte au hasard dans un jeu de 52 cartes. Là encore, il semble
1
raisonnable de supposer que chaque carte a la même probabilité d’être tirée (à savoir 52 ). Mais une étude
statistique montrerait probablement que les cartes du milieu du paquet ont plus de chances d’être tirées que
les autres, ce qui tient sans doute à la psychologie humaine. On peut néanmoins admettre que chaque carte a
la même chance d’être tirée en considérant que les cartes sont tirées par une personne « idéale » dans le sens
où elle ne serait pas soumise aux phénomènes psychologiques.
http://laurentb.garcin.free.fr 3
© Laurent Garcin MPSI Lycée Jean-Baptiste Corot
Remarque. Un événement peut être de probabilité nulle sans qu’il soit impossible. De même, un événement
de probabilité 1 n’est pas nécessairement certain.
Il suffit de prendre par exemple Ω = {a, b} et de définir une probabilité P sur Ω en posant P({a}) = 0 et
P({b}) = 1.
Néanmoins, lorsque l’on traite de probabilité sur des univers finis, c’est très rarement le cas en pratique.
Soit Ω un univers fini non vide. On appelle probabilité uniforme sur Ω l’unique probabilité sur Ω telle que
1
P({ω}) = pour tout ω ∈ Ω.
card Ω
Remarque. Si Ω est muni de la probabilité uniforme, on dit alors que toutes les issues sont équiprobables.
Remarque. Si l’énoncé ne précise pas la probabilité, c’est qu’il s’agit sans doute de la probabilité uniforme.
Proposition 2.3
card A
Soit P la probabilité uniforme sur un univers fini Ω. Pour tout événement A, P(A) = card Ω .
Remarque. Dans le cas de la probabilité uniforme, tout calcul de probabilité se résume donc à un problème
de dénombrement.
Exemple 2.1
On considère l’expérience aléatoire consistant à tirer une carte d’un jeu de 52 cartes. On considère que toutes
les issues sont équiprobables.
4 1
Soit A l’événement « tirer un roi ». Alors P(A) = 52 = 13 .
Soit B l’événement « tirer un coeur ». Alors P(B) = 52 = 14 .
13
Soient (Ω, P) un espace probabilisé fini et (A, B) ∈ P(Ω)2 tel que P(B) 6= 0. On appelle probabilité de A
sachant B notée P(A|B) ou PB (A) le quotient P(A∩B)
P(B) .
http://laurentb.garcin.free.fr 4
© Laurent Garcin MPSI Lycée Jean-Baptiste Corot
Exemple 2.2
Un test sanguin est effectué sur 100 personnes que l’on classe suivant leur groupe sangin et leur facteur rhésus.
On résume les résultats de ce test dans le tableau suivant.
Groupe
sanguin A B AB O
Rhésus
Positif 30 7 3 35
Négatif 8 2 1 9
On tire une personne au hasard sur ces 100 personnes. On s’intéresse à l’événement B+ : « la personne est du
7
groupe sanguin B+ ». On a clairement P(B+ ) = 100 .
Notons A l’événement « la personne est du groupe sanguin B » et R+ l’événement « la personne est de facteur
rhésus positif ». On a clairement P(B) = 7+2 9
100 = 100 et P(R+) =
30+7+3+35
100
75
= 100 .
Intuitivement, la probabilité qu’une personne soit du groupe sanguin B sachant qu’elle est de facteur rhésus
7 7
positif est P(B|R+ ) = 3+7+3+35 = 75 . On a donc bien P(B+ ) = P(B ∩ R+ ) = P(R+ )P(B|R+ ).
De même, intuitivement, la probabilité qu’une personne soit de facteur rhésus positif sachant qu’elle est du
groupe sanguin B est P(R+ |B) = 7+27
= 79 . On a encore bien P(B+ ) = P(B ∩ R+ ) = P(B)P(R+ |B).
Proposition 2.4
Soient (Ω, P) un espace probabilisé fini et B ∈ P(Ω) tel que P(B) 6= 0. Alors PB : A ∈ P(Ω) 7→ PB (A) est une
probabilité sur Ω.
Soient (Ω, P) un espace probabilisé fini et (A1 , . . . , An ) ∈ P(Ω)n tel que P(A1 ∩ · · · ∩ An−1 ) 6= 0. Alors
Exemple 2.3
Une urne contient initialement 7 boules noires et 3 boules blanches. On tire successivement 3 boules : si on
tire une boule noire, on la retire de l’urne ; si on tire une boule blanche, on la retire de l’urne et on ajoute une
boule noire à la place. On considère raisonnablement que chaque boule de l’urne a la même probabilité d’être
tirée. Quelle est la probabilité de tirer 3 boules blanches à la suite ?
On note Bi l’événement « La ième boule tirée est blanche ». La probabilité recherchée est P(B1 ∩ B2 ∩ B3 ).
3
I Clairement, P(B1 ) = 10 .
I Maintenant, si B1 est réalisé, avant le 2ème tirage, l’urne est constituée de 8 boules noires et 2 boules
blanches. On a donc, P(B2 |B1 ) = 10
2
.
I Si B1 et B2 sont réalisés, avant le 3ème tirage, l’urne est constituée de 9 boules noires et 1 blanche. On
en déduit P(B3 |B1 ∩ B2 ) = 10
1
.
Finalement :
3 2 1 3
P(B1 ∩ B2 ∩ B3 ) = P(B1 )P(B2 |B1 )P(B3 |B2 ∩ B1 ) = × × =
10 10 10 500
Soient (Ω, P) un espace probabilisé fini, S un système complet d’événements et B un événement. Alors
X
P(B) = P(B|A)P(A)
A∈S
http://laurentb.garcin.free.fr 5
© Laurent Garcin MPSI Lycée Jean-Baptiste Corot
Remarque. En particulier, si A est un événement de probabilité non nulle, alors P(B) = P(B|A)P(A) +
P(B|A)P(A).
Exemple 2.4
On dipose d’un test permettant de dépister une maladie. Il y a 95% de chances que le test soit positif si la
personne est malade et 2% de chances que le test soit positif si la personne n’est pas malade. On considère un
population atteinte à 7% par cette maladie. Quelle est la probabilité pour qu’une personne choisie au hasard
réponde positivement au test ?
On note T l’événement « la personne répond positivement au test » et M l’événement « la personne est malade ».
7
L’énoncé siginifie que P(M) = 100 , P(T |M) = 100
95
et P(T |M) = 100
2
. On a donc
Å ã
95 7 2 7 851
P(T ) = P(T |M)P(M) + P(T |M)P(M) = × + × 1− =
100 100 100 100 10000
P(B|A)P(A)
P(A|B) =
P(B)
Soient S un système complet d’événements et A et B deux événements tels que P(B) 6= 0. Alors
P(B|A)P(A)
P(A|B) = X
P(B|S)P(S)
S∈S
Exemple 2.5
On considère une urne A contenant deux boules rouges et trois boules vertes et une urne B contenant trois
boules rouges et deux boules vertes. On tire au hasard une boule dans l’urne A que l’on place dans l’urne B.
On tire ensuite une boule dans l’urne B. Quelle est la probabilité que la boulé tirée dans l’urne A soit verte
sachant que la boule tirée dans l’urne B est rouge ?
On notera AV, AR, BV, BR les événements « la boule tirée dans l’urne A est verte », etc... On cherche donc
P(AV|BR). D’après la formule de Bayes
P(BR|AV)
P(AV|BR) =
P(BR|AV)P(AV) + P(BR|AR)P(AR)
http://laurentb.garcin.free.fr 6
© Laurent Garcin MPSI Lycée Jean-Baptiste Corot
Soit (Ω, P) un espace probabilisé fini. On dit que deux événements A et B sont indépendants si P(A ∩ B) =
P(A)P(B).
Proposition 2.8
Soit (Ω, P) un espace probabilisé fini. Soient A et B deux événements avec P(B) > 0. Alors A et B sont
indépendants si et seulement si P(A|B) = P(A)
Exemple 2.6
Une urne contient 3 boules blanches et 4 boules noires. On tire successivement deux boules avec remise. On
s’intéresse aux événements suivants :
I B1 : « la première boule tirée est blanche » ;
I B2 : « la seconde boule tirée est blanche ».
Les événements B1 et B2 sont indépendants.
On effectue la même expérience mais sans remise. Les événements B1 et B2 ne sont pas indépendants.
Attention ! Dire que deux événements sont indépendants ne signifient pas qu’ils sont incompatibles.
Au contraire, deux événements incompatibles ne sont généralement pas indépendants à moins que l’un d’entre
eux soit de probabilité nulle.
Soient (Ω, P) un espace probabilisé fini et (Ai )i∈I une famille finie d’événements. On dit que (Ai )i∈I est une
famille d’événements mutuellement indépendants si
Ñ é
\ Y
∀J ⊂ I, P Aj = P(Aj )
j∈J j∈J
Remarque. Il découle directement de la définition que toute sous-famille d’une famille d’événements mutuel-
lement indépendants est encore une famille d’événements mutuellement indépendants.
Attention ! Si (Ai )i∈I est une famille finie d’événements mutuellement indépendants alors les Ai sont
indépendants deux à deux. Cependant, la réciproque est fausse.
Exemple 2.7
On lance deux dés discernables et on s’intéresse aux résultats affichés par ces deux dés. On note
I A1 l’événement « le résultat du dé no 1 est pair » ;
I A2 l’événement « le résultat du dé no 2 est pair » ;
I A3 l’événement « la somme des résultats des deux dés est impaire.
On a clairement
1
I P(A1 ) = P(A2 ) = P(A3 ) = 2 ;
1
I P(A1 ∩ A2 ) = P(A1 ∩ A3 ) = P(A2 ∩ A3 ) = 4 ;
ce qui prouve que les événements A1 , A2 et A3 sont deux à deux indépendants.
Cependant P(A1 ∩ A2 ∩ A3 ) = 0 6= P(A1 )P(A2 )P(A3 ), ce qui prouve que les événement A1 , A2 et A3 ne sont
pas mutuellement indépendants.
http://laurentb.garcin.free.fr 7
© Laurent Garcin MPSI Lycée Jean-Baptiste Corot
Exercice 2.1
On appelle variable aléatoire sur Ω toute application dont l’ensemble de départ est Ω.
Exemple 3.1
On considère l’expérience aléatoire consistant à lancer deux dés. La somme S des deux chiffres est une variable
aléatoire réelle. De plus, X(Ω) = J2, 12K.
Notation 3.1
Soient (Ω, P) un espace probabilisé fini et X une variable aléatoire sur l’univers Ω.
Pour toute partie A de X(Ω), X−1 (A) est une partie de Ω donc un événement. L’événement X−1 (A) se note
plutôt X ∈ A. Si A est un singleton {x}, l’événement X−1 ({x}) se note plutôt X = x.
On peut alors parler des probabilités P(X ∈ A) et P(X = x).
Si X est une variable aléatoire réelle et x ∈ R, alors P(X ∈] − ∞, x]) et P(X ∈ [x, +∞[) se note alors plutôt
P(X 6 x) et P(X > x) respectivement.
Remarque. Si X est une variable aléatoire sur Ω, alors X = xx∈X(Ω) est un système complet d’événements.
X
En particulier, P(X = x) = 1.
x∈X(Ω)
Exemple 3.2
On considère l’expérience aléatoire consistant à lancer trois fois une pièce et on note X le nombre de «face»
obtenu. L’univers de cette expérience aléatoire est
I L’événement X = 1 est en fait l’événement X−1 ({1}), c’est-à-dire {FPP, PFP, PPF}.
I L’événement X > 2 est en fait l’événement X−1 ([2, +∞[) ou encore X−1 ({2, 3}), c’est-à-dire
{FFP, FPF, PFF, FFF}.
Soient (Ω, P) un espace probabilisé fini et X une variable aléatoire sur Ω. On appelle loi de X l’application
P(X(Ω)) −→ [0, 1]
PX : .
A 7−→ P(X ∈ A)
http://laurentb.garcin.free.fr 8
© Laurent Garcin MPSI Lycée Jean-Baptiste Corot
Notation 3.2
Proposition 3.1
Soient (Ω, P) un espace probabilisé fini et X une variable aléatoire sur Ω. Alors PX est une probabilité sur
l’univers fini X(Ω).
Corollaire 3.1
Soient (Ω, P) un espace probabilisé fini et X une variable aléatoire sur Ω. Alors PX est entièrement déterminée
par la donnée des P(X = x) pour x ∈ X(Ω).
Remarque. C’est pour cela qu’en pratique, lorsque l’on demande la loi d’une variable aléatoire X sur Ω, on
ne demande pas P(X ∈ A) pour tout A ∈ P(X(Ω)) mais P(X = x) pour tout x ∈ X(Ω).
Soient (Ω, P) un espace probabilisé fini et X une variable aléatoire sur Ω. On dit que X suit une loi uniforme
sur E si
1
∀x ∈ E, P(X = x) =
card E
Soient (Ω, P) un espace probabilisé fini et X une variable aléatoire sur Ω à valeurs dans {0, 1}. On dit que X
suit une loi de Bernoulli de paramètre p ∈ [0, 1] si P(X = 1) = p et donc P(X = 0) = 1 − p.
Pour abréger, on dira que X suit la loi B(p).
Fonction indicatrice
Soient (Ω, P) un espace probabilisé fini et A une partie de Ω. La fonction indicatrice de A est une variable
aléatoire suivant une loi de Bernoulli de paramètre P(A).
Soient (Ω, P) un espace probabilisé fini et X une variable aléatoire sur Ω à valeurs dans J0, nK. On dit que X
suit une loi binomiale de paramètres n ∈ N∗ et p ∈ [0, 1] si P(X = k) = n k
k p (1 − p)
n−k
pour tout k ∈ J0, nK.
Pour abréger, on dira que X suit la loi B(n, p).
http://laurentb.garcin.free.fr 9
© Laurent Garcin MPSI Lycée Jean-Baptiste Corot
Exemple 3.3
On dispose d’une urne comportant q boules blanches et r boules noires. On tire successivement n boules dans
l’urne avec remise. On note X la variable aléatoire totalisant le nombre de boules
Ä blanches
ä tirées et Y la
Ä variable
ä
q r
aléatoire totalisant le nombre de boules noires tirées. Alors X suit la loi B n, q+r et Y suit la loi B n, q+r .
Soient (Ω, P) un espace probabilisé fini, X une variable aléatoire sur Ω et f : X(Ω) → E. Alors Y = f ◦ X est
une variable aléatoire sur Ω.
Notation 3.3
Soient (Ω, P) un espace probabilisé fini, X une variable aléatoire sur Ω et f : X(Ω) → E. Alors la loi de Y = f(X)
P(Y(Ω)) −→ [0, 1]
est l’application .
A 7−→ P(X ∈ f−1 (A))
Exemple 3.4
Si X est une variable aléatoire suivant la loi uniforme sur J−2, 2K, Y = X2 est une variable aléatoire à valeurs
dans {0, 1, 4} et
1
P(Y = 0) = P(X = 0) =
5
2
P(Y = 1) = P(X = −1) + P(X = 1) =
5
2
P(Y = 4) = P(X = −2) + P(X = 2) =
5
Soient (Ω, P) un espace probabilisé fini, X une variable aléatoire sur Ω et B ∈ P(Ω) tel que P(B) > 0. On
P(X(Ω)) −→ [0, 1]
appelle loi de X conditionnée par l’événement B l’application PX|B : .
A 7−→ P(X ∈ A|B)
Remarque. A nouveau, quand on demande en pratique la loi conditionnelle de X conditionnée par l’événement
B, on se contente de donner P(X = x|B) pour tout x ∈ X(Ω) plutôt que P(X ∈ A|B) pour tout A ∈ P(X(Ω)).
http://laurentb.garcin.free.fr 10
© Laurent Garcin MPSI Lycée Jean-Baptiste Corot
Soient X et Y deux variables aléatoires sur un univers Ω. On note (X, Y) la variable aléatoire
Ω −→ X(Ω) × Y(Ω)
.
ω 7−→ (X(ω), Y(ω))
Remarque. La loi conjointe de X et Y est entièrement déterminée par la donnée des P((X, Y) = (x, y)) pour
(x, y) ∈ X(Ω) × Y(Ω).
En pratique, lorsque l’on demande la loi conjointe du couple (X, Y), on se contente de donner P((X, Y) = (x, y))
pour tout (x, y) ∈ X(Ω) × Y(Ω).
Si (X, Y) est un couple de variables aléatoires, on appelle lois marginales de (X, Y) les lois de X et Y.
Proposition 3.3
http://laurentb.garcin.free.fr 11
© Laurent Garcin MPSI Lycée Jean-Baptiste Corot
Exemple 3.5
On tire simultanément 2 boules dans une urne contenant 4 boules numérotées de 1 à 4. On note U le plus
petit et V le plus grand des deux nombres obtenus. Quelle est la loi conjointe de U et V ? Quelles sont les lois
marginales ?
On a ici Ω = {{1, 2}, {1, 3}, {1, 4}, {2, 3}, {2, 4}, {3, 4}} et on considère tous les événements équiprobables. U est à
valeurs dans {1, 2, 3} et V est à valeurs dans {2, 3, 4}. On peut résumer la loi conjointe de U et V ainsi que les
lois marginales grâce au tableau suivant.
V
2 3 4 P(U=u)
U
1 1 1 1
1 6 6 6 2
1 1 1
2 0 6 6 3
1 1
3 0 0 6 6
1 1 1
P(V=v) 6 3 2
Proposition 3.4
http://laurentb.garcin.free.fr 12
© Laurent Garcin MPSI Lycée Jean-Baptiste Corot
Remarque. Si X et Y sont des variables aléatoires indépendantes, la connaissance des lois marginales de
(X, Y) permet de restituer la loi conjointe de X et Y.
Exercice 3.1
Montrer que deux événements A et B sont indépendants si et seulement si les variables aléatoires 1A et 1B
sont indépendantes.
Soient (Ω, P) un espace probabilisé fini et (Xi )i∈I une famille finie de variables aléatoires.
On dit que (Xi )i∈I est une famille de variables aléatoires mutuellement indépendantes si
Y Y
!
\
∀(Ai )i∈I ∈ P(Xi (Ω)), P Xi ∈ Ai = P(Xi ∈ Ai )
i∈I i∈I i∈I
Proposition 3.5
Soient (Ω, P) un espace probabilisé fini et (Xi )i∈I une famille finie de variables aléatoires.
(Xi )i∈I est une famille de variables aléatoires mutuellement indépendantes si et seulement si
Y Y
!
\
∀(xi )i∈I ∈ Xi (Ω), P Xi = xi = P(Xi = xi )
i∈I i∈I i∈I
Remarque. Toute sous-famille d’une famille finie de variables mutuellement indépendantes est une famille de
variables aléatoires mutuellement indépendantes.
Attention ! Si des variables aléatoires sont mutuellement indépendantes, alors ces variables aléatoires sont
indépendantes deux à deux mais la réciproque est fausse.
Exemple 3.6
Soit X et Y deux variables aléatoires indépendantes de loi uniforme sur {−1, 1}. On pose Z = XY. Alors X, Y, Z
sont deux à deux indépendantes mais pas mutuellement indépendantes.
Exercice 3.2
Montrer que (Ai )i∈I est une famille d’événements mutuellement indépendants si et seulement si (1Ai )i∈I
est une famille de variables aléatoires mutuellement indépendantes.
Proposition 3.6
Soient (Ω, P) un espace probabilisé fini, p ∈ [0, 1] et X1 , . . . , Xn des variables aléatoires mutuellement indépen-
dantes suivant la loi B(p).
Alors la variable aléatoire X1 + · · · + Xn suit la loi B(n, p).
Remarque. Cela permet de redémontrer le fait que le nombre de succès dans la répétition de n fois la même
épreuve de Bernoulli de paramètre p suit la loi B(n, p).
http://laurentb.garcin.free.fr 13
© Laurent Garcin MPSI Lycée Jean-Baptiste Corot
Proposition 3.7
Soient (Ω, P) un espace probabilisé fini, X et Y deux variables aléatoires indépendantes sur Ω.
Soient f et g des applications définies respectivement sur X(Ω) et Y(Ω). Alors les variables aléatoires f(X) et
g(Y) sont indépendantes.
Soient (Ω, P) un espace probabilisé fini et X une variable aléatoire réelle sur Ω. On appelle espérance de X
le réel X X
E(X) = P({ω})X(ω) = P(X = x)x
ω∈Ω x∈X(Ω)
Remarque. L’espérance de X ne dépend que de la loi de X : deux variables aléatoires réelles suivant la même
loi ont la même espérance.
La réciproque est fausse.
Remarque. L’espérance de X est la moyenne des valeurs prises par X pondérées par leurs probabilités respec-
tives.
Exemple 4.1
Soient (Ω, P) un espace probabilisé fini et X une variable aléatoire réelle sur Ω. On dit que X est centrée si
E(X) = 0.
Remarque. En termes plus savants, l’espérance est une forme linéaire sur le R-espace vectoriel des variables
aléatoires réelles sur Ω.
http://laurentb.garcin.free.fr 14
© Laurent Garcin MPSI Lycée Jean-Baptiste Corot
Soient (Ω, P) un espace probabilisé fini, X une variable aléatoire sur Ω et f une application de X(Ω) dans R.
Alors X X
E(f(X)) = P({ω})f(X(ω)) = P(X = x)f(x)
ω∈Ω x∈X(Ω)
Exercice 4.1
Remarque. Si (X, Y) est un couple de variables aléatoires et f une application de X(Ω) × Y(Ω) dans R, alors
X
E(f(X, Y)) = f(x, y)P(X = x, Y = y)
(x,y)∈X(Ω)×Y(Ω)
X X
= f(x, y)P(X = x, Y = y)
x∈X(Ω) y∈Y(Ω)
X X
= f(x, y)P(X = x, Y = y)
y∈Y(Ω) x∈X(Ω)
Proposition 4.4
Soient (Ω, P) un espace probabilisé fini, X et Y des variables aléatoires réelles sur Ω. Si X et Y sont indépen-
dantes, alors E(XY) = E(X)E(Y).
Attention ! La réciproque est fausse. Il suffit de prendre X suivant la loi uniforme sur {−1, 1} et Y = X.
Soient (Ω, P) un espace probabilisé fini, X une variable aléatoire réelle sur Ω et k ∈ N. On appelle moment
d’ordre k de X le réel E Xk .
Remarque. L’espérance d’une variable aléatoire est donc son moment d’ordre 1.
http://laurentb.garcin.free.fr 15
© Laurent Garcin MPSI Lycée Jean-Baptiste Corot
Remarque. On appelle moment centré d’ordre k d’une variable aléatoire réelle X le réel E (X − E(X))k .
Soient (Ω, P) un espace probabilisé fini, X et Y deux variable aléatoires réelles sur Ω.
On appelle covariance de X et Y le réel
Positivité Soit X une variable aléatoire réelle sur Ω. Alors Cov(X, X) > 0.
Remarque. En termes plus savants, la covariance est une forme bilinéaire symétrique positive sur le R-espace
vectoriel des variables aléatoires réelles sur Ω.
Cependant la covariance n’est pas un produit scalaire car non définie.
Proposition 4.6
Soient (Ω, P) un espace probabilisé fini, X et Y des variables aléatoires réelles sur Ω.
Si X et Y sont indépendantes, alors Cov(X, Y) = 0.
Remarque. Si Cov(X, Y) = 0, on dit que X et Y sont non-corrélées. Ainsi l’indépendance implique la non-
corrélation mais la réciproque est fausse.
Soient (Ω, P) un espace probabilisé fini et X une variable aléatoire réelle sur Ω.
On appelle variance de X le réel positif
Ä 2
ä
V(X) = Cov(X, X) = E (X − E(X)) = E(X2 ) − E(X)2
p
On appelle écart-type de X le réel positif σ(X) = V(x).
Remarque. La variance d’une variable aléatoire est donc son moment centré d’ordre 2.
http://laurentb.garcin.free.fr 16
© Laurent Garcin MPSI Lycée Jean-Baptiste Corot
Remarque. On a donc
X 2
X 2
V(X) = P({ω}) (X(ω) − E(X)) = P(X = x) (x − E(X))
ω∈Ω x∈X(Ω)
ou encore Ñ é
X X
!
V(X) = P({ω})X(ω)2 − E(X)2 = P(X = x)x2 − E(X)2
ω∈Ω x∈X(Ω)
Soient (Ω, P) un espace probabilisé fini, X et Y des variables aléatoires réelles sur Ω. Alors
Soient (Ω, P) un espace probabilisé fini et X et Y deux variables aléatoires réelles sur Ω. Alors
» »
| Cov(X, Y)| 6 V(X) V(Y) = σ(X)σ(Y)
Cov(X,Y)
Remarque. Le réel σ(X)σ(Y) est un réel compris entre −1 et 1. On l’appelle le coefficient de corrélation
de X et Y. Il mesure l’intensité de la «liaison» entre deux variables aléatoires.
Soient (Ω, P) un espace probabilisé fini et X1 , . . . , Xn des variables aléatoires réelles sur Ω deux à deux
indépendantes. Alors
V(X1 + · · · + Xn ) = V(X1 ) + · · · + V(Xn )
Soient (Ω, P) un espace probabilisé fini et X une variable aléatoire réelle sur Ω. On dit que X est réduite si
V(X) = 1.
Proposition 4.10
Soient (Ω, P) un espace probabilisé fini, X une variable aléatoire réelle sur Ω et (a, b) ∈ R2 .
Alors V(aX + b) = a2 V(X).
http://laurentb.garcin.free.fr 17
© Laurent Garcin MPSI Lycée Jean-Baptiste Corot
Corollaire 4.2
Soient (Ω, P) un espace probabilisé fini, X une variable aléatoire réelle sur Ω telle que σ(X) > 0.
Alors X−E(X)
σ(X) est une variable aléatoire centrée réduite.
Soient (Ω, P) un espace probabilisé fini, X une variable aléatoire réelle positive sur Ω et a ∈ R∗+ . Alors
E(X)
P(X > a) 6
a
Si on ne suppose plus X positive, on peut affirmer que
E(|X|)
P(|X| > a) 6
a
Soient (Ω, P) un espace probabilisé fini, X une variable aléatoire réelle sur Ω et α ∈ R∗+ . Alors
V(X) σ(X)2
P (|X − E(X)| > ε) 6 =
ε2 ε2
Exemple 4.2
Soient X1 , . . . , Xn des variables aléatoires indépendantes et de même loi. On note m leur espérance commune
1 X
n
2
et σ leur écart-type commun et on pose X̄n = Xk . Alors V(X̄n ) = σn et d’après l’inégalité de Bienaymé-
n
k=1
Tchebychev, pour tout ε ∈ R∗+ ,
σ2
P X̄n − m > ε 6
nε2
En particulier
lim P X̄n − m > ε = 0
n→+∞
http://laurentb.garcin.free.fr 18