Cours Probabilités
Cours Probabilités
Cours Probabilités
COURS DE
CALCUL DES PROBABILITÉS.
1 Esapce probabilisé 5
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2.2 Univers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.3 Événement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.4.2 Probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1
Contents
2
Contents
3.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
3
Contents
4.2.5 Indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
4.3.3 Indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
4.5.3 Approximations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
4
Esapce probabilisé
1
1.1 Introduction
La théorie des probabilités a été originellement motivée par l’analyse des jeux de hasard, notamment
par le jeu de dès et de cartes. C’est à propos de ce type de problèmes que Pascal, Fermat et Bernoulli
ont construit les premiers principes du calcul des probabilités au 16 ème siècle.
Au 18 ème siècle, Laplace et d’autres mathématiciens ont développé une théorie rigoureuse qui a
fait des probabilités une branche particulière des mathématiques et aussi une science très importante.
Les probabilités occupent aujourd’hui une place centrale dans la plupart des sciences. Tout d’abord,
de par ses applications pratiques : en tant que base des statistiques, elle permet l’analyse des données
recueillies lors d’une expérience, lors d’un sondage, etc. ; elle a également conduit au développement
de puissants algorithmes stochastiques pour résoudre des problèmes inabordables par une approche
5
Chapter 1. Esapce probabilisé
déterministe; elle possède en outre de nombreuses applications directes, par exemple en fiabilité, ou
dans les assurances et la finance. D’un côté plus théorique, elle permet la modélisation de nom-
breux phénomènes, aussi bien en sciences naturelles (physique, chimie, biologie, etc.) qu’en sciences
humaines (économie, sociologie, par exemple) et dans d’autres disciplines (médecine, climatologie,
informatique, réseaux de communication, traitement du signal, etc.).
Elle s’est même révélée utile dans de nombreux domaines de mathématiques pures (algèbre, théorie
des nombres, combinatoire, etc.) et appliquées (EDP, par exemple).
Finalement, elle a acquis une place importante en mathématiques de par son intérêt intrinsèque, et,
de par sa versatilité, possède un des spectres les plus larges en mathématiques, allant des problèmes
les plus appliqués aux questions les plus abstraites.
Le concept de probabilité est devenu aujourd’hui familier à tout type de problème dans n’importe
quel domaine. Nous sommes constamment confrontés à des événements dépendant d’un grand nombre
de facteurs hors de notre contrôle ; puisqu’il nous est impossible dans ces conditions de prédire exacte-
ment quel en sera le résultat, on parle de phénomènes aléatoires. Ceci ne signifie pas nécessairement
qu’il y ait quelque chose d’intrinsèquement aléatoire à l’œuvre, mais simplement que l’information à
notre disposition n’est que partielle.
Quelques exemples : le résultat d’un jeu de hasard (pile ou face, jet de dé, roulette, loterie, etc.), la
durée de vie d’un atome radioactif, d’un individu ou d’une ampoule électrique, le nombre de gauchers
dans un échantillon de personnes tirées au hasard; le bruit dans un système de communication; la
fréquence d’accidents de la route, le nombre de SMS envoyés la nuit du 31 décembre, le nombre
d’étoiles doubles dans une région du ciel, la position d’un grain de pollen en suspension dans l’eau,
l’évolution du cours de la bourse, la fiabilité d’un composant électrique, le contrôle de qualité d’une
production, etc.
On peut ainsi définir la théorie de probabilité comme étant une étude des phénomènes aléatoires:
les phénomènes caractérisés par le hasard et l’incertitude, en construisant un modèle mathématique
convenable permettant de bien gérer et maitriser ces phénomènes.
6
Chapter 1. Esapce probabilisé
Le but de la théorie des probabilités est de fournir un modèle mathématique pour décrire les phénomènes
aléatoires. Sous sa forme moderne, la formulation de cette théorie contient quatre ingrédients :
l’experience aléatoire, l’univers, les événements, et la mesure de probabilité.
Une expérience est dite aléatoire lorsqu’on ne peut en prévoir exactement le résultat. C’est un
processus dans lequel intervient le hasard et qui est susceptible de produire différents résultats ; elle
se caractérise de quatre façons :
Un événement élémentaire, ou une issue, est un événement qui peut se réaliser ou non au cours
d’une expérience aléatoire. C’est l’un des résultats possible d’une expérience aléatoire.
Exemple :
1. Le jet d’un dé numéroté de 1 à 6 est une expérience aléatoire car le résultat du jet est
imprévisible.
3. Position d’une particule en suspension dans un liquide. Sa position à un instant t donné peut
être un point quelconque du liquide.
7
Chapter 1. Esapce probabilisé
1.2.2 Univers
La théorie moderne des probabilités utilise le langage des ensembles pour modéliser une expérience
aléatoire.
L’univers d’une expérience aléatoire, que l’on note habituellement par Ω, est l’ensemble de tous
les résultats possibles, ou les événements élémentaires, de cette expérience. On l’appelle également
l’espace des observables, l’espace échantillon ou encore l’ensemble fondamental.
Exemples
1. Le lancer d’un dé avec six faces : Ω = {1, 2, 3, 4, 5, 6}. Ω est ici fini.
3. La position d’une particule dans un liquide: Ω est ici infini non dénombrable.
1.2.3 Événement
En théorie des probabilités, un événement lié à une expérience aléatoire est un sous-ensemble des
résultats possibles pour cette expérience (c’est-à-dire un certain nombre d’événements élémentaires
de l’univers lié à l’expérience).
Un événement étant souvent défini par une proposition, nous devons pouvoir dire, connaissant le
résultat de l’expérience aléatoire, si l’événement a été réalisé ou non au cours de cette expérience.
On dit qu’un événement est réalisé si un des événements élémentaires qui le constitue est réalisé.
Exemple
• Soit l’expérience qui consiste à jeter une pièce de monnaie deux fois et de noter le côté qui
apparaı̂t. Ainsi, l’univers est
Ω = {f f, f p, pf, pp}
8
Chapter 1. Esapce probabilisé
• Soit l’expérience qui consiste à lance deux fois successivement un dé. Ainsi, l’univers est
Ω = {(m, n) ∈ {1, 2, 3, 4, 5, 6}2 }
À l’aide des opérations sur les ensembles, nous pouvons, à partir d’un ou de plusieurs événements,
en former de nouveaux.
Avec ce mode de représentation, les opérations logiques sur les événements : ”et”, ”ou”, ”négation”
se traduisent par des opérations ensemblistes : intersection, réunion, passage au complémentaire.
Voici un tableau de correspondance entre les deux langages
9
Chapter 1. Esapce probabilisé
Définition.
Une tribu ou σ-algèbre, notée F ⊆ P(Ω) avec P(Ω) représente l’ensemble de toutes les parties de
Ω, est une classe d’événements associée à Ω vérifiant:
1. Ω ∈ F; ∅ ∈ F
2. Si A ∈ F ⇒ Ā ∈ F;
S T
3. Si (An )n∈N ∈ F ⇒ n≥0 An ∈ F et n≥0 An ∈ F.
Le couple (Ω, F) est appelé espace probabilisable ou espace mesurable et A ∈ F est appelé ensemble
mesurable.
Exemple :
10
Chapter 1. Esapce probabilisé
P(Ω) = {∅, {0}, {1}, {2}, {0, 1}, {0, 2}, {1, 2}, Ω}
Remarque:
• Si Ω infini non dénombrable, on ne peut plus prendre F = P(Ω) (i.e on ne peut plus considérer
que tous les éléments de P(Ω) sont des événements).
Dans ce cas l’ensemble des événements est une partie F de P(Ω) vérifiant certains conditions.
1.2.4.2 Probabilité
La probabilité d’un événement A de F est une valeur numérique qui mesure la chance qu’il a
de se réaliser. Autrement dit, la probabilité est le pourcentage de ”chances” que cet événement
se réalise. Par exemple si un événement a 25 chances sur 100 de se réaliser, on dira que sa probabilité
est de 25% (ou 0,25 ou 1/4).
Cette définition montre que la probabilité est toujours comprise entre 0 et 1, et que la proba-
bilité d’un événement A est la somme des probabilités de chacun des événements élémentaires qui le
constituent. Enfin, la somme des probabilités de tous les éléments de Ω est 1.
Important : rappelons qu’un événement n’est rien d’autre qu’une partie de Ω. Une probabilité
associe à chaque événement un nombre entre 0 et 1. Il s’agit donc d’une application de la tribu F
dans [0, 1].
Définition 1. On appelle probabilité sur Ω, ou aussi une mesure de probabilité, toute application
P : F → [0, 1]
11
Chapter 1. Esapce probabilisé
telle que :
3. P (Ω) = 1.
n
X n
X
Si Ω = {ω1 , ω2 , . . . , ωn }, on peut poser pi = P (ωi ) et on a P (Ω) = P (ωi ) = pi = 1
i=1 i=1
Définition. Deux événements aléatoires A et B associés à une même expérience aléatoire sont dits
incompatibles ou disjoint, ou encore exclusifs, s’ils ne peuvent pas se réaliser simultanément, c’est-à-
dire lorsque l’intersection des sous-ensembles A et B est vide :A ∩ B = ∅.
Exemple :
12
Chapter 1. Esapce probabilisé
A et B ne sont pas incompatibles car leur intersection n’est pas vide: 2 appartient aux deux en-
sembles.
Soit (Ai ), i = 1, . . . , n une famille d’événements de Ω, l’univers d’une expérience aléatoire. (Ai )i=1,...,n
est appelée partition de Ω, ou encore système complet d’événements, si elle vérifie les deux conditions
suivantes:
Sn
1. i=1 Ai = Ω
Dans ce cas, on a:
p(A1 ∪ A2 ∪ ... ∪ An ) = p(A1 ) + ... + p(An ) = 1
13
Chapter 1. Esapce probabilisé
Remark 1.2.2 Un événement A de Ω et son événement contraire Ā forment une partition de Ω car
on a :
•A ∩ Ā = ∅
•A ∪ Ā = Ω
En effet:
X X
1 = P (Ω) = P (ω) = p = p × card(Ω)
ω∈Ω ω∈Ω
1 1
D’où p = = , pour tout ω ∈ Ω.
card(Ω) n
Attention ! Cette formule n’est valable que lorsque les événements élémentaires sont bien équiprobables
(Ω fini). Dans ce cas, il suffit de savoir calculer le cardinal des ensembles considérés pour calculer les
probabilités.
On est maintenant en mesure de modéliser des expériences aléatoires simples, c’est-à dire :
• choisir Ω,
14
Chapter 1. Esapce probabilisé
Attention, pour décrire une probabilité, il faut donner P(A) pour tout A ∈ F(A ⊂ Ω). Ou alors,
on peut plus simplement donner P (ω) pour tout ω ∈ Ω. Le lecteur déduira P(A) pour tout A d’aprés
la définition d’une probabilité.
Énonçons à présent quelques propriétés élémentaires, mais extrêmement importantes pour le calcul
de probabilité.
Theorem 1.2.1 Toute mesure de probabilité P sur un ensemble Ω possède les propriétés suivantes.
1. P(Ω)=1.
2. Pour toute suite d’événements (Ak )k≥1 incompatibles deux à deux ( c’est à dire Ai ∩ Aj = ∅
pour tout i ̸= j), on a Alors,
[ X
P ( Ai ) = P (Ai ) (σ-additivité)
i∈N i∈N
Démonstration :
Corollary 1.2.1 Toute application P : F → [0, 1] possédant les propriétés 1 et 2 du théorème possède
également les propriétés suivantes.
2. P (∅) = 0
15
Chapter 1. Esapce probabilisé
4. Pour tout A ⊂ B ⊂ Ω, on a :
P (A) ≤ P (B) (Monotonicité)
6. Pour tout A, B ⊂ Ω
P (A ∪ B) = P (A) + P (B) − P (A ∩ B)
7. Pour tout A, B, C ⊂ Ω, on a
P (A ∪ B ∪ C) = P (A) + P (B) + P (C) − P (A ∩ B) − P (A ∩ C) − P (B ∩ C) + P (A ∩ B ∩ C)
8. Plus généralement,
! pour tout collection finie A1 , A2 , . . . , An , on a !
[n n
X X X n
\
P Ai = P (Ai )− P (Ai ∩Aj )+ P (Ai ∩Aj ∩Ak )−. . .+(−1)n+1 P Ai
i=1 i=1 1≤i<j≤n 1≤i<j<k≤n i=1
Démonstration
5. On applique la propriété d’additivité finie sur la famille (Bk )nk=1 construite par la façon suivante
: B1 = A1 et, pour k ≥ 2, Bk = Ak \ k−1
S Sn Sn
i=1 Bi . On a alors k=1 Ak = k=1 Bk pour tout n,
Bi ∩ Bj = ∅ si i ̸= j, et Bk ⊂ Ak pour tout k. Par conséquent,
[n [n Xn Xn
P ( Ak ) = P ( Bk ) = P (Bk ) ≤ P (Ak )
k=1 k=1 k=1 k=1
16
Chapter 1. Esapce probabilisé
Quelle est la probabilité d’avoir un cancer du poumon, si la personne fume une vingtaine de
cigarettes par jour?
17
Chapter 1. Esapce probabilisé
•Utilisation 2 : quand P (B/A) et P(A) sont faciles à trouver, on peut obtenir P (A ∩ B).
De plus, la probabilité conditionnelle sachant A, P (./A), est une nouvelle probabilité et possède
donc toutes les propriétés d’une probabilité.
Pour plusieurs événements, on utilise la formule des probabilités composée généralisée suivante :
Exemple:
Une urne contient initialement 7 boules noires et 3 boules blanches. On tire successivement 3 boules
: si on tire une noire, on l’enlève, si on tire une blanche, on la retire, et on ajoute une noire à la place.
Quelle est la probabilité de tirer 3 blanches à la suite ?
On note Bi l’événement ”La i-ème boule tirée est blanche”. La probabilité recherchée est :
P (B1 ∩ B2 ∩ B3 ) = P (B1 )P (B2 |B1 )P (B3 |B1 ∩ B2 )
Clairement, P (B1 ) = 3/10. Maintenant, si B1 est réalisé, avant le 2ème tirage, l’urne est constituée
de 8 boules noires et 2 blanches. On a donc : P (B2 |B1 ) = 2/10. Si B1 et B2 sont réalisés, avant le
3ème tirage, l’urne est constituée de 9 boules noires et 1 blanche. On en déduit P (B3 |B1 ∩B2 ) = 1/10.
Finalement
P (B1 ∩ B2 ∩ B3 ) = 3/10 × 2/10 × 1/10 = 6/1000 = 3/500
18
Chapter 1. Esapce probabilisé
Remark 1.3.1 • Si deux événements A et B sont indépendants, alors il en est de même pour A et
B̄ , Ā et B, Ā et B̄.
• Deux événements incompatibles A et B, avec P (A) > 0 et P (B) > 0, ne sont jamais indépendants.
En effet, A ∩ B = ∅ entraine P (A ∩ B) = 0 ̸= P (A)P (B).
• totalement indépendant si :
Exemple :
19
Chapter 1. Esapce probabilisé
• totalement indépendant si :
• mutuellement indépendant si :
Exercice :
Donc les événements A,B et C sont donc 2 à 2 indépendants, mais ne sont pas totalement
20
Chapter 1. Esapce probabilisé
En théorie des probabilités, la formule des probabilités totales est un théorème qui permet de calculer
la probabilité d’un événement en le décomposant suivant un système complet d’événements, dit aussi
une partition de Ω.
Démonstration :
Comme A ∪ Ā = Ω, on a
P (B) = P (B ∩ Ω) = P (B ∩ (A ∪ Ā)) = P ((B ∩ A) ∪ (B ∩ Ā))
Or (B ∩ A) et (B ∩ Ā) ont incompatibles. On en déduit :
P (B) = P (B ∩ A) + P (B ∩ Ā)) = P (A)P (B/A) + P (Ā)P (B/Ā)
n
X
P (B) = P (Ai )P (B/Ai )
i=1
Exemple :
21
Chapter 1. Esapce probabilisé
Une urne contient 7 boules jaunes et 3 boules noires. On effectue deux tirages successifs sans remise
dans cette urne. Quelle est la probabilité que la deuxième boule tirée soit jaune ?
On a :
P (N1 ) = 3/10, P (J1 ) = 7/10
P (J2 /N1 ) = 7/9, P (J2 /J1 ) = 6/9 = 2/3
On cherche P (J2) :
La formule des probabilités totales permet de suivre les étapes de l’expérience aléatoire dans l’ordre
chronologique. Nous allons maintenant voir une formule à remonter le temps...
Il arrive dans certains problèmes pratiques qu’on ait besoin de probabilités a posteriori du type
P (Ai /B), alors que, à partir de considérations théoriques ou de données historiques, on connaisse
plutôt les probabilités a priori P (Ai ) et les probabilités conditionnelles P (B/Ai ). Le théorème de
Bayes indique comment obtenir les probabilités désirées sous certaines hypothèses sur les événements
22
Chapter 1. Esapce probabilisé
Ai , i = 1, . . . , n.
Proposition 1.3.4 (Formule de Bayes) Soit A et B deux événements tels que 0 < P (A) < 1 et
P (B) > 0. Alors,
P (B/A)P (A)
P (A/B) =
P (A)P (B/A) + P (Ā)P (B/Ā)
Démonstration On a :
P (A ∩ B)
P (A/B) =
P (B)
Le résultat est donc obtenu en utilisant la formule des probabilités composées et la formule des
probabilités totales.
Proposition 1.3.5 (Formule de Bayes généralisée) Soient B un événement de probabilité non nulle,
et A1 , . . . , An une partition de Ω. Alors pour tout i = 1, . . . , n, on a :
P (Ai )P (B/Ai )
P (Ai /B) = n , i = 1, . . . , n
X
P (Aj )P (B/Aj )
j=1
Exemple :
on sait que dans une population 5 hommes sur 100 sont daltoniens, contre 25 femmes sur 10 000.
Un daltonien est choisi au hasard dans la population ; quelle est la probabilité que ce soit un homme
? (on admettra qu’il y a autant d’hommes que de femmes dans la population).
23
Chapter 1. Esapce probabilisé
d’où
P (H/D) = 20/21
24
Chapter 1. Esapce probabilisé
2. “Dans une classe de 24 élèves, on doit élire deux délégués de classe. Combien existe-t-il de
paires différentes possibles ?”
4. Un digicode est composé d’une lettre A ou B suivi de 3 chiffres. Combien y a-t-il de codes
possibles ?
5. Un digicode est composé d’une lettre quelconque suivi de 3 chiffres. Combien y a-t-il de codes
possibles ?
6. On veut garer 3 voitures sur un parking de 6 places. Combien y a-t-il de possibilités de trois
places vides ?
1. Les arrangements
2. Les permutations
3. Les combinaisons
Principe de base
25
Chapter 1. Esapce probabilisé
Les arrangements
Etant donné un ensemble E de n objets, on appelle arrangement de p objets toute suites ordonnées
de p objets pris parmi les n objets. Le nombre d’arrangement de p objets pris parmi n est noté: Apn .
Remarque:
1. Arrangement avec répétition: Lorsqu’un objet peut être observé ou utilisé plusieurs fois
dans un arrangement. Dans ce cas, les p objets de la liste ne sont pas nécessairement tous
distincts, cela correspond à un tirage avec remise et avec ordre.
Le nombre d’arrangement de p objets parmi n avec répétition est donné par :
Apn = np , avec 1 ≤ p
26
Chapter 1. Esapce probabilisé
Exemple: Combien de nombres de cinq chiffres peut-on former avec les chiffres 1 et 2?
2. Arrangement sans répétition: Lorsque chaque objet ne peut être observé ou utilisé qu’une
seule fois dans un arrangement. Dans ce cas les p objets de la liste sont tous distincts, cela
correspond à un tirage sans remise et avec ordre.
Le nombre d’arrangement de p objets parmi n sans répétition est donné par :
n!
Apn = , avec 1 ≤ p ≤ n
(n − p)!
Exemple: Combien de nombres de deux chiffres distincts peut-on former avec les chiffres 5, 6,
7, 8, 9 ?
Remarque: Pour les arrangements, l’ordre d’écriture est très important: par exemple dans le
2ème exemple, les nombres 56 et 65 sont différents.
Les permutations
27
Chapter 1. Esapce probabilisé
Exemple:
• Le nombre de manières de placer 8 convives autour d’une table est:
P8 = 8! = 40320
n!
Pn =
n1 !n2 !...nk !
Exemple: Considérons le mot ”CELLULE”. Le nombre de mots possible (avec ou sans signi-
fication) que l’on peut écrire en permutant ces 7 lettres est:
7!
P7 =
2!3!
en considérant deux groupes de lettres identiques: L(3 fois) et E(2 fois).
Les combinaisons
Définition :
28
Chapter 1. Esapce probabilisé
On appelle une combinaison de p objets parmi n toute disposition non ordonnée de p éléments
distincts choisis parmi les n (1 ≤ p ≤ n).
Remarque:
1. Pour les combinaison, l’ordre n’intervient pas et n’influence pas sur le résultat.
Remarque: Une combinaison n’est pas caractérisée par l’ordre des objets. L’équipe qui con-
tient les personnes 1 etf 2 ne diffère pas de l’équipe contenant les personnes 2 et 1.
29
Chapter 1. Esapce probabilisé
Propriétés
Pour p ≤ n, la combinaison Cnp est appelée aussi coefficient binomial et elle vérifie les propriétés
suivantes :
Cnp = Cnn−p
p
Cnp = Cn−1 p−1
+ Cn−1
Les deux relations donnent lieu au triangle de Pascal qui permet un calcul rapide des coeffi-
cients pour de petites valeurs de n :
30
Chapter 1. Esapce probabilisé
Les coefficient binomiaux sont les coefficients qui apparaissent en développant la puissance n-ième
de a + b :
Xn
(a + b)n = Cnp ap bn−p
p=0
Par exemple, en regardant la cinquième ligne du triangle de Pascal, on obtient immédiatement que
:
31
Variable aléatoire discrète
2
2.1 Exemple introductif
Dans de nombreuses expériences aléatoires, on n’est pas intéressé directement par le résultat de
l’expérience, mais par une certaine fonction de ce résultat. Considérons par exemple l’expérience
suivante : dans une urne contenant 3 boules rouges et 2 boules blanches, on tire simultanément 2
boules et on considère le jeu suivant : on gagne 2E pour chaque boule rouge tirée et on perd -3E pour
chaque boule blanche tirée.
Le gain éventuel n’est pas connu avant le jeu, donc c’est un nombre aléatoire que l’on note X et
qui peu prendre les valeurs suivantes : -6, -1, +4 (les réalisations de la variable aléatoire réelle).
32
Chapter 2. Variable aléatoire discrète
Une variable aléatoire est une grandeur numérique dont la valeur dépend du résultat d’une expérience
aléatoire.
Definition 2.1.1 On appelle tribu borélienne (également appelée tribu de Borel ou tribu des boréliens)
de R, notée B(R) ou encore B, la plus petite tribu sur R contenant tous les ensembles ouverts de R.
Les éléments de la tribu borélienne sont appelés des boréliens. et on dit que (R, B) est un espace
mesurable ou probabilisable.
f : (Ω1 , F1 ) → (Ω1 , F2 ) est une fonction mesurable (on dit aussi (F1 , F2 )-mesurable ) si :
∀A ∈ F2 , f −1 (A) ∈ F1 ,
X:Ω→R
ω → X(ω) = x
qui est (F, B)-mesurable, c’est à dite telle que :
∀A ∈ B, X −1 (A) ∈ F
c.à.d :
∀b ∈ R, X −1 (] − ∞, b[) ∈ F,
33
Chapter 2. Variable aléatoire discrète
• On appelle support de la variable aléatoire réelle X l’ensemble X(Ω) = {X(ω), ω ∈ Ω} des valeurs
prises par X. On le note aussi Im(X).
Remarque :
1. Si X(Ω) est fini ou infini dénombrable, on parlera de variable aléatoire discrète (v.a.d).
2. Si X(Ω) est infini non dénombrable, on parlera de variable aléatoire continue (v.a.c).
Remarque: Dans ce chapitre, nous nous focaliserons sur les variables aléatoires discrètes : c’est
à dire lorsque X(Ω) est fini ou bien lorsque X(Ω) est infini et dénombrable. Les variables aléatoires
continues seront vues au chapitre suivant.
Definition 2.2.1 Soit Ω un univers muni d’une probabilité P, et soit X une v.a.r sur Ω et PX sa
mesure de probabilité associée. On appelle loi de probabilité de X, ou encore la probabilité image,
notée PX , l’application
PX : B(R) → [0, 1]
A → PX (A) = P (X ∈ A)
avec
PX (A) = P (X −1 (A)) = P (X ∈ A) = P ({ω ∈ Ω : X(ω) ∈ A})
Si on appelle L cette loi, on dit que X suit la loi L et on note X ∼ L.
Remarque :
34
Chapter 2. Variable aléatoire discrète
X:Ω→R
′
Y :Ω →R
Si PX = PY , on dit que X et Y sont de même loi, ou équidistribuées.
Definition 2.2.2 Pour une variable aléatoire discrète, PX est nulle partout sauf sur l’ensemble dis-
cret X(Ω) des valeurs prises par X. Ainsi, la loi de probabilité d’une v.a.d est caractérisée par :
les probabilités attribuées à chacune des valeurs potentiellement prises P(X = x). Dans ce cas,
la loi de la variable aléatoire est la loi de probabilité sur l’ensemble des valeurs possibles de X
qui affecte la probabilité P (X = xk ) au singleton xk , pour tout xk de X(Ω).
Si X(Ω) = {x1 , . . . , xn }, la loi de probabilité de X est définie par la suite:
p1 = P (X = x1 ), . . . , pn = P (X = xn ),
avec n
X
pk ≥ 0, ∀k = 1, 2, ..., n et pk = 1.
k=1
Exemples :
1. On lace un dé et on note par X le numéro obtenu. Donc on a X(Ω) = {1, 2, 3, 4, 5, 6}. La loi
de probabilité de X est
xi 1 2 3 4 5 6
P (X = xi ) 1/6 1/6 1/6 1/6 1/6 1/6
35
Chapter 2. Variable aléatoire discrète
2. On lance trois fois une pièce régulière. Lorsqu’il sort pile, on gagne 1E, s’il sort face 0E. Soit X
le gain obtenu par le joueur. L’expérience aléatoire considérée a 8 éventualités équi-probables :
Ω = {F F F, F F P, F P F, P F F, F P P, P F P, P P F, P P P }
et à chaque éventualité ω ∈ Ω, correspond une valeur X(ω) du gain X.
On peut résumer ceci par un tableau :
xi 0 1 2 3
P (X = xi ) 1/8 3/8 3/8 1/8
La fonction de répartition a été introduite en statistique pour répondre rapidement à des questions
de type : quelle est le pourcentage d’individus ayant au moins ..., ou au plus...
Definition 2.3.1 Soit X une v.a définie sur (Ω, F, P ). On appelle fonction de répartition de la v.a
X, la fonction FX définie par :
FX : R −→ [0, 1]
x −→ FX (x) = P (X ≤ x)
36
Chapter 2. Variable aléatoire discrète
Pour X une v.a.d prenant les valeurs classées xi avec les probabilités pi , on a
X
FX (x) = P (X ≤ x) = pi .
xi ∈X(Ω),xi ≤x
Propriétés :
1. ∀x ∈ R, F (x) ∈ [0, 1]
5. ∀a ∈ R, P (X ≤ a) = F (a)
7. ∀a ∈ R, P (X > a) = 1 − F (a)
37
Chapter 2. Variable aléatoire discrète
Definition 2.4.1 Soit X une variable aléatoire discrète avec X(Ω) = {x1 , ..., xn }. L’espérance
mathématique de X représente sa valeur moyenne. Elle est définit par
X n n
X
E[X] = xi p(X = xi ) = xi p(xi )
i=1 i=1
E(a) = a
E(aX + b) = aE(X) + b
38
Chapter 2. Variable aléatoire discrète
Moment d’ordre k (k ∈ N+ )
n
X n
X
E[X k ] = xki p(X = xi ) = xki p(xi )
i=1 i=1
n
X
E[(X − E[X])k ] = (xi − E[X])k p(X = xi )
i=1
La variance d’une variable aléatoire est l’espérance mathématique des carrés des écarts par rapport
à l’espérance. Elle mesure la dispersion de X autour de son espérance. Elle est définit par:
X n
2
V (X) = E[(X − E(X)) ] = (xi − E[X])2 p(X = xi ) = E(X 2 ) − E(X)2
i=1
L’écart-type de la variable X est égale à la racine carrée de la variance :
p
σ(X) = V (X)
Plus l’écart-type est grand, plus la variable est dispersée autour de l’espérance. Plus l’écart-type est
petit, plus les valeurs de X sont concentrées autour de l’espérance.
Le coefficient de dispersion CD (ou encore le coefficient de variation CV) est définie par:
σ(X)
CD = ,
E[X]
il mesure la dispersion des valeurs de X autour de son espérance. Plus la valeur du coefficient de
variation est élevée, plus la dispersion autour de la moyenne est grande. Il est généralement exprimé
en pourcentage. Sans unité, il permet la comparaison de distributions de valeurs dont les échelles de
mesure ne sont pas comparables.
39
Chapter 2. Variable aléatoire discrète
V(a)=0
V (aX) = a2 V (X)
V (aX + b) = a2 V (X)
Si X et Y sont indépendantes, on a
V (X + Y ) = V (X) + V (Y ) et V (X − Y ) = V (X) + V (Y )
X − E[X]
En particulier, si Y = , alors E[Y]=0 et σ(Y ) = 1. Dans ce cas, on dit que Y est une
σ(X)
variable centrée réduite.
Exemple :
On lance un dé. On perd 2 euros si on tire 1 ou 2, on gagne 0,5 euros si on tire 3 et enfin on gagne
1euro si on tire 4, 5 ou 6.
On a ainsi X(Ω) = {−2, 0.5, 1}. La loi de probabilité de la variable aléatoire X est donc donnée
par le tableau :
xi -2 0.5 1
1 1 1
P (X = xi )
3 6 2
Concrètement, elle signifie que si on joue un très grand nombre de fois à ce jeu, en moyenne, on
−1
perd d’euro par partie.
12
Pour la variance de X, on a :
2
2 2 1 2 1 2 1 2 −1 269
V (X) = E[X ] − E[X] = × (−2) + × (0.5) + × 1 − =
3 6 2 12 144
40
Chapter 2. Variable aléatoire discrète
et donc √
p 269
σ(X) = V (X) =
12
En théorie des probabilités, une loi de probabilité décrit le comportement aléatoire d’un phénomène
dépendant du hasard.
Une probabilité est dite discrète si elle est associée à une variable aléatoire discrète.
La loi de Bernoulli intervient dans le cas d’une seule expérience aléatoire à laquelle on associe un
événement aléatoire quelconque à deux issues: succès et échec par exemple (vrai ou faux). Soit X la
variable aléatoire qui caractérise
( cette expérience, on a:
X = 0, si le résultat est un échec,
X = 1, si le résultat est un succès.
La variable aléatoire X qui caractérise le nombre de succès au cours d’une seule expérience aléatoire
est appelée variable de Bernoulli, elle prend les valeurs entières 0 et 1 avec les probabilités respec-
tives q et p.
Une variable aléatoire X qui suit une loi de Bernoulli de paramètres p, est désignée par : X ∼ B(p).
41
Chapter 2. Variable aléatoire discrète
P2
Espérance mathématique: E(X) = i=1 xi pi (x) = 0 × q + 1 × p = p
Exemple: On lance une pièce de monnaie une seule fois. Soit X la variable aléatoire qui caractérise
le nombre de pile obtenus. X est une variable de Bernoulli, elle prend les valeurs entières 0 et 1 avec
la probabilité constante 0,5, càd:
P (X = 1) = 0.5 et P (X = 0) = 1 − 0.5 = 0.5
La loi binomiale intervient dans le cas de plusieurs expériences aléatoires identiques et indépendantes
dont l’issue est un succès ou un échec.
La réalisation de l’événement au cours de chacune des expériences est appelée succès et la prob-
abilité de réalisation est dite probabilité de succès, désignée par p. Par contre la non réalisation de
l’événement est appelée échec et la probabilité de non réalisation est dite probabilité d’échec, désignée
par q = 1 − p.
La probabilité d’obtenir k succès et donc (n-k) échecs au cours de n expériences aléatoires indépendantes
est:
P (X = k) = Cnk pk (1 − p)n−k , ∀k ∈ X(Ω)
42
Chapter 2. Variable aléatoire discrète
La variable Bernoulli est un cas particulier de la loi binomiale, elle correspond à la loi binomiale
de paramètres 1 et p.
Une variable binomiale de paramètres n et p, peut être considérée comme étant la somme de n
variables de Bernoulli identiques et indépendantes de même paramètre p. On peut donc écrire
X = X1 + X2 + . . . , +Xn
Avec Xi (i=1 à n) est une variable de Bernoulli telle que :
E(Xi ) = p, V (Xi ) = pq
Exemple: On lance une pièce de monnaie 20 fois de suite. Ces expériences sont identiques et
indépendantes. On considère comme succès ”obtenir Pile” et comme échec ”obtenir Face”. Soit X
la variable aléatoire qui caractérise le nombre de succès. Soit p la probabilité de succès au cour de
chaque lancer, donc p=1/2. On calcule la probabilité d’obtenir 15 succès (donc 5 échec):
15 15
P (X = 15) = C20 p (1 − p)5
La loi de poisson, ou encore loi des événements rares, intervient pour un événement qui se répète
plusieurs fois pendant une période de temps déterminée et avec une moyenne donnée notée λ, tel que
les périodes sont indépendantes.
Exemple :
43
Chapter 2. Variable aléatoire discrète
Exemple
Si un standard téléphonique peut recevoir en moyenne 5 appels par minute, quelle est la probabilité
qu’il reçoive 30 appels dans un laps de temps de 10 minutes? Soit la variable aléatoire X qui caractérise
le nombre d’appel reçus pendant 10 minutes. X suit la loi de poisson de paramètre λ = 5 × 10 = 50.
Donc on a :
e−50 × 5030
P (X = 30) = = 6.77 × 10−4
30!
Lorsque n devient grand, le calcul des probabilités d’une loi binomiale devient très fastidieux. On
va donc, sous certaines conditions, trouver une approximation de P(X = k) plus manipulable. On
constate le comportement asymptotique : si n → ∞ et p → 0, alors X : B(n, p) → P(λ) avec np = λ,
k k n−k λk e−λ
c.à.d : P (X = k) = Cn p (1 − p) → .
k!
Remarque : cette approximation est correcte dès que
n > 30,
p ≤ 0.1,
n × p < 15.
44
Chapter 2. Variable aléatoire discrète
Répétons continuellement et d’une façon indépendante une épreuve de Bernoulli, avec une probabilité
de succès p ∈]0, 1[. Le nombre des épreuves n’étant pas fixé.
Si X est la variable aléatoire à valeur dans N∗ nécessaire pour obtenir le premier succès ( on dit
aussi le rang du premier succès), alors X suit une loi géométrique de paramètre p et note : X ∼ G(p).
On dit pour cela que la loi géométrique est la loi du premier succès. On a :
X(Ω) = N∗
P (X = k) = q k−1 p
Exemple: Une urne contient 4 boules blanches et 6 boules rouges. On effectue des tirages succes-
sives et avec remises jusqu’à obtenir une boule blanche. Quelle est la probabilité d’avoir une boule
blanche la troisième tentatives?
Soit X la variable aléatoire qui caractérise le rang du premier succès (avoir une boule blanche). On
a X suit une loi géométrique de paramètre p=0.4. Donc :
45
Chapter 2. Variable aléatoire discrète
La loi hypergéométrique de paramètres associés n, p et N est une loi de probabilité discrète, décrivant
le modèle suivant :
On tire sans remise (simultanément ou successivement sans remise (mais cela induit un ordre)) n
objets d’un ensemble de N objets dont N1 = pN possèdent une caractéristique particulière, et les
autres N2 = qN ne la possèdent pas, avec p+q=1 et N1 + N2 = N .
X(Ω) = {0, 1, . . . , n}
N1 N2
k n−k
P (X = k) = N
n
Il est nécessaire que p soit un réel compris entre 0 et 1, que pN soit entier et que n ≤ N . Lorsque
ces conditions ne sont pas imposées, l’ensemble des possibles X(Ω) est l’ensemble des entiers entre
max(0, n − N2 ) et min(N1 , n).
L’espérance d’une variable aléatoire X suivant une loi hypergéométrique de paramètres (n,p,N), est
la même que celle d’une variable binomiale de paramètres (n,p) :
46
Chapter 2. Variable aléatoire discrète
E(X) = np
La variance d’une variable aléatoire suivant une loi hypergéométrique de paramètres (n,p,N) est :
N −n
V (X) = npq
N −1
dont on remarque qu’elle tend vers la variance de la loi binomiale npq, lorsque N tend vers l’infini.
Exemple :
On tire simultanément 4 boules dans une urne contenant 10 boules gagnantes et 15 boules perdantes.
On compte alors le nombre de boules gagnantes extraites dans l’échantillon de 4 boules choisies et
on appelle X la variable aléatoire donnant ce nombre. Quelle est la probabilité d’avoir 3 boules
gagnantes?
10
On a X suit la loi hypergéométrique de paramètres n=4, p = = 0.4 et N=25. Donc la probabilité
25
d’avoir 3 boules gagnantes est :
10 15
3 1 120 × 15
P (X = 3) = 25
= = 0.14
4
12650
Convergence :
Lorsque N tend vers l’infini, la loi hypergéométrique converge vers une loi binomiale de paramètres
n et p. D’ailleurs, intuitivement, pour N grand, tirer simultanément n boules revient à effectuer n fois
une épreuve de Bernoulli dont la probabilité de succès serait p est la proportion de boules gagnantes
dans l’ensemble des boules, car il est très peu probable de retomber sur la même boule, même si on
la replace dans l’urne.
47
Variable aléatoire continue
3
3.1 Définition
Une variable X : Ω −→ R est dite continue si l’ensemble X(Ω) est infini non dénombrable. On
l’utilise quand on veut mesurer des grandeurs “continues” (distance, masse, pression, taille, poids, la
durée de vie...).
Comme il y a une infinité de nombres dans X(Ω), la probabilité qu’un nombre en particulier (par
exemple a ∈ X(Ω)) sorte est nulle. On a :
P (X = a) = 0.
Dans le cas d’une variable aléatoire continue, on s’intéresse à la probabilité des événements suivants :
P (a ≤ X ≤ b), P (X ≤ b) ou P (X ≤ a)
48
Chapter 3. Variable aléatoire continue
avec a,b ∈ R.
Définition
Une variable aléatoire X est dite continue, ou encore à densité, s’il existe une fonction f définie sur R
décrivant la loi de la v.a. X en ce sens :
Z b
P (a ≤ X ≤ b) = f (x)dx ∀a, b ∈ R
a
Z x
F (x) = P (X ≤ x) = f (x)dx ∀x ∈ R.
−∞
où f est une fonction intégrable sur R satisfaisant les conditions suivantes
1. f (x) ≥ 0, ∀x ∈ R
R
2. R f (x)dx = 1, ∀x ∈ R
Une fonction qui vérifie les conditions 1. et 2. est appelée densité de probabilité ou fonction de
densité.
Remarque
Rb
1. La probabilité P (X ∈ [a, b]) = a f (x)dx correspond à l’aire de la surface comprise entre la
courbe de f et l’axe des abcisses sur l’intervalle [a, b].
Proposition
49
Chapter 3. Variable aléatoire continue
La fonction de répartition F d’une v.a. X de densité f est continue et croissante. Elle est dérivable
en tout point x où f est continue et F ′ (x) = f (x). On a la relation:
P (a ≤ X ≤ b) = P (a < X ≤ b) = F (b) − F (a)
- sa densité
ou
ou
Propriétés:
La définition nous permet d’écrire:
Rx
1. F (x) = P (X ∈] − ∞, x]) = −∞
f (x)dx.
Rb
2. P (a ≤ X ≤ b) = P (X ≤ b) − P (X ≤ a) = a f (t)dt = F (b) − F (a), ∀a, b ∈ R
R +∞
3. P (X > b) = b f (t)dt = 1 − P (X ≤ b) = 1 − F (b), ∀b ∈ R.
Remarque :
Pour une variable aléatoire continue, pour tout a ∈ R on a
P (X = a) = 0
On a donc :
Exemple: Voici quelques exemples des fonctions de densité ainsi que leurs courbes.
50
Chapter 3. Variable aléatoire continue
1. Espérance mathématique
Soit X une v.a continue admettant une densité f, l’espérance mathématique de X, noté E(X),
est le réel Z +∞
E(X) = xf (x)dx
−∞
une v.a.c X est dite centrée si et seulement si son espérance est nulle: E(X) = 0.
Si X admettant une espérance non nulle, alors la v.a X − E(X) est centrée.
2. Variance
51
Chapter 3. Variable aléatoire continue
Soit X une v.a continue. On appelle variance de X, noté V(X), le réel positif
Z +∞
V (X) = E[(X − E(X))2 ] = (x − E(x))2 f (x)dx
−∞
ou encore
Z +∞ Z +∞ 2
2 2 2
V (X) = E[X ] − E[X] = x f (x)dx − xf (x)dx
−∞ −∞
3. Ecart-type
On appelle écart-type de X le réel, noté σ(X), définit par:
p
σ(X) = V (X)
Propriété 3:
Soient X et Y deux variables aléatoires continues admettant une espérance et une variance, alors pour
tout a, b ∈ R, on a :
1. E(aX+b)=aE(X)+b
2. V (aX + b) = a2 V (X)
3. σ(aX + b) = |a|σ(X)
4. E(X+Y)=E(X)+E(Y)
5. E(X-Y)=E(X)-E(Y)
Si de plus X et Y sont indépendantes,
6. V(X+Y)=V(X)+V(Y)
7. V(X-Y)=V(X)+V(Y)
52
Chapter 3. Variable aléatoire continue
La loi uniforme est utilisée pour modéliser une grandeur aléatoire qui prend au hasard ses valeurs dans
un intervalle [a,b] de R. Pour cette loi, tous les intervalles de même longueur inclus dans l’intervalle
[a,b] ont la même probabilité. Cela se traduit par le fait que la densité de probabilité de cette loi est
constante sur [a,b].
Exemple 2 Lors d’une étude du comportement animal, on a relaché des oiseaux dont l’orientation
a été rendue très difficile. On s’attend alors à ce que les oiseaux choisissent au hasard leur direction.
On peut modéliser la direction prise par un oiseau de la façon suivante. On considère X l’angle entre
le nord et la direction prise par l’oiseau (selon le sens des aiguilles d’une montre). La variable X suit
une loi uniforme entre 0 et 360 degrés.
Propriétés :
53
Chapter 3. Variable aléatoire continue
Cette densité de probabilité permet en général de modéliser des durées de vie d’êtres non soumis au
vieillissement (par exemple, la durée de vie d’une bactérie) ou des temps d’attente (par exemple, le
temps d’attente entre deux signaux synaptiques)
Définition. Soit λ > 0, on dit que X suit une loi exponentielle de paramètre λ si sa densité de
probabilité est donnée par (
λe−λx si x > 0,
f (x) =
0 sinon
On note X ∼ E(λ).
Exemple 1: La durée de vie d’un agenda électronique, exprimé en année, peut être représentée
par une variable aléatoire continue X qui suit une loi exponentielle de paramètre λ = 4 × 10−2 . On
cherche la probabilité que la durée de vie de cet agenda dépasse
Z 3 ans. On a :
3
P (X > 3) = 1 − P (X ≤ 3) = 1 − λe−λx dx.
−∞
Exemple 2 :Dans une substance radioactive, la désintegration des noyaux se fait de façon spon-
tanée. Le nombre de désintegration sur un intervalle de temps fixé suit une loi de Poisson. Par contre
le temps d’attente entre deux désintégrations est modélisé par une loi exponentielle.
Propriété :
Dans le cas d’une variable aléatoire continue X qui suit une loi exponentielle de paramètre λ, on a
1 1
E(X) = et V (X) = 2
λ λ
54
Chapter 3. Variable aléatoire continue
Remarque :La loi exponentielle est la seule loi continue qui vérifie la propriété d’absence de
mémoire : Si X ∼ E(λ), alors pour tout s, t > 0P (X > t + s|X > t) = P (X > s). La loi exponentielle
est celle de la mortalité des êtres qui ne seraient pas soumis au vieillissement : à chaque moment ils
ont la même probabilité de mourir dans l’unité de temps qu’il leur reste, quelque soit leur âge.
La loi Normale, ou la loi Gaussienne, est une loi centrale dans la théorie des probabilités. Elle est
notamment très utilisée en statistique. Une grandeur influencée par un grand nombre de paramètres
indépendants est souvent modélisée par une loi normale (par exemple, les erreurs de mesures lors
d’une expérience ou la durée de vie d’une population).
Définition. On dit que X suit la loi normale de paramètre m et σ si elle admet comme densité de
probabilité la fonction suivante:
1 x − m !2
1 −
f (x) = √ e 2 σ
2πσ 2
Propriétés :
Si X une variable aléatoire continue qui suit une loi normale, alors :
E(X) = m et σ(X) = σ.
Ainsi les paramètres d’une loi normale sont en fait son espérance mathématique m et son écart-type σ.
Remarque :
La fonction de répartition correspondante à la loi normale n’a pas de formule simple. Donc, pour
55
Chapter 3. Variable aléatoire continue
On pourrait étudier cette loi précisément mais on passant par la loi normale centrée réduite.
Définition :
On dit que X suit une loi normale centré réduite de paramètre m = 0 et σ = 1, et on note X ∼ N (1, 0),
si sa fonction de densité est la suivante:
−1 2
1 x
f (x) = √ e 2
2π
On note Φ la fonction de répartition de la loi normale centrée réduite. Elle est définie, pour tout
réel x, par
Z x
−1 2
1 x
Φ(x) = √ e 2 dx
−∞ 2π
Φ est la primitive de f qui tend vers 0 en −∞; cette primitive ne s’exprime pas à l’aide des fonctions
usuelles mais devient elle-même une fonction usuelle, importante, pour quiconque pratique le calcul
des probabilités ou les statistiques. Les valeurs de cette fonction peuvent donc se trouver sous la
forme d’une table ou directement dans des logiciels de calcul statistique.
La courbe de la densité de la loi normale N (1, 0) porte le nom de “courbe en cloche”. Elle tend
vers 0 en l’infini, est croissante sur R− , puis décroissante. Elle admet donc un maximum en 0. On
peut voir aussi qu’elle est symétrique, de centre de symétrie 0.
Remarque :
56
Chapter 3. Variable aléatoire continue
La loi normale N (0, 1) est une des plus importantes dans la théorie des probabilités, ainsi qu’elle est
tabulée. La table donne les valeurs des probabilités Φ(x) = P (X ≤ x) pour différentes valeurs de x,
avec x ≥ 0.
Propriétés de Φ:
Soit X une variable aléatoire continue qui suit une loi normale centrée réduite, alors on peut utiliser
les propriétés suivantes:
−x2
Ra 1
1. P (X ≤ a) = −∞
√ e 2 dx = Φ(a)
2π
2. P (X ≥ a) = 1 − Φ(a)
La loi N (0, 1) est tabulée et la table donne les valeurs de Φ(x) pour des valeurs de x positives.
57
Chapter 3. Variable aléatoire continue
Calcul de P (X ≤ 1, 36) :
Le nombre situé à l’intersection de la colonne 0,06 et de la ligne 1,3 est la valeur de la fonction de
répartition de X pour x = 1, 3 + 0, 06 = 1, 36.
Ainsi, P (X ≤ 1, 36) = Φ(1, 36) = 0, 9131.
Calcul de P (X ≥ 1, 25) :
Remarque:
On peut également utiliser la table ≪ à l’envers ≫, pour déterminer a tel que P (X ≤ a) = p pour
p donné. Autrement dit, on cherche a tel que a = Φ−1 (p).
58
Chapter 3. Variable aléatoire continue
On a 0,77 n’est pas dans la table, donc on doit chercher les valeurs les plus proches.
D’après la table on a 0, 7673 < 0, 77 < 0, 7704, donc la valeur t cherchée vérifie 0, 73 < t < 0, 74.
On a 0,1271 n’est pas dans la table et vérifie 0, 1271 < 0, 5, donc la valeur de a est négative.
NB : Retenez que pour une loi normale centrée réduite, si Φ(a) < 0, 5, alors a < 0.
Le résultat suivant montre comment passer d’une loi normale N (m, σ) à une loi normale centrée
réduite N (0, 1).
Proposition:
X −m
Soit X une v.a continue qui suit une loi normale N (m, σ), avec σ > 0 et m ∈ R. On pose Z = ,
σ
alors Z suit une loi normale centrée réduite N (0, 1). Réciproquement, si Y une v.a continue qui suit
′
une loi normale centrée réduite, alors Y = σY + m suit une loi normale N (m, σ).
Ce résultat est très important, puisqu’alors il nous suffit d’étudier la loi normale centrée réduite
puis de procéder à un changement de variable pour obtenir n’importe quelle valeur de la loi normale.
Exemple :
Soit X une variable aléatoire qui suit une loi normale de paramètre m = 12 et σ = 3.
59
Chapter 3. Variable aléatoire continue
X −m X − 12
On pose Y = = .
σ 3
Calcul de P (X ≤ 16) :
On a
4
X ≤ 16 ⇐⇒ Y ≤
3
Donc
P (X ≤ 16) = P (Y ≤ 1.33) = Φ(1.33)
D’après la table de la loi normale centrée réduite, on a :
P (X ≤ 16) = F (1.33) = 0.9082
Calcul de P (9 ≤ X ≤ 15) :
Une variable X suit la loi Log-Normale LN (m, σ) si ln(X) suit la loi normale N (m, σ).
Cette loi permet de modéliser par exemple le temps de survie des bactéries en présence de désinfectant,
le dosage de certains médicaments . . .
(ln(x) − m)2
1 −
2σ 2
f (x) = √ e si x > 0,
σx 2π
0 sinon
Si X ∼ LN (m, σ), on a
2 2 2 /2
E(X) = em+σ /2 et V (X) = (eσ − 1)em+σ
60
Chapter 3. Variable aléatoire continue
La loi de Weibull est utilisée en démographie pour modéliser le veillissement et en épidémiologie pour
modéliser la distribution de probabilité de la durée d’incubation d’une maladie infectieuse.
Une variable aléatoire X suit la loi de Weibull W (a, b), aveca, b > 0 si sa fonction de densité est :
a−1
a x
x
exp −( )a si x > 0,
f (x) = b b b
0 sinon
Sa fonction de répartition est définie par: x
F (x) = 1 − exp −( )a avec x > 0.
b
On constate que pour a = 1, on retrouve la loi exponentielle. La loi exponentielle est celle de la
mortalité des être vivants qui ne seraient pas soumis au vieillissement : à chaque moment ils ont la
même probabilité de mourir dans l’unité de temps qu’il leur reste, quelque soit leur âge. Plus a est
grand plus le vieillissement se fait pesant (la mortalité augmente avec l’âge). Le cas a < 1 correspond
à un monde dans lequel plus on vieillirait, moins forte serait la probabilité de mourir dans l’unité de
temps qui vient.
Une variable aléatoire X suit la loi Gamma de paramètres (a, b), noté Γ(a, b), si sa fonction de densité
est définie par
ba −bx a−1
e x si x > 0,
f (x) = Γ(a)
0 sinon
avec Z +∞
Γ(a) = e−x xa−1 dx est la fonction Gamma d’Euler.
0
61
Chapter 3. Variable aléatoire continue
Si X ∼ Γ(a, b), on a
a a
E(X) = et V (X) =
b b2
Une variable aléatoire X suit la loi de Pareto de paramètres k et x0 ∈ R∗+ , si elle admet pour densité
de probabilité la fonction :
kxk0
si x ≥ x0 ,
f (x) = xk+1
0 sinon
et on note X ∼ Part(k, x0 ).
62
COUPLE DE VARIABLES ALÉATOIRES
4
4.1 Définitions
Définition
Un couple de variables aléatoires sur (Ω, F, P ) est un couple (X, Y ), où X et Y sont des variables
aléatoires réelles sur (Ω, F, P ).
Dans ce qui suit on désignera de façon générale par (X, Y ) un couple de variables aléatoires. On
ne considèrera que des couples où les deux variables sont de même nature, discrètes ou continues, et
on ne s’intéressera pas au cas mixte.
Exemple:
Exemple. 1. On lance deux dés à 6 faces (un jaune et un rouge). On considère les deux variables
63
Chapter 4. COUPLE DE VARIABLES ALÉATOIRES
aléatoires X et Y représentant respectivement le plus petit résultat et le plus grand résultat. Alors
(X, Y ) est un couple fini tel que X(Ω) = {1, . . . , 6} et Y (Ω) = {1, . . . , 6}
Remarque.
Pour tous réels x dans X(Ω) et y dans Y (Ω), on note {X = x, Y = y} ou {(X, Y ) = (x, y)}
l’événement {X = x} ∩ {Y = y}.
Attention, cet événement peut être vide. En effet, dans le premier exemple avec les dés, l’événement
{X = 4, Y = 3} est impossible, même si les événements {X = 4} et {Y = 3} peuvent chacun être
réalisés avec une probabilité non nulle.
Définition.
On appelle support ou univers image du couple (X, Y ), noté (X, Y )(Ω), l’ensemble des valeurs
prises par (X, Y ) tel que :
Définition.
Soient X et Y deux variables aléatoires discrètes définies sur le même espace probabilisé (Ω, F, P ).
On notera X(Ω) = {xi , i ∈ I} et Y (Ω) = {yj , j ∈ J}, l’ensemble des valeurs, ordonnées, prises
respectivement par X et Y (où I = {1, . . . , k} et J = {1, . . . , p} sont des ensembles d’entiers). On
appelle couple (X, Y ) l’application
(X, Y ) : Ω → R2
ω → (X(ω), Y (ω))
Alors, l’ensemble (X, Y )(Ω) des valeurs prises par le couple (X, Y ) est inclus dans l’ensemble des
couples de réels suivants {(xi , yj ), (i, j) ∈ I × J}.
64
Chapter 4. COUPLE DE VARIABLES ALÉATOIRES
Le support d’un couple peut être difficile à déterminer. Cependant il est inclus dans X(Ω) × Y (Ω).
En effet on a :
On se contentera donc de déterminer X(Ω) × Y (Ω) et de tenir compte des événements impossibles.
Exemple.
1. Minimum et maximum de deux dés. On a X(Ω) × Y (Ω) = {1, . . . , 6}2 . . Cependant l’ensemble
des événements qui peuvent se réaliser est
(X, Y )(Ω) = {(i, j) ∈ {1, . . . , 6}2 , i ≤ j}.
Définition.
Proposition
{((xi , yj ), pi,j ), (i, j) ∈ I × J} est la loi d’un couple de variables discrètes si et seulement si pij ≥ 0
P
pour tout (i, j) ∈ I × J et (i,j)∈I×J pij = 1.
65
Chapter 4. COUPLE DE VARIABLES ALÉATOIRES
Les variables X et Y sont appelées variables marginales du couple (X, Y ) et leurs lois, appelées loi
marginale de X et loi marginale de Y peuvent être obtenues de la façon suivante :
Supposons connue la loi du couple (X, Y ) : {((xi , yj ), pij ), (i, j) ∈ IJ}. On cherche maintenant à
connaı̂tre la loi de X i.e. l’ensemble des couples (xi , P (X = xi )), i ∈ I. Or la famille des événements
{(Y = yj ), j ∈ J} forme un système complet d’événements, donc d’après la formule des probabilités
totales appliquée à ce système complet d’événements, on obtient :
X X
pi. := P (X = xi ) = p(xi ) = P ((X = xi ) ∩ (Y = yj )) = pij .
j∈J j∈J
De même, la loi de Y s’obtient à l’aide de la formule des probabilités totales appliquée au système
complet d’événements {(X = xi ), i ∈ I}:
X X
p.j := P (Y = yj ) = P (yj ) = P ((X = xi ) ∩ (Y = yj )) = pij .
i∈I i∈I
On pourra représenter la loi conjointe ainsi que les lois marginales par un tableau à double entrée.
Exemple:
66
Chapter 4. COUPLE DE VARIABLES ALÉATOIRES
Dans une urne contenant 4 boules blanches, 6 boules noires et 10 boules rouges, on prélève au hasard
et avec remise 3 boules.
Soient la variable aléatoire X qui représente le nombre de boules blanches obtenues, et la variable
aléatoire Y qui représente le nombre de boules noires obtenues.
P(0 et 0) est la probabilité que les trois boules tirées soient rouges, les prélèvements sont indépendants
(tirage avec remise), on peut donc écrire :
10 10 10
p(0, 0) = = 0.125
20 20 20
P(0 et 1) est la probabilité que deux boules tirées soient rouges et une noire, il y a trois possibilités,
on peut donc écrire :
10 10 6
p(0, 0) = 3 = 0.225
20 20 20
P(0 et 2) est la probabilité que deux boules tirées soient noires et une rouge, il y a trois possibilités,
on peut donc écrire :
6 6 10
p(0, 2) = 3 = 0.135
20 20 20
P(1 et 0) est la probabilité que deux boules tirées soient rouges et une blanche, il y a trois possibilités,
on peut donc écrire :
10 10 4
p(1, 0) = 3 = 0.15
20 20 20
P(1 et 1) est la probabilité qu’une boule tirée soit blanche, et une noire et une rouge, il y a six
possibilités, on peut donc écrire :
4 10 6
p(1, 1) = 3 = 0, 18
20 20 20
P(1 et 2) est la probabilité que deux boules tirées soient noires et une blanche, il y a trois possibilités,
on peut donc écrire :
6 6 4
p(1, 2) = 3 = 0, 054
20 20 20
P(2 et 0) est la probabilité que deux boules tirées soient blanches et une rouge, il y a trois possibilités,
on peut donc écrire :
4 4 10
p(2; 0) = 3 = 0.06
20 20 20
P(2 et 1) est la probabilité qu’une boule tirée soit noire, et deux blanches, il y a trois possibilités, on
peut donc écrire :
6 4 4
p(2, 1) = 3 = 0, 036
20 20 20
67
Chapter 4. COUPLE DE VARIABLES ALÉATOIRES
P(2 et 2) est la probabilité que deux boules tirées soient noires et deux blanches, ce qui est impossible
car on tire que trois boules. On peut donc écrire :
P (2, 2) = 0
La loi de probabilités du couple de variables aléatoires (X,Y) est :
pij pij
P (X = xi /Y = yj ) = =
p(yj ) p.j
pij pij
P (Y = yj /X = xi ) = =
p(xi ) pi.
Définition.
Soit (X, Y ) un couple de variables aléatoires. On appelle fonction de répartition conjointe de (X,
Y ) la fonction F : R2 → R définie par
F (x, y) = P (X ≤ x et Y ≤ y)
68
Chapter 4. COUPLE DE VARIABLES ALÉATOIRES
4.2.5 Indépendance
Définition.
P (X = xi ∩ Y = yj ) = P (X = xi) × P (Y = yj )
ou encore
pij = pi. × p.j
Théorème
Proposition
Les v.a. X et Y sont indépendantes si et seulement si toutes les lois conditionnelles sont identiques
aux lois marginales.
Exemple :
1. On lance deux dés à six faces (un rouge, et un bleu). On appelle X le numéro de la face du dé
bleu, et Y le numéro de la face du dé rouge. On appelle S la somme des faces obtenues.
69
Chapter 4. COUPLE DE VARIABLES ALÉATOIRES
1
2. On donne deux variables aléatoires discrètes X vérifiant P (X = −1) = , P (X = 0) =
3
1 1 2
, P (X = 1) = et Y = X .
6 2
La loi de Y :
yi 0 1
P (Y = yi ) 1/6 5/6
1. Espérance mathématique :
XX
E(X · Y ) = xi yj × p(xi , yj )
i∈I j∈J
70
Chapter 4. COUPLE DE VARIABLES ALÉATOIRES
2. Covariance d’un couple de variables aléatoires : la covariance d’un couple de variables aléatoires
est un paramètre permettant d’étudier le sens de la relation entre deux variables. C’est
l’espérance mathématique des produits des écarts par rapport aux espérances. Elle est définit
par :
Si X et Y sont deux variables indépendantes, alors leur covariance est nulle. En effet, on a alors
:
V (X + Y ) = V (X) + V (Y ) + 2Cov(X, Y )
V (X − Y ) = V (X) + V (Y ) − 2Cov(X, Y )
cov(X,X)=V(X)
Si X et Y sont indépendantes, alors Cov(X,Y)=0 et on :
– E(X · Y ) = E(X) × E(Y )
– V (X + Y ) = V (X − Y ) = V (X) + V (Y )
Propriétés :
71
Chapter 4. COUPLE DE VARIABLES ALÉATOIRES
Exemple:
Soit la distribution de probabilité à deux variables suivante :
72
Chapter 4. COUPLE DE VARIABLES ALÉATOIRES
Remarque:
73
Chapter 4. COUPLE DE VARIABLES ALÉATOIRES
• L’exemple si-dessus montre que le coefficient de corrélation linéaire peut être nul même si les
variables ne sont pas indépendantes.
Soient X et Y deux variables aléatoires définies sur le même espace probabilisé (W, P). La loi de couple
sera définie à partir de sa fonction de répartition :
F (x, y) = P (X < x et Y < y)
Définition.
Soient X et Y deux variables aléatoires définies sur le même espace probabilisé (W, P). La loi du
couple (X, Y ) est dite absolument continue s’il existe une fonction positive f de R2 dans R, telle que
pour tous x et y réels, on a Z Z x y
F (x, y) = f (u, v)dudv.
−∞ −∞
La fonction f est dite densité de probabilité du couple (X, Y).
Propriétés :
RR
1. Pour tout A élément de F(Ω2 ), alors P ((X, Y ) ∈ A) = A
f (u, v)du dv.
RR
2. R
f (u, v)du dv = 1.
∂ 2 (F )
3. En tout point où f est continue, f (x0 , y0 ) = (x0 , y0 ).
∂x∂y
74
Chapter 4. COUPLE DE VARIABLES ALÉATOIRES
Si l’on s’intéresse à un événement sur X quelle que soit la valeur prise par Y , on obtient la loi de la
v.a. X qui, dans le contexte d’un couple de v.a., est appelée (comme auparavant) loi marginale.
Définition.
Soit (X, Y ) un couple de variables aléatoires réelles à densité sur (Ω, F, P ). On appelle fonctions
de densité marginales des variables X et Y , notées fX et fY , Zles fonctions de R dans R définies par :
Z +∞ +∞
fX (x) = fX,Y (x, y)dy et fY (y) = fX,Y (x, y)dx
−∞ −∞
Proposition.
Les fonctions de densité marginales du couple (X, Y ) sont exactement les fonctions de densité des
variables aléatoires X et Y .
Soit (X, Y ) un couple aléatoire absolument continu, de densité de probabilité f. Soit fX la densité
de probabilité de X et un réel x tel que fX (x) ̸= 0. La loi conditionnnelle de Y liée par la condition
f (x, y)
X = x est définie par sa densité de probabilité fx (y) = .
fX (x)
4.3.3 Indépendance
75
Chapter 4. COUPLE DE VARIABLES ALÉATOIRES
• V (X + Y ) = V (X) + V (Y ) si X et Y indépendantes
Si X et Y sont indépendantes
X X X
P (X+Y = s) = P (X = x)P (Y = s−x) = P (X = s−y)P (Y = y) = P (X = x)P (Y = y)
x∈X y∈Y x∈X(Ω),y∈Y (Ω)
Exemple :
On considère deux roues A et B définies ainsi :
pour la roue B : on a 40% de chance de tomber sur le nombre 10 et 60% de chance de tomber
sur le nombre 20. On lance successivement les deux roues, on note X la variable aléatoire égale
au nombre obtenu pour la roue A et Y la variable aléatoire égale au nombre obtenu pour la
roue B. nombres obtenus.
76
Chapter 4. COUPLE DE VARIABLES ALÉATOIRES
xi 10 20 30
P (X = xi ) 0.2 0.5 0.3
yi 10 20
P (Y = yi ) 0.4 0.6
si 20 30 40 50
P (S = si ) 0.08 0.32 0.42 0.18
L’espérance du produit de deux variables aléatoires est donné par la formule E(XY ) = E(X) E(Y )
+ Cov(X, Y ), avec Cov() est la covariance entre les variables. En particulier, lorsque X et Y sont
indépendantes, E(XY) = E(X) E(Y ).
77
Chapter 4. COUPLE DE VARIABLES ALÉATOIRES
Exemple :
Un sac contient 4 boules numérotées de 1 à 4. On tire successivement et avec remise deux boules, et
note X1 et X2 les nombres obtenus. Donc, X1 (Ω) = X2 (Ω) = {1, 2, 3, 4}.
La loi Z = X1 × X2 est donnée par :
zi 1 2 3 4 6 8 9 12 16
P (Z = zi ) 1/16 2/16 2/16 3/16 2/16 2/16 1/16 2/16 1/16
On calcule la loi du sup (ou max) et de l’inf (ou min) en passant par la fonction de répartition, en
utilisant :
(min(X, Y ) > xk ) = (X > xk ) ∩ (Y > xk )
et
(max(X, Y ) < xk ) = (X < xk ) ∩ (Y < xk ).
78
Chapter 4. COUPLE DE VARIABLES ALÉATOIRES
et
donc,
FI (xk ) = P (I < xk )
= 1 − P (I > xk )
Soit φ une fonction dérivable de R dans R. En posant Y = φ ◦ X, on obtient une nouvelle variable
aléatoire, notée φ(X), que l’on étudiera à l’aide de sa fonction de répartition.
Exemple : Soit X exprimant la consommation en litres aux 100 kilomètres d’une voiture. Aux
Etats-Unis, on s’intéresse plus à la notion de distance parcourue avec un plein, que l’on retranscrit
sous la forme Z est le nombre de miles parcourus avec un gallon d’essence (Plus précisément Z =
79
Chapter 4. COUPLE DE VARIABLES ALÉATOIRES
235
).
X
Exemple :
1
•Y = eX a pour densité de probabilité fY (y) = fX (ln(y)) = fX (x)e−x .
y
•Y = log(X) a pour densité de probabilité fY (y) = ey fX (ey ).
80
Chapter 4. COUPLE DE VARIABLES ALÉATOIRES
3. Cas où φ est quelconque : On résout alors au cas par cas l’inéquation Y < y afin de trouver la
fonction de répartition de Y .
Exemple : pour Y = X 2 , on a :
Définition.
X
E(Y ) = E(φ(X)) = φ(xi )p(xi ) si X est discrète
xi ∈X(Ω)
Z
E(Y ) = E(φ(X)) = φ(x)fX (x)dx si X est continue
R
La variance de Y est :
V (φ(X)) = E[(φ(X) − E(φ(X)))2 ] = E[(φ(X))2 ] − (E[φ(X)])2
avec :
• Si X et Y sont deux variables aléatoires indépendantes de loi respectives B(n, p) et B(m, p), alors
X+Y suit la loi B(n + m, p).
81
Chapter 4. COUPLE DE VARIABLES ALÉATOIRES
X −m
• Si la variable X suit une loi N (m, σ), alors la variable Y = suit une loi N (0, 1).
σ
• Si X1 , . . . , Xn sont indépendantes et Xi ∼ N (0, 1) pour tout i ∈ {1, . . . , n}, alors Z = X12 + . . . +
Xn2 ∼ χ2n .
• Si X ∼ N (0, 1), Y suit une loi de χ2n à n degrés de liberté et X et Y sont indépendantes, alors
√ X
Z = n √ suit une loi de Student à n degrés de liberté.
Y
• Soit X une variable aléatoire de loi χ2n et Y une variable aléatoire de loi χ2m . Si X et Y sont
X/n mX
indépendantes, alors Z = = est de loi de Fisher-Snedecor à (n,m) degrés de liberté (de
Y /m nY
paramètres n et m). On note X ∼ F (n, m).
Deux des résultats les plus importants de probabilités sont le théorème central-limite et la loi des
grands nombres. Ces résultats nécessitent d’utiliser la notion de convergence d’une suite de variables
aléatoires.
Une suite de variable aléatoires {Xn }n≥1 converge en loi vers la loi de probabilité de fonction
de répartition F si et seulement si limn→+∞ FXn (x) = F (x) en tout point x où F est continue. Cela
signifie que, quand n est grand, la loi de probabilité de Xn est approximativement la loi de fonction
de répartition F.
Théorème Central-Limite : Soit {Xn }n≥1 une suite de variables aléatoires réelles indépendantes
p
et de même loi (iid), d’espérance E(X) et d’écart-type σ(X) = V ar(X) fini. Pour tout n ≥ 1, on
pose : Pn
Xi − nE(X) X̄n − E(X)
Zn = i=1p =
nV ar(X) σ(X)
√
n
Alors la suite {Zn }n≥1 converge en loi vers la loi normale centrée réduite N (0, 1).
82
Chapter 4. COUPLE DE VARIABLES ALÉATOIRES
Concrètement, cela signifie que la loi de toute variable aléatoire égale à la somme d’un nom-
bre ”suffisamment grand” de variables aléatoires indépendantes et de même loi est approximative-
Pn
ment une loi normale. Plus précisément, pour n grand, i=1 Xi est approximativement
de loi
p 1 n
P σ(X)
N (nE(X), nV ar(X)), autrement dit, X̄ = i=1 Xi est approximativement de loi N E(X), √ .
n n
Ce qui est remarquable, c’est que ce résultat est vrai quelle que soit la loi des Xi .
Loi forte des grands nombres : Soit {Xn }n≥1 une suite de variables aléatoires réelles indépendantes
1 Pn
et de même loi, d’espérance E(X). Soit X̄n = Xi . Alors la suite {X̄n }n≥1 converge presque
n i=1
sûrement vers E(X).
Concrètement, cela signifie que quand on fait un très grand nombre d’expériences identiques et
indépendantes, la moyenne des réalisations de la variable aléatoire à laquelle on s’intéresse tend vers
l’espérance de sa loi.
Ce résultat permet de justifier l’idée naturelle d’estimer une espérance par une moyenne empirique
et une probabilité par une proportion (fréquence).
4.5.3 Approximations
• Si n ≥ 30 et np < 5, on peut approcher une loi B(n,p) par une loi P(λ), avec λ = np.
• Si n ≥ 30, np ≥ 5 et n(1 − p) ≥ 5, alors on peut approcher une loi B(n,p) par une loi
p
N (np, np(1 − p)).
• Si N ≥ 10n, on peut approcher une loi H(N, n, p) par une loi B(n,p).
√
• Si λ est assez grand, on peut approcher une loi P(λ) par une loi N (λ, λ).
√
• Si n est assez grand, on peut approcher une loi χ2n par une loi N (n, 2n).
• Si n est assez grand, on peut approcher une loi Tn par une loi N (0, 1).
83