Annales Des Examens Corrigés
Annales Des Examens Corrigés
Annales Des Examens Corrigés
MANUEL DE MATHEMATIQUES
PROBABILITES ET STOCHASTIQUES
Filière : Génie Télécom et Réseaux
1
Table des matières
I Probabilités 7
1 L'espace de probabilité (Ω, F, P ) 8
1.1 Introduction : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2 L'univers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3 Evénements et opérations sur les événements . . . . . . . . . . . . . . . . . . 9
1.4 Tribu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.5 Le concept de probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.6 Dénition d'une probabilité sur un espace Ω ni. . . . . . . . . . . . . . . . . 13
1.6.1 Equiprobabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.6.2 Eléments d'analyse combinatoire . . . . . . . . . . . . . . . . . . . . . 15
1.6.3 Exemples fondamentaux . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.7 Résumé du premier chapitre . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.8 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2 Probabilités conditionnelles et indépendance 22
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.2 Probabilité conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.3 Indépendance d'événements et de sous-tribus. . . . . . . . . . . . . . . . . . . 26
2.3.1 Indépendance d'événements . . . . . . . . . . . . . . . . . . . . . . . . 26
2.3.2 Indépendance de sous-tribus . . . . . . . . . . . . . . . . . . . . . . . . 27
2.4 Application : Apparition d'un pile dans un schéma de Bernoulli . . . . . . . . 27
2.4.1 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.5 Résumé du deuxième chapitre . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.6 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3 Les variables aléatoires 34
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.2 Variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.3 Probabilité image et loi d'une variable aléatoire . . . . . . . . . . . . . . . . . 35
3.4 Cas des variables aléatoires réelles . . . . . . . . . . . . . . . . . . . . . . . . 36
3.4.1 Fonction de répartition . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.5 Lois discrètes et lois continues . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.5.1 Lois discrètes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.5.2 Lois continues . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.6 Les lois usuelles au programme . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.6.1 Le cas ni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.6.2 La loi uniforme discrète . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.6.3 La loi de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.6.4 La loi binomiale ou loi du tirage avec remise . . . . . . . . . . . . . . . 41
3.6.5 Le cas dénombrable . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2
3.6.6 La loi géométrique de paramètre p ∈]0, 1[ . . . . . . . . . . . . . . . . 43
3.6.7 La loi de Poisson de paramètre λ ∈]0, ∞[ . . . . . . . . . . . . . . . . . 43
3.6.8 Le cas continu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.6.9 La loi uniforme continue sur le segment [a, b] : . . . . . . . . . . . . . . 44
3.6.10 lois gaussiennes (ou lois normales) . . . . . . . . . . . . . . . . . . . . 45
3.6.11 La loi exponentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.7 Variables aléatoires indépendantes . . . . . . . . . . . . . . . . . . . . . . . . 49
3.7.1 Annexe : Autres lois de probabilité . . . . . . . . . . . . . . . . . . . . 50
3.7.2 La loi hypergéométrique ou loi du tirage exhaustif . . . . . . . . . . . 50
3.7.3 La loi Gamma G(a, b), a > 0 et b > 0 . . . . . . . . . . . . . . . . . . . 51
3.7.4 La loi de Weibull . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
3.8 Résumé du troisième chapitre . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.9 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
4 Moments d'une variable aléatoire réelle 59
4.1 Espérance Mathématique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.1.1 Cas des variables aléatoires discrètes . . . . . . . . . . . . . . . . . . . 59
4.1.2 Espérance d'une fonction d'une variable aléatoire réelle . . . . . . . . . 60
4.1.3 Cas des variables aléatoires à densité . . . . . . . . . . . . . . . . . . . 61
4.1.4 Propriétés de l'espérance . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.2 Moments, variance et écart-type . . . . . . . . . . . . . . . . . . . . . . . . . . 62
4.3 Inégalités classiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
4.3.1 L'inégalité de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
4.3.2 L'inégalité de Bienaymé-Tchebyche . . . . . . . . . . . . . . . . . . . 64
4.3.3 L'inégalité de Jensen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.4 L'espérance et la variance des lois classiques . . . . . . . . . . . . . . . . . . . 64
4.5 Fonctions Génératrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
4.6 Fonctions caractéristiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
4.6.1 Intégration d'une fonction complexe . . . . . . . . . . . . . . . . . . . 68
4.6.2 Fonction caractéristique d'une variable aléatoire réelle . . . . . . . . . 69
4.6.3 Exemples de calcul . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
4.7 Théorème d'unicité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
4.8 Annexe : Dénition de l'espérance d'une variable aléatoire : Cas général . . 73
4.8.1 Théorème de transferet . . . . . . . . . . . . . . . . . . . . . . . . . . 75
4.9 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
5 Variables aléatoires vectorielles 82
5.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
5.1.1 Couples aléatoires discrets . . . . . . . . . . . . . . . . . . . . . . . . . 82
5.1.2 Couples aléatoires à densité . . . . . . . . . . . . . . . . . . . . . . . . 84
5.2 Distribution conjointe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
5.2.1 Fonction de répartition . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
5.3 Indépendance et espérance de produits . . . . . . . . . . . . . . . . . . . . . . 85
5.4 Distributions conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
5.4.1 Cas discret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
5.4.2 Cas Continu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
5.4.3 Théorème des probabilités composées . . . . . . . . . . . . . . . . . . . 88
5.4.4 Théorème des probabilités totales . . . . . . . . . . . . . . . . . . . . . 88
5.4.5 Théorème de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
5.5 Espérance, Covariance et Coecient de corrélation linéaire . . . . . . . . . . . 90
3
5.5.1 Espérance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
5.5.2 Covariance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
5.5.3 Coecient de corrélation . . . . . . . . . . . . . . . . . . . . . . . . . . 91
5.6 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
6 Théorèmes limites 96
6.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
6.2 Les diérents types de convergence . . . . . . . . . . . . . . . . . . . . . . . . 96
6.2.1 La convergence en probabilité . . . . . . . . . . . . . . . . . . . . . . . 96
6.2.2 La convergence presque sûre . . . . . . . . . . . . . . . . . . . . . . . . 96
6.3 Lois des grands nombres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
6.3.1 La loi faible des grands nombres . . . . . . . . . . . . . . . . . . . . . 97
6.3.2 La loi forte des grands nombres . . . . . . . . . . . . . . . . . . . . . . 98
6.4 La convergence en loi et le théorème central limite . . . . . . . . . . . . . . . 98
6.4.1 La convergence en loi . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
6.4.2 Le théorème central limite . . . . . . . . . . . . . . . . . . . . . . . . . 100
6.5 Annexe : Vitesse de convergence dans la loi des grands nombres . . . . . . . . 101
6.6 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
II Statistiques 104
7 Introduction aux statistiques 105
7.1 Introduction : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
7.1.1 Les statistiques, les probabilités, la statistique . . . . . . . . . . . . . . 105
7.1.2 La démarche statistique . . . . . . . . . . . . . . . . . . . . . . . . . . 105
7.2 Dénitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
7.3 Estimation ponctuelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
7.3.1 Estimation de la moyenne . . . . . . . . . . . . . . . . . . . . . . . . . 108
7.3.2 Estimation de la variance . . . . . . . . . . . . . . . . . . . . . . . . . 108
7.3.3 Méthode de maximum de vraisemblance . . . . . . . . . . . . . . . . . 110
7.4 Estimation par intervalle conance . . . . . . . . . . . . . . . . . . . . . . . . 110
7.4.1 Etude de cas des échantillons de grande taille n ≥ 30 . . . . . . . . . . 110
7.4.2 Etude de cas X ∼ N (m, σ 2 ) . . . . . . . . . . . . . . . . . . . . . . . . 112
7.5 Tests paramètriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
7.6 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
7.7 Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
4
Préface
Ce livre est issu du polycopié du cours de probabilités de la première année Génie Télécom
et Réseaux à l'ENSA de Sa dont je suis responsable depuis 2014. Du fait de la nature inconnue
ou chaotique de leur évolution, de nombreux phénomènes (météorologie, cours de bourse, les
d'attente dans les réseaux de télécommunication ,...) font naturellement l'objet d'une modéli-
sation aléatoire, ce qui explique la place de plus en plus grande accordée aux probabilités dans
les formations d'ingénieurs et dans les cursus universitaires. Les probabilités interviennent de
manière naturelle dans certains aspects de la vie de l'ingénieur : modélisation de situations
complexes, algorithmes aléatoires, méthodes de Monte Carlo et abilité pour ne citer que ces
quelques exemples. Ce cours se propose d'introduire les concepts fondamentaux du calculs des
probabilités de manière assez simple et détaillée, puis d'appliquer ces concepts à des rudiments
de statistique inférentielle. L'objectif du cours est de permettre aux étudiants de comprendre
comment construire de tels modèles aléatoires et comment identier leurs paramètres à partir
de données.
La théorie des probabilités s'est développée dans le but de modéliser" les phénomènes aléa-
toires, c'est à dire de développer un formalisme mathématique pour exprimer les problèmes
posés par ces phénomènes. En particulier, l'un des problèmes est de mesurer la chance" d'un
certain évènement" de se réealiser. Une partie importante de ces phénomènes est de nature
discrète", c'est à dire qu'il existe une injection de l'ensemble des cas possibles" dans N. Lorsque
de plus l'ensemble des cas possibles" ou des éventualités" est ni, le calcul des probabilités se
ramène à des problèmes de dénombrement. Par contre, lorsque l'ensemble des éventualités"
est de nature innie non-dénombrable, on aura besoin, pour dénir une probabilité, de la
théorie de la mesure et de l'intégration.
Après un chapitre introductif sur l'espace de probabilité et le cas particulier ni où les calculs
se ramènent à du dénombrement, les probabilités conditionnelles, sont présentées en détail au
chapitre 2. Les chapitres 3-5 précisent également la notion de loi d'une variable aléatoires, l'es-
pérance, la variance , l'écart type d'une v. a. et fournissent les outils nécessaires (loi marginale,
formule de changement de variable). Le chapitre 6 est consacré aux deux grands théorèmes
limites de la théorie des probabilités qui forment le coeur du chapitre 7 : la loi forte des
grands nombres et le théorème de la limite centrale. Les diérentes notions de convergence
de variables aléatoires et leurs liens font également l'objet d'un traitement détaillé dans ce
chapitre. L'objectif est que les étudiants acquièrent susamment de maîtrise sur les théorèmes
limites pour bien comprendre ensuite les propriétés asymptotiques des estimateurs, intervalles
de conance et tests d'hypothèses dans la partie statistique du cours. Le théorème de la li-
mite centrale explique le rôle fondamental en théorie des probabilités de la loi gaussienne.
Le chapitre 7 introduit l'estimation de paramètres dans le modèle statistique paramétrique.
L'accent est mis sur l'estimateur du maximum de vraisemblance et ses propriétés et sur la
construction d'intervalles de conance permettant de mesurer la précision de l'estimation. La
notion de test d'hypothèses est présentée sur l'exemple du modèle gaussien dans le drernier
0. Les probabilités sont consacrées à la découverte d'un ordre sous-jacent au désordre apparent...
5
paragraphe de ce chapitre.
Ce manuel est destiné aux étudiants de la de la première année Génie Télécom et Réseaux
à l'ENSA de Sa. Il vise à présenter le cours du module de Probabilités et Statistiques , d'une
manière simple et accessible tout en gardant le niveau et la rigueur mathématiques.
Pour l'illustration de ce cours, des séries d'exercices sont mises à la n de chaque chapitre.
E. Lakhel
6
Première partie
Probabilités
7
Chapitre 1
Historiquement, le calcul des probabilités s'est développé à partir du XVIIe siècle autour
des problèmes de jeux dans des situations où le nombre de cas possibles est ni. Les déve-
loppements plus récents concernant des espaces non nécessairement nis nécessitent les outils
techniques de la théorie de la mesure. Mais on peut introduire les notions importantes de
probabilités sans avoir besoin de cet outillage.
1.1 Introduction :
Ce sont les jeux de hasard qui sont à l'origine du calcul des probabilitées. Vers 1654, Pascal
et Fermat se sont confrontés au problème suivant : pourquoi en jetant 3 dés obtient-on plus
souvent la somme 10 que la somme 9 alors que
pour 9=1+2+6=1+3+5=1+4+4=2+2+5=2+3+4=3+3+3
pour 10=1+3+6=1+4+5=2+2+6=2+3+5=2+4+4=3+3+4
C'est à la suite de leur correspondance qu'est né le calcul des probabilités. Les probabilités
ont connu un grand essor au XIXe. Mais ce n'est qu'en 1933 que grâce à Kolmogorov le
calcul des probabilités s'inscrit enn dans un cadre théorique rigoureux. La découverte de la
physique quantique et des théories modernes des processus stochastiques redonnent au calcul
des probabilités une place centrale dans l'étude de la nature.
La théorie des probabilités est la science qui étudie les expériences aléatoires. On entend par
expérience aléatoire toute procédure ayant un ensemble bien déni de résultats mais dont on
ne sait pas dire à l'avance lequel va avoir lieu.
Le but du cours de probabilités est de modéliser des situations où intervient le hasard. On
aimerait pouvoir construire un cadre commun pour étudier des expériences aléatoires très
divers :
Exemples :
1. Le jet d'un dé,
2. Le jet successif de n pièces de monnaie,
3. La durée de vie d'une ampoule.
Ce cadre commun sera l'espace de probabilité. Il est composé de plusieurs ingrédients : un
univers qui décrit l'ensemble des issues possibles de l'expérience aléatoire, une tribu qui donne
l'ensemble des événements et une probabilité qui associe à chaque événement un nombre qui
donne la chance qu'à cet événement de se réaliser.
8
1.2 L'univers
Dénition 1.1. L'ensemble des résultats d'une expérience aléatoire est appelé l'univers. On
le note généralement Ω.
Exemples : Dans chacun des exemples précédents, on a :
1. Ω = {1, 2, 3, 4, 5, 6}.
2. Ω = {P, F }n (pour n = 2, on a Ω = {P P, P F, F P, F F } = {P, F }2 ).
3. Ω = R+
Remarque :
On peut aussi modéliser des phénomènes aléatoires plus complexes. Donnons un exemple :
Etude d'une le d'attente. Des clients arrivent successivement d'une manière aléatoire et
forment ainsi une le d'attente devant un guichet. Le temps de service pour chaque client, peut
être également modélisé par une grandeur aléatoire. On étudie la longueur de la le d'attente,
en fonction du temps et des paramètres qui interviennent dans la modélisation, à savoir la
durée de service, le temps d'inter-arrivée des clients.
On se demande si la le à tendance à se diminuer ou au contraire à augmenter.
1.4 Tribu
En général, on ne peut pas prendre toutes les parties de Ω comme événements, on doit se
limiter à des familles vériant certaines propriétés :
Dénition 1.3. Soit Ω un ensemble. Une famille F de parties de Ω est appelée une tribu si
elle vérie les propriétés suivantes :
i) Ω est un élément de F
9
ii) (stabilité par complémentaire) Si A est un élément de F , alors Ac est un élément de
F
iii) (stabilité par union dénombrable) Si les (Ai )i∈N sont des éléments de F , alors ∪i∈N Ai
est un élément de F .
Dénition 1.4. Soit Ω un ensemble muni d'une tribu F , le couple (Ω, F) est appelé ensemble
mesurable, et les éléments de F sont appelés des événements.
♣ Exercice : Soit A une partie de Ω. Montrer que {∅, A, Ac , Ω} est une tribu sur Ω.
Remarque : Si Ω = R, la tribu habituellement utilisée est la plus petite tribu contenant tous
les intervalles ouverts. On l'appelle tribu borélienne et on la note B(R)
10
2. Si Ω est ni, on peut remplacer ii) par ii)' pour tout A, B de P(Ω) tels que A∩B = ∅,
P(A ∪ B) = P(A) + P(B).
Exemples :
1. Jet d'un dé : Ω = {1, 2, ..., 6}, les faces sont équiprobables. On prend F = P(Ω) et on
dénit P par :
1
P({1}) = P ({2}) = ... = P({6}) = .
6
On a donc,
1
P({2, 3}) = P({2}) + P({3}) = .
3
2. Jet d'une pièce de monnaie Ω = {P, F }, si la pièce est équilibrée, on choisit :
1
P ({P }) = P ({F }) = .
2
Attention ! Le mot probabilité désigne donc deux choses diérentes : l'application et le nombre
associé par cette application à un événement. Le contexte permet en général de lever toute
ambiguïté.
♣ Exercice : Soit P1 et P2 deux probabilités sur un espace mesurable (Ω, F), et soit α ∈ [0, 1].
Montrer que P = αP1 + (1 − α)P2 est une probabilité sur (Ω, F).
Nous avons regroupé dans la proposition suivante les règles fondamentales auxquelles obéit
une probabilité :
Proposition 1.7. Soit (Ω, F, P ) un espace de probabilité.
i) P (∅) = 0
ii) si (Ai )1≤i≤n sont des éléments de F deux à deux disjoints, alors
n
[ n
X
P( Ai ) = P (Ai ).
i=1 i=1
P (A ∪ B) = P (A) + P (B) − P (A ∩ B)
vii) si (Ai )1≤i≤n forment une suite croissante d'éléments de F , c'est à dire s'ils vérient
∀i ∈ N Ai ⊆ Ai+1 , alors
[
P ( Ai ) = limi−→+∞ P (Ai ).
i∈N
viii) si (Ai )1≤i≤n forment une suite décroissante d'éléments de F , c'est à dire s'ils vérient
∀i ∈ N Ai+1 ⊆ Ai , alors
\
P ( Ai ) = limi−→+∞ P (Ai ).
i∈N
11
Preuve.
i) On applique le ii) de la dénition à la famille d'événements disjoints (Ω, ∅, ∅, ...) :
∞
X
1 = P (Ω) + P (∅).
i=1
P (B) = P (B ∩ A) + P (B ∩ Ac ) or P (B ∩ Ac ) ≥ 0
≥ P (B ∩ A) = P (A)
car A ⊂ B
v) On écrit A ∪ B comme la réunion disjointe A ∩ B c , A ∩ B et B ∩ Ac (vérier et faire
un dessin), et on remarque que A est la réunion disjointe A ∩ B c , et A ∩ B , tandis que
B est la réunion disjointe A ∩ B et B ∩ Ac . On obtient donc :
P (A ∪ B) = P (A ∩ B) + P (A ∩ B c ) + P (B ∩ Ac )
= (P (A ∩ B c ) + P (A ∩ B)) + (P (A ∩ B) + P (B ∩ Ac )) − P (A ∩ B)
= P (A) + P (B) − P (A ∩ B).
Pour les trois derniers points, on construit à partir de la famille (Ai )i∈N une famille
(Bi )i∈N de la façon suivante :
i−1
[
B0 = A0 et ∀i ≥ 1, Bi = Ai \ ( Aj ),
j=0
♣ Exercice : Un dé a six faces, avec deux faces marquées 5. Donner un espace de probabilité
correspondant au lancer de ce dé.
12
1.6 Dénition d'une probabilité sur un espace Ω ni.
Quand l'univers Ω est ni, on peut facilement décrire les probabilités sur Ω.
Preuve.
⇒) Supposons qu'il existe une probabilité P sur (Ω, P(Ω)) telle que pour tout
i ∈ |[1, n]| pi = P({ωi }).
On a : pi ≥ 0, ∀i ∈ |[1, n]| et ni=1 pi = ni=1 P({ωi }) = P(Ω) = 1.
P P
De plus pour tout événement A ∈ P(Ω) :
X X
P(A) = P({ωi }) = pi .
i/ωi ∈A i/ωi ∈A
Donc P est une probabilité sur (Ω, P(Ω)) et par dénition de P , P ({ωi }) = pi pour
tout i ∈ |[1, n]|.
13
Exemple : Un dé biaisé :
Ω 1 2 3 4 5 6
1 1 1 1 1
pi 3 6 12 12 4 p
Déterminer p pour que les pi dénissent une probabilité. Calculer la probabilité que le résultat
du dé soit pair.
1.6.1 Equiprobabilité
Dénition 1.9. On dit qu'il y a équiprobabilité, lorsque les probabilités de tous les événements
élémentaires sont égales.
On dit aussi que P est la probabilité uniforme sur (Ω, P(Ω)).
Donc α = n1 .
De plus, si A est un événement quelconque de P(Ω), on a :
X X 1 card(A)
P (A) = pi = = .
n n
i/ωi ∈A i/ωi ∈A
Exercice : Un sac contient deux boules blanches et trois boules noires. On tire une boule du
sac. Quelle est la probabilité qu'elle soit blache ?
On peut choisir deux modèles ; deux univers Ω1 , Ω2 peuvent modéliser le tirage aléatoire
précédent :
1) Ω1 = {B, N }, la probabilité P1 étant dénie par
2 3
P1 ({B}) = , P1 ({N }) =
5 5
P1 n'est pas une probabilité uniforme.
14
2) On choisit Ω2 = {B1 , B2 , N1 , N2 , N3 }. Chaque boule du sac a la même probabilité d'être
tirée. On considère sur Ω2 la probabilité uniforme, que l'on note P2 .
1
P2 ({B1 }) = P2 ({B2 }) = P2 ({N1 } = P2 ({N2 } = P2 ({N3 }) = .
5
Soit A l'événement "tirer une boule blanche". Et on a :
card(A) 2
P2 (A) = = .
card(Ω) 5
3- Les permutations : Toute suite de n éléments distincts choisis parmi les n éléments
d'un ensemble E est appelé permutation de n éléments. Le nombre total de permuta-
tions d'un ensemble de n éléments (ou de bijections d'un ensemble à n éléments dans
un ensemble à n éléments) est n!. ( il est aussi égale àAnn : le nombre de façons de
choisir successivement et sans remise n éléments parmi n éléments).
An d'aborder les problèmes d'analyse combinatoire, rappelons les dénitions et les pro-
priétés des coecients Cnk et Akn .
Coecient Cnk :
Cnk est un entier naturel qui est déni par
n!
Cnk = , 0 ≤ k ≤ n, avec (0! = 1)
k!(n − k)!
Cnk possède une interprétation très utile en pratique : Cnk est le nombre de façons de choisir
simultanément k éléments parmi n éléments.
Cnk est aussi le nombre de parties à k éléments distincts, pris dans un ensemble à n éléments.
(Noter que l'ordre ne compte pas ).
On rappelle également la formule du binôme :
n
X
n
(x + y) = Ckn xk y n−k
k=0
En particulier on a
n
X
Ckn = 2n .
k=0
Coecient Akn :
Par dénition :
n!
Akn = , 1 ≤ k ≤ n.
(n − k)!
15
(Akn est le nombre de façons de choisir successivement et sans remise k éléments parmi n
éléments) (ou Akn est le nombre de d'injections de {1, 2, ..., k} dans {1, 2, ..., n}). Remarquer
qu'il n'y a pas de répétition et que l'ordre compte.
Nous sommes à présent en mesure de préciser les trois modèles de base qui interviennent
fréquemment en pratique.
16
c. Modèle de tirage sans remise et avec ordre : Arrangements
On choisit le même sac que précédemment et on tire une à une, sans les remettre, m
boules d'un sac contenant initialement k boules avec m ≤ k .
Les résultats possibles sont les suites de m éléments de {1, 2, ..., k}, deux à deux dis-
tincts.
Ainsi si k = 4 et m = 2.,
Ω = {(1, 2), (1, 3), (1, 4), (2, 1), (2, 3), (2, 4), (3, 1), (3, 2), (3, 4), (4, 1), (4, 2), (4, 3)}
Pour compter le nombre des suites, on remarque que l'on a k possibilités pour choisir
le premier élément, cet élément étant donné, le deuxième doit être distinct du premier,
il ne reste que (k − 1) possibilités , etc,...
On a ainsi
k!
card(Ω) = k(k − 1)(k − 2)...(k − m + 1) = = Am
k .
(k − m)!
card(A) A22 2 1
P(A) = card(Ω) = 20 = 20 = 10 .
card(B) A23 6 3
P(B) = card(Ω) = 20 = 20 = 10 .
card(C) 12
P(C) = card(Ω) = 20 = 53 ,
card(C) = 2 × 3 × 2 = 12.
Exercice :
On considère une classe de n éléves. On suppose que toutes les années ont 365 jours (i.e.
il n'y a pas d'année bissextile).
1. Quelle est la probabilité, pn , pour que deux éléves au moins aient la même date d'an-
niversaire ? Trouver p40 .
2. Quelle est la probabilité, qn , pour qu'au moins un éléve ait la même date d'anniversaire
que Ilyas ? Calculer q40
17
1.7 Résumé du premier chapitre
1. Phénom
'ene aléatoire : Tout phénomène dans lequel intervient le hasad est dit aléatoire ou
stochastique. En revanche, si l'on est certain de l'évolution du phénomène, on parle de
phénomène déterministe.
P (A) = 1 − P (A).
18
1.8 Exercices
Exercice 1. Trois boules sont tirées d'un sac contenant des boules blanches et des boules
rouges. Soient les événements :
Exercice 3.
On lance 3 dés équilibrés. Quelle est la probabilité d'obtenir :
1) A = une fois 1, une fois 2, une fois 3",
2) B = trois fois 1",
3) C= une fois 1 et deux fois 5".
Exercice 4.
On lance 2 dés équilibrés, l'un après l'autre, et on considère les événements suivants :
A = le premier dé donne un résultat pair"
B = le deuxième dé donne un résultat impair"
C = les deux dés donnent des résultats de même parité".
1) Calculer P (A ∩ B ∩ C) et P (A).P (B).P (C).
2) Calculer P (A ∩ B) et P (A).P (B).
Exercice 5. Dans un aquarium, il y a cinq poissons rouges trois poissons noirs et deux
poissons argentés. On pêche au hasard trois poissons. Calculer la probabilité des événements
suivants :
19
A = les trois poissons pêchés sont de la même couleur",
B = les trois poissons pêchés sont de trois couleurs diérentes",
C= les trois poissons pêchés sont de deux couleurs exactement".
Exercice 6. Soit (Ω, B) un espace probabilisable ( B est l'ensemble des événements). p1 , p2 , ..., pn
n
sont n probabilités sur (Ω, B). λ1 , λ2 , ..., λn sont n réels positifs tels que = 1. On pose
P
i=1 λi
n
X
P = λi pi .
i=1
Exercice 7.
Soit f l'application de R dans R dénie par f (x) = x
3 .
(1+x2 ) 2
Ω = {a, b, c}. Soit F une primitive de f sur R. ( F existe car f est continue).
α et β deux réels tels que 0 < α < β .
On considère l'application P de P(Ω) dans R dénie par :
Rα Rβ
P {a} = 0 f (x)dx, P {b} = α f (x)dx, P {c} = 1 − F (β)
P {a, b} = P {a} + P {b}
P {a, c} = P {a} + P {c}
P {b, c} = P {b} + P {c}
P (Ω) = P {a} + P {b} + P {c}
P (∅) = 0
Exercice 8. Un jeu de toto foot consiste à prévoir les résultats de dix équipes de football en
inscrivant les prévisions sur une feuille réponse. Pour chaque match trois résultats sont pos-
sibles : victoire d'une équipe, victoire de l'autre équipe, match nul. combien de chances a-t-on
de gagner si on a joué, d'abord une feuille et puis deus feuilles ?
Exercice 10.
Soit (Ω, A) un espace probabilisable et A un événement. On appelle fonction indicatrice de
l'événement A et on note IA la fonction dénie sur Ω à valeurs dans {0, 1} dénie par :
1 si ω ∈ A
IA (ω) =
0 si ω ∈/A
20
6. Montrer que si A ⊆ B , IA ≤ IB .
Exercice 11. Soit (An ) une suite d'événements. On pose
\ [ [ \
lim sup An = ( Am ) et lim inf An = ( Am ).
n n
n m≥n n m≥n
1) Interpréter lim supn An et lim inf n An . Montrer que lim inf n An ⊆ lim supn An .
2) Montrer la propriété suivante :
X
Si P (An ) < +∞, alors P (lim sup An ) = 0.
n
n≥0
Exercice 12.
Soit Γ = {B1 , ..., BN } une partition de Ω. On appelle tribu engendée par Γ et on note BΓ
la plus petite tribu contenant les éléments de Γ. Les Bn sont les informations élémentaires
qu'il est possible d'obtenir sur Ω.
3) En déduire que si H est une famille quelconque de parties de Ω, il existe une σ−algèbre
contenant H et qui est contenue dans toutes les tribus contenant H (ce qui revient à dire qu'il
existe une plus petite σ−algèbre contenant H notée σ(H)).
4) Soit d ∈ N∗ . On appelle tribu borélienne sur Rd la tribu engendrée par la famille O des
ensembles ouverts de Rd . On la notera B(Rd ). Ainsi B(Rd ) = σ(O). Montrer que :
σ(O) = σ(F),
Exercice 13.
Une urne contient trois sacs. Le sacs S1 contient 2 pièces d'or, le sac S2 contient 2 pièces
ordinaires et le sac S3 contient une pièce ordinaire et une pièce d'or. Le jeu consiste à tirer
un sac au hasard (avec une probabilité uniforme) puis à tirer une pièce au hasard dans ce sac.
1. Quelle est la probabilité de tirer une pièce d'or ?
2. Supposons que l'on ait tiré une pièce d'or. Quelle est la probabilité pour que l'autre soit
en or ?
21
Chapitre 2
Probabilités conditionnelles et
indépendance
2.1 Introduction
Il s'agit de dénir la façon dont les probabilités aectées aux événements sont susceptibles
d'être modiées par l'arrivée d'informations nouvelles. Une information est ici une arma-
tion du type 00 l'événement A est réalisé 00 ou 00 l'événement B est réalisé 00 .
Exemple :
On lance une fois un dé cubique parfait dont les faces sont numérotées de 1 à 6.
Soit A l'événement : 00 on obtient un nombre inférieur ou égal à 5 00
et B l'événement : 00 on obtient un nombre supérieur ou égal à 3 00 .
Supposons que l'on sache que A est réalisé.
Le résultat du lancer est donc un élément de {1, 2, 3, 4, 5} et il y a 5 cas possibles.
B est réalisé si, et seulement si, ω ∈ {3, 4, 5}. Il y a donc 3 cas favorables pour que B soit
réalisé.
La probabilité que B soit réalisé sachant A l'est est 35 .
Or, on a P (A) = 56 et P (A ∩ B) = 36 , donc
3 P (A ∩ B)
= .
5 P (A)
P (A ∩ B)
PA (B) = P (B/A) = .
P (A)
Remarques :
1. La Probabilité conditionnelle est une vraie probabilité. Pour cela, montrons que PA est
une application de A dans [0, 1] telle que pour toute suite (Bn )n∈N d'éléments 2 à 2
0. La probabilité conditionnelle permet de prendre en compte l'information dont on dispose (à savoir qu'un
événement A est réalisé) pour actualiser la probabilité que l'on donne à un événement B.
22
disjoints de A on a : X
PA (∪n∈N Bn ) = PA (Bn ).
n∈N
2. Si A, B ∈ A sont tels que P (A) > 0 et P (B) > 0, on a la propriété évidente mais très
utile suivante :
P (A ∩ B) = PB (A)P (B) = PA (B)P (A).
Preuve.
Voir TD.
Donc
P (A1 ∩ A2 ∩ ... ∩ Aj ) ≥ P (A1 ∩ A2 ∩ ... ∩ An−1 ) > 0.
Exemple : Un sac contient 3 boules blanches et 7 noires. On tire successivement 3 boules
sans remise. Quelle est la probabilité d'obtenir les trois boules blanches ?
Soit Bk (resp. Nk ) l'événement 00 le k ieme tirage donne une boule blanche 00 (resp. noire).
Soit A l'événement 00 on obtient 3 boules blanches 00 .
A = B1 ∩ B2 ∩ B3 .
23
À l'issue du deuxième tirage, le sac contient 8 boules et si les deux boules tirées sont blanches,
il ne reste que 1 boule blanche donc,
1
PB1 ∩B2 (B3 ) = .
8
Finalement,
3 2 1 1
P (A) = × × = .
10 9 8 720
Dénition 2.3. Une suite nie ou non (Bn )n∈I⊆N d'événements de Ω est appelée une
partition de Ω si les Bn sont deux à deux disjoints et si leur réunion est égale à Ω.
On a alors le théorème :
Preuve.
P (A) = P (A ∩ Ω) = P (A ∩ ∪n∈I Bn )
=PP(∪n∈I (A ∩ Bn )) P
= n∈I P (A ∩ Bn ) = n∈I PBn (A)P (Bn ).
Exemple On eectue des tirages sans remise dans un sac contenant 3 boules blanches et 7
boules noires.
Quelle est la probabilité d'obtenir une boule noire au deuxième tirage ?
Le premier tirage a donné soit une boule blanche soit une boule noire, donc :
On a
3 7
P (B1 ) = , et P (N1 ) = .
10 10
À l'issue du premier tirage, le sac ne contient que 9 boules dont 7 noires si B1 a été réalisé
et 6 boules noires si c'est N1 qui a été réalisé. Donc :
7 6
PB1 (N2 ) = et PN1 (N2 ) =
9 9
D'où :
3 7 7 6 7
P (N2 ) = × + × = .
10 9 10 9 10
24
Théorème 2.5. (Formule de Bayes) Soit (Ω, A, P ) un espace probabilisé, soit (Bk )nk=1 une
partition de Ω telle que P (Bk ) > 0, pour tout k ∈ {1, ..., n} :
PB (A)P (Bk )
PA (Bk ) = P k
n PBn (A)P (Bn )
Preuve. On a :
X
PBk (A)P (Bk ) = PA (Bk )P (A) = PA (Bk ) PBn (A)P (Bn ).
Exemple : Reprenons l'exemple précédent et eectuons deux tirages. Le second tirage ayant
donné une boule blanche, quelle est la probabilité que la première boule tirée ait été blanche ?
Cherchons PB2 (B1 ) :
2 ∩B1 )
PB2 (B1 ) = P (BP (B2 )
P (B1 )PB1 (B2 )
= P (B1 )PB1 (B2 )+P (N1 )PN1 (B2 )
3
× 29
= 3
10
× + 7 ×3
2 = 29 .
10 9 10 9
♣ Exercice : Une entreprise utilise trois machines diérentes A, B, et C pour fabriquer des
pièces. 40% sont fabriquées par A, 30% par B et 30% par C . La machine A produit 2% de
pièces défectueuses, B 4% et C 5%.
1. On prélève une pièce au hasard. Quelle est la probabilité qu'elle soit défectueuse ?
2. On prélève une pièce. Elle est défectueuse. Quelle est la probabilité qu'elle vienne de
A?
3. On prélève une pièce. Elle est saine. Quelle est la probabilité qu'elle vienne de C ?
Solution :
Soit A : "être fabriqué par A", B : " être fabriqué par B ",...
D : " être défectueuse" et D : "saine".
On a
P (A) = 0.4, P (B) = 0.3, P (C) = 0.3.
A, B et C sont tels que A ∩ B = A ∩ C = B ∩ C = ∅ et A ∪ B ∪ C = Ω.
1) En applicant la formule des probabilités totales on a :
P (D) = PA (D)P (A) + PB (D)P (B) + PC (D)P (C)
= 0.02 × 0.4 + 0.04 × 0.3 + 0.05 × 0.3 =
2) D'après le théorème de Bayes,
PA (D)P (A) 0.02 × 0.4
PD (A) = = .
P (D) P (D)
3)
PC (D)P (C) 0.95 × 0.3
PD (C) = = .
P (D) 1 − P (D)
25
2.3 Indépendance d'événements et de sous-tribus.
2.3.1 Indépendance d'événements
Parfois, A et B sont tels que PB (A) = P (A). Autrement dit le fait de savoir que B est réalisé
ne donne aucune information supplémentaire sur le fait de savoir que A l'est. Cela conduit à
la :
P (A ∩ B) = P (A)P (B).
2. Une suite (Ai )i∈{1,2,...,n} d'événements est dite mutuellement indépendante si, pour
toute partie non vide I ⊂ {1, 2, ..., n}, on a
Y
P (∩i∈I Ai ) = P (Ai )
i∈I
3. Une suite (Ai ) d'événements est dite indépendante deux à deux si, on a
Remarques :
P (A ∩ Ac ) = P (∅) = 0.
Et
P (A)P (Ac ) = P (A)(1 − P (A)) 6= 0 en général.
♣ Exercice Soit A et B deux événements. Montrer que si A et B sont indépendants, alors
Ac et B (resp. A et B c , Ac et B c ) sont indépendants.
26
2.3.2 Indépendance de sous-tribus
Dénition 2.7. Deux sous tribus G et G 0 de A sont indépendantes si
On note An l'événement 00 pile apparait au n-ième lancer 00 . On sait par les hypothèses que
les (An )n∈N∗ sont indépendants et que P (An ) = p > 0 pour tout n.
On note A l'événement 00 pile apparait au mois une fois 00 . Alors
Ac = ∩n≥1 Acn
27
2.4.1 Conclusion
La probabilité d'un événement peut être considérée comme une caractéristique de notre
information à son sujet que l'on modie dès que cette information est complétée. Toute pro-
babilité est donc conditionnelle et dépend de notre connaissance des objets en cause.
Nous devons nous souvenir que la probabilité d'un événement n'est pas une qualité de
l'événement lui-même mais un simple mot pour désigner le degré de connaissance que nous,
ou quelqu'un d'autre, peut espérer. J. Stuart Mill (1806-1873)
Cette démarche bayésienne est une des approches possibles de la probabilité ; elle peut servir
au diagnostic médical, à la théorie de la décision...
28
2.5 Résumé du deuxième chapitre
1. Ce qui concerne les probabilités conditionnelles
Probabilité sachant B : si PB (A) = P P(A∩B)
(B) .
Partition de Ω : (B1 , B2 , ..., Bn ) est une partition de Ω si
Ω = ∪ni=1 Bi
et si Bi ∩ Bj = ∅ chaque fois que i 6= j (càd que les Bi sont deux à deux disjoints).
Principe des probabilités totales : si (B1 , B2 , ..., Bn ) est une partition de Ω telle
que P (Bi ) > 0 pour tout i, on a :
n
X
P (A) = PBi (A)P (Bi ).
i=1
Formule de Bayes : si (B1 , B2 , ..., Bn ) est une partition de Ω telle que P (Bi ) > 0
pour tout i, on a :
PBk P (Bk )
PA (Bk ) = Pn .
i=1 PBi (A)P (Bi )
2. Ce qui concerne l'indépendance
Dans un espace probabilisé (Ω, A, P ), deux événements A et B sont indépendants si :
P (A ∩ B) = P (A)P (B).
Cette notion est plus forte que l'indépendance deux à deux. Par exemple, il peut arriver
que trois événements A, B et C soient deux à deux indépendants, mais ne vérient
pas la condition supplémentaire P (A ∩ B ∩ C) = P (A)P (B)P (C) pour l'indépendance
mutuelle.
29
2.6 Exercices
Exercice 3.
Un test sanguin a une probabilité de 0.95 de détecter un certain virus lorsque celui ci est
eectivement présent. Il donne néanmoins un faux résultat positif pour 1% des personnes non
infectées. Notons V = {la personne testée a le virus}, T = {la personne testée a un test
positif}.
1. Si 0.5% de la population est porteuse du virus, quelle est la probabilité qu'une personne
ait le virus sachant qu'elle a un test positif ?
2. Interpréter le résultat.
Exercice 4.
1. Soit n ≥ 2, Etablir que, si (A1 , ..., An ) est une suite d'événements telle que P ( ni=1 Ai ) >
T
0, alors
n
\ Yn
P ( Ai ) = P (A1 ) P∩i−1 Ak (Ai ).
k=1
i=1 i=2
30
(Indication : On pourra raisonner par rucurrence sur n).
Exercice 5.
Un sac contient initialement une boule blanche et une boule noire. On réalise indéni-
ment l'expérience suivante : on tire une boule, on regarde sa couleur, on la remet dans
le sac et on rajoute une nouvelle boule de la même couleur que celle obtenue.
Notons X le nombre de tirage(s) nécessaire(s) avant d'obtenir une boule noire, avec la
convention X = 0 si on ne tire jamais de boule noire.
Notons Bi l'événement On obtient une boule blanche au ieme tirage.
Exercice 7.
Pour juger de l'écacité d'une compagne publicitaire ayant porté sur un produit, on a sondé
1500 personne ; 1000 dans la région du Nord et 500 dans la région du sud. Les résultats sont :
31
3. Probabilité de connaître le produit et ne pas le consommer.
4. Probabilité d'être du nord.
5. Quelle est la probabilité pour qu'une personne qui connaisse le produit soit consomma-
trice de ce produit ?
6. Quelle est la probabilité pour qu'une personne prise au hasard du sud ne connaisssent
pas le produit ?
Exercice 8.
Un avion de guerre passe au-dessus de trois batteries antiaériennes. Chaque batterie a une
chance sur trois d'abattre l'avion. Quelle est la probabilité que l'avion soit abattu ?
Exercice 9.
Une usine s'adresse à deux fournisseurs A et B pour l'approvisionnement d'un composant
électronique. Le contrôle de conformité eéctué sur un échantillon aléatoire de composants
électroniques a donné la répartition suivante des pourcentages de défauts :
Fournisseur\ Répartition du nb de défauts 0 défauts 1 défauts 2 défauts
A 60 % 35% 5%
B 65% 25% 10%
Exercice 10.
Dans cet exercice on étudie une maladie rare qui atteint, disons 1 individu sur 1000 ( par
exemple la maladie de la vache foulle). On met au point un test pour détecter si un individu
est infecté par la maladie. Lorsqu'un individu est malade, le test a une prbabilité de 0.99 de
se révéler positif. Si un individu n'est pas porteur de la maladie, le test a une probabilité 0.98
de l'identier comme tel.
On teste un individu est le rérultat est positif.
1) Quelle est la probabilité que l'individu ainsi testé soit eectivement infecté ?
2) Déduire que si on applique un tel test pour dépister la maladie de la vache foulle et qu'on
abat les vaches testées positives, on va déclencher un massacre inutile.
Exercice 11.
On considère n menteurs I1 ,..., In . I1 reçoit une information sous la forme de oui ou
non, la transmet à I2 , et ainsi de suite jusqu'à In et In l'annonce au monde. Chacun d'eux
transmet ce qu'il a entendu avec la probabilité p ∈]0, 1[, le contraire avec la probabilité 1 − p.
Les réponses des n personnes sont indépendantes.
On note Ak = “Ik transmet l'information initiale, Bk = “Ik transmet ce qu'il a entendu et
pk = P (Ak ).
1. a. Montrer que, pour tout k = 2, ..., n , Ak = (Ak−1 ∩ Bk ) ∪ (Ack−1 ∩ Bkc )
1. b. En déduire que, pour tout k = 2, ..., n, pk = 1 − p + (2p − 1)pk−1 .
2. Montrer que la suite (uk ) dénie par uk = pk − 12 est géométrique1 de raison 2p − 1.
En déduire une formule explicite pour un puis pour pn .
3. Quelle est la limite de pn quand n −→ ∞ ? interpréter le résultat.
1. Rappel : Une suite (xk ) est géométrique de raison q si, pour tout k ∈ N, xk+1 − qxk = 0. Dans ce cas,
32
on a la formule explicite xn = x0 q n valable pour tout n ∈ N.
33
Chapitre 3
3.1 Introduction
Soit Ω l'univers associe à une expérience aléatoire. Il est parfois intéressant d'associer à
chaque ω un nombre réel, par exemple la somme des points obtenus lorsqu'on jette deux dés.
On est donc amené à étudier des applications de Ω dans R qui sont sous certaines conditions
appelées variables aléatoires réelles.
avec
X −1 (B) = {ω ∈ Ω/X(ω) ∈ B}.
On dit aussi que X est une application (A, B)−mesurable.
X −1 (B) ∈ A ∀B ∈ BR .
Exemple :
1. Si A = P(Ω) ou B = {∅, E}, alors toute application : X : Ω −→ E est une v.a.
2. Fonction indicatrice d'un événement. Soit (Ω, A) un espace mesurable et A un élément
de A. On dénit la fonction indicatrice de A, notée 1A :
1 si ω ∈ A,
∀ω ∈ Ω, 1A (ω) =
0 sinon
alors 1A est une v. a. de (Ω, A) dans ({0, 1}, P({0, 1})).
3. Toute application continue de (R, BR ) est une v. a.
♣ Exercice : On lance deux dés équilibrés et on note X la somme des deux résultats. Décrire
un espace de probabilité correspondant à cette expérience aléatoire et dénir précisément X .
34
Remarque 3.2. La raison pour laquelle on introduit ce concept de v. a. est que les éléments de
l'univers peuvent être n'importe quoi, par exemple une couleur ou encore une marque d'objet,
etc. Comme on préfère travailler avec des nombres réelles, on transforme (ou besoin) chaque
ω en un nombre réel x = X(ω).
et l'application
PX : B −→ [0, 1]
B 7−→ PX (B) = P (X −1 (B)) = P (X ∈ B)
dénit une probabilité sur (E, B), appelée loi de X ou loi image de P par la variable
aléatoire X .
Preuve. Vérions les trois axiomes des probabilités :
i) Il est clair que PX est à valeur dans [0, 1].
ii) PX (E) = P (X −1 (E)) = P (Ω) = 1.
iii) Si (Bi )i∈N est une suite d'événements deux à deux disjoints, on a :
PX (∪∞
i=1 Ai ) = P (X
−1 (∪∞ A ))
i=1 i
=P (∪∞ X −1 (A )) (car X −1 (∪∞ A ) = ∪∞ X −1 (A ))
P i=1 i i=1 i i=1 i
= Pi∈N P (X −1 (Ai ) (car Les (X −1 (Ai )i∈N sont 2 à 2 disjoints)
= i∈N PX (Ai ).
Donc P (Xb 6= Xr ) = 56 ). Donc les variables aléatoires Xb et Xr sont diérentes ; par contre,
elles ont la même loi.
Exemple :
On tire, avec remise à chaque fois, deux boules d'un sac contenant 3 boules numérotées de 1
à 3.
Soit X la v.a. : Somme des points obtenus. On a :
Ω = {1, 2, 3}2 et card(Ω) = 32 = 9. On a aussi :
35
D'où :
{X = 2} = {(1, 1)}, P (X = 2) = 91 .
{X = 3} = {(1, 2), (2, 1)}, P (X = 3) = 92 .
{X = 4} = {(1, 3), (3, 1), (2, 2)}, P (X = 4) = 93 = 13 .
{X = 5} = {(2, 3), (3, 2)}, P (X = 5) = 92
{X = 6} = {(3, 3)}, P (X = 6) = 91 .
On peut représenter les résultats sous forme d'un tableau :
xi 2 3 4 5 6
P (X = xi ) 1
9
2
9
3
9
2
9
1
9
On vérie que
1 2 3 2 1
+ + + + =1
9 9 9 9 9
Remarque : La loi de X est déterminée par X(Ω) et les valeurs
pi = P (X = xi ) = PX ({xi }), xi ∈ X(Ω).
avec
Autrement dit, la loi de X est l'ensemble des (xi , pi ) tels que pi ≥ 0 et ni=1 pi = 1.
P
P (X = x) = FX (x) − F (x− ).
Preuve.
1. L'encadrement 0 ≤ FX ≤ 1 vient du fait que P est à valeurs dans [0, 1].
On a :
∅ = ∩n∈N∗ {X ≤ −n}
et d'après la propriété de la continuité monotone, on a
36
Tandis que :
[
Ω= (X ≤ n) (d'après la propriété d'Archimid),
n∈N
Par suite :
1 = P (Ω) = lim P (X ≤ n) = lim FX (n)
n−→+∞ n−→+∞
1
] − ∞, x] = ∩+∞
n=1 ] − ∞, x + ].
n
(En eet, pour tout y ∈] − ∞, x], on a y ≤ x ≤ x + 1
n pour tout n et donc
1
y ∈ ∩] − ∞, x + ].
n
Réciproquement, tout y dans cette intersection vérié : ∀n ∈ N∗ , y ≤ x + n1 . Le passage
à la limite qd n tend vers l'inni conservant cette inégalité large.
On en déduit y ≤ x i.e. y ∈] − ∞, x].)
D'après la propriété de la croissance monotone,
PX = PY ⇐⇒ FX = FY .
37
P (]a, b]) = F (b) − F (a)
P ([a, b]) = F (b) − F (a− )
P (]a, b[) = F (b− ) − F (a)
P ([a, b[) = F (b− ) − F (a− )
P ({a}) = F (a) − F (a− )
Démonstration : La première propriété est claire par dénition de la fonction de répartition.
Montrons la deuxième : on a
1
[a, b] = ∩n≥1 ]a − , b].
n
Par limite décroissante, on obtient :
1
P ([a, b]) = lim P (]a − , b]).
n−→+∞ n
Mais,
1 1
P (]a − , b]) = F (b) − F (a − )
n n
et
1
lim F (a − ) = F (a− ),
n−→∞ n
ce qui prouve le résultat.
On a :
xi 2 3 4 5 6
P (X = xi ) 1
9
2
9
3
9
2
9
1
9
Déterminons la fonction de répartition de X :
FX (x) = P (X ≤ x).
• Si x < 2, on a (X ≤ x) = ∅ =⇒ FX (x) = 0.
• Si 2 ≤ x < 3, on a (X ≤ x) = (X = 2) =⇒ FX (x) = P (X = 2) = 91 .
• Si 3 ≤ x < 4, on a (X ≤ x) = (X = 2) ∪ (X = 3), de plus les événements (X = 2) et
(X = 3) sont disjoints =⇒ FX (x) = P (X = 2) + P (X = 3) = 91 + 29 = 13 .
• Si 4 ≤ x < 5 , on a : FX (X) = 19 + 29 + 39 = 23 .
• Si 5 ≤ x < 6, on a Fx (x) = 32 + 29 = 89 .
• Si x ≥ 6, on a FX (x) = 1.
38
Fig. 1 -Fonction de répartition F de la v.a. X
Dans ce cas, connaitre la loi de probabilité de X , c'est connaitre les probabilités élémentaires :
∀xi ∈ X(Ω) : P (X = xi ) = pi .
♣ Exercice : Soit X une v.a. réelle dont la loi est dénie par :
xi -1 1 2
1 1 1
pi 4 2 4
Déterminer la loi de Y = 2X + 1 et de Z = X 2 .
Solution :
On a l'univers image de Y est {−1, 3, 5}.
1
P (Y = −1) = P (X = −1) = .
4
1
P (Y = 3) = P (X = 1) = .
2
1
P (Y = 5) = P (X = 2) = .
4
De même , l'univers image de Z est {1, 4}. On a :
3
P (Z = 1) = P (X = −1) + P (X = 1) = .
4
1
P (Z = 4) = P (X = 2) = .
4
Remarques :
1. Soit X une v.a. de Ω dans {x1 , x2 , ..., xn }.
La fonction de répartition vérie :
• x ∈] − ∞, x1 [, FX (x) = P (∅) = 0,
• x ∈ [x1 , x2 [, FX (x) = P (X ≤ x) = FX (x1 ) = P (X = x1 ) = p1 .
..
.
• x ∈ [xi , xi+1 [, FX (x) = p1 + p2 + ... + pi ( car {X ≤ x} = {X = xi ou X =
xi−1 ou ....ou X = xi }).
• X ≥ xn , FX (x) = 1 = P (Ω).
2. Dans le cas discret, comme
FX (xi ) − FX (xi−1 ) = pi = P (X = xi ).
39
Exercice : Soit (a, b) ∈ N∗2 ; a < b ; X est une variable aléatoire discrète de Ω dans N ∗
telle que :
∀x ∈ |[1, ab]| ; P (X = x) = a1 − 1b et P (X = x) = 0 ailleurs.
1) Déterminer une CNS sur a et b pour que les relations précédentes dénissent eective-
ment une loi de probabilité.
2) Dans ces conditions, tracer la représentation graphique de la fonction de répartition
FX de X .
Dénition 3.6. On dit qu'une v. a. r. X admet une densité s'il existe une fonction positive
fX : R −→ R
(FX )0 = fX .
40
3.6.1 Le cas ni
3.6.2 La loi uniforme discrète
Dénition 3.7. La v.a.r. X suit la loi uniforme sur {a1 , a2 , ..., an } si X(Ω) = {a1 , a2 , ..., an }
et
1
PX ({ai }) =, 1 ≤ i ≤ n.
n
Autrement dit, PX est l'équiprobabilité sur {a1 , a2 , ..., an }.
Dans ce cas, on note X ∼ U{a1 ,a2 ,...,an } .
P (X = 1) = p, P (X = 0) = 1 − p = q.
Exemple : On jette une pièce de monnaie qui tombe sur pile avec la probabilité p et on dénit
X par X = 1 si on tombe sur pile et X = 0 sinon. X est une v. a. de Bernoulli.
Remarques :
1. Si X ∼ B(p), on peut toujours écrire
41
2. Les v. a. binomiales sont naturellement associées à la répétition de n expériences iden-
tiques et indépendantes de Bernoulli.
On s'intéresse au nombre X de succès obtenus au cours de la réalisation de n expé-
riences aléatoires identiques et indépendantes.
On introduit (ε1 , ε2 , ..., εn ) la suite des résultats de ces n expériences :
P ({ω}) = pk (1 − p)n−k .
♣ Exercice .
Un couple souhaite avoir exactement n enfants (n ∈ N∗ ). On considère qu'à chaque naissance
l'ensemble des possibilités est Ω = {G, F } : G étant l'événement avoir un garçon et F étant
l'événement avoir une lle, ces 2 événements étant équiprobables.
On considère que les naissances sont indépendantes.
A la ieme naissance, on associe la variable aléatoire discrète Xi de Bernoulli, qui prend la
valeur 1 si G est réalisé, et la valeur 0 sinon. Soit X = X1 + ... + Xn .
Solution :
1-a. X ∼ B(3, 12 )
1 3
P (X = 3) = P (X = 0) = , P (X = 2) = P (X = 1) = .
8 8
42
1-b. La fonction de répartition de X :
Exemple : On lance une pièce de monnaie - qui tomble sur pile avec la probabilité p- jusqu'à
ce qu'on tombe sur pile et si on note X le nombre de lancers eectués, la v. a. X suit la loi
géométrique de paramètre p.
En eet, soit (Xk )k∈N une suite de v. a. de bernoulli indépendante et de même loi B(p)
P (X = k) = P (X1 = 0, X2 = 0, ..., Xk−1 = 0, Xk = 1) = (1 − p)k−1 p.
Remarque : Le fait que la somme des probabilités fasse 1 vient de la formule de sommation
de la série exponentielle :
X λn X λn
∀λ ∈ R, converge et = exp(λ).
n! n!
n∈N n∈N
Champs d'applications : C'est la loi qu'on obtient en comptant des événements aléatoires
indépendants :
43
1. Arrivée des particules sur un capteur,
2. Nombre de clients entrant dans un magasin,
3. comptage de voiture sur une route,
4. Etude des les d'attente dans les réseaux dec communication...
La loi de Poisson s'obtient par passage à la limite :
Proposition 3.12. Soit (Xn ) une suite de v. a. r. de loi B(n, pn ) avec (pn ) une suite de [0, 1]
vériant limn−→∞ npn = λ. On a pour tout k ∈ N :
λk
lim P (Xn = k) = e−λ .
n−→∞ k!
Preuve. On a
P (Xn = k) = Cnk pkn (1 − pn )n−k
n! npn −k (npn )k npn n
= (n−k)!nk
(1 − n ) k! (1 − n )
Remarque : En pratique, on remplace la loi binomiale par la loi de Poisson P(np) dès que :
n > 50 et p < 0, 1. Plus p est petit l'approximation est meilleure.
Exemple : Un jeu de tombola comptant 100 billets ait lieu pendant 100 jours. Chaque tombola
ne compte qu'un billet gagnant. Une personne décide de participer au jeu en achetant un billet
par jour. Notons X le nb de fois où elle gagne pendant ces 100 jours. Calculer la probabilité
des événements suivants :
Soit
1
X ∼ B(100, ) et Y ∼ P(1).
100
D'après la proposition précédente, on ne se retrompe pas beaucoup en approximant la loi de X
par celle de Y .
Voici une comparaison numérique pour les petites valeurs de k .
k 0 1 2 3
P(X=k) 0.3660 0.3697 0.1849 0.0794
P(Y=k) 0.3679 0.3679 0.1839 0.0803
L'intérêt de cette approximation est que les calculs des probabilités liées à la loi de Poisson
sont plus faciles à eectuer.
44
Dans ce cas, on note X ∼ U[a,b] .
Remarques :
1) f est clairement mesurable (elle est C ∞ par morceaux), positive, et
Z Z b
1
f (x)dx = dx = 1.
R a b−a
♣Exercice : Soit X une v. a. réelle dont la fonction de répartition F est continue stricte-
ment croissante. Montrer que la v. a. Y = F (X) suit la loi U[0,1] .
Réponse :
On a la v.a. Y prend ses valeurs dans [0, 1].
On désigne par G et g la fonction de répartition et la fonction densité de Y .
1 (x − m)2
f (x) = √ exp(− )
2πσ 2 2σ 2
♣Exercice :
1. Soit U une v. a. normale centré réduite N (0, 1) et Π(.) la fonction de répartition de
U . Montrer que
Π(−z) = 1 − Π(z) ∀z ∈ R
2. Soit X la v.a. dénie par
X = m + σU
45
où m et σ sont des réels non nuls. Soit FX la fonction de répartition de X . Montrer
que
x−m
FX (x) = Π( ).
σ
3. Déterminer la densité de probabilité g(x) de X.
4. Déduire que par le changement de variable z = x−mσ toutes les varibles aléatoires nor-
males N (m, σ) se ramèment à la loi normale centrée réduite U .
Réponse :
1- On a Z Z −z Z +∞
1= fU (u)du = fU (u)du + fU (u)du
R −∞ −z
2- On a
X −m x−m x−m
FX (x) = P(X ≤ x) = P( ≤ ) = Π( )
σ σ σ
3- On a
1 0 x−m 1 x−m
g(x) = F 0 (x) = Π( ) = fU ( )
σ σ σ σ
Donc
1 (x − m)2
g(x) = √ exp(− )
2πσ 2 2σ 2
4. Utiliser les densités.
a−3
P(X ≤ a) = P(U ≤ = 0.7486
2
Or
P(U ≤ 0.67) = 0.7486
Donc a−3
2 = 0.67 et par suite a = 4.35.
Remarques :
Les régions de R à forte probabilité pour N (0, 1) sont les régions où la densité est élevé.
Si X ∼ N (0, 1) :
46
avec Π est la fct de répartition de la loi N (0, 1).
Domaine d'utilisation : La loi gaussienne est la lois la plus utilisée en théorie des proba-
bilités et en statistique. Cela est dû au caractéristiques suivantes :
1. Elle permet des développements mathématiques ecaces.
2. Toute l'information est donnée directement par les paramètres m et σ , qui caractérisent
respectivement la valeur moyenne et la dispersion autour de cette valeur moyenne.
3. C'est la loi qu'on obtient naturellement en additionnant un grand nombre de v. a.
indépendantes (voir théorème central limite-ch. 7).
4. La plupart des lois de probabilité intervenant dans les tests statistiques comme la loi χ2
et la loi de student se déduisent de la loi gaussienne par des transformations simples.
n
X
χ2 = Xi2 avec Xi ∼ N (0, 1) et sont indépendantes
i=1
5. Elle présente un grand nombre de phénomènes aléatoires comme les erreurs liées aux
mesures, la uctuation des prix, la distribution des tailles de personnes choisies au
hasard dans une population donnée, les variations de la longueur des pièces fabriquées
en série, etc...
Exemple : On suppose que la taille des individus suit une loi normale de paramètres m et
σ.
Sachant que 4% des individus mesurent moins de 160 cm et 11% mesurent plus de 180 cm.
Quelle est la valeur de m et σ ?
On pose :
X −m
Z= .
σ
Alors, Z ∼ N (0, 1).
D'où :
160 − m 160 − m
P (X ≤ 160) = P (Z ≤ ) = π( ).
σ σ
Or 4% des individus mesurent moins de 160 cm, donc :
160 − m
π( ) = 0, 04.
σ
On a aussi 96% des individus mesurent plus de 160 cm, d'où
m − 160
π( ) = 0, 96.
σ
La table de la loi N (0, 1) donne : m−160
σ = 1, 76.
De même :
180 − m 180 − m
P (X > 180) = P (Z > ) = 1 − π( ).
σ σ
Or 11% des individus mesurent plus de 180 cm, d'où :
180 − m
π( ) = 0, 89.
σ
La table de la loi N (0, 1) donne : 180−m
σ = 1, 23.
D'où le système :
m − 160 = 1, 76σ m = 172
=⇒
−m + 180 = 1, 23σ σ = 6, 7.
47
3.6.11 La loi exponentielle
Dénition 3.15. La v. a. r. X suit la loi exponentielle de paramètre θ > 0 si et seulement
si elle est à valeurs dans R+ et admet pour densité la fonction donnée par :
si
θ exp(−θx) x > 0,
f (x) = = θ exp(−θx)1]0,+∞[ (x)
0 sinon
Remarque 3.4. f est clairement borélienne (elle est C ∞ par morceaux), positive, et
Z Z ∞
f (x)dx = θ exp(−θx)dx = 1.
R 0
♣ Exercice : Montrer que la fonction de répartition de la loi exponentielle est donnée par :
F (x) = (1 − e−θx )1[0,+∞[ (x).
Tracer la courbe de F.
Domaine d'utilisation :
1. La loi exponentielle intervient en abilité pour modéliser la durée de fonctionnement
d'un équipement technique : par exemple la durée de vie d'un appareil électrique. Le
paramètre θ représente le taux de défaillance, alors que son inverse 1θ est le taux de bon
fonctionnement MTBF (Mean Time between Failure).
2. Elle intervient dans le domaine de la radioactivité : chaque atome radioactif possède une
durée de vie qui sui une loi exponentielle exp(θ), le paramètre θ s'appelle la constante
de désintégration.
3. Elle intervient aussi pour modéliser le temps séparant les arrivées de deux clients dans
l'étude d'un phénomène d'attente :
Soit la v.a. Nt désignant le nb de clients arrivant dans un magasin sur l'intervalle
[0, t]. Si Nt suit la loi de Poisson de paramètre λt, alors la date d'arrivée T du premier
client suit la loi exp(λ).
En eet, on a
P (Nt = 0) = P (T > t) = 1 − P (T ≤ t)
d'où
P (T ≤ t) = 1 − exp(−λt).
Ce qui donne le résultat.
Plus généralement, on montre que le temps d'attente T entre deux arrivées suit une loi
exponentielle de paramètre θ, et on a :
P (T > t) = exp(−θt).
Exemple : La abilité globale d'une carte électronique suit une loi exponentielle de paramètre
θ, avec θ = 12.10−6 h−1 . Pour un fonctionnement 24 heures sur 24 pendant 208 jours par an,
donnez la probabilité que cette carte électronique fonctionne encore au bout de ces 208 jours.
On a
t = 24 × 208 ∼
= 5000heures.
Soit X la durée de vie de cette carte électronique, on a
P (X > 5000) = exp(−0, 000012 × 5000) = 0, 9418.
càd , la probabilité d'avoir une défaillance pendant la durée de fonctionnement de 5000h est
5, 8%. L'intérêt qu'on porte à cette loi est dû à la :
48
Proposition 3.16. Soit X une v. a. r. suivant la loi exp(θ), alors X vérie la propriété
d'absence de mémoire :
e−θ(t+s)
= e−θt
= e−θs = P (X > s).
Interprétations :
- On considère un matériel ayant fonctionné sans défaillance pendant le temps t et on
cherche la probabilité qu'il soit encore en état de marche au temps t + s. Cette dernière
est égale à la probabilité qu'il fonctionne pendant le temps s ; i.e. le matériel a "oublié"
qu'il avait déjà fonctionné pendant le temps t. Pour ce type de matériel il est inutile
de procéder à un remplacement préventif.
- Si X modélise la durée de vie d'un individu A, la propriété que X est sans mémoire
exprime que A ne vieillit pas : si A a vécu t années, la probabilité pour qu'il vive encore
s années est la même que la probabilité pour qu'un individu similaire à A qui vient de
naître vive lui aussi s années. Autrement dit : La durée de vie au-delà de l'instant t est
indépendante de l'instant t.
Exercice : On suppose que le temps, en heure, nécessaire pour réparer une machine est une
v. a. de loi exp(θ), avec θ = 0.5.
2- Sachant que la réparation a déjà dépassé 9 heures, qu'elle est la probabilité qu'elle
prenne au moins 10 heures ?
Réponse :
1- P(T > 2) = 1 − P(T ≤ 2) = 1 − F (2) = e−1 = 0.368.
P ({X = xi } ∩ {Y = yj }) = P (X = xi )P (Y = yj ).
49
Dénition 3.18. X et Y sont dites indépendantes si, pour tous intrevalles I et J de
R, on a :
P ({X ∈ I} ∩ {Y ∈ J}) = P (X ∈ I)P (Y ∈ J).
Exo : On supppose que le nombre de clients entrant dans un magasin un jour donné est
une variable aléatoire de Poisson de paramètre λ = 12. On suppose que les v. a. comptant le
nombre d'entrées de chaque jour sont indépendantes.
Quelle est la probabilité de ne pas tomber en dessous de 250 entrées de clients durant un mois
de 22 jours ouverables ?
Solution
Soit X le nombre de clients entrant dans le magasin durant un mois de 22 jours ouverables.
On a X = X1 + X2 + ... + X22 , avec les Xi sont i.i.d. et Xi ∼ P(12).
Donc,
X ∼ P(12 × 22) = P(264).
249
−264
X (264)i
P (X ≥ 250) = 1 − P (X < 250) = 1 − e = 0, 813.
i!
i=0
C'est le cas, par exemple, d'un lot de N piéces comprenant N p piéces défectueuses et donc
(N −N p) piéces fonctionnant bien. Quelle est la probabilité qu'un sous-ensemble de n éléments
contienne x éléments de l'ensemble A ?
Les éléments peuvent être tirés, soit un par un, soit d'un seul coup, mais sans remise.
Soit X la variable aléatoire représentant le nombre d'individus ayant le caractère considéré
dans l'échantillon. On veut calculer P(X = x).
Le nombre d'échantillons de taille n est égal à CNn.
Le nombre d'échantillons de taille n, comprenant x individus pris parmi les N p individus, est
donc égal à CNx C n−x .
p N −N p
La probabilité cherchée est égale à :
n−x
CN −N p
P(X = x) = n .
CN
50
Les valeurs extrêmes de x sont :
En eet, on considère l'événement : En,k =" parmi les n éléments tirés, il y en a exactement
k provenant de A".
Remarque : Les événements (En,k )0≤k≤n sont deux à deux incompatibles et de réunion Ω,
donc :
n k × C n−k
X CN 1 N −N1
n = 1.
CN
k=0
Dénition 3.20. X est une v.a. hypergéométrique s'il existe deux entiers non nuls n et N ,
n < N et un réel p ∈]0, 1[ tel que N p ∈ N∗ , X(Ω) ⊆ |[0, n]| et ∀k ∈ X(Ω), on a :
k × C n−k
CN p N (1−p)
P (X = k) = n
CN
X ∼ H(N, n, p).
51
Remarque 3.5. 1. fX est une densité de probabilité (poser t0 = bt).
3. Finalement, on a
1 √
Γ( ) = π.
2
Fonction densité :
β x − γ β−1 −(x−γ β
f (x) = ( ) e η) .
η η
avec (x − γ) > 0.
β : paramètre de forme (sans unité)
η : parmètre d'échelle (uité de temps)
γ : paramètre de position (uité de temps).
52
3.8 Résumé du troisième chapitre
Les lois de probabilités théoriques essaient de décrire des phénomènes aléatoires dans le but
de calculer la probabilité de certains événements et donc d'avoir une certaine représentation
de l'avenir.
I. Lois discrètes :
1. Loi de Bernoulli B(p)
La loi de Bernoulli intervient dans le cas d'une seule expérience aléatoire à laquelle
on associe un événement aléatoire quelconque.
La réalisation de l'événement au cours de cette expérience est appelée succès et la
probabilité de réalisation est dite probabilité de succès, notée par p. Par contre la
non réalisation de l'événement est appelée échec et la probabilité de non réalisation
de l'événement est dite probabilité d'échec, noté par q = 1 − p.
53
4. Loi de Poisson P (m)
La loi de Poisson intervient pour des phénomènes aléatoires dont le nombre de
réalisations varie de 0 à +∞ et dont le nombre moyen de réalisations est connue.
Exemple : nb d'appels reçus par un standard téléphonique, nb d'accidents de la
circulation, nb de visiteurs d'un centre commercial...
La variable aléatoire X qui caractérise le nombre de réalisations de ce
phénomène est appelée variable de Poisson : elle prend les valeurs 0,1, ...
e−m mk
P (X = k) = .
k!
Théorème d'approximation Soit X une v.a. vériant X ∼ B(n, p), telle que
npn −→ m quand n −→ ∞.
II. Lois continues : La loi normale est la loi continue la plus importante et la plus
utilisée dans les calculs des probabilités. (Voir le cours).
X Très important !
Il faut connaître d'une part toutes les dénitions des lois usuelles, mais aussi et surtout sa-
voir, en pratique, décider si le résultat X de mon expérience aléatoire a pour loi plutôt la loi
uniforme, la loi binomiale, la loi de Poisson, etc.
C'est la chose la plus dure à faire. Ensuite, tout ce que l'on peut vous demander (espérance,
variance, etc.) , ce n'est plus que des calculs.
54
3.9 Exercices
Exercice 1.
1. On lance un dé équilibré ; prenons Ω = {1, ..., 6}, on muni Ω de la tribu P(Ω). On met
sur P(Ω) la probabilité uniforme ( ce qui correspond au fait que le dé est équilibré). Soit
X la v.a. réelle dénie par X(3) = X(6) = 1 et X(1) = X(2) = X(4) = X(5) = 0. X
indique si le numéro sorti est un multiple de 3.
Donner la loi PX de la v.a. X .
Exercice 3.
Un couple souhaite avoir exactement n enfants (n ∈ N∗ ). On considère qu'à chaque naissance
l'ensemble des possibilités est Ω = {G, F } : G étant l'événement avoir un garçon et F étant
l'événement avoir une lle, ces 2 événements étant équiprobables.
On considère que les naissances sont indépendantes.
A la ieme naissance, on associe la variable aléatoire discrète Xi de Bernoulli, qui prend la
valeur 1 si G est réalisé, et la valeur 0 sinon. Soit X = X1 + ... + Xn .
Exercice 4.
On suppose que 5 % des pièces en sortie d'une chaine de production soient défectueuses.
1. Quelle est la probabilité qu'un échantillion de 20 pièces issu de cette chaîne ne contienne
55
aucune pièce défectueuse ?
2. Quelle est la probabilité que la première pièce défectueuse ne soit pas l'une des 20 pre-
mières sorties de la chaîne ?
Exercice 5.
Soit X1 , ..., Xn , n variables dénies sur le même espace de probabilité, indépendantes et qui
suivent la même loi de Bernoulli B(p) de paramètre p, où p ∈]0, 1[. On note S la variable aléa-
toire discrète qui vaut 0 si pour tout i ∈ {1, ..., n} Xi = 0, et qui vaut 1 dans le cas contraire.
Déterminer la plus petite valeur de n pour que P (S = 0) ≤ 10−3 .
Application :
Un texte comporte une erreur. On relit ce texte n fois de manière indépendante, à chaque fois,
la probabilité de remarquer cette erreur est 12 . Déterminer la plus petite valeur de n pour que
la probabilité de ne pas avoir remarqué cette erreur soit ≤ 1000
1
.
Exercice 6.
Dans une pépinière 95% des eurs sont supposées sans virus. Par commodité les eurs sont
rangées par paquets de 2. Un paquet est dit sain si les deux eurs le sont.
Exercice 7.
Une usine employant 30 personnes dont 4 ingénieurs, 10 techniciens et 16 ouvriers.
1. On choisit de façons successive 3 employés : calculer la probabilité d'avoir un employé
de chaque catégorie professionnelle.
2. On choisit de façon successive 3 employés et soit X la variable aléatoire qui représente
le nombre d'ingénieurs choisis. Donner la loi de probabilité de X .
56
Fig. 1 -Fonction de répartition F de la v.a. X
P (X = x) = F (x) − F (x−),
Exercice 10.
Soit (a, b) ∈ N∗2 ; a < b ; X est une variable aléatoire discrète de Ω dans N ∗ telle que :
∀x ∈ |[1, ab]| ; P (X = x) = a1 − 1b et P (X = x) = 0 ailleurs.
1) Déterminer une CNS sur a et b pour que les relations précédentes dénissent eective-
ment une loi de probabilité.
2) Dans ces conditions, tracer la représentation graphique de la fonction de répartition
FX de X .
1. Déterminer la constante k de telle sorte que f (x) puisse être considérée comme la
densité de probabilité d'une v.a. continue U .
Π(−z) = 1 − Π(z)
6. Application :
Le stock journalier d'un produit destiné à un atelier suit une loi normale de moyenne
120 pièces et d'écart type 50 pièces.
57
a. Calculer la probabilité pour que le nombre de pièces en stock soit compris entre 80
et 160.
b. Calculer la probabilité pour que le nombre de pièces en stock soit supérieur à 200.
c. Calculer la probabilité pour qu'il y ait rupture de stock.
d. Interpreter ces résultats.
On donne
Exercice 13.
Environ 5% des réservations aériennes sur une ligne donnée ne sont pas utilisées, et c'est
pourquoi une compagnie vend 100 billets pour 97 places.
Quelle est la probabilité pour que tous les passagers aient une place ? Faire le calcul exact (avec
une loi binomiale), et le calcul approché (avec une loi de Poisson).
Exercice 14.
Soit X une v. a. uniforme sur [−1, +1].
1. Montrer que la loi géométrique de paramètre p est sans mémoire : c'est à dire que
P (X > k + n/X > n) est indépendante de n.
2. Caractériser toutes les lois des variables aléatoires X à valeurs dans N∗ qui sont sans
mémoire. On pourra calculer P (X > 1 + n) en fonction de P (X > 1).
3. Caractériser toutes les lois des variables aléatoires X à valeurs dans N qui sont sans
mémoire.
58
Chapitre 4
réelle
Remarques : 1) La somme |xi |PX (xi ) est soit une somme nie (si X(Ω) est ni) et
P
i∈I
dans ce cas, l'espérance existe toujours, soit une série à terme positifs (si X(Ω) est une partie
dénombrable innie), et dans ce cas, la série peut être divergente et avoir une somme égale à
+∞.
Rappelons que dans le cas d'une série à termes positifs, la suite des sommes partielles est
croissante, et deux cas se présentent donc :
- soit la suite de ces sommes partielles est majorée et la série est convergente ;
- soit la suite de ces sommes parielles tend vers +∞ et la série diverge vers +∞.
Exemples :
1. Si X est une v.a. constante X = c, alors E(X) = c.
2. Soit X une v.a. discrète dont la loi est donnée par :
x 2 3 4 5 6
P(x=x) 1
9
2
9
3
9
2
9
1
9
59
1 2 3 2 1
E(X) = 2 × + 3 × + 4 × + 5 × + 6 × = 4.
9 9 9 9 9
3. Soit X une v.a. de Bernoulli de paramètre p.
On a X = 1A , alors E(X) = E(1A ) = P (A) = p.
En eet, X(Ω) = {0, 1}.
On a {X = 1} = A = {ω/X(ω) = 1}.
Donc
E(X) = 0.P (X = 0) + 1 × P (X = 1)
= P (X = 1) = P (A).
Remarque : Si pour tout i ∈ I , on a : a ≤ xi ≤ b, alors :
a ≤ E(X) ≤ b,
car X X
aP (X = xi ) ≤ E(X) ≤ bP (X = xi )
i∈I i∈I
où
Ij = {i ∈ I/g(xi ) = yj }.
Donc :
E(Y ) = m yj P (Y = yj ) = m
P P P
j=1 j=1 yj [ i∈Ij P (X = xi )]
= m [ i∈Ij yj P (X = xi )] = m
P P P P
j=1 j=1 [ i∈Ij g(xi )P (X = xi )]
= i∈I g(xi )P (X = xi ), car (Ij )1≤j≤m est une partition de |[1, n]|.
P
Remarques :
1. Si g = id, on retrouve la formule donnant l'espérance.
2. Si la fonction g est bornée, la formule pour E(g(X))est valable sans aucune condition.
60
4.1.3 Cas des variables aléatoires à densité
Dénition 4.3. Soit X une v. a. r. à densité. R
1. On dit que X est intégrable si l'intégrale R |x|fX (x)dx converge.
2. Si X est intégrable, son espérance est donnée par :
Z
E(X) = xfX (x)dx.
R
Exemple :
E(λ(X)) = λE(X).
2. (Positivité) Si X est une v. a. positive, alors E(X) ≥ 0.
Preuve.
1. Si X et Y Sont deux v. a. discrètes, alors Posons
61
De même, on a :
X X
E(λX) = λxi P(X = xi ) = λ xi P(X = xi ) = λE(X).
i i
mk (X) = E(X k ).
62
Remarque 4.2. La variance d'une v. a. r. représente sa dispersion autour de sa moyenne.
C'est un nombre toujours positif, ce qui est évident vu sa dénition.
Nous allons montrer dans le paragraphe qui suit l'inégalité suivante : ∀ > 0
V ar(X)
P (|X − E(X)| > ) ≤ .
2
Une variance faible correspond à un niveau homogène, proche de la moyenne.
En pratique, on utilise la
Proposition 4.8. Soit X une v. a. r. admettant un moment d'ordre 2. On a :
V ar(X) = E(X 2 ) − E(X)2 .
Preuve. Il sut d'utiliser la linéarité de l'espérance :
V ar(X) = E(X − E(X))2 = E(X 2 − 2E(X)X + E(X)2 )
= E(X 2 ) − 2E(X)2 + E(X)2 = E(X 2 ) − E(X)2 .
63
4.3.2 L'inégalité de Bienaymé-Tchebyche
Proposition 4.11. Si X est une v. a. r. admettant un moment d'ordre 2, et si a ∈ R∗+ , On
a:
V ar(X)
P (|X − E(X)| > a) ≤ .
a2
Preuve.
Il sut d'appliquer l'inégalité de Markov à (X − E(X))2 après avoir remarqué que :
g(E(X)) ≤ E(g(X)).
Preuve.
La convexité de g assure qu'en tout point son graphe est au-dessus de sa tangente : Pour tout
t ∈ R, il existe δ (on peut prendre pour δ gd0 (t) ou gg0 (t)), tel que :
g(E(X)) ≤ E(g(X)).
64
Proposition 4.14. Soit X une v. a. de Bernoulli de paramètre p. Alors, on a :
Preuve.
• On a X = 1A où A = {ω/X(ω) = 1}.
Donc
E(X) = P (A) = p,
et
V ar(X) = E(X 2 ) − E(X)2 = p(1 − p).
Preuve.
Soit X le nombre de succès obtenus au cours de la réalisation de n épreuves indépendantes de
Bernoulli de paramètre p.
Donc
X = X1 + X2 + ... + Xn avec Xi ∼ B(p).
En utilisant la linéarité de l'espérance :
V ar(X1 +...+Xn ) = V ar(X1 )+...+V ar(Xn ) si les (Xi ) sont indépendantes ( voir chapitre 6).
D'où
V ar(X) = V ar(X1 ) + ... + V ar(Xn ) = np(1 − p).
E(X) = λ et V ar(X) = λ.
Preuve.
•
+∞ +∞
X X λn−1
E(X) = nP (X = n) = λe−λ = λ.
(n − 1)!
n=0 n=1
•
+∞
X +∞
X
E(X 2 ) = n2 P (X = n) = n2 P (X = n) + P (X = 1).
n=0 n=2
65
1 0 n−1
Or, n2 = n(n − 1) + n et P (X = 1) = e−λ λ1! = e−λ λλ
0! = e (n−1)! pour n = 1,
−λ λλ
et
+∞ +∞ +∞
X X λn−2 −λ X −λ λn−1
n2 P (X = n) = λ2 e + λe
(n − 2)! (n − 1)!
n=2 n=2 n=2
Donc,
+∞ +∞
X λn−2 −λ X λn−1
E(X 2 ) = λ2 e−λ e + λe−λ = λ2 + λ.
(n − 2)! (n − 1)!
n=2 n=1
Donc,
V ar(X) = E(X 2 ) − E(X)2 = λ2 + λ − λ2 = λ
a+b (b − a)2
E(X) = et V ar(X) = .
2 12
Remarque : La dénition est la même pour les intervalles ]a, b[, [a, b[, ..., (car U[ a, b] est
absolument continue).
Preuve.
•
+∞ +∞
1 x2 b
Z Z
x b+a
E(X) = xf (x)dx = dx = [ ] = .
−∞ −∞ b−a b−a 2 a 2
•
+∞
1 b3 − a3
Z
2
E(X ) = x2 f (x)dx =
−∞ 3 b−a
Donc,
1 b3 − a3 (a + b)2 (b − a)2
V ar(X) = − = .
3 b−a 4 12
E(X) = m et V ar(X) = σ 2 .
66
2 R +∞ x2
comme la fonction x −→ xe− x2 est impaire, alors −∞ x √12π e− 2 dx = 0, donc E(X ∗ ) = 0.
• Pour la variance, Z +∞
∗ 2 1 x2
E(X ) = x2 √ e− 2 dx
−∞ 2π
2
Par une intégration par partie, on pose g(x) = x et f 0 (x) = xe− x2 , on obtient :
Z +∞ Z +∞ Z +∞ √
2 − x2
2 −x2
+∞ − x2
− x2 2π
x e dx = [−xe 2 ]0 + e 2 dx = e 2 dx = .
0 0 0 2
R +∞ x2 √ x2
(car −∞ e− 2 dx = 2π et x −→ e− 2 est paire.)
−x2
De plus x −→ x2 e 2 est paire, donc
Z +∞
−x2 √
x2 e 2 dx = 2π
−∞
En conclusion,
V ar(X ∗ ) = 1.
Proposition 4.22. La fonction génératrice est une fonction analytique sur [0, 1]. Elle déter-
mine la loi de X , plus précisément, on a pour tout entier n on a :
(n)
GX (0)
P(X = n) = ,
n!
(n)
avec GX (0) désigne la dérivée n-ième de GX .
Preuve. Le fait que GX est une fonction analytique sur [0, 1] est clair sur sa dénition. La
formule qui donne les coecients d'une série entière en fonction de ses dérivées à l'origine
termine la preuve.
Exemples fondamentaux :
67
1 X est une v. a. de Bernoulli : P(X = 1) = p, P(X = 0) = 1−p. On a GX (s) = 1−p+sp.
2 X suit la loi binomiale B(n, p), p ∈ [0, 1], et n ∈ N. On a d'après la formule de Newton :
n
X
GX (s) = Ckn pk (1 − p)n−k = (ps + 1 − p)n ,
k=0
θ > 0.
Preuve. Montrons le dernier point.R L'intégrale de f est un nombre complexe que l'on
peut écrire sous forme trigonométrique : Ω f dP = ρeiθ . Alors
= ρ = e−iθ Ω f dP = Ω f e−iθ dP (∈ R)
R R R
Ω f dP
−iθ |dP
R R
≤ Ω |f e = Ω |f |dP.
68
4.6.2 Fonction caractéristique d'une variable aléatoire réelle
Dénition 4.23. Soit X une variable aléatoire réelle dénie sur un espace de probabilité
(Ω, F, P ). Sa fonction caractéristique ϕX est dénie par :
Z
itX
∀t ∈ R, ϕX (t) = E(e ) = eitx dPX (x) (∈ C).
R
Théorème 4.24. Soit X une variable aléatoire réelle dénie sur un espace de probabilité
(Ω, F, P ). Sa fonction caractéristique ϕX est uniformément continue sur R, de module infé-
rieur ou égal à 1,et vérie ϕX (0) = 1.
Preuve.
1. |ϕX (t)| = | R eitx dPX (x)| ≤ R |eitx |dPX (x) = R 1dPX (x) = PX (R) = 1.
R R R
Et on prend le supt .
Théorème 4.25. Soit X une variable aléatoire réelle telle que E(|X|m ) < +∞, avec m ≥ 1.
Alors ϕX est m-fois dérivable sur R et
dm ϕX
(t) = im E(X m eitX ).
dtm
et, en particulier
(k)
ϕX (0) = ik EX k .
Preuve. Découle du théorème de dérivation d'une intégrale dépendant d'un paramètre :
Puisque
dk itX
(e ) = (iX)k eitX ,
dtk
on a
dk itX
| (e )| ≤ |X|k ,
dtk
et on peut appliquer m fois le théorème de dérivation d'une intégrale dépendant d'un paramètre.
69
4.6.3 Exemples de calcul
Par le théorème de transfert, la dénition de la fonction caractéristique se décline de la
façon suivante :
1. Si X est discrète, X
ϕX (t) = eitx P (X = x).
x∈X(Ω)
2. Si X a pour densité f , Z
ϕX (t) = eitx f (x)dx.
R
♣ Exercice : Dans tous les exemples qui suivent, retrouver espérance et variance en dérivant
la fonction caractéristique.
• Loi de Bernoulli de paramètre p
X
ϕX (t) = eitx P (X = x) = eit P (X = 1) + ei0 P (X = 0) = peit + 1 − p.
x∈X(Ω)
1
Ra itx 1
Ra Ra
= 2a −a e dx = 2a ( −a cos(tx)dx +i −a sin(tx)dx)
1
Ra 1 1 sin(at)
= 2a −a cos(tx)dx = 2a [ t sin(tx)]a−a = at .
Comme la loi normale admet des moments de tout ordre, on peut dériver ϕX :
ϕ0X (t) = R dt
R d
(cos(tx)) √12π exp(−x2 /2)dx) = R (−x sin(tx)) √12π exp(−x2 /2)dx
R
= −tϕX (t).
70
On a donc établit une équation diérentielle linéaire satisfaite par ϕX (t) : donc
√1 exp(−x2 /2)dx .
R
= R exp(λx) 2π
√1 exp(−(x2 − 2λx)/2)dx
R
= R 2π
Preuve. Admis.
Utilise des résultats de densité de type Stone-Weierstrass.
Exemple : Soit X ∼ P(µ) et Y ∼ P(µ) deux variables aléatoire indépendantes.
Déterminer la loi de Z = X + Y .
Par indépendance,
ϕZ (t) = ϕX (t)ϕY (t) = exp(λ(eit − 1)) exp(µ(eit − 1)) = exp((λ + µ)(eit − 1)).
71
On reconnaît la fonction caractéristique d'une variable aléatoire de loi de Poisson de paramètre
λ + µ.
Donc
Z ∼ P(λ + µ).
♣ Exercice : Soit (Xi )1≤i≤n des variables aléatoire indépendantes suivant toutes des lois
gaussiennes. Montrer que toute combinaison linéaire des (Xi )1≤i≤n suit encore une loi gaus-
sienne.
♣ Exercice : Soit (XP i )1≤i≤n des v.a.i.i.d. de loi Bernoulli de paramètre p.
Déterminer la loi de ni=1 Xi .
En déduire, sans calcul, espérances et variances des lois binomiales.
72
4.8 Annexe : Dénition de l'espérance d'une variable aléa-
toire : Cas général
Le cadre est le suivant : on a un espace de probabilité (Ω, F, P ), et X une variable aléatoire
dénie sur Ω à valeur dans R. Comment dénir sa valeur moyenne, ou espérance ? On sait
que pour une variable aléatoire discrète, on utilise une moyenne des valeurs prises par X ,
pondérées chacune par la probabilité qu'a X de prendre cette valeur :
X
E(X) = xP (X = x).
x∈X(Ω)
On connait aussi la formule de la valeur moyenne pour une bonne" fonction (continue par
exemple) sur un intervalle [a, b] :
Z b
1
m= f (x)dx.
b−a a
On voudrait construire une formule générale qui englobe les deux précédentes :
Z Z
EX = X(ω)dP (ω) = xdPX (x),
Ω R
c'est-à-dire être capable d'intégrer une fonction sur Ω par rapport à la probabilité P , ou une
fonction sur R par rapport à la loi image PX . Cette formule d'égalité entre deux intégrales sur
deux espaces diérents sera fondamentale pour les calculs pratiques, on l'appelle théorème de
transfert.
Dans toute la suite, l'ensemble R est muni de la tribu boriélienne B(R), et on considérera
des variables aléatoires
X : (Ω, F) −→ (R, B(R)).
Dénition 4.29. Une variable aléatoire X : Ω → R est dite simple si et seulement si il existe
un entier n > 0, une famille (Ai )1≤i≤n d'éléments de F et une famille (ai )1≤i≤n des nombres
réels distincts tels que :
n
ai 1Ai .
X
X=
i=1
Les ai sont des nombres réels distincts, donc cette écriture est la représentation canonique
de X .
Une variable aléatoire simple ne prend qu'un nombre ni de valeurs. Si (Ω, F) = (R, B(R)),
une fonction simple est une fonction en escaliers avec un nombre ni de marches.
Dénition 4.30. 1
Pn
Si X = i=1 ai Ai est une variable aléatoire simple, on dénit son espé-
rance de la façon suivante
n
X
EX = ai P (Ai ).
i=1
73
Remarque :
Il fautPvérier que cette dénition ne dépend pas de l'écriture particulière choisie pour X . Si
X= m i=1 bi Bi représente une écriture non canonique de X ( i.e. les bi ne sont pas distincts),
on pose :
Ai = X −1 ({ai }), et Ai = ∪j∈Ji Bj , Ji = {j ∈ [1, m]/bj = ai }, ∪ni=1 Ji = [1, n].
E(X) = ni=1 ai P (∪j∈Ji Bj ) = ni=1 ai j∈Ji P (Bj )
P P P
Proposition 4.31. L'ensemble des fonctions simples est un R−espace vectoriel. Sur cet en-
semble, l'espérance est une application linéaire positive : si X et Y sont deux v. a. simples et
si a est un nombre réel, alors :
E(aX + Y ) = aE(X) + E(Y ), et si X ≥ 0, alors E(X) ≥ 0.
On rappelle que X ≥ 0 signie que pour tout ω ∈ Ω, X(ω) ≥ 0.
74
Théorème d'approximation
Théorème 4.35. Soit X variable aléatoire positive. Il existe une suite (Xn )n∈N de variables
aléatoires simples croissante à valeurs positives qui converge simplement vers X .
Preuve. Il sut de prendre
k2−n k2−n ≤ X(ω) < (k + 1)2−n .
si
Xn (ω)
n si X(ω) ≥ n.
Vérier la n de la preuve.
Proposition 4.36. Soit (Xn )n∈N une suite de variables aléatoires simples croissante à valeurs
positives qui converge simplement vers X . Alors X est une v. a. positive et
On aimerait utiliser ce lien entre les probabilités P sur (Ω, F) et PX sur (R, B(R)) pour
calculer les espérances des variables aléatoires d'une autre manière :
Théorème 4.37. Soit X : (Ω, F) −→ (R, B(R)) une variable aléatoire, et
une application mesurable. On pose Y = h(X), qui est encore une variable aléatoire réelle
dénie sur Ω.
1. Y ∈ L1 (Ω, F, P ) ⇐⇒ h ∈ L1 (R, B(R), PX )
2. Dans ce cas, R R
E(Y ) = RΩ Y dP = Ω h(X)dPR
= RΩ Y (ω)dP (ω) = RΩ h(X(ω))dP (ω)
= R h(x)dPX (x) = R hdPX .
Preuve. On va utiliser la stratégie usuelle : d'abord on le montre pour des fonctions in-
dicatrices, puis pour des fonctions simples, puis pour des fonctions positives, puis pour des
fonctions quelconques.
1. Soit B ∈ B(R), posons h = 1B .
75
2. Si h est une fonction simple, on utilise la linéarité de l'espérance
Pn sur chacun des deux
espaces de probabilités (Ω, F, P ) et (R, B(R), PX ) : soit h = i=1 ai 1Ai , on a :
Nous allons maitenant décliner ce résultat dans les deux cas que nous avons vu précédem-
ment : v. a. discrètes et v. a. à densité.
Corollaire 4.38. 1. Soit X une v. a. réelle avec X(Ω) = {x1 , x2 , ..., xn , ...} ni ou dé-
nombrable.
La v. a. h(X) est intégrable si et seulement si
X
|h(xi )|PX (xi )
i≥1
76
4.9 Exercices
Exercice 1.
Soit X une variable aléatoire représentant le nombre d'heures de vie d'une ampoule éléctrique.
Supposons que X soit distribué avec la densité de probabilité suivante :
1 −x
f (x) = e 1000 1[0,+∞[ (x).
1000
Trouver la durée de vie moyenne attendue d'une telle ampoule.
Exercice 2.
1. Soit X une variable aléatoire à valeurs dans N. Montrer que :
+∞
X
E(X) = P (X ≥ j).
j=1
2. Montrer que si X est une variable aléatoire discrète à valeurs entières (positives, né-
gatives ou nulles) dont l'espérance mathématique existe, on a :
+∞
X
E(X) = [P (X ≥ j) − P (X ≤ −j)].
j=1
Exercice 3.
Soit X une variable aléatoire de loi de Poisson de paramètre λ > 0 (i. e. P (X = k) =
k
e−λ λk! , k ≥ 0).
1. Vérier que 1+X
1
est une variable aléatoire intégrable. Calculer E( 1+X
1
).
2. Calculer E( (1+X)(2+X)
1
) et en déduire E( 1+X
1
).
Exercice 4.
Un joueur joue à pile ou face de la manière suivante : la première fois il parie 1 euro ; s'il
gagne, il gagne 2 euros et il s'arrête ; sinon, la deuxième fois il parie 2 euros ; s'il gagne, il
gagne 4 euros et il s'arrête, etc... C'est-à-dire que tant qu'il perd il double sa mise pour le
coup suivant et il s'arrête dès le premier succès.
Quelle est l'espérance de gain du joueur ?
Exercice 5.
Dans une classe de n élèves, la probabilité qu'un élève sache son cours pour la colle est p; p ∈
]0, 1[. La probabilité qu'un élève qui sait son cours sache faire l'exercice en colle est α ; α ∈]0, 1[.
Aura une bonne note un élève qui connaît son cours et qui réussit l'exercice. On note X la
variable égale au nombre d'élèves sachant leur cours, et Y celle égale au nombre d'élèves ayant
une bonne note.
1. Quelle est la loi de X
2. Quelle est la loi de Y ; calculer l'espérance et la variance 2 de Y .
Exercice 6. X est une VARD qui suit la loi de Poisson de paramètre λ.
Montrer que :
P (X ≥ λ + 1) ≤ λ.
2. La variance d'une v.a. mesure la "dispersion" de cette v.a. par rapport à son espérance. Si la variance
est petite, la v.a. est "concentrée" autour de sa moyenne. La variance est tjrs positive et une variance faible
correspond à un niveau homogène, proche de la moyenne.
77
Exercice 7. Un satellite de télédétection eectue 6 passages par mois au-dessus d'une région
donnée. Les photos réalisées lors des diérents passages peuvent être inutilisables, du fait
notamment de la présence d'une couverture nuageuse.
1. Soit X la v.a. qui désigne le nombre de photos valables pour les 6 passages. Trouver la
loi de X .
2. Quelle doit être la probabilité d'obtenir une photo valable lors d'un passage donné pour
que la probabilité d'avoir au moins une photo valable par mois soit de 0,9 ?
Exercice 9. Une conture peut être qualiée de "pur sucre" si elle contient entre 440 et 520
grammes de sucre par kilogramme de conture. Un fabricant vérie 200 pots de conture de 1
kilogramme chacun. Il trouve que le poids moyen de sucre est de 480 grammes avec un écart
type de 20 grammes.
Sachant que le poids en sucre est distribué normalement, calculer le pourcentage de la produc-
tion du fabricant qui ne doit pas porter la mention "pur sucre" en considérant que l'échantillon
des 200 pots est représentatif de la production globale.
Exercice 10.
Soit X une v. a. ayant pour densité de probabilité la fonction f dénie par :
78
Exercice 11.
Soit X une variable aléatoire réelle admettant une variance. Montrer que la fonction
x 7−→ E((X − x)2 )
admet un minimum global et le calculer.
1) Déterminer la constante k telle que f (x) puisse être considérée comme la densité de pro-
babilité d'une v.a. continue X .
2) Que peut-on dire des moments de cette v.a. ?
Exercice 13.
Si U1 et U2 sont deux variables aléatoires normales centrées, réduites et indépendantes, calcu-
ler :
a. P (U1 > U2 ).
b. P (U1 + 2U2 > 5)
c. calculer k tel que P (U1 + kU2 > 2) = 0.05.
Exercice 14 . Le lait produit par une usine a une teneur en matières grasses qui suit
une loi normale de moyenne 160 grammes par litre et d'écart type 3 10 grammes par litre les
consommateurs n'acceptent que le lait dont la teneur en matières grasses est comprise entre
135 grammes par litre et 185 grammes par litre.
Calculer la proportion de la production du lait inacceptable par les consommateurs.
Exercice1 15 .
Soit un vendeur de lots de pièces mécaniques disposant, à une date t0 , d'un stock s.
La demande X , pour un intervalle de temps [t0 , t1 ], est une v. a. entière ayant une loi de
probabilité dénie par :
P (X = x) = k(x0 )p q x−1 pour x ≥ x0
=0 pour x < x0
où p et q sont deux réels positifs tels que p + q = 1 et x0 est un entier naturel inférieur à s.
1) Calculer k(x0 ) et E(X).
2) Si X est inférieure au stock s, les lots restants sont vendus à perte et le vendeur aura
à aronter une dépense moyenne de c1 DH. Si X est supérieure au stock s, il faut un ap-
provisionnement spécial de pièces manquantes et le supplément du coût représente une perte
moyenne de c2 DH.
Calculer l'éspérence mathématique des dépenses que va devoir aronter le vendeur pendant la
période [t0 , t1 ].
Exercice 16.
Soit X une variable aléatoire réelle. On appelle fonction caractéristique de X la fonction φX
dénie par
φX (t) = E(e itX
R itx )
=P R e f (x)dx dans le cas des v.a continue : c'est la transformée de Fourier de la fonction f
= k∈N eitk pk dans le cas discret
3. L'écart type est par dénition σ = V (X). Une v.a. X est dite centrée réduite si E(X) = m = 0 et
p
σ = 1.
79
1) Vérier que φX (0) = 1 et que |φX (t)| ≤ 1 ∀t ∈ R.
2) Déterminer la f. c. φX de la v. a. X dans les cas suivants :
a. X = a, a ∈ R.
Exercice 17.
Soit X v. a. r. de densité p(x) = xe−x 1x≥0 .
1. Déterminer la loi de la v. a. Y = eX − 1.
80
1. Cet exercice constitue le sujet d'un devoir libre.
81
Chapitre 5
5.1 Généralités
De nombreux problèmes concrets fond intervenir plusieurs variables aléatoires, regroupées
dans un vecteur aléatoire. Il est important de caractériser la loi d'un tel vecteur et les relations
liant ses composantes.
Nous allons voir dans ce chapitre que tout ce que l'on a construit pour une variabble aléa-
toire réelle se transpose quasiment mot par mot au cas d'un vecteur aléatoire. Les principales
diérences sont :
82
Remarque : Les deux événements (X = xi ) et (∪j∈J Y = yj , X = xi ) sont identiques.
Donc X
pi. = pij .
j∈J
De plus, X XX X
pi. = pij = pij = 1.
i∈I i∈I j∈J (i,j)∈I×J
Exemple :
On tire, avec remise, deux boules d'un sac contenant 3 boules numérotées 1, 2, et 3.
On considère la v. a. X qui est la somme des points obtenus et soit Y le maximum des points
obtenus. Calculer la loi conjointe de X et Y .
Déduire les lois marginales de X et Y .
On a
X(Ω) = {2, 3, 4, 5, 6} et Y (Ω) = {1, 2, 3}.
Il s'agit d'évaluer P (X = i, Y = j) lorsque 2 ≤ i ≤ 6 et 1 ≤ j ≤ 3.
Les résultats sont donnés dans le tableau suivant :
yj /xi 2 3 4 5 6 Loi de Y
1 1
9 0 0 0 0 1
9
2 0 2
9
1
9 0 0 3
9
3 0 0 2
9
2
9
1
9
5
9
Loi de X 1
9
2
9
3
9
2
9
1
9 1
Les cas possibles sont :
(1, 1) −→ X = 2
(1, 2), (2, 1) −→ X = 3
(1, 3)(3, 1)(2, 2) −→ X = 4
(3, 2)(2, 3) −→ X = 5
(3, 3) −→ X = 6.
Explicitons le calcul de la première ligne :
1
P (X = 2, Y = 1) = P ({(1, 1)} = , P (X = a, Y = 1) = 0 si a ≥ 3.
9
La formule donnant l'espérance de h(X) se généralise au contexte d'un couple de v. a. de X
et Y . XX
E(h(X, Y )) = h(xi , yj )pi,j
i∈I j∈J
83
5.1.2 Couples aléatoires à densité
Dénition 5.3. • On dit qu'un couple aléatoire (X, Y ) est à densité s'il existe une fonction
f(X,Y ) : R2 −→ R mesurable positive telle que pour tout domaine D de R2 , on a
Z Z
P(X,Y ) (D) = P ((X, Y ) ∈ D) = f(X,Y ) (x, y)dxdy.
D
avec
R
R2 f(X,Y ) (x, y)dxdy = 1.
♣ Exercice :
On pose
x2 + y 2
f (x, y) = cexp(−
).
2
1. Déterminer c pour que f soit une densité de probabilitéd'un vecteur aléatoire Z =
(X, Y ) de R2 .
= c 2π 2π.
Donc
1
c= .
2π
2. Z Z
1 − x2 +y2 1 x2 1 y2 1 x2
fX (x) = e 2 dy = √ e− 2 ( √ e− 2 dy) = √ e− 2 .
R 2π 2π R 2π 2π
Donc
X ∼ N (0, 1).
De même :
1 y2
fY (y) = √ e− 2 .
2π
Donc
Y ∼ N (0, 1).
Enn, on a aussi l'analogue du théorème de transfert :
Proposition 5.4. Soit h : R2 −→ R une fonction continue et (X, Y ) un couple aléatoire ad-
mettantR pour
R densité f(X,Y ) . Alors, la v. a. h(X, Y ) est integrable si et seulement si l'intégrale
double R2 |h(x, y)|f(X,Y ) (x, y)dxdy est convergente.
Dans ce cas, on a : Z Z
E(h(X, Y )) = h(x, y)f(X,Y ) (x, y)dxdy.
R2
84
5.2 Distribution conjointe
5.2.1 Fonction de répartition
Deux variables aléatoires X et Y quelconques (discrètes ou continues) peuvent être entiè-
rement caractérisées par leur fonction de répartition conjointe, qui est l'extension au cas de
deux variables de la notion de fonction de répartition déja présentée au chapitre 3.
Dénition 5.5. Pour un couple (X, Y ), la fonction de répartition conjointe F (x, y) est donnée
par :
F (x, y) = P(X ≤ x, Y ≤ y)
Remarque 5.1. 1- La fonction F (x, y) prend ses valeurs dans l'intervalle [0, 1], avec :
Pij = P ({X = ai } ∩ {Y = bj }) = P (X = ai )P (Y = bj ).
85
suppose que la durée de fonctionnement sans l'occurrence d'une panne à partir de la mise en
marche suit une loi exponentielle de paramètre λ = 0, 01h−1 , quelle est la probabilité que la
chaîne de production s'arrête s'il y a une seule machine ? une seconde machine de secours ?
1- S'il y a une seule machine dont le temps de foctionnement X suit Exp(0, 01). On a
2- S'il y a une machine de secours, son temps de fonctionnement est Y ∼ Exp(0, 01).
On suppose que X⊥Y . On a donc
R 10 R 10−x R 10
P(X + Y < 10) = 0 0 fX (x)fY (y)dxdy = 0 λe−λx (1 − eλx−10λ )dx
= [−e−λx − xλe10λ ]100
= 0, 0047.
Le risque de voir la chaîne de production s'arrêter est donc 20 fois moindre si l'on prévoit
une machine de secours.
Dénition 5.7. Pour un couple (X, Y ) discret, les fonctions de probabilité conditionnelles
sont données par :
p(x, y)
pX (x/y) = P(X = x/Y = y) = avec pY (y) > 0.
pY (y)
p(x, y)
pY (y/x) = P(Y = y/X = x) = avec pX (x) > 0.
pX (x)
Remarque 5.2. 1 - En posant A = (X = x) et B = (Y = y), on retrouve la dénition
des probabilités conditionnelles.
2- Une autre façon de caractériser une distribution conditionnelle est de spécier sa fonc-
tion de répartition. Dans le cas discret, les fonctions de répartions conditionnelles de
X/y et Y /x sont données par :
X X
FX (x/y) = pX (xi /y), FY (y/x) = pY (yi /x).
xi ≤x yi ≤y
86
5.4.2 Cas Continu
Dans le cas d'un couple de variables aléatoires continues, les formules qui donnent les
fonctions de densités conditionnelles sont données par :
Dénition 5.8. Pour un couple (X, Y ) continu, les fonctions de densité de probabilités condi-
tionnelles sont données par :
f (x, y)
fX (x/y) = avec fY (y) > 0.
fY (y)
f (x, y)
fY (y/x) = avec fX (x) > 0.
fX (x)
Remarque 5.3. Une autre façon de caractériser une distribution conditionnelle est de spéci-
er sa fonction de répartition. Dans le cas continu, les fonctions de répartions conditionnelles
de X/y et Y /x sont données par :
Z x Z y
FX (x/y) = fX (u/y)du ; FY (y/x) = fY (u/x)du.
−∞ −∞
Ces fonctions donnant, comme dans le cas discret, la probabilité que l'événement X ≤ x
(ou Y ≤ y ) se réalise si l'on sait que l'événement Y = y (ou X = x) s'est réalisé.
Solution :
1. Les distributions marginalessont données par :
R1
fX (x) = x 6xdy = 6x(1 − x) x ∈ [0, 1]
0 ailleurs
Ry
0 6xdx = 3y 2 y ∈ [0, 1]
fY (y) =
0 ailleurs
2. Les distributions conditionnelles sont données par :
6x 2x
3y2 = y2 pour 0 ≤ x ≤ y ≤ 1
fX (x/y) =
0 ailleurs
6x 1
6x(1−x) = 1−x pour 0≤x≤y≤1
fY (y/x) =
0 ailleurs
87
5.4.3 Théorème des probabilités composées
Sur base de la dénition des distributions conditionnelles, on voit qu'il est toujours pos-
sible de dénir une distribution conjointe en l'exprimant comme produit d'une distribution
conditionnelle et d'une distribution marginale quelconques. On pourra donc dire que :
Z +∞ Z +∞
fX (x) = fX (x/y)fY (y)dy ; fY (y) = fY (y/x)fX (x)dx
−∞ −∞
Preuve. On a :
pX (x/yj )pY (yj ) = p(x, yj )
d'après la loi des probabilités composées et
X
p(x, yj ) = pX (x)
j
Exemple. Soit Y /x ∼ P(µ(x)) le nombre annuel de pannes pour une machine âgée de x
années, avec
µ(x) = ln(x) + 1.
Je décide d'acheter cette machine en occasion chez un revendeur qui ne peut m'en spécier
l'âge. Si je considère que la distribution des âges X est donnée par :
x 1 2 3 4
pX (x) 0,1 0,2 0,3 0,4
Quelle est la distribution du nombre annuel de panne auquel je dois m'attendre si j'achète une
machine au hasard chez ce revendeur ?
Ce que l'on demande de calculer sont les valeurs pY (y), y=0,1,2,3,...
En appliquant la formule
4
X
pY (y) = pY (y/xi )pX (xi ),
i=1
88
en obtient
y 0 1 2 3 4 5 ....
pY (y/1) 0,368 0,368 0,184 0,061 0,015 0,003 ...
pY (y/2) 0,184 0,311 0,264 0,149 0,063 0,021 ...
pY (y/3) 0,123 0,257 0,270 0,189 0,099 0,042 ...
pY (y/4) 0,092 0,219 0,262 0,208 0,124 0,059 ...
D'où
y 0 1 2 3 4 5 ...
pY (y) 0,147 0,264 0,257 0,176 0,094 0,041 ...
Remarque 5.4. Ces formules permettent aussi d'exprimer les fonctions de (densité de) pro-
babilité marginales comme étant égales à l'espérance d'une fonction des variables X ou Y ,
avec1 :
on voit que X
pX (x) = g(yj )pY (yj ) = E(g(Y )),
j∈J
Théorème 5.11. 9 : Pour un couple (X, Y ) discret ou continu, on peut écrire que :
89
5.5 Espérance, Covariance et Coecient de corrélation linéaire
5.5.1 Espérance
Dénition 5.12. Soit (Ω, F, P) un espace de probabilité. Soit Z = (X, Y ) un couple aléatoire.
On note quand cette quantité existe,
EZ = (EX, EY ).
5.5.2 Covariance
Pour mesurer le lien entre deux grandeurs aléatoires, on fait appel à la notion de cova-
riance :
Dénition 5.13. Soit (X, Y ) un couple aléatoire tel que X et Y admettent toutes les deux
un moment d'ordre 2.
On appelle covariance de X et Y et on note cov(X, Y ) la quantité :
Remarque :
1. On peut montrer qu'il existe une autre formule pour calculer la covariance :
y\ x -1 0 1
0 0 1
3 0
1 1
3 0 1
3
Il est facile de voir que
XX 2
xi yj p(xi , yj ) = 0; E(X) = 0 et E(Y ) = .
3
i j
La covariance vaut donc cov(X, Y ) = 0−0( 32 ) = 0 bien que ces deux variables ne soient
pas indépendantes ; si l'événement X = x est réaliser, alors l'événement Y = x2 est
forcément réalisé.
1 1 2 2
P(X,Y )(−1,1) = 6= PX (−1)PY (1) = ∗ = .
3 3 3 9
90
4. cov(X, Y )2 ≤ V ar(X)V ar(Y ) (Inégalité de Cauchy-Schwartz.)
Preuve.
cov(X, Y )
ρ(X, Y ) = ,
σ(X)σ(Y )
où σ(X) et σ(Y ) sont les écarts-types de X et Y .
Remarque :
1. −1 ≤ ρ(X, Y ) ≤ +1, (d'après l'inégalité de Cauchy-Schwartz).
Le coecient ρXY est une mesure de l'association entre deux variables. On remarquera
que si deux variables sont liées entre elles par une relation linéaire pour laquelle
Y = aX + b a 6= 0
alors ρXY = +1 lorsque a > 0 (relation linéaire positive), tandis que ρXY = −1 lorsque
a < 0 (relation linéaire négative).
Plus généralement on a :
ρY Y = ±1 ⇐⇒ Y = aX + b
4. Si X et Y sont centrées, on a :
< X, Y >
ρ(X, Y ) =
kXk2 kY k2
1
où kXk2 = (E(X 2 )) 2 et < X, Y >= E(XY ) .
ρ(X, Y ) s'interprète alors comme le cosinus de l'angle que forment les deux vecteurs
X et Y , égale au rapport du produit scalaire sur le produit des normes.
Une corrélation élevée indique une relation linéaire forte alors qu'une corrélation faible
n'indique pas l'absence de relation, mais simplement l'absence de relation linéaire.
Exercice :
Soient X et Y deux v. a. réelles. Soient a, b ∈ R. Montrer que
Y = aX + b =⇒ ρXY = ±1.
Preuve :
91
Remarquons que si Y = aX + b, alors V ar(Y ) = a2 V ar(X), ce qui donne σY = aσX
lorsque a > 0 et σY = −aσX lorsque a < 0. On a donc
2
σX σY = |a|σX .
Ensuite,
Cov(X, Y ) = aE(X − E(X))2
2 .
= aV ar(X) = aσX
On obient donc,
aσX2
covX, Y
ρX,Y = = 2
σX σY |a|σX
Donc ρXY = 1 quand a > 0 et ρXY = −1 quand a < 0.
92
5.6 Exercices
Exercice 1.
Deux variables aléatoires X1 et X2 prennent les valeurs 0,1,2.
1. Comment doit-on choisir p pour que le tableau ci-dessus donne une loi conjointe de
(X1 , X2 ) ?
X1 \X2 0 1 2
0 p p
2
p
4
1 2p p p
2
2 4p 2p p
2. Quelles sont les lois marginales de X1 et de X2 .
Ces deux variables sont-elles indépendantes ?
3. Soit Y = X1 + X2 . Calculer l'espérance de Y .
Exercice 2.
Soit (X, Y ) un couple aléatoire à valeurs dans N∗ × N∗ tel que :
λn−1
∀(n, k) ∈ N∗ × N∗ , P (X = k, Y = n) = (1 − q n )q n(k−1) e−λ ,
(n − 1)!
Exercice 3.
Soit X1 et X2 deux variables aléatoires indépendantes et soient F1 (x) et F2 (x) leurs fonctions
de répartition.
Déterminer les fonctions de répartition des v. a .
Y = M ax(X1 , X2 )
et
Z = M in(X1 , X2 ).
Exercice 4.
Soient X et Y deux variables aléatoires et soit r leur coecient de corrélation.
1) Montrer que le coecient de corrélation r est compris entre −1 et 1.
1. L'espérance mathématique du couple (X, Y ) est par dénition E(X, Y ) = (EX, EY )
2. L'espérance mathématique du produit X.Y est donnée par :
( cas discret )
XX
E(XY ) = xi yj pij ,
i∈I j∈J
et
Z Z
E(XY ) = xyf (x, y)dxdy, ( cas continu )
R2
93
2) Soient 4 réels non nuls : a, b, c et d.
Calculer le coecient de corrélation des v. a.
U = aX + b
et
V = cY + d.
Quelles conclusions peut-on tirer des résultats de ce calcul ?
Exercice 5.
Soient X et Y deux variables aléatoires indépendantes et de même densité
1
f (x) = 1 (x).
x2 [1,+∞[
On pose U = XY et V = Y .
X
Exercice 6.
Soit h la fonction de R2 dans R+ dénie par :
Montrer que h est la densité de probabilité d'un couple aléatoire (X, Y ). Calculer les densités
marginales hX et hY . Les v. a. X et Y sont-elles indédendantes ?
X \ Y 0 1 2 3 4
0 1
16
1
16
1
16
1
16
1
16
1 0 3
16
1
4
3
16 0
2 0 0 1
16 0 0
3. La fonction de répartition du couple (X, Y ) est dénie par :
F(X,Y ) (x, y) = P (X ≤ x et Y ≤ y).
4. X et Y sont indépendantes si :
P (X = xi et Y = yj ) = PX (xi )PY (yj ) (v. a. discrètes )
f(X,Y ) (x, y) = fX (x)fY (y) (v. a. continues)
94
2. Donner la loi de X et dessiner sa fonction de répartition.
3. La variable aléatoire Y suit une loi usuelle. Laquelle ? Quels sont ses paramètres ?
Donner E(Y ) et V ar(Y ) sans faire de calcul.
4. Montrer que les variables aléatoires X et Y ne sont pas indépendantes. (On pourra
comparer P ({X = 0} ∩ {Y = 1}) et P (X = 0)P (Y = 1))
5. Calculer le coecient de corrélation linéaire ρ(X, Y )
6. On sait que pour toutes variables aléatoires indépendantes X1 et X2 on a
ρ(X1 , X2 ) = 0.
(i + j)λi+j
∀(i, j) ∈ N2 P(X = i, Y = j) =
e i!j!
avec λ ∈ R.
1- Montrer que λ = 1
2
95
Chapitre 6
Théorèmes limites
6.1 Introduction
Soit (Xn ) une suite de v. a. r. dénies sur un espace de probabilité (Ω, F, P ).
Une suite de v. a. réelles étant une suite de fonctions Ω dans R. Il existe divers façons de
dénir la convergence de (Xn ) dont certaines jouent un grand rôle en calcul des probabilités
et en statistique.
On note
P
Xn a.
−→
Remarque :
1. On dénit la convergence en probabilité de (Xn ) vers X comme la convergence de
(Xn − X) vers 0.
2. La convergence en probabilité signie que l'écart entre la valeur de Xn et la constante
a est très faible quand n devient grand.
3. en paraphrasant La convergence en probabilité : quand n devient grand, il est de plus
en plus improbable que Xn (w) s'écarte de X(w) de plus de ε.
P ({ω/X(ω) 6= Y (ω)}) = 0.
96
Autrement dit, ∃Ω0 ⊂ Ω tel que P (Ω0 ) = 1 et ∀ω ∈ Ω0 , limn−→∞ Xn (ω) = X(ω).
On note
p.s.
Xn X.
−→
Remarque :
1- La convergence presque sûre implique la convergence en probabilité.
En eet, supposons que (Xn ) convege p.s. vers X . Donc ∀ε > 0, ∃n0 ∀n ≥ n0 , |Xn (ω)−
X(ω)| < ε ∀ω ∈ Ω0 .
Donc :
∀ε > 0, ∃n0 , ∀n ≥ n0 , {|Xn − X| > ε} ⊂ Ωc0 .
Par suite,
lim P (|Xn − X| > ε) = 0.
n−→∞
2- Il est plus facile de voir que les résultats usuels sur les limites (unicité, linéarité...)
sont valables dans ces deux cas.
Théorème 6.4. Soit (Xn ) une suite de v. a. r. indépendantes, de même loi et de carré
intégrable (EX12 < +∞). On a alors,
P
X1 + X2 + ... + Xn
−→ E(X1 ).
n
n −→ ∞
97
Remarque :
1. La condition EX12 < +∞ assure que la grandeur EX1 est bien dénie (Inégalité de
C-Schwartz).
2. Si (An ) estPune suite d'événements indépendantes et de même probabilité p. La suite
des v. a. n ni=1 1Ai converge en probabilité vers p.
1
Remarque :
1. Pour les v. a. discrètes la convergence en loi vers une v. a. discrète s'exprime par :
limn−→+∞ P (Xn = x) = P (X = x)
C'est ainsi qu'on a établi la convergence de la loi binomiale vers la loi de Poisson.
(Voir Chapitre 3).
2. Une suite de v. a. discrètes peut cependant converger en loi vers une v. a. continue.
Par exemple :
♣ Exercice : Soit (Xn ) une suite de v. a. r. de loi uniforme sur {0, n1 , n2 , ..., 1}.
Montrer que :
Loi
Xn X,
−→
98
avec X ∼ U[0,1] .
solution :
Soit Fn la fonction de répartition de Xn .
Xn prend les valeurs nk (0 ≤ k ≤ n) avec
k 1
P(Xn = )= .
n n+1
Pour x ∈ R, on :
si x < 0, Fn (x) = 0
si n+1
k k+1
≤ x < n+1 , Fn (x) = n+1
k+1
, 0 ≤ k ≤ n − 1,
si x ≥ 1, Fn (x) = 1.
Pour x ∈ [0, 1[, il existe k ∈| [0, n − 1 |] tel que
k k+1
≤x<
n n
Donc
nx k+1 nx + 1 nx nx + 1
k ≤ nx < k + 1 =⇒ < ≤ =⇒ < Fn (x) ≤ .
n+1 n+1 n+1 n+1 n+1
Donc
limn−→∞ Fn (x) = x, ∀x ∈ [0, 1[.
En résumé :
0 si x<0
limFn (x) = x si x ∈ [0, 1]
1 si x≥1
99
6.4.2 Le théorème central limite
Théorème 6.8. (Le théorème central limite)
Soit (Xn ) une suite de v. a. r. indépendantes de même loi et admettant un moment d'odre 2.
On pose :
Sn = X1 + X2 + ... + Xn ,
alors, on a : √
n Sn loi
( − m) N (0, 1),
σ n −→
avec m = E(X1 ) et σ 2 = V ar(X1 ).
Remarque :
1. Ce théorème permet de comprendre l'importance de la loi normale puisqu'il signie
que la somme des v. a. i.i.d. tend à suivre une loi normale quelles que soient les lois
suivies par ces variables.
2. Le théorème central limite implique, si n est grand, que la loi de Sn∗ = Sn −E(S )
√ n est voi-
σ n
sine de N (0, 1), ce qui est équivalent à dire que la loi de Sn est voisine de N (nm, nσ 2 ).
Application : On se sert souvent du théorème central limite pour calculer rapidement des
probabilités en avoir une première estimation.
Exemple (1) : Dans une le d'attente, dix personnes attendent avant d'être servies. Si le
temps de service d'une personne est une v. a. de loi exponentielle de paramètre θ = 1 minute,
quelle est la probabilité que la durée d'attente totale dépasse 15 minutes ?
On pose :
T = T1 + T2 + ... + T10 .
où Ti (i=1,...,10) sont des v. a. indépendantes de loi E(1).
On utilise le théorème central limite pour la v. a. T .
T peut être approchée par une v. a. normale de moyenne
E(T ) = 10E(T1 ) = 10
et de variance :
V ar(T ) = 10V ar(T1 ) = 10.
On trouve alors rapidement :
On peut donc attendre dans la le sans crainte d'y rester plus de 15 minutes.
Exemple (2) : Donnons un autre exemple, issu du contrôle de la qualité. Si on sait qu'en
moyenne 5% des articles produits par un certain procédé de fabrication sont défectueuses.
Quelle est la probabilié qu'il y ait au plus 60 pièces défectueuses dans un lot de 1000 pièces
choisies au hasard ?
100
On utilise le T.C.L. et faire comme si le nbr X de pièces défectueuses suit une loi normale de
paramètre m = 1000 × 0, 05 = 50 et σ 2 = 1000var(Xi ) = 1000 × 0, 05 × 0, 95 = 47, 5.
On trouve :
60 − 50
P (X ≤ 60) ' P (N (0, 1) ≤ ) = 0, 9265.
6, 9
Remarque : En pratique, l'approximation de la loi binomiale par la loi normale donne des
résultats convenables si np ≥ 5 et n(1 − p) ≥ 5.
Dans ces conditions, on peut retenir l'approximation :
Le cas α = 2celui qui donne une limite nie, est donc celui qui donne la bonne vitesse de
convergence.
Revenons maintenant au cas des v. a. i.i.d. La loi faible des grands nombres dit que
X1 + ... + Xn
−→P EX1 .
n
Pour étudier la vitesse de convergence de cette suite, on cherche α tel que
X1 + ... + Xn
nα ( − EX1 ) converge en un certain sens.
n
Ici, on n'obtient pas de limite détrministe, ce qui n'est pas surprenant vu qu'on est en train
de regarder des limites de variables aléatroires, mais le TCL nous dit que la limite est une loi
gaussienne, que la vitesse de convergence est en √1n et que la notion de convergence considérée
ici est la convergence en loi.
101
6.6 Exercices
Exercice 1. (Méthode de monte-Carlo)
Soit h : [0, 1] −→ R une fonction continue et soit (Xn ) une suite de v.a.r. indépendantes et
même loi uniforme sur [0, 1].
Montrer que
Z 1
h(X1 ) + ... + h(Xn )
−→P h(x)dx quand n −→ +∞.
n 0
Exercice 3.
Une caisse d'assurance maladie reçoit 120 personnes pour l'obtention de remboursements.
On admet que la caisse doit payer, en moyenne, à chaque personne 1000 dh avec un écart type
de 600 dh.
La caisse dispose de 130000 dh. Calculer la probabilité que cette somme soit susante.
Exercice 4.
Une usine possède un restaurant d'entreprise qui assure chaque jour 2 services. Chacun des
900 employés de l'usine se présente indiéremment à l'un ou à l'autre des services avec une
probabilité de 0,5. Par ailleurs les choix des employés sont indépendants.
a) Quelle est la probabilité pour que le nombre de personnes se présentant au premier
service soit supérieur à 500 ?
b) De quel nombre de places faut-il diposer dans le restaurant pour que la probabilité de
pouvoir répondre à la demande aux deux services sont supérieure à 95%.
c) Le nombre total des repas à servir chaque jour est une variable aléatoire ; chaque em-
ployé a chaque jour une probabilité de 0,75 de prendre son repas à l'usine.
- Quelle est l'espérance mathématique de cette variable ?
- Combien de repas convient-il de préparer pour que la probabilité de satisfaire la
demande soit supérieure à 99% ?
Exercice 5
2% des individus d'une population présentent une certaine mutation.
102
- Quelle est la probabilité qu'il y en ait au moins 5 ? Faire le calcul exact (avec une loi
binomiale), et le calcul approché (avec une loi de Poisson).
Exercice 6
On lance une pièce équilibrée 1000 fois. On veut calculer la probabilité pour que le nombre de
" pile " soit compris entre 450 et 550.
- Montrer que l'on peut approximer X par une loi normale N (m, σ).
Exercice 8
Soit n contrats d'assurance automobile identiques selon lesquels, moyennant le versement
d'une prime P de la part de l'assuré, l'assureur s'engage à le dédomager pour les accidents de
l'année à venir. La somme X que l'assureur devra lui verser peut être considérer comme une
v a . En supposant que les risques d'accidents sont identiques pour chacun des assurés, la loi
de probabilité de X est la même pour tous les assurés. Les résultats statistiques des années
passées permettent de supposer connus E(X) = a et σ(X) = σ .
Calculer la valeur de la prime P que doit demander l'assurreur an de pouvoir tenir ses
engagements avec une probabilité 0,99.
Application nume¯ique : n=20 000, a=1200DH, σ = 600DH.
103
Deuxième partie
Statistiques
104
Chapitre 7
7.1 Introduction :
7.1.1 Les statistiques, les probabilités, la statistique
1. Les statistiques sont des ensembles de données, d'observations : recensement...ce sont
donc des chires.
2. Les probabilités forment une branche des mathématiques et sont donc rigoureuses et
exactes ; pour cela il travaillent sur des objets mathématiques parfaitement dénis et
abstraits (bien que toujours d'origine concrète).
3. La statistique est la science qui utilise les méthodes mathématiques (venant générale-
ment des probabilités) pour étudier et analyser des statistiques eu vue :
- d'en accoître les connaissances scientiques ;
- de planier des stratégies ;
- d'aider à la prise de décision.
Dans la théorie des probabilités que nous avons développé jusqu'à présent, nous avons réa-
liser des calculs de nature probabiliste : par exemple, en évaluant la probabilité d'événements
ou en déterminant l'espérance d'une variable aléatoire. On a toujours supposé que les dié-
rents paramètres qui interviennent dans le modèle sont connus. Ce qui est rarement le cas en
pratique.
Nous nous intéressons à la modélisation d'une grandeur aléatoire à valeurs réelles. Dans
le cadre probabiliste, cette notion correspond au concept de variable aléatoire ; soit X cette
variable aléatoire. Donnons un exemple : si l'on s'intéresse à compter le nombre de fois ou
apparait le résultat S , au cours de k expériences indépendantes, à deux issus possibles S et
E , on choisira pour X une v. a. de loi B(k, p). En général le paramètre p n'est pas connu.
Dans d'autres situations, on peut choisir pour X une v. a. de loi de Poisson P(λ), ou une
loi de Gauss N (m, σ 2 ). Les valeurs de λ, m et σ étant inconnues. Le but de la statistique
est de pouvoir évaluer ces paramètres inconnus à l'aide des valeurs X1 , X2 , ..., Xn que l'on a
observées en réalisant une série de n expériences indépendantes.
Elle comporte deux grand aspects : l'aspect descriptif ou exploratoitre et l'aspect inférentiel
ou décisionnel.
105
A- La statistique exploratoire :
Son but est de synthétiser , résumer, structurer l'information contenue dans les don-
nées. Elle utilise pour cela des représentations des données sous forme de tableaux, de
graphiques, etc.
L'étude statistique porte sur un caractère. Si le caractère est quantitatif, les mesures
sont alors les valeurs d'une variable statistique (ex. un âge , une taille,...). Si le carac-
tère est qualitatif, on est obligé de quantier (ex. sexe, mensonge,...).
B- La statistique inférentielle :
Son but est d'étendre les propriétés constatées sur l'échantillon à la population toute en-
tière. Le calcul des probabilités joue un rôle fondamental. Donnons quelques exemples :
B.1. Estimation d'une moyenne : Une même grandeur est mesurée n fois de suite
par un même observateur, l'imprécision de l'instrument de mesure et d'autres fac-
teurs rendent uctuantes ces mesures et on obtient n valeurs diérentes x1 , x2 , ..., xn .
Comment déterminer la vraie valeur m ? La loi des grands nombres montre que la
moyenne
x1 + x2 + ... + xn
x=
n
constitue une bonne approximation de m. x est une estimation de m. L'estimation
consiste à donner des valeurs approchées aux paramètres d'une population (m, σ ,
etc) à l'aide d'un échantillon de n observations issues de cette population.
B.2. Vérication d'une hypothèse ou test : Le cas suivant est classique en contrôle
de qualité. Un client commande à son fournisseur des lots de pièces dont la qualité
est spéciée par contrat : le fournisseur s'engage à respecter un taux de pièces dé-
fectueuses inférieur à 4%. Avant de livrer, le fournisseur eectue un contrôle sur
50 pièces et en trouve 3 défectueuses soit 6% : Doit-on livrer quand même au risque
de refuser la marchandise ?
Le raisonnement est alors le suivant : si le taux théorique de défectueux est de
4% quelles sont les chances d'observer un tel nombre de défectueux ? Le calcul des
probabilités montre alors qu'il y a une probabilité voisine de 0.32 d'observer trois
pièces défectueuses ou plus (loi binomiale B(50, 0.04)). Cette probabilité étant assez
forte, l'événement constaté paraît donc normal au fournisseur et ne semble pas de
nature à remettre en cause l'hypothèse formulée. Mais le client serait-il d'acord ?...
Il faut alors calculer le risque d'un refus par le client.
On contate la similitude de cette démarche statistique avec la démarche scientique habituelle :
observation, hypothèses, vérication.
Dans ce qui suit, nous tacherons de désigner les variables aléatoires par des majuscules et
les résultats des expériences par des minuscules pour bien distinger ce qui est aléatoire de ce
qui ne l'est pas.
106
7.2 Dénitions
1. On modélise une expérience aléatoire par une v.a. X . On note Q sa loi. Q est appelée
la loi vraie. Comme nous l'avons expliqué précédemment, on peut choisir, Q = P(λ)
si la v. a. est à valeurs entières , ou Q = N (m, σ) lorsque la v. a. est à valeurs réelles.
On peut aussi ne faire aucune hypothèse spécique sur Q.
3. Les valeurs observées de X1 , X2 ,...,Xn sont notées x1 , x2 ,...,xn . Ce sont les valeurs
numériques fournies par l'expérience.
X1 + X2 + ... + Xn
Xn = .
n
Dénition 7.1. On appelle estimateur T de θ, une variable aléatoire qui est une fonction
de l'échantillon :
Tn = f (X1 , ..., Xn ).
Remarque :
1. Un estimateur Tn dépend du choix de l'échantillon.
2. Un estimateur n'est pas unique, il s'agit d'en choisir un "bon". Les propriétés usuelles
d'un bon estimateur sont : l'absence de biais et la convergence.
E(Tn ) = θ.
lim E(Tn ) = θ
n−→∞
lim V ar(Tn ) = 0.
n−→∞
107
7.3.1 Estimation de la moyenne
Posons : n
1X
Xn = Xi .
n
i=1
Preuve.
•
1 1
E(X n ) = (E(X1 ) + ... + E(Xn )) = (m + m + ... + m) = m = E(X).
n n
•
1 1
V ar(X n ) = n2
V ar(X1 + ... + Xn ) = n2
(V ar(X1 ) + ... + Xn )
On a utilisé que (Xi )ni=1 sont i.i.d. avec EX1 = EX = m et V ar(X1 ) = V ar(X) = σ 2 .
D'où n n
1X 1X
(Xi − m)2 = (Xi − X)2 + (X − m)2 .
n n
i=1 i=1
Donc,
n
1X
Sbn2 = (Xi − m)2 − (X − m)2 .
n
i=1
108
Calculons E(Sbn2 ) :
1 Pn
E(Sbn2 ) = n i=1 E(Xi − m)2 − E(X − m)2
1 Pn
= n i=1 V ar(Xi ) − V ar(X)
σ2 n−1 2
= σ2 − n = n σ .
µ4 − σ 4
V ar(Sbn2 ) ∼ .
n
Remarque :
1. Sbn2 est un estimateur de la variance, qui est biaisé, c'est la raison pour laquelle on
utilise Sn2 .
2. Sbn2 est un estimateur asymptotiquement sans biais et convergent. Pour n grand Sbn2 est
très peu diérent de Sn2 .
0 0 0 1 0 3 0 0 1 0 1 1 0 0 0 2 0 2 1 0.
109
7.3.3 Méthode de maximum de vraisemblance
Cette méthode consiste à choisir comme estimation de θ la valeur de θb qui rend maximum
la fonction de vraisemblance ϕ dénie par
n
Y
ϕ(θ) = f (xi , θ).
i=1
avec f est la densité de probabilité (ou fct de masse) de X dépend d'un paramètre θ à estimer
et (xi )ni=1 sont n observations de X .
Exemple.
Qn Qn −λ λxi
1. Loi de Poisson : ϕ(λ) = i=1 P(Xi = xi ) = i=1 e xi !
Qn 1 xi −m 2
2. Loi normale : ϕ(m, σ) = √ 1 e− 2 ( σ ) .
i=1 2πσ
Exercice .
Le nombre d'appels par minute au standard téléphonique d'une banque a été observé sur
un échantillon de taille 10. On sait par ailleurs que ce nombre d'appels par minute suit une
loi de Poisson dont on veut estimer la moyenne λ. Les résultats sont désignés par x1 , x2 , ...,
x10 .
Estimer λ par la Méthode de maximum de vraisemblance.
P (X − ε ≤ m ≤ X + ε) = P (|X − m| ≤ ε) = 1 − α. (7.4.1)
Concrétement on se donne n et α et on cherche ε tel que (7.4.1) soit vériée. Nous allons
expliciter le calcul de ε lorsque la taille de l'échantillon est grande, ou sous une hypothèse de
normalité.
110
où l'on a posé :
X1 + X2 + ... + Xn − nm
Sn∗ = √
n
D'après le T.C.L.
loi
Sn∗ N (0, 1).
−→n−→∞
Par conséquent,
√ √
σ ε n ε n
P (|X − m| ≤ ε) = P (|Sn∗ √ | ≤ ε) = P (|Sn∗ | ≤ ) ≈ P (|G| ≤ )
n σ σ
où G ∼ N (0, 1).
Or,
P (|G| ≤ a) = P (−a ≤ G ≤ a) = π(a) − π(−a) = 2π(a) − 1.
En conclusion √
ε n
P (|X − m| ≤ ε) ≈ 2π( ) − 1. (7.4.2)
σ
On introduit la dénition suivante :
Dénition 7.6. On note Zu le réel positif tel que :
1
π(Zu ) = u, ≤ u ≤ 1.
2
On déduit de (7.4.1) et (7.4.2) que ε, n et α sont liés par :
√ √
2π( ε σ n ) − 1 = 1 − α ⇐⇒ π( ε n
√ σ
)=1− α
2
ε n
⇐⇒ σ = Z1− 2
α
σ
⇐⇒ ε = √n Z1− α2 .
Remarque :
1. On ne peut être sûr que θ est dans l'intervalle [C1 , C2 ]. La probabilité α de se tromper
est donnée par :
P (θ ∈ [C1 , C2 ]) = 1 − α.
2. On rappelle :
111
♣ Exercice 2. Un échantillon de taille 100, a pour moyenne 125,7 et variance 968,51.
Déterminer un intervalle de conance de m avec seuil 1%.(i. e. de risque 1%).
Solution
On a α = 0, 01 donc 1 − α
2 = 0, 995 et Z0,995 = 2, 575.
ε est donnée par : √
σ 968, 51
ε = √ Z1− α2 = × 2, 575 = 0, 80.
n 10
Par conséquent, L'intervalle cherché est [117, 7; 133, 7].
112
On procède comme dans le cas des échantillons de grand taille, on a :
√
ε n
P (|X − m| ≤ ε) = 2π( ) − 1.
σ
En conclusion :
[X − √σn Z1− α2 , X + √σn Z1− α2 ] est un intervalle de conance de la moyenne m, de niveau de
conance 1 − α.
Remarque :
1. Si σ n'est pas connu, on peut le remplacer pas s.
2. Quand la taille de l'échantillon est petite et si X ne suit pas la loi normale, aucune
règle générale ne permet de déterminer l'intervalle de conance. La technique adéquate
dépend essentiellement de la loi suivie par X .
113
est la probabilité pour que T ∈ R, lorsque la moyenne de X vaut 3. En pratique on se borne
à évaluer α, le calcul de β est souvent dicile à réaliser.
Dans la suite nous ne considérerons que des tests portant sur la moyenne θ = m. On
choisit :
1
T = X = (X1 + X2 + ... + Xn ),
n
Lorsque H0 : m = m0 et H1 : m 6= m0 , on prend :
Rc =]m0 − ε , m0 + ε[ ; ε > 0.
On a :
{T ∈ R} = {X ∈ R} = {|X − m0 | ≥ ε}.
Comme précédemment, α et n étant donnés, on cherche ε tel que
Condition équivalente à :
P (|X − m| ≤ ε|m = m0 ) = 1 − α.
Exercice 5.
Une machine prouduit des pièces ayant une moyenne de 8,3 cm avec un écart-type de 0,6
cm. Avant de passer une commande importante, le responsable de la machine veut tester si
m = 8, 3 ou si m a changé. Pour ce faire, il prélève 100 pièces et trouve une longueur moyenne
de 8,4 cm.
Doit-il accepter la production avec un seuil d'erreur de 5% ?
Exercice 6.
La durée de vie d'un équipement électrique est de 400 heures avec un écart-type de 60 heures.
On voudrait tester si la moyenne vaut 400 heures au moins de 400 heures. On eectue un test
avec 25 appareils. On trouve une moyenne de 378,1 heures.
Que peut-on en conclure, avec un risque de 5% ?
114
7.6 Exercices
Exercice 1. (DS n0 3 juin 2006)
Soit T une v. a. réelle dont une densité de probabilité est f dénie par
2x
R2
si 0 ≤ x ≤ R
f (x) =
0 sinon
115
Intervalle de conance
L'homogénéité des conditions de trac permet de supposer que les variables aléatoires X1 , . .
. ,X400 , dont on a ainsi observé une réalisation, sont indépendantes et de même loi. Proposez
un intervalle de conance au niveau 98% pour la vitesse moyenne EX1 en indiquant claire-
ment quels résultats du cours légitiment les approximations faites. Les données numériques
ci-dessus ont été arrangées pour vous permettre de faire facilement tous les calculs à la main
si vous ne disposez pas d'une calculatrice.
Lors de la production en série d'un article, on vaut évaluer la proportion d'articles défectueux.
On prélève 200 pièces au hasard, on trouve 18 articles défectueux.
Construire un intervalle de conance de m de seuil 5%.
Exercice 5.
On mesure le taux d'uré de 10 personnes, on trouve les résultats suivants :
24, 40, 30, 19, 48, 32, 35, 21, 18, 40.
116
7.7 Bibliographie
Voici une bibliographie très incomplète. Allez voir vous même à la Bibliothèque. Gardez
en mémoire qu'un bon livre est un livre qui vous donne envie d'apprendre et de travailler son
contenu !
11. Philippe Barbe et Michel Ledoux (2007) : PROBABILITÉ. Collection dirigée par Da-
niel Guin.
12. Pierre Brémaud(2009) : Initiation aux Probabilités et aux chaînes de Markov. Deuxième
édition entierement revisée. Springer.
117
Troisième partie
118
Chapitre 8
Examens corrigés
Devoir surveillé N 1 .
Epreuve de Probabilites et Statistiques Durée du sujet : 1H :30min
Examen de 13 mars 2006 Responsable : Lakhel El Hassan
Horaire : 10H :30min-12H :00
Exercice 1.
Dans une usine on dispose de 3 machines A, B , C fabriquant des pièces mécaniques d'un type
déterminé. La machine A assure 25% de la production, la machine B assure 35% et C en
assure 40%.
5% des pièces fabriquées à l'aide de la machine A sont défectueuses. Les pourcentages sont
respectivement égaux à 4% et 2% pour les machines B et C .
1) On tire une pièce au hasard quelle est la probabilité qu'elle soit défectueuse ?
2) On tire une pièce d'un lot constitué de pièces fabriquées, dans les proportion indéquées, par
les machines A, B et C . On constate que cette pièce est défectueuse. Calculer la probabilité
qu'elle ait été fabriquée :
- par la machine A
- par la machine B
3) On tire une pièce au hasard. Elle est saine. Quelle est la probabilité qu'elle vienne de C .
Exercice 2.
Un test sanguin a une probabilité de 0.95 de détecter un certain virus lorsque celui ci est
eectivement présent. Il donne néanmoins un faux résultat positif pour 1% des personnes non
infectées. Notons V = {la personne testée a le virus}, T = {la personne testée a un test
positif}.
1. Si 0.5% de la population est porteuse du virus, quelle est la probabilité qu'une personne
ait le virus sachant qu'elle a un test positif ?
2. Interpréter le résultat.
119
Exercice 3.
1. Soit n ≥ 2, Etablir que, si (A1 , ..., An ) est une suite d'événements telle que P ( ni=1 Ai ) >
T
0, alors
n
\ Yn
P ( Ai ) = P (A1 ) P∩i−1 Ak (Ai ).
k=1
i=1 i=2
2. Application :
Un sac contient initialement une boule blanche et une boule noire. On réalise indéni-
ment l'expérience suivante : on tire une boule, on regarde sa couleur, on la remet dans
le sac et on rajoute une nouvelle boule de la même couleur que celle obtenue.
Notons X le nombre de tirage(s) nécessaire(s) avant d'obtenir une boule noire, avec la
convention que X = 0 si on ne tire jamais de boule noire.
Notons Bi l'événement On obtient une boule blanche au ieme tirage.
+∞
X
P (X = n) = 1.
n=1
Barême approximatif :
Exercice 1 : 4 points
Exercice 2 : 4 points
Exercice 3 : 12 points.
120
Corrigé du DS N 0 1 - A. U. 2005-2006- :
Exercice 1 :
Soit A : "être fabriqué par A", B : " être fabriqué par B ",...
D : " être défectueuse" et D : "saine".
On a
P (A) = 0.25, P (B) = 0.35, P (C) = 0.4.
A, B et C sont tels que A ∩ B = A ∩ C = B ∩ C = ∅ et A ∪ B ∪ C = Ω.
1) En applicant la formule des probabilités totales on a :
P (D) = PA (D)P (A) + PB (D)P (B) + PC (D)P (C)
= 0.05 × 0.25 + 0.04 × 0.35 + 0.02 × 0.4 = 0.0345 = 3.45%.
2) D'après le théorème de Bayes,
PA (D)P (A) 0.05 × 0.25
PD (A) = = = 36%.
P (D) P (D)
P (D/B)P (B) 0.04 × 0.35
P (B/D) = = = 40%.
P (D) 0.0345
3)De même :
PC (D)P (C) 0.98 × 0.4
PD (C) = = = 40%.
P (D) 1 − P (D)
Exercice 2 :
1. On cherche P (V /T ).
On sait que :
P (V ) = 0.005, P (T /V ) = 0.95, et P (T /V c ) = 0.01.
On en déduit :
P (T ∩V ) P (T /V )P (V )
P (V /T ) = P (T ) = P (T /V )P (V )+P (T /V c )P (V c )
0.95×0.005
= 0.95×0.005+0.01×0.995 = 0.323
2. Le test n'est pas able : si la personne présente un test positif, la probabilité qu'elle ne
soit pas porteuse du virus est deux fois plus élvée que celle qu'elle le soit ( en eet ;
P (V /T ) ' 33%. )
Exercice 3 :
121
Ainsi, la propriété se transmet du rang n au rang n + 1.
Finalement, nous avans prouvé, par récurrence
n
\ n
Y
∀n ≥ 2 : P ( Ai ) = P (A1 ) PTi−1 Ak (Ai ).
k=1
i=1 i=2
2. a. Si X = 1, c'est que l'on a tiré une boule noire dès le premier tirage.
Ainsi :
{X = 1} = B1c .
Si X = n avec n ≥ 2, c'est que, lors des n − 1 premiers tirages, on a tiré des boules
blanches et qu'au n-ième tirage, on a tiré une boule noire.
Ainsi :
{X = n} = B1 ∩ B2 ∩ ... ∩ Bn−1 ∩ Bnc .
b. Si B1 ∩ B2 ∩ ... ∩ Bn−1 a lieu, c'est que l'on a réalisé n − 1 tirages et que l'on a tiré
des boules blanches. Ainsi, à ce stade, le sac contient n + 1 boules dont n blanches.
la probabilité de tirer une boule noire est donc nb de cas favorables
nb de cas possibles = n+1 .
1
En d'autres termes :
n
PB1 ∩B2 ∩...∩Bn−1 (Bnc ) = .
n+1
c. Par un raisonnement similaire au précédent, on trouve
i
∀i ∈ {2, ..., n − 1} : PB1 ∩B2 ∩...∩Bi−1 (Bi ) = .
i+1
d. En suivant les indications de l'énoncé, on peut écrire
e. On a :
N N N N +1
X X 1 X 1 X 1 1
P (X = n) = = − =1− .
n(n + 1) n n N +1
n=1 n=1 n=1 n=2
Par suite,
+∞ N
X X 1
P (X = n) = lim P (X = n) = lim (1 − ) = 1.
N −→∞ N −→∞ N +1
n=1 n=1
122
Université Cadi Ayyad
Ecole Nationale des Sciences Appliquées
Sa
Devoir surveillé N o 2.
Epreuve de Probabilités et Statistiques
Durée du sujet : 1h :30min
Examen de 17 avril 2006.
Responsable : Lakhel El Hassan
Horaire : 10h :30-12h :00.
P (X = x) = F (x) − F (x−),
123
Exercice 2. (5poin)
Soit (a, b) ∈ N∗2 ; a < b ; X est une variable aléatoire discrète de Ω dans N ∗ telle que :
∀x ∈ |[1, ab]| ; P (X = x) = a1 − 1b et P (X = x) = 0 ailleurs.
1) Déterminer une CNS sur a et b pour que les relations précédentes dénissent eective-
ment une loi de probabilité.
2) Dans ces conditions, tracer la représentation graphique de la fonction de répartition
FX de X .
1. Déterminer la constante k de telle sorte que f (x) puisse être considérée comme la
densité de probabilité d'une v.a. continue U .
a. Calculer la probabilité pour que le nombre de pièces en stock soit compris entre 80
et 160.
b. Calculer la probabilité pour que le nombre de pièces en stock soit supérieur à 200.
c. Calculer la probabilité pour qu'il y ait rupture de stock.
d. Interpreter ces résultats.
On donne
124
Corrigé du DS no 2 -16 mars 2006-
Exercice 1
1. Voir le cours.
2. Calcul des probabilités par la lecture du graphe de F
P (X = 0) = F (0) − F (0−) = 0, 4 − 0, 2 = 0, 2
P (X ≥ 0) = 1 − P (X < 0) = 1 − F (0−) = 1 − 0, 2 = 0, 8
P (4 ≤ X ≤ 6) = P (X ≤ 6) − P (X < 4) = F (6) − F (4−) = 1 − 0, 6 = 0, 4
P (0 < X < 4) = P (X < 4) − P (X ≤ 0) = F (4−) − F (0) = 0, 6 − 0, 4 = 0, 2
P (X ≥ 6) = 1 − P (X < 6) = 1 − F (6−) = 1 − 1 = 0
3. La v.a. X n'est pas à densité car sa fonction de répartition n'est pas continue.
Exercice 2
Voir série d'exercice N ◦ 4
Exercice 3
f ≥0
1. f est une densité ⇔ et
R +∞
−∞ f (x)dx = 1
On doit avoir Z +∞
u2
k e− 2 du = 1.
−∞
R +∞ − x2
2 √
On a vu dans le cours −∞ e dx = 2π.
On doit donc avoir
1
k=√ .
2π
2. U ∼ N (0, 1)
Donc E(U ) = 0 et V ar(U ) = 1 (Voir CH.4).
3. On a :
X = m + σU
Par suite
E(X) = m + σE(U )
V (X) = σ 2 V (U )
Comme E(U ) = 0 et V (U ) = 1 on aura :
E(X) = m
V (X) = σ 2
G(x) = P (X ≤ x) = P (m + σU ≤ x) (car X = m + σU )
Mais
x−m
P (m + σU ≤ x) = P (σU ≤ x − m) = P (U ≤ )
σ
Or
x−m x−m
P (U ≤ ) = Π( )
σ σ
Donc
x−m
G(x) = Π( ).
σ
125
• Si f (u) est la densité de probabilité de U et g(x) celle de X
On sait que :
f (U ) = Π0 (U )
.
g(x) = G0 (x)
Mais, on a :
1 0 x−m
G0 (x) = Π( ).
σ σ
Par conséquent
1 x−m
g(x) = f( ).
σ σ
Finalement,
1 1 x − m
g(x) = √ e− 2 ( )2 .
σ 2π σ
5◦ ) Montrons que Π(−z) = 1 − Π(z).
Interpretation :
Il y a 57, 62% de chances pour que le nombre de pièces en stock soit compris entre
80 et 160.
b.
P (X > 200) = 1 − P (X ≤ 200)
= 1 − P ( X−120
50 ≤ 200−120
50 )
= 1 − P (U ≤ 1, 6) = 1 − Π(1, 6)
= 1 − 0, 9452 = 0, 0548.
Interpretation :
Il y a 5, 48% de chances pour que le nombre de pièces en stock soit superieur à 200.
126
c. P (X ≤ 0) = 0, 0082.
Interpretation :
Il y a un risque trés faible de moins de 1% pour qu'il y a rupture du stock.
127
Université Cadi Ayyad
Ecole Nationale des Sciences Appliquées
Sa
Devoir surveillé N o 3.
Epreuve de Probabilités et Statistiques
Durée du sujet : 1h :30min
Examen de 15 juin 2006.
Responsable : Lakhel El Hassan
Horaire : 10h :30-12h :00.
Question de cours :(3 points) Soit U une v.a. réelle qui suit la loi uniforme sur [0, 1].
Si λ > 0 quelle est la loi de Y = − λ1 ln U .
Exercice 1. (9 points)
Soient r un réel strictement supérieur à 2 et X une variable aléatoire réelle de densité f don-
née par f (x) = xr+1
r
si x ≥ 1 et f (x) = 0 sinon.
1. Donner l'allure du graphe de f puis vérier que c'est bien une densité de probabilité.
2. Calculer l'espérance et la variance de X .
3. Déterminer la densité de la variable aléatoire Y = ln X
4. Le nombre de kilomètres couverts par une batterie de voiture avant défaillance est une
variable aléatoire ayant la même loi que Y et d'espérance égale à 9000 kilomètres.
Une personne achète une batterie neuve et souhaite se lancer dans un voyage de 3000
kilomètres. Avec quelle probabilité terminera-t-elle son voyage sans avarie de batterie ?
Exercice 2. (8 points)
Soit T une v. a. réelle dont une densité de probabilité est f dénie par
2x
R2
si 0 ≤ x ≤ R
f (x) =
0 sinon
où R est un réel strictement positif inconnu.
128
Corrigé du DS no 3 -15 juin 2006-
Question de cours :
Soit U une v.a. réelle de loi uniforme sur [0, 1].
On pose
1
Y = − LnU , λ > 0.
λ
Pour trouver la loi de Y , on se donne une fonction test h quelconque, on met
Z +∞
1 1
E(h(Y )) = E(h(− LnU )) = h(− Lnu)fU (u)du
λ −∞ λ
R +∞
sous la forme −∞ h(y)fy (y)dy à l'aide du changement de variable y = − λ1 Lnu et la densité
de Y est alors fy trouvée.
On a : R1
E(h(Y )) = E(h(− λ1 LnU )) = 0 h(− λ1 Lnu)du
R +∞
= 0 h(y)λe−λy dy.
Par conséquent, Y admet pour densité fY donnée par
Exercice 1
2. On a
Z +∞ Z +∞ +∞
−r r −r+1 r
|x|f (x)dx = rx dx = − x = < +∞
−∞ 1 r−1 1 r−1
Remarque. Ceux qui ont donné les bonnes valeurs pour E(X) et V ar(X) sans justi-
er leur existence ont quand même eu tous les poinnts.
129
3. Soit h une fonction bornée. On a
Z +∞
E{h(Y )} = E{h(lnX)} = h(lnx)rx−r−1 dx.
1
4. Le nombre N de kilomètres couverts avant défaillance suit donc une loi exponentielle.
L'enoncé nous apprend que EN = 9000. Or on sait que l'espérance d'une loi exponen-
tielle est égale à l'inverse de son paramètre. Par conséquent, N suit la loi exponentielle
de paramètre 9000 1
.
La probabilité que la personne termine son voyage sans avarie de batterie est donc égale
à: Z +∞
1 − x −x −1
P (N > 3000) = e 9000 dx = [−e 9000 ]+∞
3000 = e
3 .
3000 9000
Exercice 2
Calculons : E(T 2 ) :
+∞
R2
Z
2
E(T ) = x2 f (x)dx = .
−∞ 2
Or, E(T ) = 32 R.
Donc E(T )2 = 49 R2 .
Finalement,
R2
V ar(T ) = E(T 2 ) − E(T )2 = .
18
Pn
2. On pose : Xn = 1
n i=1 Ti .
a. Calculons E(Xn ) :
1 Pn
E(Xn ) = E(P n i=1 Ti )
1 n
n E( i=1 Ti ))
1 Pn
n i=1 E(Ti )).
130
Or les Ti ont la même loi et on a : E(Ti ) = 23 R.
D'où :
2
E(Xn ) = R
3
Calculons V ar(Xn ) :
Donc :
R2
V ar(Xn ) = .
18n
b. Vérions si Xn est un estimateur sans biais : On a,
2
E(Xn ) = R 6= R.
3
Par suite, Xn est un estimateur biaisé.
c. Déterminons λ tel que Xcn = λXn soit sans biais.
Pour que Xn soit un estimateur sans biais de R, il faut que E(X
c cn ) = R.
Comme
E(Xcn ) = λE(Xn ) = λ 2 R.
3
Donc
3
λ= .
2
3.
a. Montrons que P (|X bn − R| ≥ ε) ≤ R22 .
8nε
D'après l'inégalité de B. T., on a :
bn − R| ≥ ε) ≤ V ar(Xn ) .
c
P (|X
ε2
Cherchons V ar(X
cn ) :
cn ) = V ar( 3 Xn ) = 9 V ar(Xn ).
V ar(X
2 4
Or,
R2
V ar(Xn ) = .
18n
D'où :
2
cn ) = R .
V ar(X
8n
Donc :
2
bn − R| ≥ ε) ≤ R .
P (|X
8nε2
b. On a,
bn − R| ≥ ε) ≤ R2
P (|X .
8nε2
R2
D'où : limn−→∞ P (|Xbn − R| ≥ ε) ≤ limn−→∞
8nε2
= 0.
Donc Xbn est un estimateur convergent de R.
131
Université Cadi Ayyad
Ecole Nationale des Sciences Appliquées
Sa
Examen de rattrapage
Epreuve de Probabilités et Statistiques
Examen de 28 juin 2006. Durée du sujet : 1h :30min
Responsable : Lakhel El Hassan
Horaire : 16h :30-18h :00.
X \ Y 0 1 2 3 4
0 1
16
1
16
1
16
1
16
1
16
1 0 3
16
1
4
3
16 0
2 0 0 1
16 0 0
ρ(X1 , X2 ) = 0.
Exercice 2. (9 points)
Soient r un réel strictement supérieur à 2 et X une variable aléatoire réelle de densité f don-
née par f (x) = xr+1
r
si x ≥ 1 et f (x) = 0 sinon.
1. Donner l'allure du graphe de f puis vérier que c'est bien une densité de probabilité.
2. Calculer l'espérance et la variance de X .
3. Déterminer la densité de la variable aléatoire Y = ln X
4. Le nombre de kilomètres couverts par une batterie de voiture avant défaillance est une
variable aléatoire ayant la même loi que Y et d'espérance égale à 9000 kilomètres.
Une personne achète une batterie neuve et souhaite se lancer dans un voyage de 3000
kilomètres. Avec quelle probabilité terminera-t-elle son voyage sans avarie de batterie ?
132
Correction d'examen de rattrapage -28 juin 2006-
Exercice 1 :
1. L'univers Ω = {P, F }4 est de cardinal 24 = 16. Calculons X(ω) et Y (ω) pour chaque
ω ∈ Ω.
Si ω = P P P P alors X(ω) = 0 et Y (ω) = 4
Si ω = P P P F alors X(ω) = 1 et Y (ω) = 3
Si ω = P P F P alors X(ω) = 1 et Y (ω) = 3
Si ω = P F P P alors X(ω) = 1 et Y (ω) = 3
Si ω = P P F F alors X(ω) = 1 et Y (ω) = 2
Si ω = P F P F alors X(ω) = 2 et Y (ω) = 2
Si ω = P F F P alors X(ω) = 1 et Y (ω) = 2
Si ω = P F F F alors X(ω) = 1 et Y (ω) = 1
Si ω = F P P P alors X(ω) = 0 et Y (ω) = 3
Si ω = F P P F alors X(ω) = 1 et Y (ω) = 2
Si ω = F P F P alors X(ω) = 1 et Y (ω) = 2
Si ω = F P F F alors X(ω) = 1 et Y (ω) = 1
Si ω = F F P P alors X(ω) = 0 et Y (ω) = 2
Si ω = F F P F alors X(ω) = 1 et Y (ω) = 1
Si ω = F F F P alors X(ω) = 0 et Y (ω) = 1
Si ω = F F F F alors X(ω) = 0 et Y (ω) = 0.
On en déduit P (X = 0) ∩ {Y = 1} = P ({F F F P }) = 16 1
. Et P (X = 1) ∩ {Y = 1} =
3
P ({P F F F }) + P ({F P F F }) + P ({F F P F }) = 16 .
3. La v. a. Y compte le nombre de piles obtenus quand on jette quatre fois de suite une pièce
de monnaie non truquée, donc Y suit la loi binomiale de taille n et de paramètre 12 .
Donc
1
E(Y ) = 4 × = 2.
2
Et
1 1
V ar(Y ) = 4 × × (1 − ) = 1.
2 2
4. On a P ({X = 0} ∩ {Y = 1}) = 16 . P ({X = 0}) = 16 et P ({Y = 1}) = 14 .
1 5
Donc P ({X = 0} ∩ ∩{Y = 1}) 6= P ({X = 0})P ({Y = 1}). Or, si X et Y sont indépendantes,
133
on aurait (par dénition)
5. On a : E(XY ) = 3
16 + 1
2 + 9
16 + 1
4 = 32 .
Donc :
Cov(X, Y ) = E(XY ) − E(X)E(Y ) = 0.
Par suite,
%(X, Y ) = 0.
6. La réciproque de cette proposition est fausse, car X et Y ne sont pas indépendantes et elles
vérient pourtant %(X, Y ) = 0.
Exercice 2 :
Voir Exo 1. du DS N o 3.
134
Université Cadi Ayyad
Ecole Nationale des Sciences Appliquées
Sa
Devoir surveillé N 1 .
Epreuve de Probabilites et Statistiques
Responsable : Lakhel El Hassan
Examen de 16 octobre 2006
Horaire : 09H :00min-10H :30min
Exercice 1.
On considère trois cartes : une avec les deux faces rouges, une avec les deux faces blanches,
et une avec une face rouge et une face blanche. On tire une carte au hasard. On expose une
face au hasard. Elle est rouge. Parieriez-vous que la face cachée est blanche ? pour vous aider
dans votre choix :
1. Déterminer l'espace de probabilité.
2. Calculer la probabilité que la face cachée est blanche sachant que la face visible est
rouge.
Exercice 2.
Dans une usine on dispose de 3 machines A, B , C fabriquant des pièces mécaniques d'un type
déterminé. La machine A assure 25% de la production, la machine B assure 35% et C en
assure 40%.
5% des pièces fabriquées à l'aide de la machine A sont défectueuses. Les pourcentages sont
respectivement égaux à 4% et 2% pour les machines B et C .
1. On tire une pièce au hasard quelle est la probabilité qu'elle soit défectueuse ?
2. On tire une pièce d'un lot constitué de pièces fabriquées, dans les proportion indéquées,
par les machines A, B et C . On constate que cette pièce est défectueuse. Calculer la
probabilité qu'elle ait été fabriquée par la machine A
3. On tire une pièce au hasard. Elle est saine. Quelle est la probabilité qu'elle vienne de C .
135
2. En s'inspirant de la question précédente, calculer la probabilité πn (k) pour que k per-
sonne exactement aient leur propre veste ?
Barême approximatif :
136
Corrigé du DS N 0 1 - A. U. 2006-2007- :
Exercice 1 :
a = R, b = R, c = R, e = B, f = B.
Une carte c'est une face exposée et une face cachée : (E, C). L'univers Ω est donc :
Ω = {(a, b), (b, a), (c, d), (d, c), (e, f ), (f, e)}.
P (E = R, C = B) Card{(c, d)} 1
P (C = B/E = R) = = = .
P (E = R) Card{(a, b), (b, a), (c, d)} 3
Exercice 2 :
Soit A : "être fabriqué par A", B : " être fabriqué par B ",...
D : " être défectueuse" et D : "saine".
On a
P (A) = 0.25, P (B) = 0.35, P (C) = 0.4.
A, B et C sont tels que A ∩ B = A ∩ C = B ∩ C = ∅ et A ∪ B ∪ C = Ω.
1) En applicant la formule des probabilités totales on a :
P (D) = PA (D)P (A) + PB (D)P (B) + PC (D)P (C)
= 0.05 × 0.25 + 0.04 × 0.35 + 0.02 × 0.4 = 0.0345 = 3.45%.
Partie I. Voir TD
Application :
On pose Ai = {i a sa veste }, on a par la formule du crible :
p+1 C p (n−p)
Pn Pn p+1 1 .
= p=1 (−1) n n! = p=1 (−1) p!
Or \ [
P( Ai ) = 1 − P ( Ai )
1≤i≤n 1≤i≤n
Donc n
\ X 1
P( Ai ) = 1 − (−1)p+1 .
p!
1≤i≤n p=1
137
On note
γ(n) = Card{ permutations de {1,...,n} sans points xe}.
On a : n
γ(n) X 1
1− = (−1)p+1 .
n! p!
p=1
Donc n
X 1
γ(n) = n! (−1)p
p!
p=0
k γ(n−k)
Cn Pn−k
1 p1
= n! = k! p=0 (−1) p! .
3) On a :
1 −1
limn−→∞πn (k) = π(k) = e .
k!
D'où ∞ ∞
X X 1 −1
π(N) = π(k) =
e = 1.
k!
k=0 k=0
138
Université Cadi Ayyad
Ecole Nationale des Sciences Appliquées Année Universitaire 2006-2007
Sa Responsable : Lakhel El Hassan
Exercice 1.
On désire modéliser le temps d'attente d'une panne de machine à l'aide de variables aléatoires
sans mémoire : la probabilité pour que la machine tombe en panne après la date k + n sachant
qu'elle fonctionne à l'instant n est indépendante de n.
1. Montrer que la loi géométrique de paramètre p est sans mémoire : c'est à dire que
P (X > k + n/X > n) est indépendante de n.
2. Caractériser toutes les lois des variables aléatoires X à valeurs dans N∗ qui sont sans
mémoire. On pourra calculer P (X > 1 + n) en fonction de P (X > 1).
3. Caractériser toutes les lois des variables aléatoires X à valeurs dans N qui sont sans
mémoire.
Exercice 2.
La durée de vie, exprimée en années, d'un circuit électronique est une variable aléatoire T
dont la fonction de répartition F est dénie par :
si t < 0
0
F (t) =
1 − exp − 12 t2 si t ≥ 0
139
Exercice 3.
Une usine employant 30 personnes dont 4 ingénieurs, 10 techniciens et 16 ouvriers.
1. On choisit de façons successive 3 employés : calculer la probabilité d'avoir un employé
de chaque catégorie professionnelle.
2. On choisit de façon successive 3 employés et soit X la variable aléatoire qui représente
le nombre d'ingénieurs choisis. Donner la loi de probabilité de X .
Exercice 5.
Soit un vendeur de lots de pièces mécaniques disposant, à une date t0 , d'un stock s.
La demande X , pour un intervalle de temps [t0 , t1 ], est une v. a. entière ayant une loi de
probabilité dénie par :
où p et q sont deux réels positifs tels que p + q = 1 et x0 est un entier naturel inférieur à s.
1) Calculer k(x0 ) et E(X).
2) Si X est inférieure au stock s, les lots restants sont vendus à perte et le vendeur aura
à aronter une dépense moyenne de c1 DH. Si X est supérieure au stock s, il faut un ap-
provisionnement spécial de pièces manquantes et le supplément du coût représente une perte
moyenne de c2 DH.
Calculer l'éspérence mathématique des dépenses que va devoir aronter le vendeur pendant la
période [t0 , t1 ].
140
Université Cadi Ayyad
Ecole Nationale des Sciences Appliquées
Sa
Devoir surveillé N 2 .
Epreuve de Probabilités et Statistiques Responsable : Lakhel El Hassan
Examen de 25 décembre 2006 Horaire : 8H :30min-10H :00
Exercice 1. (9 points)
On lance trois fois de suite une pièce de monnaie non truquée. Soient X le numéro du lancer
où on obtient Pile la première fois 1 (avec la convention que X = 4 si on n'obtient pas de Pile
) et Y le numéro du lancer où on obtient Face la première fois (avec la convention que Y = 4
si on n'obtient pas de Face).
1. Donner la loi du couple (X, Y ).
2. Donner la loi de X , son espérance et sa variance.
3. Donner la loi de Z = X + Y , son espérance et sa variance.
4. Calculer le coecient de corrélation linéaire ρ(X, Y ) et interpréter le résultat obtenu.
5. Montrer que pour toutes variables aléatoires indépendantes X1 et X2 on a
ρ(X1 , X2 ) = 0.
autrement dit,
∀ω ∈ Ω, T (ω) = SN (ω) (ω).
Ce modèle est d'un usage courant. Par exemple si une compagnie d'assurances s'intéresse au
risque pour une certaine catégorie de véhicules, dans une ville donnée, N représente le nombre
de sinistres déclarés au cours d'une période de temps donnée et Xi le remboursement payé par
la compagnie pour le i-ème sinistre déclaré pendant cette période. On peut imaginer facilement
d'autres applications comme le cumul des hauteurs de pluie sur une année, le total des retraits
eectués sur un distributeur automatique bancaire en une journée, etc.
1. Par exemple, la séquence P P P donne X = 1 et Y = 4 ; F P F donne X = 2 et Y = 1 ;, F F P donne
X = 3 et Y = 1 ; F F F donne X = 4 et Y = 1 ; etc.
141
Le but de cet exercice est de calculer l'espérance de T en fonction des espérances des Xi
et de N sans supposer connues les loi des Xi ou de N .
On suppose de plus que N est indépendante de la suite (Xi )i≥1 , ce qui implique notamment
(on ne vous demande pas de le justier) que pour tout j ∈ N et tous boréliens B et B 0 de R,
les évènement {Sj ∈ B} et {N ∈ B 0 } sont indépendants.
1. Trouvez l'erreur dans le raisonnement suivant : Par additivité de l'espérance des va-
riables aléatoires positives,
N N
!
ET = E EXi = N EX1 .
X X
Xi =
i=1 i=1
2. Soit A ∈ F un événement et Y une variable aléatoires sur (Ω, F, P ) tels que pour tout
t ≥ 0, les événements {Y > t} et A soient indépendants. Montrer que
En déduire que
n
ETn = EX1
X
∀n ∈ N∗ , jP (N = j).
j=0
6. Vérier que
Sj 1{N =j} .
X
T =
j∈N
(on comparera les valeurs prises par les deux membres en un ω quelconque).
7. Déduire que :
E(T ) = E(N )E(X1 ).
Barême approximatif :
Exercice 1 : 9 points Problème 2 : 11 points
142
Corrigé du DS N o 2 - A. U. 2006-2007 :
Exercice 1 :
A Ecrire
Problème 2 :
143
Université Cadi Ayyad
Ecole Nationale des Sciences Appliquées
Sa
Devoir surveillé N 3 .
Epreuve de Probabilités et Statistiques 1
Responsable : Lakhel El Hassan
Contrôle continu de 09 janvier 2007 Horaire : 10H :30min-12H :00
Exercice 1. (6 points)
Soit α un réel et f la fonction réelle dénie par :
(
α
(x−1)2
si x < 0,
f (x) = −2x
αe si x ≥ 0.
si t < 0
0
F (t) =
1 − exp − 21 t2 si t ≥ 0
1. la qualité et la clarté de la rédaction constituent des éléments essentiels dans l'appréciation de la copie.
144
Exercice 3 : (Vitesse moyenne) (4 points)
On veut estimer par intervalle de conance la vitesse moyenne des automobiles dans un certain
virage d'une route à grand trac. Pour cela on a enregistré à l'aide d'un radar les vitesses
X1 (ω) = x1 , ..., X400 (ω) = x400 de 400 automobiles en une période de temps de 2 heures avec
des conditions de circulation homogènes (météo, visibilité, densité de trac,. . .). On a obtenu
les statistiques suivantes
400
X 400
X
xi = 35200km/h, x2i = 3107600(km/h)2 .
i=1 i=1
L'homogénéité des conditions de trac permet de supposer que les variables aléatoires X1 , . . .
,X400 , dont on a ainsi observé une réalisation, sont indépendantes et de même loi. Proposez un
intervalle de conance au niveau 98% pour la vitesse moyenne EX1 en indiquant clairement
quels résultats du cours légitiment les approximations faites. Les données numériques ci-dessus
ont été arrangées pour vous permettre de faire facilement tous les calculs à la main si vous ne
disposez pas d'une calculatrice.
Barême approximatif :
Exercice 1 : 6 points
Exercice 2 : 10 points
Exercice 3 : 4 points
145
Corrigé du DS N o 3 - A. U. 2006-2007 :
Exercice 1 :
A Ecrire
Exercice 2 :
1
R +∞
= 2 −∞ t2 exp(− 21 t2 )dt
√
2π
= 2 .
2. La probabilité s'écrit
9
P (T ≥ 3) ∩ P (T ≥ 1) P (T ≥ 3) e− 2 −4
P (T ≥ 3/T ≥ 1) = = = 1 = e .
P (T ≥ 1) P (T ≥ 1) e− 2
On a pas P (T ≥ 3/T ≥ 1) = P (T ≥ 2) = e−2 . Donc la loi n'est pas sans mémoire.
P (∪i=10
i=1 (Xi = 1)) = 1 − P (∩10 (X = 0))
Q10 i=1 i
= 1 − i=1 P (Xi = 0)
10
= 1 − e− 2
' 0.99
146
Exercice 3 :
Nous allons chercher pour EX1 un intervalle de conance centré sur X = 35200/400 =
88km/h. Pour construire cet intervalle de conance, on ne peut pas utiliser ici le théorème
limite central classique car l'écart-type σ des Xi est inconnu. On va utiliser le TLC avec
autonormalisation où l'onremplace σ par S, laracine carrée de la variance empirique
n n
1X 1X 2 2
S2 = (Xi − E(Xi ))2 = Xi − X
n n
i=1 i=1
Les Xi étant de carré intégrable, le TLC avec autonormalisation nous dit que
√ X − E(X1 )
n −→ N (0, 1) (en loi)
S
Cette convergence légitime pour n grand, l'approximation
√ X − E(X1 )
P (| n | ≤ t) = P (|N (1, 1)| ≤ t) = 2π(t) − 1,
S
où π est la f.d.r. de la loi N (0, 1).
Par suite :
√ X − E(X1 ) tS tS
| n | ≤ t ⇐⇒ X − √ ≤ E(X1 ) ≤ X + √ .
S n n
Cette inégalité nous donne alors un intervalle de conance pour EX1 au niveau 2π(t) − 1.
Il s'agit bien d'un intervalle de conance puisque les bornes sont calculables à partir des
observations sans connaissance de la loi des Xi . Pour terminer les calculs, on détermine t en
résolvant 2π(t) − 1 = 0, 98, ce qui équivaut à π(t) = 0, 99,.
D'où
t = 2, 33.
On calcule ensuite X(ω) et S(ω) :
400
1 X
X=x= xi = 35200km/h = 88Km/h.
400
i=1
Et
400
1 X 2 3107600
S(ω) = s = xi − x2 = − (88)2 = 25Km/h2 .
400 400
i=1
d'où S(ω) = s = 5km/h. Un intervalle de conance I au niveau 98% pour EX1 en km/h est
donc
2.33 × 5 2.33 × 5
I = [88 − , 88 + ] = [87, 41; 88, 59].
20 20
147
Université Cadi Ayyad
Ecole Nationale des Sciences Appliquées
Sa
Exercice 1. (8 points)
1. Soit X : Ω −→ N une variable aléatoire. Qu'est- ce que la loi de X ? Comment calcule-
t-on l'espérance de X , la variance de X ?
E(X)
P (X > a) ≤ .
a
4. Si X est une v. a. r. admettant un moment d'ordre 2, et si a ∈ R∗+ , montrer que :
V ar(X)
P (|X − E(X)| > a) ≤ .
a2
Exercice 2. (12 points)
Soit T une variable aléatoire à valeurs dans N. Pour tout n ∈ N, on suppose que P (T ≥
n) > 0 et que
P{T ≥n} (T ≥ n + 1) = P (T ≥ 1). (1)
1. On pose p = P (T = 0). Si G est une variable aléatoire de loi géométrique G(p), mon-
trer que Z = G − 1 vérie P (Z = k) = p(1 − p)k pour k ∈ N.
4. En déduire P (T ≥ n) pour n ∈ N (on remarquera que (fn ) est une suite géométrique).
5. Montrer que deux variables aléatoires X et Y à valeurs dans N ont la même loi si
P (X ≥ n) = P (Y ≥ n) pour tout n ∈ N.
1. la qualité et la clarté de la rédaction constituent des éléments essentiels dans l'appréciation de la copie.
148
Corrigé du contrôle de rattrapage - A. U. 2006-2007 :
Exercice 1 :
Voir le cours.
Exercice 2 :
P (Z = k) = P (G = k + 1) = p(1 − p)k .
fn + 1 = P (T ≥ n + 1) = P (T ≥ n + 1 et T ≥ n) = PT ≥n (T ≥ n + 1)P (T ≥ n)
(1)
P (T ≥ 1)P (T ≥ n) = f1 fn .
=
P (T ≥ n) = fn = (f1 )n = (1 − p)n .
P (X = n) = P (X ≥ n) − P (X ≥ n + 1) = P (Y ≥ n) − P (Y ≥ n + 1) = P (Y = n).
149
Université Cadi Ayyad
Ecole Nationale des Sciences Appliquées Année Universitaire 2006-2007
Sa
Devoir surveillé N o 2.
Epreuve de Probabilités et Statistiques Enseignant : Lakhel El Hassan
Examen de 15 juin 2007 Horaire : 8H :00-10H :00
Nota. Faites les calculs lentement et au brouillon. Le correcteur peut déduire des points
pour le manque de soin ou les absurdités.
Question de cours :
Le nombre d'appels par minute au standard téléphonique d'une banque a été observé sur un
échantillon de taille 12. On sait par ailleurs que ce nombre d'appels par minute suit une loi de
Poisson dont on veut estimer la moyenne λ. Les résultats sont désignés par x1 , x2 , ..., x12 .
Estimer λ par la Méthode de maximum de vraisemblance.
Exercice 1.
La durée de vie, exprimée en années, d'un circuit électronique est une variable aléatoire T
dont la fonction de répartition F est dénie par :
si t < 0
0
F (t) =
1 − exp − 12 t2 si t ≥ 0
150
Problème 2.
A l' arrêt de bus, il est indiqué que le temps moyen entre les passages de bus est d'environ
10 minutes. Or, lorsqu'un client arrive à l'instant t à l'arrêt de bus, il attend en moyenne
une dizaine de minutes. On en déduit naïvement, par symétrie, que le temps moyen entre
deux passages de bus est de 20 minutes. Le but de ce problème est de déterminer à l'aide d'un
modèle simple qui, la société de bus ou le client a raison.
On note τ1 le temps de passage du premier Pnbus et τi+1 le temps entre le passage du i-ième et
du (i+1)-ième bus. En particulier
P0 Tn = i=1 τi est le temps de passage du n-ième bus, avec
la convention que T0 = i=1 τi = 0. A cause des conditions aléatoires du trac on suppose
que les variables aléatoires (τi , i ∈ N∗ ) sont indépendantes et de loi exponentielle de paramètre
λ > 0.
1. Quel est, d'après ce modèle, le temps moyen entre les passages des bus annoncé par la
société de bus ?
4. Pour n ≥ 1, calculer P(Nt = n), et vérier que la loi de Nt est une loi de Poisson
dont on précisera P
le paramètre.
On note Rt = t − N i=1 τi , le temps écoulé entre le passage
t
du dernier bus avant t et t,
PNt +1
avec la convention Rt = t si Nt = 0. Et on note St = i=1 τi − t le temps d'attente
du prochain bus lorsqu'on arrive à l'instant t. Soit r, s ∈ [0, +∞[.
10. En déduire le temps moyen d'attente d'un bus lorsqu'on arrive à l'instant t ainsi que
l'écart moyen entre le dernier bus juste avant l'instant t et le premier bus juste après
151
l'instant t.
Pouvez vous répondre à la question du problème ?
152
Corrigé du DS No 2 du 15 juin 2007 .
Question de cours :
Voir le cours.
Exercice 1.
1. La densité de probabilité f de la fonction de répartition est
1 2
f (t) = te− 2 t 1{t>0} .
L'espérance vaut :
R +∞ 1 2
E(T ) = 0 t2 e− 2 t
1 2 R +∞ 1 2
= [−te− 2 t ]∞
0 + 0 e− 2 t
1 +∞ − 21 t2
R
=√2 −∞ e
2π
= 2 .
2. La probabilité s'écrit :
9
P(T ≥ 3) ∩ (T ≥ 1) P(T ≥ 3) e− 2
P(T ≥ 3|T ≥ 1) = = = −1 6= P(T ≥ 2) = e−2 .
P(T ≥ 1) P(T ≥ 1) e2
On a pas P(T ≥ 3|T ≥ 1) = P(T ≥ 2) donc la loi n'est pas sans mémoire.
3. 3.a Les v.a. Xi sont indépendantes et suivent une loi de Bernoulli de paramètre :
1
p = P(X1 = 1) = P(T ≤ 1) = F (1) = 1 − e− 2 .
1
On en déduit que la la de N est la loi binomiale de paramètre (10, 1 − e− 2 ).
P( 10
S T10
i=1 (Xi = 1)) = 1 − P( (X = 1))
Q10 i=1 i
= 1 − i=1 P(Xi = 1) ( par indépendance)
− 10
=1−e 2
' 0.99.
P( 10
Q10
( par indépendance)
T
i=1 (Xi = 1)) = i=1 P(Xi = 1)
− 12 10
= (1 − e )
' 8.910−5 .
Problème 2.
153
4. Soit n ≥ 1. Comme Tn et τn+1 sont indépendantes, d'après le théorème de transfert,
on a :
R n ≤ t < Tn +
P(Nt = n) = P{T τn+1 }
= 1{v≤t<v+w} (n−1)! 1
λn v n−1 e−λv 1{v≥0} λe−λw 1{w≥0} dvdw
= (n−1)! λn v n−1 e−λv λe−λw 1{0<v≤t<w+v} dvdw
R 1
P(Rt ≤ t) = 1.
On a {Nt = 0} = {Rt = t}.
Si r < t, ona
P(Rt ≤ r, St ≤ s, Nt = 0) = 0.
Si r ≥ t, alors :
1
λn v n−1 e−λv 1{v≥0} λe−λw 1{0<w} dvdw
R
= 1(t−r)≤v≤t<v+w≤t+s) (n−1)!
car les v. a. Tn et τn+1 sont indépendantes. Il vient :
1
λn v n−1 e−λv λe−λw 1{t−v<w≤t+s−v} dvdw
R
I = 1{(t−r)+ ≤v≤t} (n−1)!
1
λn v n−1 e−λv e−λ(t−v) (1 − eλs )dv
R
= 1{(t−r)+ ≤v≤t} (n−1)!
n
= e−λt (1 − e−λs ) λn! [tn − (t − r)n+ ].
P(Rt ≤ r, St ≤ s) = ∞
P
n=0 P(Rt ≤ r, St ≤ s, Nt = n)
P∞ λn n
= e−λt (1 − e−λs ) n=0 n! [t − (t − r)n+ ]
λ(t−r) 1
= e−λt (1 − e−λs ){eλt−e {r<t} }
154
8. Comme Rt ≤ t p.s., on a
Comme St est positif p.s., on en déduit que sa fonction de répartition est F (s) =
(1 − e−λs ). On en déduit que la loi de St est la loi exponentielle de paramètre λ.
10. Le temps moyen d'attente d'un bus quand on arrive à l'instant t est
1
E[St ] = 1 = .
λ
L'écart moyen entre le dernier bus juste avant l'instant t et le premier bus juste après
l'instant t est
E(St + Rt ) = E(St ) + E(Rt ) 6= E[St ].
L'écart moyen entre le dernier bus juste avant l'instant t et le premier bus juste après
l'instant t est donc diérent de l'écart moyen entre deux bus ! Le client et la société de
bus ont tous les deux raison.
Explication : Supposons qu'un arrêt de bus, le temps moyen d'attente entre deux pas-
sages soit λ1 une personne arrivant à un instant t donnée attendra son bus pendant
une durée moyenne E(St ) = λ1 et non pas 2λ
1
comme ce que l'intuition aurait pu laisser
espérer....
155
Université Cadi Ayyad
Ecole Nationale des Sciences Appliquées Année Universitaire 2007-2008
Sa Enseignant : Lakhel El Hassan
Exercice 1.
Soit un espace de probabilité (Ω, A, P) et n événenments indépendants A1 , A2 , ..., An .
Calculer : n
[
P( Ai ),
i=1
1. Montrer que la fonction génératrice est une fonction analytique sur [0, 1] et que GX
détermine la loi de X , plus précisément, montrer que pour tout entier n on a :
(n)
GX (0)
P(X = n) = ,
n!
(n)
avec GX (0) désigne la dérivée n-ième de GX .
156
2.3 X suit la loi Poisson P(θ), θ > 0.
Exercice 3.
On désire modéliser le temps d'attente d'une panne de machine à l'aide de variables aléatoires
sans mémoire : la probabilité pour que la machine tombe en panne après la date k + n sachant
qu'elle fonctionne à l'instant n est indépendante de n.
1. Montrer que la loi géométrique de paramètre p est sans mémoire : c'est à dire que
P (X > k + n/X > n) est indépendante de n.
2. Caractériser toutes les lois des variables aléatoires X à valeurs dans N∗ qui sont sans
mémoire. On pourra calculer P (X > 1 + n) en fonction de P (X > 1).
3. Caractériser toutes les lois des variables aléatoires X à valeurs dans N qui sont sans
mémoire.
Exercice 4.
La durée de vie, exprimée en années, d'un circuit électronique est une variable aléatoire T
dont la fonction de répartition F est dénie par :
si t < 0
0
F (t) =
1 − exp − 21 t2 si t ≥ 0
157
Exercice 5. Loi Gamma, Loi D'Erlang, Loi Chi-deux et loi exponentielle.
Pour a > 0, on pose Z +∞
Γ(a) = e−x xa−1 dx.
0
On appelle loi gamma de paramètre a et λ (a > 0, λ > 0), notée G(a, λ), la loi sur R de
densité γa,λ donnée par
λa −λx α−1
γa,λ (x) = e x IR+ (x).
Γ(a)
1. En utilisant une intégration par parties, montrer que Γ(a + 1) = aΓ(a) et que Γ(n) =
(n − 1)! pour tout n ∈ N∗ .
3. Si X1 ,...,Xn sont n v. a. indépendantes de même loi exponentielle de densité λe−λx IR+ (x).
Donner la loi de probabilité de
Sn = X1 + X2 + ... + Xn .
4. Soit Y une v. a. gaussienne centré réduite, notée N (0, 1). Montrer que Y 2 a la loi
gamma G( 12 , 21 ). En déduire la valeur de Γ( 12 ).
5. Soit Yi , i=1,2,...,n, des v. a. gaussiennes indépendantes, de même loi N (0, 1).
5.1 Donner la loi de probabilité de Z = Y12 + Y22 + .... + Yn2 .
6. On dit que le paramètre a est un paramètre de forme, tandis que le paramètre λ est un
paramètre d'echelle. Tracer le graphe de la densité de la loi Gamma pour a = 1, a = 2,
a = 3 et a = 4. Conclure.
1. La loi Gamma porte le nom de loi d'Erlang lorsque a = n ∈ N, De plus, on a G( n2 , 12 ) = χ2n , c'est-à-
dire que la loi du Khi-deux à n degré de liberté, qui est très inportante en statistique, est également un cas
particulier de la loi Gamma. Les lois gamma et exponentielle sont des modèles très utilisés en abilité.
La loi Gamma généralise la loi exponentielle : Exp(λ) = G(a = 1, λ).
158
Université Cadi Ayyad
Ecole Nationale des Sciences Appliquées
Sa
Devoir surveillé No 1
Epreuve de Probabilités Statistiques
Examen de 14 février 2008. Nom : ................................
Prénom : ............................
Exercice I (7 points)
A- (2 points) Donner une condition nécessaire et susante pour que deux evénemennts dis-
joints soient indépendants.
B-1 P(X = Y ) =
159
B-3 P(X < Y ) =
Exercice II (4 point) Une chaîne de productionn est composée d'une unité principale A1 et
de trois unités secondaires B1 ,B2 et B3 Schéma I. On envisage de la moderniser en y ajou-
tant une seconde unité principale A2 Schéma II. La chaîne fonctionne tant que les produits
fabriqués peuvent rentrer par une unité pricipale et sortir par une unité secondaire. Chaque
unité principale et secondaire peut tomber en panne indépendamment des autres unités avec
des probabilités respectives égales à 20% et 40%.
II-2 après :
160
Exercice III (4 points) Soit X une variable aléatoire réelle dont la fonction de répartition
est dénie par :
si
0 x<0
si
x
4 0≤x<1
F (x) =
x
2 si 1≤x<2
si
1 x≥2
Exercice IV (5 points) On s'intéresse à une machine qui peut être dans deux états : en
marche ou en panne. Sa maintenance est assurée par un mécanicien qui partage son temps
uniformément sur trois sites diérents. d'autre part, le constructeur assure que sa machine a
une abilité de 10
9
; c'est-à-dire que la probabilité qu'elle soit encore en marche le jour n + 1
sachant qu'elle l'était le jour n est 10
9
. Notons En l'événement "la machine est en marche le
jour n" et pn sa probabilité. On suppose que p0 = 1.
161
IV-1 Donner P(En+1 /En ). Expliquer pourquoi P(En+1 /Enc ) = 13 .
162
Corrigé du DS No 1 du 14 févireir 2008 .
Exercice I (7 points)
A- (2 points) Donner une condition nécessaire et susante pour que deux evénemennts dis-
joints soient indépendants.
On suppose que A et B 2 événements disjoints, donc A ∩ B = ∅.
Par suite :
A et B sont indépendants ⇐⇒ P(A ∩ B) = P(A)P(B) = 0 ⇐⇒ P(A) = 0 ou P(B) = 0.
B-1 P
P(X = Y ) = k≥1 P(X = k ∩ Y = k)
P
= k≥1 P(X = k)P(Y = k)
= k≥1 p(1 − p)k−1 q(1 − q)k−1
P
0
= pq k0 ≥0 [(1 − p)(1 − q)]k
P
pq
= p+q−pq .
B-2 P P
P(X < Y ) = k≥1 l≥k+1 P(X = k et Y = l)
P P
= k≥1 l≥k+1 P(X = k)P(Y = l)
= k≥1 l≥k+1 pq(1 − p)k−1 (1 − q)l−1
P P
q(1 − p)
P(X > Y ) = .
p + q − pq
II-1 Avant : On a :
HI = A1 ∩ (B1 ∪ B2 ∪ B3 ).
Donc
Finalement,
P(HI ) = 0, 25
II-2 Après la modernisation , on a/
HII = (A1 ∪ A2 )
cap(B1 ∪ B2 ∪ B3 ).
163
Ce qui donne :
P((B1 ∪ B2 ∪ B3 )) = 1 − P (B1 ∩ B2 ∩ B3 ) = 0, 94
Donc
P(HII ) = (0, 94)(0, 96) = 0, 90.
Le risque d'arrêt est égal à 0,1 .
II-2 Interpréter les résultats : ajouter un composant en parallèle dans un système réduira
les risques de pannes.
Exercice III (4 points) Soit X une variable aléatoire réelle dont la fonction de répartition
est dénie par :
si
0 x<0
si
x
4 0≤x<1
F (x) = x
si 1≤x<2
2
si
1 x≥2
III-1 Tracer le graphe de F .
Exercice IV
IV-1 Donner P(En+1 |En ). Expliquer pourquoi P(En+1 |Enc ) = 13 .
De l'énoncé, on tire que P (En+1 |En ) est égal à 10
9
. Comme le mécanicien partage
uniformément son temps sur trois sites diérents, on a P (En+1 |Enc ) = 13 .
IV-2 Montrer que pn+1 = 1713 pn + 3 pour tout n ∈ N.
1
164
IV-3 Montrer que la suite wn = pn − 13 10
pour n ∈ N est géométrique de raison 30 .
17
En
déduire une formule explicite pour wn et pn .
Pour tout n ∈ N, on a
17 17 1 10 17 10 13 − 30 + 17
vn+1 − vn = p n + − − (pn − ) = = 0.
30 30 3 13 30 13 39
La suite (vn ) est donc géométrique de raison 1730 . On en déduit que
vn = v0 ( 30 ) = 13 ( 30 ) puis que pn = 13 + 13 ( 30 ) pour tout n ∈ N.
17 n 3 17 n 10 3 17 n
une très longue période, la machine fonctionne environ 10 jours sur 13.
165
Université Cadi Ayyad
Ecole Nationale des Sciences Appliquées
Sa
Devoir Surveillé No 2
Epreuve de Probabilités Statistiques Enseignant : Lakhel El Hassan
Examen de 30 avril 2008. Horaire : 8H :00-10H :00
Exercice 1. (7 points)
3. Justier que
4. En déduire que
P(Nt = 1) = P(T1 ≤ t) − P(T2 ≤ t)
5. Calculer P(Nt = 1).
Exercice 2. (3 points)
Le nombre d'appels téléphoniques à un standard entre 10 h et 11 h suit une loi de Poisson
de paramètre λ. Supposons que pour chaque appel il y a une probabilité donnée p pour que le
correspondant demande un poste donné A.
a. Calculer la probabilité qu'il y ait k appels vers A entre 10h et 11h, sachant qu'il y a eu
n appels au standard.
c. Montrer que la loi de probabilité du nombre d'appels au poste A entre 10h et 11h est
une loi de Poisson de paramètre λp.
166
Exercice 3. (10 points)
Soit X et Y deux variables aléatoires dénies sur le même espace de probabilité (Ω, A, P) et à
valeurs dans N muni de la tribu de ses parties, de loi de probabilité conjointe dénie par :
167
Corrigé du DS No 2 du 30 2008 .
Exercice I (7 points)
2- Si x ≤ 0, on a FT2 = P(T2 ≤ x) = 0.
Les v. a. T1 et T2 − T1 sont i.i.d. de même loi Exp(λ), d'où :
Pour x ≥ 0,
FT2 (x) = RP(T2 ≤ x) = P(T1 + T2 − T1 ≤ x)
= (u,v)∈R2 |u+v≤x fT1 ,T2 −T1 (u, v)dudv
Rx R x−u −λv
= R0 λe−λu ( 0 λe dv)du
x −λu −λ(x−u)
= 0 λe (1 − λe )du
= 1 − λe−λx − λxe−λx .
3- Nt = 1 signie qu'exactement un client s'est présenté au guichet à l'instant t, autre-
ment dit que le temps d'arrivée du premier client est ≤ t et que le temps d'arrivée du
deuxième client est > t. Donc P(Nt = 1) = P(T1 ≤ t < T2 ).
4- D'après la question 3), on a :
Or,
P(T1 ≤ t < T2 ) + P(T2 ≤ t) = P(T1 ≤ t < T2 ouT2 ≤ t) = P(T1 ≤ t).
Donc
P(Nt = 1) = P(T1 ≤ t) − P(T2 ≤ t).
5- D'après les questions 5) et 2) , on tire :
2. Soit n ∈ N, et 0 ≤ k ≤ n
λn k k
p(n, k) = P(X = n, Y = k) = P(X = n)P(Y = k/X = n) = e−λ C p (1 − p)n−k .
n! n
168
3. Soit k ∈ N, d'après le thm des probabilités totales, on a :
−λ k k P λn−k (1−p)n−k
P(Y = k) = n≥k p(n, k) = e k!λ p
P
n≥k (n−k)!
e−λ (λp)k eλ(1−p) k
= k! = eλp (λp)
k! .
Exercice 3 :
1. a. Pour tout n ∈ N,
X X p2 q
P(X = n) = P(X = n)P(Y = m) = p2 q n qm = = pq n .
1−q
m∈N m∈N
b. On a, d'après le cours
1
E(X + 1) =
p
Donc
q
E(X) = E(Y ) =
p
Et
q
V ar(X) = V ar(Y ) = .
p2
D'où
2q
E(X + Y ) = E(X) + E(Y ) = .
p
Et
2q
V ar(X + Y ) = V ar(X) + V ar(Y ) = car X et Y sont indépendantes.
p2
c. Pour tout k ∈ N,
k
X p(1 − q k+1 )
FX (k) = P(X ≤ k) = P(X = i) = = 1 − q k+1 .
1−q
i=1
2. a. Pour tout k ∈ N, on a
Par suite
P[U = k] = P[X ≤ k] ∩ [Y = k] + P([X = k] ∩ [Y ≤ k]) − P([X = k] ∩ [Y = k])
169
On a :
X X X 2q q2
E(U ) = kP[U = k] = 2 kpq k − (1 + q) kpq 2k = − .
p 1 − q2
k∈N k∈N k∈N
b. On a
1
U = max(X, Y ) = [X + Y + |X − Y |]
2
D'où
2q
E|X − Y | = 2E(U ) − E(X + Y ) = .
p(1 + q)
c. D'une manière analogue à U , on détermine la loi de V :
si k < n
0
P(X = n, Y ≤ n) = pq n (1 − q n+1 ) si k = n
P(X = n, U = k) =
= P(X = n, Y = k) = p2 q n+k si k > n
Pour tout k ∈ N∗ , on a
m
X m
X m
X
k m−k
P[X+Y = m] = P[X = k]P[Y = m−k] = pq pq = p2 q m = (m+1)p2 q m .
k=0 k=0 k=0
b- Pour tout k ∈ N, on a
P[X+Y =2n+1,M ax(X,Y )=k]
PX+Y =2n+1 [U = k] = P(X+Y =2n+1)
(
P(X=k,Y =2n+1−k)∪(X=2n+1−k,Y =k)
2(n+1)p2 q 2n+1
si n + 1 ≤ k ≤ 2n + 1
=
0 sinon
2p2 q 2n+1 1
= =
2(n+1)p2 q 2n+1 n+1 si n + 1 ≤ k ≤ 2n + 1
170
Université Cadi Ayyad
Ecole Nationale des Sciences Appliquées
Sa
Devoir Surveillé No 3
Epreuve de Probabilités Statistiques Enseignant : Lakhel El Hassan
Examen de 28 mai 2008. Horaire : 8H :30-10H :00
2. Dans une le d'attente, dix personnes attendent avant d'être servies. Si le temps de
service d'une personne est une v. a. de loi exponentielle de paramètre θ = 1 minute,
quelle est la probabilité que la durée d'attente totale dépasse 15 minutes ?
3. Soit la suite Xn = (−1)n X où X est une variable aléatoire normale centrée réduite
N (0, 1).
Montrer que Xn converge en loi vers X et ne converge pas en probabilité vers X .
Exercice 2 : (7 points)
On admet que le montant des dépôts de chaque client, sur un compte d'épargne, obéit à une
loi normale de moyenne m et d'écart type σ ; m et σ sont inconnus et l'on se propose de
171
les estimer en tirant au hasard n clients parmi les titulaires de compte d'épargne. Soit Xi la
variable aléatoire : montant des dépôts du client n0 i, i variant de 1 à n.
2. On a tiré au hasard 10 clients et obtenu les montants suivants des dépôts exprimés en
euros :
4700, 6900, 13500, 22000, 10000, 12000, 14000, 18000, 8600, 9000.
*******Fin*******
172
Corrigé du Devoir surveillé n0 3
3. Soit la suite Xn = (−1)n X où X est une variable aléatoire normale centrée réduite
N (0, 1).
Montrer que Xn converge en loi vers X et ne converge pas en probabilité vers X .
173
* Si n est pair : Fn (x) = F (x).
* Si n est impair : Xn = −X . Et on a :
2. On a tiré au hasard 10 clients et obtenu les montants suivants des dépôts exprimés en
euros :
4700, 6900, 13500, 22000, 10000, 12000, 14000, 18000, 8600, 9000.
x = 11870 euros
ET
rP
(xi − x)2
s= = 5227, 5 euros
9
3.1 Donner la dénition d'un estimateur ecace.
Voir le cours.
On a :
174
1 −1 X−m X −m
[Lnf (X, m)]0m = [Ln( √ e 2 ( σ ) )2 ] = .
2πσ σ2
Donc,
X −m 2 n nσ 2 n 1
In (θ) = nE[(Lnf (X, θ))0m ]2 = nE([ 2
] ) = 4
V ar(X) = 4
= 2 = .
σ σ σ σ V (X)
175
Université Cadi Ayyad
Ecole Nationale des Sciences Appliquées
Sa
Exercice I (8 points)
3. Soit X une v. a. Gaussienne centrée réduite X ∼ N (0, 1). Calculer la fonction carac-
téristique de la loi de X : φX (t) = E(eitX ). Déduire E(X 2n ) ∀n ∈ N.
Les lois conditionnelles de Y à X sont dénies, pour chaque x de ]0, 1[, par :
2y
X=x x2
si 0 < y < x,
fY (y) =
0 sinon.
E(EX (Y )) = E(Y ).
176
Corrigé du Devoir surveillé de Rattrapage
Exercice I.
2- La densité de Y est
4y − 4y 3 0 < y < 1
fY (y) =
0 sinon
Et, on a
8
E(Y ) = .
15
3- On a
4
Cov(X, Y ) = E(XY ) − E(X)E(Y ) = .
225
4- On a
2
E[X=x] (Y ) = x.
3
Donc,
2 8
EE[X] (Y ) = E(X) = = E(Y ).
3 15
177
Université Cadi Ayyad
Ecole Nationale des Sciences Appliquées
Sa
Devoir surveillé N o 1
Epreuve de Probabilités Statistiques
Nom : ................................
Examen de 12 novembre 2008.
Prénom : ............................
Exercice I (2 points)
178
2. Le client constate qu'un des CD-ROM acheté est défectueux. Quelle est a la probabilité
pour qu'il ait acheté une boite abimée.
179
2. Si un cilient n'a pas eu d'accident cette année, quelle est la probabilité qu'il soit un bon
risque ?
Exercice IV (9 points)
La durée de vie, exprimée en années, d'un circuit électronique est une variable aléatoire T
dont la fonction de répartition F est dénie par :
si t < 0
0
F (t) = 1 2
1 − exp − 2 t si t ≥ 0
2. Sachant que le circuit a déjà fonctionné durant 1 an, quelle est la probabilité qu'il
continu à fonctionner encore durant au moins 2 ans ? La loi est-elle sans mémoire ?
180
b. L'équipement E est dit en série si la défaillance de l'un de ses circuits entraîne sa
défaillance. Quelle est alors la probabilité qu'il soit défaillant avant un an ?
181
Corrigé du DS 1-12 novembre 2008
Exercice I. (4 points)
182
Université Cadi Ayyad
Ecole Nationale des Sciences Appliquées
Sa
Devoir surveillé N o 2
Epreuve de Probabilités Statistiques
Nom : ................................
Examen de 31 décembre 2008.
Prénom : ............................
1. ( L'inégalité de Bienaymé-Tchebyche )
Montrer que si X est une v. a. r. admettant un moment d'ordre 2, et si a ∈ R∗+ , alors
, on a :
V ar(X)
P (|X − E(X)| > a) ≤ .
a2
2. (Théorème de Bayes)
Montrer que pour un couple aléatoire (X, Y ) discret (ou continu), on peut exprimer
la distribution conditionnelle de l'une des deux variables en fonction de la distribution
conditionnelle l'autre variable :
pY (y|x)pX (x)
pX (x|y) = P(X = x|Y = y) = P .
xi∈X(Ω) pY (y|xi )pX (xi )
183
Exercice 2 (4 points)
Un fabricant de réfrigérateur a pour règle de faire inspecter ses produits nis. Les défauts
principaux sont de deux types : 1) égratignures de l'émail de recouvrement ; 2) problèmes
mécaniques de toutes sortes. En se basant sur l'inspection de 50 réfrigérateurs, on a établi la
loi conjointe suivante, où X désigne le nombre d'égratignures et Y le nombre de problèmes
mécaniques.
X \ Y 0 1 2 3 4 5
0 11
50
4
50
2
50
1
50
1
50
1
50
1 8
50
3
50
2
50
1
50
1
50 0
2 4
50
3
50
2
50
1
50 0 0
3 3
50
1
50 0 0 0 0
4 1
50 0 0 0 0 0
1. Calculer les lois marginales de X et Y .
184
Exercice 3 (4 points)
Pour éviter l'inconvénient majeur que représente la panne d'une machine fragile et indispon-
sable au bon fonctionnement d'une chaîne de production, on envisage de prévoir une machine
de secours, identique en tout point, qui se met automatiquement en marche lorsque la première
machine tombe en panne. La machine est mise en marche le matin à 8h00 et est arrêtée le
soir à 18h00, et on ne peut envisager de réparer une machine qu'après 18h00 le soir. Si l'on
suppose que la durée de fonctionnement sans l'occurrence d'une panne à partir de la mise en
marche suit une loi exponentielle de paramètre λ = 0, 01h−1 ,
a- quelle est la probabilité que la chaîne de production s'arrête s'il y a une seule machine ?
b- quelle est la probabilité que la chaîne de production s'arrête s'il y a une seconde machine
de secours ?
185
Exercice 4. (8 points)
Pour a > 0, on pose Z +∞
Γ(a) = e−x xa−1 dx.
0
On appelle loi gamma de paramètre a et λ (a > 0, λ > 0), notée G(a, λ), la loi sur R de
densité γa,λ donnée par
λa −λx α−1
γa,λ (x) = e x IR+ (x).
Γ(a)
1. En utilisant une intégration par parties, montrer que Γ(a + 1) = aΓ(a) et que Γ(n) =
(n − 1)! pour tout n ∈ N∗ .
3.1 Soit X et Y deux v. a. indépendantes de lois respectives G(a, λ) et G(b, λ). Donner
la loi de probabilité du couple (X, Y ).
186
3.2 Si X1 ,...,Xn sont n v. a. indépendantes de même loi exponentielle de densité λe−λx IR+ (x).
Donner la loi de probabilité de
Sn = X1 + X2 + ... + Xn .
4. Soit Y une v. a. gaussienne centré réduite, notée N (0, 1). Montrer que Y 2 a la loi
gamma G( 12 , 21 ). En déduire la valeur de Γ( 12 ).
187
6. On dit que le paramètre a est un paramètre de forme, tandis que le paramètre λ est un
paramètre d'echelle. Tracer le graphe de la densité de la loi Gamma pour a = 1, a = 2,
a = 3 et a = 4. Conclure.
1. Les lois gamma et exponentielle sont des modèles très utilisés en abilité. La loi Gamma généralise la
loi exponentielle : Exp(λ) = G(a = 1, λ).
188
Université Cadi Ayyad
Ecole Nationale des Sciences Appliquées
Sa
Devoir surveillé N o 3
Epreuve de Probabilités Statistiques
Examen de 21 janvier 2009. Nom : ................................
Prénom : ............................
Exercice 1. (4 points)
Soit a ∈ R et (Xn ) une suite de v. a. réelles.
Montrer que (Xn ) converge en probabilité vers a si et seulement si (Xn ) converge en loi vers
a.
189
Exercice 2 : (7 points)
On admet que le montant des dépôts de chaque client, sur un compte d'épargne, obéit à une
loi normale de moyenne m et d'écart type σ ; m et σ sont inconnus et l'on se propose de
les estimer en tirant au hasard n clients parmi les titulaires de compte d'épargne. Soit Xi la
variable aléatoire : montant des dépôts du client n0 i, i variant de 1 à n.
2. On a tiré au hasard 10 clients et obtenu les montants suivants des dépôts exprimés en
euros :
4700, 6900, 13500, 22000, 10000, 12000, 14000, 18000, 8600, 9000.
1, 2, ..., t − 1, t, ...
190
a. l'espérance et la variance de X1 et X2 .
b. Le coecient de corrélation linéaire entre X1 et X2 .
c. l'espérance et la variance du temps de fonctionnement T de l'appareil entre les dates
1 et 2 (T = X1 + X2 ).
d. Que deviennent ces résultats dans le cas a = b = 21 ?
191
Université Cadi Ayyad
Ecole Nationale des Sciences Appliquées
Sa
192
1. Déterminer la loi conjointe de X et Y .
2. Déterminer la loi de Y et son espérance E(Y ).
3. Calculer la covariance de X et Y .
4. Calculer l'espérance conditionnelle EX (Y ) et vérier que l'on a :
E(EX (Y )) = E(Y ).
193
Université Cadi Ayyad
Ecole Nationale des Sciences Appliquées
Sa
Devoir surveillé N o 1
Epreuve de Probabilités et Statistiques
Nom : ................................
Examen de 8 novembre 2009.
Prénom : ............................
Le contrôle continu est un examen universitaire. Toute fraude ou tentative de fraude est pas-
sible du Conseil de Discipline de l'ENSAS. Le contrôle se compose de 4 exercices indépendants.
La qualité de la rédaction sera un élément important d'appréciation. Les réponses doivent ré-
digées après chaque question, en utilisant la place disponible.
194
Exercice 1. (3 points) Soit A et B deux événements d'un même espace de probabilité
(Ω, F, P). Montrer que :
195
Exercice 2. (4 points)
On considère le circuit de la gure ci-dessous
Les Ai , Bj , Ck sont des relais, en position ouverte ou fermée. Les nombres indiquent la
probabilité que le relais correspondant soit ouvert. Les relais sont indépendants. Calculez la
probabilité pour que le circuit total passe (c'est- à-dire qu'il existe au moins une branche sur
laquelle tous les relais sont fermés).
196
Exercice 3. (Formule de Poincaré)(10 points)
197
Corrigé
Exercice 1.
On a
P (A ∩ B) + P (A ∩ B) = P [(A ∩ B) ∪ (A ∩ B)] = P (B) = P (B)[P (A) + P (A)].
On en déduit la première égalité.
Pour la deuxième, on écrit
P (A ∩ B) + P (A ∩ B) = P [(A ∩ B) ∪ (A ∩ B)] = P (A) = P (A)[P (B) + P (B)].
Exercice 2.
Appelons Xi l'événement "Ai est ouvert", Yi lévénement "Bi est ouvert" et Zi l'événement
"Ci est ouvert".
Les données sont :
P (X1 ) = 0.5 ; P (X2 ) = 0.1; P (Y1 ) = 0.8 ; P (Y2 ) = 0.1 ; P (Y3 ) = 0.4 et
P (Z1 ) = 0.3.
1- Voir le cours.
2-
P (A1 ∪A2 ∪A3 ) = P (A1 )+P (A2 )+P (A3 )−P (A1 ∩A2 )−P (A1 ∩A3 )−P (A2 ∩A3 )+P (A1 ∩A2 ∩A3 ).
3- Cette formule se démontre par récurrence sur n. Le cas n = 2, la formule de Poincaré
est vériée.
Supposons la formule vraie pour n.
Posons
∪n+1
j=1 Aj = B ∪ An+1 où B = ∪nj=1 Aj .
D'après la formule de Poincaré pour n = 2 ,
P (∪n+1
j=1 Aj ) = P (B) + P (An+1 ) − P (B ∩ An+1 ).
Pour P (B) on emploie la formule supposée vraie pour n. Les termes qui manquent pour
le cas n + 1 sont obtenus en remarquant que
P (B ∩ An + 1) = P (∪nj=1 Aj)
e où A
ej = Aj ∩ An+1 ,
198
4. Application :
Numérotons les enveloppes de 1 à n. L'univers Ω est l'ensemble des n! permutations
des n lettres dans les n enveloppes. Ω est muni de l'équiprobabilité.
a- Il y a une seule façon de placer les n lettres corresponantes dans ces n enveloppes.
Donc, la probabilité qu'on cherche est égale aux Nombre de cas favorables /Nombre
de cas possibles, soit n!
1
.
b- En utilisant la formule de Poincaré à l'ordre n, on obtient : Désignons par Ai
l'événement "la lettre i parvient à son destinataire" et soit P(Ai ) sa probabilité.
La probabilité qu'une lettre au moins parvienne à son destinataire est égale à
n
[
P( Ai )
i=1
Il y a Cnk façons de choisir k enveloppes parmi les n. Soit i1 , ..., ik l'un de ces choix.
Il y a une seule façon de placer les k lettres corresponantes dans ces k enveloppes,
puis (n − k)! façons de répartir les n − k lettres restantes, dans les n − k autres
enveloppes.
La probabilité de réaliser l'événement Ai1 ∩ .... ∩ Aik est donc (n−k)! n!
et 1≤i1 <...<ik ≤n P (Ai1 ∩ ... ∩ Aik ) vaut Cnk (n−k)! 1
.
P
n! = k!
Par suite
n
[ 1 1 1
P( Ai ) = 1 − + ... + (−1)k+1 + ... + (−1)n+1 .
2! k! n!
i=1
199
Université Cadi Ayyad
Ecole Nationale des Sciences Appliquées
Sa
Devoir surveillé N o 2
Epreuve de Probabilités et Statistiques
24 décembre 2010.
Le contrôle continu est un examen universitaire. Toute fraude ou tentative de fraude est pas-
sible du Conseil de Discipline de l'ENSAS. Le contrôle se compose de 3 exercices indépendants.
La qualité de la rédaction sera un élément important d'appréciation.
Exercice 1. (4 points)
1- Déterminer l'unique a ∈ R tel qu'il existe une variable aléatoire réelle discrète X de
loi donnée par
P (X = k) = e−2 2k−2 (1 + ak)/k!
pour k ∈ N.
2- Donner alors la loi de la variable aléatoire Y dénie par
(
X
2 si X est pair
Y = (1−X)
2 si X est impair
Exercice 2. (4 points)
Soient X et Y deux variables aléatoires réelles indépendantes et de même loi U1,2,...,n (avec
n ≥ 2).
1- Calculer P (X = Y ).
2- Trouver la loi de X + Y .
3- On pose U = minX, Y et V = maxX, Y . Trouver les lois de U et de V .
4- U et V sont-elles indépendantes ?
200
2. On pose : U = max(X, Y ) et V = min(X, Y ).
a. Exprimer pour chaque k ∈ N [U = k] en fonction des événements [X = k], [Y = k],
[X ≤ k], [Y ≤ k]. En déduire la loi de probabilité de U . Calculer E(U ).
-Fin-
201
Corrigé du DS No 2
du 24 décembre 2010 .
Exercice I (4 points)
et X
P(X = k) = 1
k∈N
On a donc,
X e−2 X k ae−2 X k−1 1 a
P(X = k) = 2 /k! + 2 /(k − 1)! = +
4 2 4 2
k∈N k∈N k≥1
Donc a = 32 .
2- La v. a. Y prend ses valeurs dans Z. Soit k ∈ N, on a
ET
5
P(Y = −k) = P(X = 2k + 1) = e−2 22k−1 ( + 3k)/(2k + 1)!
2
Pour k = 0, on a
3e−2
P(Y = 0) = P(X = 0) + P(X = 1) = .
2
Exercice 2. (4 points)
Soient X et Y deux variables aléatoires réelles indépendantes et de même loi U1,2,...,n (avec
n ≥ 2).
1- On a
n n
X X 1
P (X = Y ) = P(∪nk=1 X = k et Y = k) = P(X = k et Y = k) = P(X = k)P(Y = k) =
n
k=1 k=1
* Cas 1 : k ≥ n + 1. On a
2n − k + 1
P(Y ∈ {k − n, ...., k − 1}) = P(Y ∈ {k − n, ...., n}) =
n
Donc
2n − k + 1
P(X + Y = k) = .
n2
202
* Cas2 : k ≤ n + 1. On a
k−1
P(Y ∈ {k − n, ...., k − 1}) = P(Y ∈ {1, ...., k − 1}) =
n
Donc
k−1
P(X + Y = k) =.
n2
3- On pose U = minX, Y et V = maxX, Y . La v. a. U prend ses valeurs dans {1, ..., n}.
Soit k ∈ {1, ..., n}. On a
Or,
(n − k + 1)2
P(U ≥ k) = P(X ≥ ketY ≥ k) = P(X ≥ k)P(Y ≥ k) =
n2
Donc
2n − 2k + 1
P(U = k) = .
n2
De même V prend ses valeurs dans {1, ...., n}. On a
Or,
k2
P(V ≤ k) = P(X ≤ ketY ≤ k) = P(X ≤ k)P(Y ≤ k) =
n2
Donc
2k − 1
P(V = k) = .
n2
4- U et V ne sont pas indépendantes ; car
1. a. Pour tout n ∈ N,
X X p2 q
P(X = n) = P(X = n)P(Y = m) = p2 q n qm = = pq n .
1−q
m∈N m∈N
b. On a, d'après le cours
1
E(X + 1) =
p
203
Donc
q
E(X) = E(Y ) =
p
Et
q
V ar(X) = V ar(Y ) = .
p2
D'où
2q
E(X + Y ) = E(X) + E(Y ) = .
p
Et
2q
V ar(X + Y ) = V ar(X) + V ar(Y ) = car X et Y sont indépendantes.
p2
c. Pour tout k ∈ N,
k
X p(1 − q k+1 )
FX (k) = P(X ≤ k) = P(X = i) = = 1 − q k+1 .
1−q
i=1
2. a. Pour tout k ∈ N, on a
Par suite
P[U = k] = P[X ≤ k] ∩ [Y = k] + P([X = k] ∩ [Y ≤ k]) − P([X = k] ∩ [Y = k])
On a :
X X X 2q q2
E(U ) = kP[U = k] = 2 kpq k − (1 + q) kpq 2k = − .
p 1 − q2
k∈N k∈N k∈N
b. On a
1
U = max(X, Y ) = [X + Y + |X − Y |]
2
D'où
2q
E|X − Y | = 2E(U ) − E(X + Y ) = .
p(1 + q)
c. D'une manière analogue à U , on détermine la loi de V :
204
3. Pour chaque (n, k) ∈ N2 , on a
si k < n
0
P(X = n, Y ≤ n) = pq n (1 − q n+1 ) si k = n
P(X = n, U = k) =
= P(X = n, Y = k) = p2 q n+k si k > n
Pour tout k ∈ N∗ , on a
m
X m
X m
X
P[X+Y = m] = P[X = k]P[Y = m−k] = pq k pq m−k = p2 q m = (m+1)p2 q m .
k=0 k=0 k=0
b- Pour tout k ∈ N, on a
P[X+Y =2n+1,M ax(X,Y )=k]
PX+Y =2n+1 [U = k] = P(X+Y =2n+1)
(
P(X=k,Y =2n+1−k)∪(X=2n+1−k,Y =k)
2(n+1)p2 q 2n+1
si n + 1 ≤ k ≤ 2n + 1
=
0 sinon
2p2 q 2n+1 1
= 2(n+1)p2 q 2n+1
= n+1 si n + 1 ≤ k ≤ 2n + 1
205
Université Cadi Ayyad
Ecole Nationale des Sciences Appliquées
Sa
Devoir surveillé N o 3
Epreuve de Probabilités et Statistiques
Le contrôle continu est un examen universitaire. Toute fraude ou tentative de fraude est pas-
sible du Conseil de Discipline de l'ENSAS. Le contrôle se compose de 3 exercices indépendants.
La qualité de la rédaction sera un élément important d'appréciation.
Exercice 1. (6 points)
V ar(X)
P (|X − E(X)| > a) ≤ .
a2
3- Montrer que la convergence en probabilité entraîne la convergence en loi.
Exercice 2. (8 points)
Un poste de péage d'une autoroute possède plusieurs guichets. En période de pointe et dans
la tranche horaire 7h-9h, on compte 6300 véhicules par heure. Des compteurs à la sortie du
péage ont montré qu'un usager met en moyenne 18 secondes pour s'acquitter de la redevance.
On estime qu'il y a risque de saturation si on compte plus de 10 véhicules en attente à chaque
guichet. On se place désormais dans la période considérée 7h-9h.
1- Pour modéliser ce problème, on va considérer la suite de variable aléatoires Xi telle
que Xi vaut 1 si le véhicule i est au péage, et vaut 0 sinon. Quelle est la loi de Xi (en
particulier, quel est son paramèetre p).
2- Montrer que le nombre de véhicules présents au péage à un instant donné est donné
par la variable aléatoire
12600
X
X= Xi .
i=1
3- Dans le cas où il y a 5 guichets, en admettant une égale répartition des véhicules sur
chaque guichet, et en notant Y le nombre de véhicules se présentant à un guichet à un
instant donné, justier que Y suit sensiblement une loi de Poisson, dont on donnera
le paramètre λ, et calculer la probabilité de saturation P (Y ≥ 10).
206
4- Supposons maintenant que le nombre de guichets ouverts est 7. Calculer la probabilité
de saturation .
Exercice 2. (6 points)
Une entreprise fabrique des piles alcalines pour alarmes et télécommandes de portails élec-
triques. On suppose que dans le processus de fabrication, le voltage obtenu pour chaque pile
est indépendant de celui des autres.
1- On suppose dans cette question que le voltage de ces piles est distribué suivant une loi
normale de moyenne 12 ; 20 volts et d'écart type 0 ; 70 volts. Calculer la proportion des
piles ayant un voltage compris entre 12 ; 10 et 12 ; 30 volts.
2- Dans cette question, on ne suppose plus que le voltage est distribué suivant une loi
normale. On fait seulement l'hypothèse que le voltage est distribué suivant une loi de
moyenne 12,20 et d'écart type 0,70.
i- On choisit 30 piles au hasard. Quelle est la probabilité que le voltage moyen de ces
30 piles soit supérieur à 12 volts ?
2i- Combien de piles faut-il pour être certain à 95% que leur voltage moyen soit entre
12,10 et 12,30 volts ?
(Indication : chercher le plus petit entier N tel que P( X1 +...+X
N
N
∈ [12, 1; 12, 3])).
207
Exercice 1.
Voir le cours.
Exercice 2. (8 points)
E(X) = np = 31, 5.
ET
En supposant que les voitures se répartissent équitablement sur les 5 guichets, la loi
de la variable aléatoire Y est B(12600; p0 = p5 = 0, 0005). Puisque n ≥ 30, p0 ≤ 0, 1
et np0 = 6, 3 ≤ 10, on est dans le cadre d'approximation de la loi binomiale par la loi
de Poisson de paramètre λ = np0 = 6, 3. On a alors B(12600; 0; 0005) ∼ P(6, 3). Avec
cette approximation, on obtient
Exercice 3.
1- On suppose dans cette question que le voltage de ces piles est distribué suivant une loi
normale de moyenne 12 ; 20 volts et d'écart type 0 ; 70 volts.
Donc, si X désigne la v. a. qui donne le voltage d'une pile, on a
X ∼ N (12.2; 0.4).
208
Et, la proportion des piles ayant un voltage compris entre 12.1 et 12.3 volts est donnée
par
2- Dans cette question, on ne suppose plus que le voltage est distribué suivant une loi
normale. On fait seulement l'hypothèse que le voltage est distribué suivant une loi de
moyenne 12,20 et d'écart type 0,70.
i- On choisit 30 piles au hasard. Soit Xi la v. a. qui donne le voltage de la iiem pile
fabriquée. Les v. a. Xi sont i.i.d. avec
√ 30 −30×12,2 ≥ √
30(12−12.2)
P( X1 +...+X
30
30
≥ 12) = P( X1 +...+X
30×0,7 30×0.7
)
= P(N (0, 1) ≥ −1, 56)
= P(N (0, 1) ≤ 1, 56) = 0, 94.
2i- On cherche, le plus petit entier N tel que
X1 + ... + XN
P( ∈ [12, 1; 12, 3]) ≥ 0, 95
N
En utilisant le TCL
√ N −N 12,2 ∈ [ √
N (12,1−12,2) N (12,3−12,2)
P( X1 +...+X
N
N
∈ [12, 1; 12, 3]) = P( X1 +...+X
N 0,7 N ∗0,7
; √N ∗0,7 ])
√
N
= 2P(N (0; 1) ≤ 7 ) −1
Le plus petit entier N tel que
P( X1 +...+XN
∈ [12, 1; 12, 3]) ≥ 0, 95 est donné, en utilisant la table de la loi normale
N √
centré réduite, par 17 N = 1, 96. Puisque N est entier, on prend N = 189.
209
Université Cadi Ayyad
Ecole Nationale des Sciences Appliquées
Sa
Sujet d'examen de rattrapage
Epreuve de Probabilités Statistiques
Rattrapage janvier 2011
1. (2 point) Déterminer la constante k de telle sorte que f (x) puisse être considérée
comme la densité de probabilité d'une v.a. continue U .
Π(−z) = 1 − Π(z)
3. (1 point) Calculer E(U ) et V ar(U ).
X = m + σU
1) La machine est réglée sur m=101,2 mg. Quelle est la probabilité que le poids de
produit dans un acon soit inférieur au poids annoncé de 100 mg ?
2) Sur quelle valeur de m faut-il régler la machine pour qu'au plus 4% des acons
aient un poids inférieur au poids annoncé de 100 mg ?
210
Exercice 2INTERVALLES DE CONFIANCE (5 points)
Des mesures du diamètre apparent vertical de la planète Vénus ont donné les résultats
suivants :
42, 70 43, 01 42, 76 43, 63 41, 60 42, 95 43, 18 43, 10 42, 56 43, 48 43, 06 42,87
42, 78 43, 20 43, 39.
Soit X la v.a. représentant, non pas le diamètre apparent vertical de Vénus, qui, lui,
est ce qu'il est, mais les résultats d'une mesure de cette grandeur rendue aléatoire par
le fait de nombreux phénomènes annexes intervenant dans la pratique de cette mesure.
Compte tenu du grand nombre de causes diverses d'erreur de mesure, il est raisonnable
de considérer que X suit une répartition normale N (m, σ)
1- Donner un intervalle de conance pour m d'après l'échantillon de mesures obtenu,
au seuil 0,05 et en supposant que σ = 0, 5
211
Corrigé du DS de Rattrapage
Exercice 1.
Pour les questions 1-4 Voir les TDs.
5-Application I
Soit X le nombre de personnes, sur les 20000, qui demanderont à être vaccinées. X a
une loi binomiale
√ de paramètres n = 20000 et p = 0, 4 que l'on approche par une loi
N (8000; 4800).
On cherche n tel que
P(X > n) < 0.1
i.e
P(X ≤ n) > 0.9
Par suite, d'après la table de la loi normale, on a
n − 8000
π( √ ) > π(1.2816)
4800
D'où
n > 8088, 79
Il faut donc disposer d'au moins 8089 vaccins.
6- Application II 1) X a une loi N (101, 2; 1, 1)
212
Université Cadi Ayyad
Ecole Nationale des Sciences
Appliquées Nom :...................................
Sa Prénom :..............................
Temps : 20 minutes.
Contôle N o 1
Comme dans toute épreuve écrite, la qualité et la clarté de la rédaction constituent des
éléments essentiels dans l'appréciation de la copie.
Exercice 1 :( 10 pts)
1- Pourquoi en jetant 3 dés obtient-on plus souvent la somme 10 que la somme 9 alors
que
pour 9=1+2+6=1+3+5=1+4+4=2+2+5=2+3+4=3+3+3
pour 10=1+3+6=1+4+5=2+2+6=2+3+5=2+4+4=3+3+4
213
Exercice 2 :(10 pts)
1- Enoncer et démontrer le théorème des probabilités totales, encore dit "Principe des
probabilité totales".
2- Une Analyse de laboratoire assez côuteuse est délicate doit être réalisée. Le côut de
chaque analyse est de 1000dh et sa probabilité de réussite est de 0.7 à chaque essai.
Quel budget faut-il prévoir s'il on veut avoir au moins 99% de chance de la mener à
bien ?
214
Corrigé du Contrôle 1 2012
P(X ≤ x) ≥ .99
F (x) = P {X ≤ x}
215
Université Cadi Ayyad
Ecole Nationale des Sciences Appliquées
Sa
Devoir surveillé N o 1
Epreuve de Probabilités et Statistiques
Examen de 24 avril 2012. Nom : ................................
Prénom : ............................
Le contrôle continu est un examen universitaire. Toute fraude ou tentative de fraude est pas-
sible du Conseil de Discipline de l'ENSAS. Le contrôle se compose de 4 exercices indépendants.
La qualité de la rédaction sera un élément important d'appréciation. Les réponses doivent ré-
digées après chaque question, en utilisant la place disponible.
Exercice 1. (4 points)
Un constructeur aéronautique équipe ses avions trimoteurs d'un moteur central de type A et
de deux moteurs, un par aile, de type B ; chaque moteur tombe en panne indépendamment
d'un autre, et on estime à p la probabilité pour un moteur de type A de tomber en panne et à
q la probabilité pour un moteur de type B de tomber en panne. Le trimoteur peut voler si le
moteur central ou les deux moteurs d'ailes fonctionnent : quelle est la probabilité pour l'avion
de voler ? Application numérique : p = 0, 001%, q = 0, 02%.
216
Exercice 2. (4 points)
Parmi 10 pièces mécaniques, 4 sont défectueuses. On prend successivement deux pièces
au hasard dans le lot (sans remise). Quelle est la probabilité pour que les deux pièces soient
correctes.
217
Exercice 3. (4 points)
L'inspecteur chargé d'une enquête criminelle est à un certain stade convaincu à 60% de la
culpabilité d'un suspect. Une nouvelle pièce à conviction permet soudain d'armer que le
criminel est gaucher. Or 7% des individus dans la population sont gauchers. Comment l'ins-
pecteur doit-il réapprécier la culpabilité du suspect, s'il se trouve que le suspect est gaucher ?
Exercice 4. (8 points)
On observe l'arrivée de personnes à un guichet, 2 personnes ne pouvant arriver en même
temps. Le nombre d'arrivées dans un intervalle de temps de longueur t est une variable aléa-
toire N (t) distribuée selon une loi de Poisson de paramètre λt. Les arrivées se produisent
indépendamment les unes des autres. On choisit un temps t0 = 0. Soit Tk la variable aléatoire
qui représente l'arrivée du k ième client à partir de t0 .
1- Quelle est la loi de T1 ? Indication : la probabilité que T1 soit supérieur à t est égale à
la probabilité que personne n'arrive dans l'intervalle [0, t]
2- Calculer la fonction de répartition de Tk .
3- Calculer la densité de Tk . Facultatif : De quelle loi s'agit-il ?
218
Corrigé du DS1 2012
Exercice 1.
On note A1 l'événement la première pièce est bonne et A2 l'événement la seconde pièce est
bonne. Comme, au départ, il y a 6 pièces bonnes sur 10,
Lorsque l'on a retiré une pièce bonne, il reste 5 pièces bonnes sur 9. D'o`u
5 3 1
P (A2 |A1 )P (A1 ) = × = .
9 5 3
Exercice 3.
P (G|I) = 0.07.
D'après la formule de Bayes, la probabilité pour que le suspect soit coupable sachant qu'il est
gaucher est
P (G|C)P (C)
P (C/G) = = 0.955.
P (G|C)P (C) + P (G|I)P (I)
Ainsi, s'il se trouve que le suspect est gaucher, l'inspecteur peut tabler sur sa culpabilité avec
moins de 5% de chances de se tromper.
Exercice 4.
A écrire...
219
Université Cadi Ayyad
Ecole Nationale des Sciences Appliquées
Sa
Devoir surveillé
Epreuve de Probabilités et Statistiques
Examen de 28 juin 2012.
Le devoir surveillé est un examen universitaire. Toute fraude ou tentative de fraude est passible
du Conseil de Discipline de l'ENSAS. La qualité de la rédaction sera un élément important
d'appréciation. Documents interdits. Calculatrices non programmables autorisées
Exercice 1. ( 6points)
X\Y 1 2 3
1 0 α 0,1
2 α 0,3 0,1
3 0,1 0,2 0
1- Déterminer α.
2- Donner les lois marginales de X et Y , leur espérance et leur variance.
3- Calculer Cov(X, Y ).
Exercice 2. ( 3points)
1- Montrer que si (Xn )n converge en loi vers une variable aléatoire constante c, alors la
convergence a lieu en probabilité.
2- Donner un exemple de suite (Xn )n qui converge en loi mais pas en probabilité (et donc
pas presque sûrement).
Exercice 3. (4 points)
2- Le nombre d'appels par minute au standard téléphonique d'une banque a été observé
sur un échantillon de taille 100. On sait par ailleurs que ce nombre d'appels par minute
suit une loi de Poisson dont on veut estimer la moyenne λ. Les résultats sont désignés
par x1 , x2 , ..., x100 . Estimer λ par la méthode de maximum de vraisemblance.
Exercice 1. (7 points)
Une entreprise fabrique des piles
alcalines pour alarmes et télécommandes de portails électriques. On suppose que dans le
processus de fabrication, le voltage obtenu pour chaque pile est indépendant de celui des autres.
1- On suppose dans cette question que le voltage de ces piles est distribué suivant une loi
normale de moyenne 12,20 volts et d'écart type 0,70 volts. Calculer la proportion des
piles ayant un voltage compris entre 12,10 et 12,30 volts.
220
2- Dans cette question, on ne suppose plus que le voltage est distribué suivant une loi
normale. On fait seulement l'hypothèse que le voltage est distribué suivant une loi de
moyenne 12,20 et d'écart type 0,70.
2-1 On choisit 30 piles au hasard. Quelle est la probabilité que le voltage moyen de
ces 30 piles soit supérieur à 12 volts ?
2-2 Combien de piles faut-il pour être certain à 95% que leur voltage moyen soit entre
12,10 et 12,30 volts ?
221
Université Cadi Ayyad
Ecole Nationale des Sciences Appliquées
Sa
Le devoir surveillé est un examen universitaire. Toute fraude ou tentative de fraude est passible
du Conseil de Discipline de l'ENSAS. La qualité de la rédaction sera un élément important
d'appréciation. Documents interdits. Calculatrices non programmables autorisées
si t < 0
0
F (t) =
1 − exp − 12 t2 si t ≥ 0
(i + j)λi+j
∀(i, j) ∈ N2 P(X = i, Y = j) =
e i!j!
avec λ ∈ R.
1- Montrer que λ = 1
2
222
2- Déterminer les lois marginales. Les v. a. X et Y sont-elles indépendantes ?
223
Université Cadi Ayyad
Ecole Nationale des Sciences Appliquées
Sa
Devoir surveillé N o 1
Epreuve de Probabilités et Statistiques
Examen de 13 novembre 2014. Nom : ................................
Prénom : ............................
224
4. Deux signaux d'une durée τ < 21 chacun ; sont transmis par un canal radioélectrique
pendant un intervalle de temps (0, 1) ; chacun d'eux commence avec la même probabilité
à n'importe quel instant de l'intervalle (0, 1−τ ). Si les signaux se chevauchent ne serait-
ce qu'en partie ; ils se perturbent tous les deux et ne peuvent être reçus.
Trouver la probabilité que les deux signaux soient reçus sans perturbations.
Réponse :.....
225
Problème : Code de la Route (10 points)
1. Pour l'examen du Code de la Route, les candidats doivent remplir un questionnaire de
40 questions en choisissant pour chacune d'elles l'une des 4 réponses proposées, dont
une seule est exacte. Un candidat totalement ignorant décide de tenter sa chance en
cochant complètement au hasard une réponse pour chaque question.
1. Quelle est la loi du nombre S de bonnes réponses du candidat ? Justiez votre ré-
ponse.
2. Calculer
P(S ≥ 36).
2. Le modèle précédent est trop simpliste, en voici un plus réaliste. Le candidat n'est pas
complètement ignorant et il arrive qu'il connaisse la réponse à certaines questions. Il
répond alors à coup sûr. S'il ignore la réponse, il choisit au hasard entre les 4 réponses
proposées. On suppose toutes les questions indépendantes et que pour chacune de ces
questions, la probabilité que le candidat connaisse la vraie réponse est p. Ce paramètre
p mesure donc le vrai niveau du candidat. Malheureusement il n'est pas connu de l'exa-
minateur. On dénit les variables aléatoires suivantes :
S nombre de réponses connues du candidat ;
T nombre de bonnes réponses obtenues au hasard ;
U nombre total de bonnes réponses (U = S + T) ;
V nombre de mauvaises réponses (S + T + V = 40).
a. Quelle est la loi de S ?
b. On note Bi l'évènement " le candidat donne la bonne réponse à la iième question ".
Calculer P(Bi ) en fonction de p (on conditionnera par les deux cas possibles).
c. En déduire la loi de U , puis celle de V .
d. Utiliser une méthode analogue pour trouver la loi de T .
3. On reprend les notations et les hypothèses de la question précédente. Ce que peut réel-
lement observer l'examinateur, c'est la valeur prise par U (ou ce qui revient au même
par V ). Les quantités intéressantes pour tirer des conclusions sur le niveau réel du
candidat sont les P(S = i|U = m) pour i ≤ m ≤ 40. Par exemple si le candidat a
obtenu 38 bonnes réponses, on aimerait évaluer P(S ≥ 36|U = 38).
e. Expliquer pourquoi pour i ≤ m ≤ 40,
P(S = i, U = m) = P(S = i, T = m − i, V = 40 − m)
226
Université Cadi Ayyad
Ecole Nationale des Sciences Appliquées
Sa
Devoir surveillé N o 1
Epreuve de Probabilités et Processus
Stochastiques
Nom : ................................
Examen de 15 janvier 2015.
Prénom : ............................
Exercice 1. (4 points)
1. Montrer que le processus
Xt = A cos(2πt) + B sin(2πt)
où A, B sont des variables aléatoires indépendantes de moyenne nulle et de variance
1 est stationnaire au sens large
Réponse :.....
227
Exercice 1. (Le signal télégraphique) (6 points)
2. Calculer E(X(t)).
228
Corrigé :
1. Exo 1 :
mXt = 0, et R(t, t + s) = cos(2πs).
Un processus stochastique pour lequel mX (t) = m ∀t ∈ T est érgodique par rapport à
la moyenne si
P(limT −→∞ µX (T ) = m) = 1.
2. Exo 2 :
1. On a
∞ ∞ ∞
X X −λt (λt)2k −λt
X (λt)2k 1 + e−2λt
P(X(t) = 1) = P(N (t) = 2k) = e =e = ,
k=0 k=0
(2k)! k=0
(2k)! 2
car
∞
eλt + e−λt X (λt)2k
ch(λt) := = .
2 k=0
(2k)!
Ensuite, on a
1 − e−2λt
P(X(t) = −1) = 1 − P(X(t) = 1) = .
2
2. On a
1 + e−2λt 1 − e−2λt −2λt
E(X(t)) = 1. + (−1). =e .
2 2
3. Soit s > 0, d'après la stationarité des accroissements, on a :
4. On a :
−2λs −2λt −2λ(t+s)
CX (t, t + s) = RX (t, t + s) − E(X(t))E(X(t + s)) = e −e e .
3. Exo 3 :
229
Université Cadi Ayyad
Ecole Nationale des Sciences Appliquées
Sa
Exercice 1. (6 points)
dispositifs techniques on recourt souvent en tant que loi de répartition de la durée du service
à la loi de Weibull de fonction de répartition
α
F (x) = 1 − e−βx , (x ≥ 0);
où β > 0 est une certaine constante ; α est un nombre entier positif. Trouver
1. la densité f (x),
230
Exercice 2. (7 points)
Soit X = (X1 , X2 , X3 , X4 )t un vecteur gaussien de loi N (µX , ΣX ) avec
0 2 1 0 0
0 1 1 0 0
µX = 0
, ΣX =
0 0 1 −1
0 0 0 −1 2
1. Déterminer la loi de Y .
2. Quelles conditions doit vérier α pour que les variables aléatoires Y1 , Y2 , Y3 soient in-
dépendantes ?
Exercice 3. (7 points)
On suppose que les arrivées dans un magasin se font selon un processus de Poisson de taux
40 clients par heure. Ce magasin ouvre à 9h et ferme à 19h.
1. Quelle est la loi du nombre de clients sur la journée ?
3. Calculer la probabilité qu'aucun client n'arrive entre 9h et 9h15 sachant qu'il en est
arrivé 3 entre 9h et 9h30.
4. Calculer le nombre moyen de clients qui sont entrés dans le magasin jusqu'à 11h sa-
chant qu'il en est arrivé 3 jusqu'à 9h30.
5. Un cadeau est oert par le magasin tous les 13 clients (c'est-à-dire au 13e client, au
26e, etc.). Donner la loi de la durée espaçant deux cadeaux.
231
Université Cadi Ayyad
Ecole Nationale des Sciences Appliquées
Sa
Devoir surveillé N o 1
Epreuve de Probabilités et Stochasiques
Examen de janvier 2017. Nom : ................................
Prénom : ............................
Exercice 1. (4 points)
1. Soit X une variable aléatore de loi binomiale de paramètres p ∈ (0, 1) et n ∈ N∗ .
Montrer que
(a) E(X) = np
(b) V ar(X) = npq , avec q = 1 − p.
Réponse :.....
232
Exercice 2. ( 6 points)
Exercice 3. (4 points)
Un industriel doit vérier l'état de marche de ses machines et en remplacer certaines le cas
échéant. D'après des statistiques précédentes, il évalue à 30% la probabilité pour une machine
de tomber en panne en 5 ans ; parmi ces dernières, la probabilité de devenir hors d'usage suite
à une panne plus grave est évaluée à 75% ; cette probabilité est de 40% pour une machine
n'ayant jamais eu de panne.
1. Quelle est la probabilité pour une machine donnée de plus de cinq ans d'être hors
d'usage ?
2. Quelle est la probabilité pour une machine hors d'usage de n'avoir jamais eu de panne
auparavant ?
3. Soit X la variable aléatoire "nombre de machines qui tombent en panne au bout de
5 ans, parmi 10 machines choisies au hasard". Quelle est la loi de probabilité de X,
(on donnera le type de loi et les formules de calcul), son espérance, sa variance et son
écart-type ?
4. Calculer P[X = 5].
Exercice 4. (6 points)
Soit une v.a. continue X de densité de probabilité f et soit Y = g(X) dérivable pour tout
x et telle que g 0 (x) > 0, pour tout x ou g 0 (x) < 0, pour tout x.
1. Montrer que Y = g(X) est une v.a. continue dont la densité de probabilité est donnée
par :
h(y) = f (g −1 (y))|(g −1 (y))0 |
233
(a) Y = eX
(b) Z = −2 ln X
234
Université Cadi Ayyad
Ecole Nationale des Sciences Appliquées
Sa
Devoir surveillé N o 2
Epreuve de Probabilités et Stochasiques
Examen de février 2017. Nom : ................................
Prénom : ............................
Exercice 1. (5 points)
1. Montrer que le processus stochastique
Xt = A cos(2πt) + B sin(2πt)
Réponse :.....
235
Exercice 1. (7 points) On suppose que les arrivées dans un magasin se font selon un processus
de Poisson de taux 30 clients par heure. Ce magasin ouvre à 9h et ferme à 19h.
1. Quelle est la loi du nombre de clients sur la journée ?
3. Calculer la probabilité qu'aucun client n'arrive entre 9h et 9h15 sachant qu'il en est
arrivé 3 entre 9h et 9h30.
4. Calculer le nombre moyen de clients qui sont entrés dans le magasin jusqu'à 11h sa-
chant qu'il en est arrivé 3 jusqu'à 9h30.
5. Un cadeau est oert par le magasin tous les 13 clients (c'est-à-dire au 13e client, au
26e, etc.). Donner la loi de la durée espaçant deux cadeaux.
Exercice 2. (4 points)
Une compagnie aérienne a demandé des statistiques an d'améliorer la sûreté au décollage
et dénir un poids limite de bagages. Les 300 places d'un avion sont réservées. On suppose
que le poids d'un voyageur est une variable aléatoire de moyenne 70kg et d'écart-type 8 kg.
Le poids maximum des bagages autorisé par voyageur étant 20 kg, on suppose que le poids
des bagages d'un voyageur est une variable aléatoire de moyenne 15 kg et d'écart-type 5 kg.
Le poids de l'appareil avant l'embarquement des voyageurs et de leurs bagages est 250 tonnes.
Les consignes de sécurité interdisent le décollage si le poids total de l'appareil chargé dépasse
276,5 tonnes.
Quelle est la probabilité que le décollage soit interdit ?
Exercice 3. (4 points)
Soient X1 , ..., Xn n v. a. r. de même loi et indépendantes. On suppose que ces v. a.
admettent une espérance m nie. Pour montre que :
n
1X
Xn = Xi −→p.s. m.
n
i=1
236
Université Cadi Ayyad
Ecole Nationale des Sciences Appliquées
Sa
Devoir surveillé N o 2
Epreuve de Probabilités et Stochasiques
Examen de février 2017. Nom : ................................
Prénom : ............................
Réponse :.....
237
Exercice 1. (4.5 points)
2. Déterminer l'espérance mY de Y .
1. Déterminer la loi de Y .
2. Quelles conditions doit vérier α pour que les variables aléatoires Y1 , Y2 , Y3 soient
indépendantes ?
3. Calculer E[Y12 Y22 Y32 ] sous ces conditions.
Exercice 3. (7 points)
Dans tout cet exercice, on travaille avec un espace de probabilités (Ω, A, P), et on se donne
une suite de variables aléatoires réelles i.i.d. X, X1 , .... On suppose X ∈ L2 (P) et E(X) = 0,
et
on pose
σ 2 = E(X 2 ).
On xe un nombre réel α > 0, on s'intéresse à la série
n
X
Sn(α) = i−α Xi , n ∈ N.
i=1
(α)
1. Montrer que si α > 1/2, alors Sn converge en moyenne quadratique (i.e. dans L(P).
(Indication : on pourra penser au critère de Cauchy.)
238
On rappelle que 1 + 2−1 + ... + n−1 ∼ ln n. En déduire que la suite
(1)
Sn2
√ , n ≥ 2.
ln n
converge en loi quand n −→ ∞ vers une variable aléatoire dont on précisera la loi.
239
Université Cadi Ayyad
Ecole Nationale des Sciences Appliquées
Sa
Devoir surveillé N o 1
Epreuve de Probabilités et Stochasiques
Nom : ................................
Examen de novembre 2017.
Prénom : ............................
Exercice 1. (4 points)
1. Soit X une variable aléatoire à valeurs dans N. Montrer que :
+∞
X
E(X) = P (X ≥ j).
j=1
240
Exercice 2. ( 4 points)
Exercice 3. (6 points)
On désire modéliser le temps d'attente d'une panne de machine à l'aide de variables aléatoires
sans mémoire : la probabilité pour que la machine tombe en panne après la date k + n sachant
qu'elle fonctionne à l'instant n est indépendante de n.
1. Montrer que la loi géométrique de paramètre p est sans mémoire : c'est à dire que
P (X > k + n/X > n) est indépendante de n.
2. Caractériser toutes les lois des variables aléatoires X à valeurs dans N∗ qui sont sans
mémoire. On pourra calculer P (X > 1 + n) en fonction de P (X > 1).
3. Caractériser toutes les lois des variables aléatoires X à valeurs dans N qui sont sans
mémoire.
Exercice 4. (6 points)
On appelle fonction génératrice d'une v. a. entière X la fonction GX : [0, 1] −→ [0, 1]
donnée par :
X∞
X
GX (s) = E(s ) = sn P(X = n).
n=0
241
Université Cadi Ayyad
Ecole Nationale des Sciences Appliquées
Sa
Devoir surveillé N o 2
Epreuve de Probabilités et Stochasiques
Examen de 18 janvier 2018. Nom : ................................
Prénom : ............................
Question de cours.
1. Montrer que X est un vecteur aléatoire gaussien dans Rn ssi la v.a.r. ϕ(X) : Ω −→ R
est gaussienne pour toute forme linéaire ϕ : Rn −→ R.
2. Soit X vecteur gaussien. Montrer que Chaque composante Xi de X est une v.a. rélle
gaussienne.
242
Exercice 1. ( 6 points)
On considère une chaîne de Markov (Xn )n≥0 sur l'espace d'états E = {1, 2, 3}, de matrice
de transition G avec 1 1 1
2 4 4
1 1
G= 2 0 2
.
1 1
0 2 2
3. Montrer que
(2, 2, 3)G = (2, 2, 3),
√
√ √ 2 √ √
(2, ( 2 − 2), − 2)G = (2, ( 2 − 2), − 2),
4
√
√ √ − 2 √ √
(2, (− 2 − 2), 2)G = (2, (− 2 − 2), 2).
4
4. On considère que la loi initiale est donnée par π (0) = ( 72 , 27 , 37 ). Donner la loi de la
chaîne au temps n.
5. On considère que la loi initiale est donnée par π (0) = ( 74 , 0, 37 ). En remarquant que
4 3 2 2 3 1 √ √ 1 √ √
( , 0, ) = ( , , ) + (2, ( 2 − 2), − 2) + (2, (− 2 − 2), 2);
7 7 7 7 7 14 14
donner la loi de la chaîne au temps n. Quelle est la limite de cette loi quand n −→ +∞ ?
Exercice 2. ( 8 points)
Un robot Google parcourt internet de la manière suivante : quand il est sur une page web, il
regarde tous les liens internet présents sur cette page et choisit un de ces liens avec probabilité
uniforme. Ici les pages web présentent les liens suivants :
Sur la page 1, on trouve un lien vers les pages 2 et 4.
1. Justier que la position du robot Google au cours du temps est une chaîne de Markov
homogène. Donner sa matrice de transition et tracer le graphe de transition associé.
243
3. Question de cours : Donner la dénition d'un état récurrent et d'un état transient.
7. Le robot part (au temps 0) de la page 4. Que se passe-t-il ? Donner la loi de la position
du robot au temps n.
244
Université Cadi Ayyad
Ecole Nationale des Sciences Appliquées
Sa
Question de cours.
1. Montrer que X est un vecteur aléatoire gaussien dans Rn ssi la v.a.r. ϕ(X) : Ω −→ R
est gaussienne pour toute forme linéaire ϕ : Rn −→ R.
245
Exercice 1. (8 points)
considère une chaîne de Markov en temps discret {Xn ; n ∈ N} à valeurs dans l'espace E =
{1; 2; 3; 4; 5; 6}, de matrice de transition P , dont les termes hors-diagonaux sont donnés par
. 12 0 0 0 0
1 . 0 0 0 0
3
0 0 . 0 7 0
P = 1 1
8
1 1
4 4 0 . 4 4
0 0 3 0 . 0
4
0 15 0 15 15 .
4. Montrer que les états 4 et 6 sont transitioires, et que l'ensemble des autres états se
décompose en deux classes récurrentes que l'on précisera.
Dans la suite, on notera Λ = {4; 6}, C la classe récurrente contenant 1, et C 0 l'autre
classe récurrente. Pour tout x; y ∈ E, on dénit ρx = P[X0 =x] (T < ∞), où T =
inf {n ≥ 0; Xn ∈ C}.
1 si x ∈ C;
5. Montrer que ρx = et que 0 < ρx < 1 pour x ∈ Λ.
0 si x ∈ C 0 ;
Exercice 2. (8 points)
Etant donné un nombre 0 < p < 1, on considère une chaîne de Markov en temps discret
{Xn ; n ∈ N} à valeurs dans l'espace ni E = {1; 2; 3; 4}, de matrice de transition G donnée
par
p 1−p 0 0
0 0 p 1−p
G= p 1−p 0
0
0 0 p 1−p
1. Montrer que la chaîne {Xn } est récurrente irréductible.
2. Calculer son unique probabilité invariante π .
3. Montrer que la chaîne est apériodique. En déduire que Gn tend, quand n −→ ∞, vers
la matrice
π1 π2 π3 π4
π1 π2 π3 π4
π1 π2 π3 π4 .
π1 π2 π3 π4
4. En régime d'équilibre, quel est le lien entre Π est la loi de Xn ?
5. Calculer G2 . Montrer que cette matrice coincide avec la limite calculée ci-dessus. Pré-
ciser la loi de X2 , ainsi que celle de Xn , n ≥ 2.
246
Corrigé de contrôle de rattrapage
Exercice 1.
4. La C. M. peut quitter la classe {4, 6}, donc cette classe est transitoire. Alors que les
classes {3, 5} et {1, 2} sont récurrentes ; car une fois le processus dans ces classe il n'en
sort plus.
5. Si x ∈ C , on Px (T = 0) = 0 et ρx = 1.
Si x ∈ C 0 la C M n'atteint jamais C , puisqu'elle reste dans C 0 et donc Px (T = ∞) = 1.
et ρx = 0.
Si x ∈ Λ, Px (X1 = 2) > 0, et Px (X1 = 5) > 0, d'où, puisque {X1 = 2} ⊂ {T < ∞} et
{X1 = 5} ⊂ {T = ∞}, 0 < ρx < 1.
Exercice 2.
1. La chaîne {Xn } est récurrente irréductible puisque tous les états communiquent entre
eux.
2. L'espace des états est ni et la CM est irréductible, donc il existe une loi stationnaire
unique π .
On le calcule en résolvant le système :
π
P= πP
i πi = 1
On trouve :
π = (p2 , p(1 − p), p(1 − p), (1 − p)2 ).
3. La chaîne est apériodique car on montre que
(P n )11 = (P11 )n = pn > 0, ∀n.
La chaîne est apériodique et irréductible, d'après le cours en déduit que Gn tend, quand
n −→ ∞, vers la matrice
π1 π2 π3 π4
π1 π2 π3 π4
.
π1 π2 π3 π4
π1 π2 π3 π4
247
4. En régime d'équilibre, la loi de Xn est π .
248
Université Cadi Ayyad
Ecole Nationale des Sciences Appliquées
Sa
Devoir surveillé N o 1
Epreuve de Probabilités et Stochasiques
Nom : ................................
Examen de 12 novembre 2018.
Prénom : ............................
Exercice 1. (6 points)
1. Soit X = (X1 , ..., Xn ) un vecteur gaussien de Rn . Montrer que chaque composante Xi
de X est une v.a. rélle gaussienne.
2. Soit (Xn ) une suite de v. a. r. de loi B(n, pn ) avec (pn ) une suite de [0, 1] vériant
limn−→∞ npn = λ. Montrer que a pour tout k ∈ N :
λk
lim P (Xn = k) = e−λ .
n−→∞ k!
3. Soient X1 et X2 deux variables aléatoires indépendantes qui suivent une loi géométrique
de paramètre p ∈]0, 1[. Soit
X1 1
A= .
0 X2
Quelle est la probabilité que A soit diagonalisable ?
249
Exercice 2. ( 5 points)
1. Soit X une variable aléatoire suivant une loi binomiale B(n, p) et soit > 0. Démontrer
que
X p(1 − p)
P(| − p| ≥ ) ≤ .
n n.2
2. Application : On lance un dé cubique parfait. Déterminer un nombre de lancers à ef-
fectuer pour pouvoir armer avec un risque d'erreur inférieur à 5% que la fréquence
d'apparition du 6 au cours de ces lancers dière de 1/6 d'au plus 1/100 ? (On rappelle
que la fréquence d'une donnée dans une expériance aléatoire correspond au quotient de
l'eectif de cette donnée par l'eectif total).
Problème 3. (9 points)
Le service de dépannage d'un grand magasin dispose d'équipes intervenant sur appel de la
clientèle. Pour des causes diverses, les interventions ont parfois lieu avec retard. On admet
que les appels se produisent indépendamment les uns des autres, et que, pour chaque appel, la
probabilité d'un retard est de 0,25. Un client appelle le service à 4 reprises. On désigne par X
la variable aléatoire prenant pour valeurs le nombre de fois où ce client a dû subir un retard.
1. Déterminer la loi de probabilité de X, son espérance, sa variance.
3. Le nombre d'appels reçus par jour est une variable aléatoire Y qui suit une loi de
Poisson de paramètre m. On note Z le nombre d'appels traités en retard. Exprimer la
probabilité conditionnelle de Z = k sachant que Y = n.
6. En 2018, le standard a reçu une succession d'appels. On note U le premier appel reçu
en retard. Quelle est la loi de U ? Quelle est son espérance ?
250
Corrigé du DS1
Exercice 1. Les valeurs propres de la matrice triangulaire A sont X1 et X2 . Si X1 6= X2 ,
alors la matrice est diagonalisable. Si au contraire X1 = X2 , alors l'espace propre associé
à l'unique valeur propre X1 a pour équation y = 0 : il est de dimension 1 et A n'est pas
diagonalisable.
A est donc diagonalisable si et seulement si X1 6= X2 .Or
+∞
X +∞
X
P (X1 = X2 ) = P (X1 = k) ∩ (X2 = k) = P (X1 = k)P (X2 = k)
k=1 k=1
On a
+∞
X p2 p
P (X1 = X2 ) = p2 (1 − p)2k−2 = 2
= .
1 − (1 − p) 2−p
k=1
p 2(1 − p)
1− = .
2−p 2−p
Exercice 2.
1. Appliquons l'inégalité de Bienaymé-Tchebychev à Y = X/n.
2. Soit X la variable aléatoire égale au nombre d'apparitions du chire 6 au cours des n
lancers. X suit la loi B(n, 1/6). On cherche n tel que
X p(1 − p)
− p| ≥ ) ≤
P(| .
n n.2
avec p = 1/6 et = 1/100 on trouve n ≥. Soit n ≥ 27778.
Exercice 3.
1. X suit une loi binomiale B(4, 1/4). En particulier, on a : E(X) = 1 et V (X) = 3/4.
2. On cherche P (X ≥ 1) :
P (X ≥ 1) = 1 − P(X = 0) = 1 − (3/4)4 .
P (Z = k, Y = n) = P (Y = n)P (Z = k|Y = n)
−m mn n k n−k
e n! k p q si k ≤ n
=
0 sinon.
251
5. Il faut réaliser la sommation ! On a, tenant compte du fait que les premiers termes sont
nuls
+∞
X
P (Z = k) = P (Z = k, Y = n)
n=k
k X +∞
−m p 1 (mq)n
= e
q k! (n − k)!
n=k
k +∞
−m p 1 k
X (mq)n−k
= e (mq)
q k! (n − k)!
n=k
k +∞
−m p 1 X (mq)n
= e (mq)k
q k! (n)!
n=0
k
p 1
= e−m (mq)k emq
q k!
(mp)k
= e−mp .
k!
Z suit donc une loi de Poisson de paramètre m × 0, 25.
6. U est le rang du premier succès au cours d'une succession d'épreuves de Bernoulli
indépendantes de même paramètre 1/4. U suit donc la loi géométrique G(1/4) :
k−1
1 3
P (U = k) = × , ∀k ∈ N∗ .
4 4
On applique la formule du cours pour obtenir l'espérance et on trouve que
E(U ) = 4.
252
Université Cadi Ayyad
Ecole Nationale des Sciences Appliquées
Sa
Devoir surveillé N o 1
Epreuve de Probabilités et Stochasiques
Examen de 15 janvier 2019. Nom : ................................
Prénom : ............................
Exercice 1. (6 points)
1. Donner la dénition d'une chaîne de Markov.
4. Montrer que la matrice de transition G associée à une chaîne de Markov (Xn )n∈N à
valeurs dans E est une matrice stochastique.
253
Exercice 2. (7 points)
4. (Facultatif ) Montrer que G4 a tous ses coecients positifs. En déduire la limite de Gnxy
pour tout couple (x, y) ∈ E 2 .
G(k, k + 1) = pk ,
k
G(k, [ ]) = 1 − pk
2
pour k ∈ N et G(k, j) = 0 pour j ∈
/ {k + 1, [ k2 ]}. ( [ k2 ] désigne la partie entière du réel k2 .)
1. Tracer la partie du graphe orienté pour les états de 0 à 5.
3. Est-elle apériodique ?
5. (Facultatif ) Montrer qu'il existe un réel c > 0 tel que pour tout k ≥ 1, on ait
Ek [X1 ] ≤ k − c
(Rq : Ce protocole de transmission est eectivement très utilisé dans le transfert des
données par internet.)
254
Corrigé du DS2
Exercice 2.
1. La chaîne est irréductible.
2. La chaîne étant irréductible, il sut de calculer la période d'un état, par exemple celle
de 1. Or G(2) (1, 1) > 0 avec le chemin (1 → 3 → 1) et G(3) (1, 1) > 0 avec le chemin
(1 → 2 → 3 → 1), la chaîne est donc apériodique.
3. L'espace d'états étant ni, la chaîne est ergodique. Ainsi la chaîne admet une unique
loi stationnaire ?, que l ?on détermine en résolvant
πG = π.
On trouve
1
π = (4 2 3).
9
4. On vérie facilement que G4 a tous ses élements strictement positifs, de sorte que
Gn également pour tout n?4. Le cours s'applique alors et montre que Gn tend quand
n → ∞ vers la matrice d'ordre 3 dont les lignes sont toutes identiques et égales à π .
Par conséquent, pour tout couple (x, y) ∈ E 2 la limite de Gnxy est πy .
255
Université Cadi Ayyad
Ecole Nationale des Sciences Appliquées
Sa
Devoir surveillé N o 1
Epreuve de Probabilités et Stochasiques
Nom : ................................
Examen de 25 décembre 2020.
Prénom : ............................
Exercice 1. (4 points)
On dit qu'une variable aléatoire X est distribuée symétriquement autour de a si
3. E(X) = a.
256
Exercice 2. ( 6 points)
Exercice 3. (4 points)
Un industriel doit vérier l'état de marche de ses machines et en remplacer certaines le cas
échéant. D'après des statistiques précédentes, il évalue à 30% la probabilité pour une machine
de tomber en panne en 5 ans ; parmi ces dernières, la probabilité de devenir hors d'usage suite
à une panne plus grave est évaluée à 75% ; cette probabilité est de 40% pour une machine
n'ayant jamais eu de panne.
1. Quelle est la probabilité pour une machine donnée de plus de cinq ans d'être hors
d'usage ?
2. Quelle est la probabilité pour une machine hors d'usage de n'avoir jamais eu de panne
auparavant ?
3. Soit X la variable aléatoire nombre de machines qui tombent en panne au bout de 5
ans, parmi 10 machines choisies au hasard. Quelle est la loi de probabilité de X, (on
donnera le type de loi et les formules de calcul), son espérance, sa variance et son
écart-type ?
4. Calculer P[X = 5].
Exercice 1. (6 points)
Il est possible qu'un bit transmis à travers un canal de transmission numérique soit reçu
en erreur. Soit X le nombre de bits en erreur parmi les quatre prochains bits. Supposons que
X a la loi de probabilité suivante
0.66 x=0
0.29
x=1
P(X = x) = 0.04 x=2
0.09 x =3
0.001 x = 4
1. Quelle est la probabilité qu'il y ait au plus 1 bit en erreur dans les quatre prochains bits
transmis ?
257
2. Quel est le nombre espéré de bits en erreur dans les quatre prochains bits transmis ?
3. Calculer l'écart-type du nombre de bits en erreur dans les quatre prochains bits transmis
X−E(X)
4. Calculer P(−1.96 < √ < 1.96).
V ar(X)
258
8.1 corrections
Exercice 1. (6 points)
F (a − x) = P(X ≤ a − x) = P(X ≥ a + x)
= 1 − P(X ≤ a + x) + P(X = a + x)
= 1 − F (a + x) + P(X = a + x).
F (a − x) = 1 − F (a + x) + P(X = a + x)
Dérivons par rapport à x ; on obtient
−f (a − x) = −f (a + x) ⇔ f (a − x) = f (a + x).
Donc
0 = E(X − a) = E(X) − a.
Exercice 3. (4 points)
Un industriel doit vérier l'état de marche de ses machines et en remplacer certaines le cas
échéant. D'après des statistiques précédentes, il évalue à 30% la probabilité pour une machine
de tomber en panne en 5 ans ; parmi ces dernières, la probabilité de devenir hors d'usage suite
à une panne plus grave est évaluée à 75% ; cette probabilité est de 40% pour une machine
n'ayant jamais eu de panne.
1. 30% est la probabilité de l'événement Panne, noté P a ; la probabilité pour une machine
donnée de plus de cinq ans, d'être hors d'usage est
2. La probabilité pour une machine hors d'usage de n'avoir jamais eu de panne auparavant
est
0.4.0.7
P(nonP a|HU ) = P(HU |nonP a)P(nonP a)|P(HU ) = = 0.55446.
0.505
3. La loi de probabilité de X est une loi binomiale, n = 10, p = 0 :3, espérance 3.
4. Calculons
5
P[X = 5] = C10 (0.3)5 .(0.7)5 = 0.1029.
Exercice 4. (6 points)
Corrigé :
259
1. Quelle est la probabilité qu'il y ait au plus 1 bit en erreur dans les quatre prochains bits
transmis ?
2. Quel est le nombre espéré de bits en erreur dans les quatre prochains bits transmis ?
4
X
E(X) = kP(X = k) = 0.401.
k=0
3. Calculer l'écart-type du nombre de bits en erreur dans les quatre prochains bits transmis
4
X
2 2
V ar(X) = E(X ) − (E(X)) = k 2 P(X = k) − (0.401)2 = 0.386.
k=0
Ainsi p
σX = var(X) = 0.621.
X−E(X)
4. Calculer P(−1.96 < √ < 1.96).
V ar(X)
X−E(X) X−0.401
P(−1.96 < √ < 1.96) = P(−1.96 < 0621 < 1.96)
V ar(X)
= P([−1.96 × 0.621] + 0.401 < X < [1.96 × 0.621] + 0.401)
= P(−0.817 < X < 1.619
= P(X = 0) + P(X = 1) = 0.95.
260
Université Cadi Ayyad
Ecole Nationale des Sciences Appliquées
Sa
Devoir surveillé N o 2
Epreuve de Probabilités et Stochasiques
Examen de janvier 2020. Nom : ................................
Prénom : ............................
Question de cours.
1. Montrer que X est un vecteur aléatoire gaussien dans Rn ssi la v.a.r. ϕ(X) : Ω −→ R
est gaussienne pour toute forme linéaire ϕ : Rn −→ R.
2. Soit X vecteur gaussien. Montrer que Chaque composante Xi de X est une v.a. rélle
gaussienne.
261
Exercice 1. (Le signal télégraphique)
Un cas particulier du transformation du processus de Poisson est le signal télégraphique,
déni par :
N (t) 1 si N (t) = 0, 2, 4, ...
X(t) = (−1) =
−1 si N (t) = 1, 3, ...
1. Déterminer la distribution de la v. a. X(t).
2. Calculer E(X(t)).
Exercice 2. Un robot Google parcourt internet de la manière suivante : quand il est sur une
page web, il regarde tous les liens internet présents sur cette page et choisit un de ces liens
avec probabilité uniforme. Ici les pages web présentent les liens suivants :
Sur la page 1, on trouve un lien vers les pages 2 et 4.
1. Justier que la position du robot Google au cours du temps est une chaîne de Markov
homogène. Donner sa matrice de transition et tracer le graphe de transition associé.
7. Le robot part (au temps 0) de la page 4. Que se passe-t-il ? Donner la loi de la position
du robot au temps n.
262
Université Cadi Ayyad
Ecole Nationale des Sciences Appliquées
Sa
Question de cours.
1. Donner la dénition d'une chaîne de Markov.
4. Montrer que la matrice de transition G associée à une chaîne de Markov (Xn )n∈N à
valeurs dans E est une matrice stochastique.
263
Exercice 1. (8 points)
considère une chaîne de Markov en temps discret {Xn ; n ∈ N} à valeurs dans l'espace E =
{1; 2; 3; 4; 5; 6}, de matrice de transition P , dont les termes hors-diagonaux sont donnés par
. 12 0 0 0 0
1 . 0 0 0 0
3
0 0 . 0 7 0
P = 1 1
8
1 1
4 4 0 . 4 4
0 0 3 0 . 0
4
0 15 0 15 15 .
4. Montrer que les états 4 et 6 sont transitioires, et que l'ensemble des autres états se
décompose en deux classes récurrentes que l'on précisera.
Dans la suite, on notera Λ = {4; 6}, C la classe récurrente contenant 1, et C 0 l'autre
classe récurrente. Pour tout x; y ∈ E, on dénit ρx = P[X0 =x] (T < ∞), où T =
inf {n ≥ 0; Xn ∈ C}.
1 si x ∈ C;
5. Montrer que ρx = et que 0 < ρx < 1 pour x ∈ Λ.
0 si x ∈ C 0 ;
Exercice 2. (8 points)
Etant donné un nombre 0 < p < 1, on considre une chaîne de Markov en temps discret
{Xn ; n ∈ N} à valeurs dans l'espace ni E = {1; 2; 3; 4}, de matrice de transition G donnée
par
p 1−p 0 0
0 0 p 1−p
G= p 1−p 0
0
0 0 p 1−p
1. Montrer que la chaîne {Xn } est récurrente irréductible.
2. Calculer son unique probabilité invariante π .
3. Montrer que la chaîne est apériodique. En déduire que Gn tend, quand n −→ ∞, vers
la matrice
π1 π2 π3 π4
π1 π2 π3 π4
π1 π2 π3 π4 .
π1 π2 π3 π4
4. En régime d'équilibre, quel est le lien entre Π est la loi de Xn ?
5. Calculer G2 . Montrer que cette matrice coincide avec la limite calculée ci-dessus. Pré-
ciser la loi de X2 , ainsi que celle de Xn , n ≥ 2.
264
Corrigé de contrôle de rattrapage
Exercice 1.
4. La C. M. peut quitter la classe {4, 6}, donc cette classe est transitoire. Alors que les
classes {3, 5} et {1, 2} sont récurrentes ; car une fois le processus dans ces classe il n'en
sort plus.
5. Si x ∈ C , on Px (T = 0) = 0 et ρx = 1.
Si x ∈ C 0 la C M n'atteint jamais C , puisqu'elle reste dans C 0 et donc Px (T = ∞) = 1.
et ρx = 0.
Si x ∈ Λ, Px (X1 = 2) > 0, et Px (X1 = 5) > 0, d'où, puisque {X1 = 2} ⊂ {T < ∞} et
{X1 = 5} ⊂ {T = ∞}, 0 < ρx < 1.
Exercice 2.
1. La chaîne {Xn } est récurrente irréductible puisque tous les états communiquent entre
eux.
2. L'espace des états est ni et la CM est irréductible, donc il existe une loi stationnaire
unique π .
On le calcule en résolvant le système :
π
P= πP
i πi = 1
On trouve :
π = (p2 , p(1 − p), p(1 − p), (1 − p)2 ).
3. La chaîne est apériodique car on montre que
(P n )11 = (P11 )n = pn > 0, ∀n.
La chaîne est apériodique et irréductible, d'après le cours en déduit que Gn tend, quand
n −→ ∞, vers la matrice
π1 π2 π3 π4
π1 π2 π3 π4
.
π1 π2 π3 π4
π1 π2 π3 π4
265
4. En régime d'équilibre, la loi de Xn est π .
266
Bibliographie
Voici une bibliographie très incomplète. Allez voir vous même à la Bibliothèque. Gardez
en mémoire qu'un bon livre est un livre qui vous donne envie d'apprendre et de travailler son
contenu !
11. Philippe Barbe et Michel Ledoux (2007) : PROBABILITÉ. Collection dirigée par Da-
niel Guin.
12. Pierre Brémaud(2009) : Initiation aux Probabilités et aux chaînes de Markov. Deuxième
édition entierement revisée.
Begin at the beginning, and go on till you come to the end. Then, stop.
L. Caroll, Alice's Adventures in Wonderland
267