Chapitre 2 Variable Aleatoire
Chapitre 2 Variable Aleatoire
Chapitre 2 Variable Aleatoire
GENERALITES
une variable aléatoire est généralement l'ensemble des résultats possibles
d'une expérience aléatoire (Exemple: un lancer de dé, un lancer d’un pièce de
monnaie, la source générant un signal binaire ,,,,etc).
Exemples:
Une variable aléatoire qui peut prendre n'importe quelle valeur dans un certain
intervalle de nombres réels est dit continu.
Exemples:
Une variable aléatoire qui peut prendre en même temps des valeurs discrètes
et continues.
Exemple:
(1)f(xi ) doit être non négatif pour chaque valeur de la variable aléatoire,
1 f(xi ) 0
(2) la somme des probabilités pour chaque valeur de la variable aléatoire doit
être égale à un.
STATISTIQUES DES VARIABLES ALEATOIRES
f(xi )
xi X
Densité de probabilité d’une variable aléatoire discrète
x p(X x ) p
i i i
n
p 1
i
i 1
STATISTIQUES DES VARIABLES ALEATOIRES
Loi de probabilité d’une variable aléatoire X continue
Une variable aléatoire continue peut prendre n'importe quelle valeur dans un
intervalle de valeurs réelle ou dans une collection d'intervalles.
b
P(a X b) = f (x)dx = P(X b) - P(X a)
a
avec f (x)dx 1
STATISTIQUES DES VARIABLES ALEATOIRES
Une fonction de répartition d’une variable aléatoire x est une fonction F(x) qui,
pour tout x, indique la probabilité pour que x soit inférieur ou égal à x1. Elle
correspond donc à la distribution cumulée,
1
0 ≤ F(x) ≤ 1
0
STATISTIQUES DES VARIABLES ALEATOIRES
ESPERANCE MATHEMATIQUE
La variance d'une variable aléatoire, notée Var(X) ou σ2, est une moyenne
pondérée des écarts au carré de la moyenne.
•Dans le cas discret, les poids sont donnés par la fonction de probabilité,
•Dans le cas continu, les poids sont donnés par la fonction de densité de
probabilité.
L'écart type, noté σ, est la racine carrée positive de la variance. Étant donné
que l'écart-type est mesuré dans les mêmes unités que la variable aléatoire et
que la variance est mesurée en unités au carré, l'écart-type est souvent la
mesure préférée.
Les symboles générés par la source sont formés par 3 lettres de l’alphabet
français à savoir a, n et b, mais pas avec la même loi de probabilité, si on se
restreint à cet exemple basic.
Exemple 2:
Soit un bloc d’images en niveaux de gris de taille 8 × 8 pixels
10 10 10 15 200 200 200 200
15 5 255 255 200 200 200 200
10 15 10 5 200 200 200 200
10 10 10 15 200 200 200 200
15 5 255 255 100 200 100 200
10 15 10 5 100 200 100 200
20 30 30 30 100 200 100 200
20 150 20 20 100 200 100 200
Ces niveaux de gris sont normalement compris entre 0 et 255, ce qui justifie
le choix habituel d’un codage de taille fixe de 8 bits par pixel.
1.Propriété de l’addition :
Démonstration:
E(cX) = cE(X)
STATISTIQUES DES VARIABLES ALEATOIRES
3. Propriété de linéarité :
A partir des deux propriétés précédentes nous pouvons généraliser la
propriété de linéarité de l’espérance mathématique
5.Multiplication
E (XY) = E (X) E (Y). Ici, X et Y doivent être indépendants.
Propriétés de la variance
1.Propriété 1
Propriétés de la variance
4. Propriété 4
Nous allons donc étendre plusieurs des définitions que nous avons apprises
pour une variable aléatoire discrète, telle que la fonction de masse de
probabilité, la moyenne et la variance, au cas où nous ont deux variables
aléatoires discrètes.
Soit deux variables aléatoire X et Y chacune pouvant prendre une valeur dans
un ensemble de 4 valeurs possibles équiprobables (même probabilité pour les
4 valeurs) :
X = {1, 2, 3, 4} et Y = {1, 2, 3, 4}
(x, y) désigne l'un des résultats possibles pour les deux variables
simultanément.
CAS DE DEUX VARIABLES ALEATOIRES DISCRETES
S = {(1,1) ; (1,2) ; (1,3) ; (1,4) ; (2,1) ; (2,2) ; (2,3) ; (2,4) ; (3,1) ; (3,2) ; (3,3) ;
(3,4) ; (4,1) ; (4,2) ; (4,3) ; (4,4) }
P(X=x,Y=y) = 1/16
Soit X une variable aléatoire discrète avec le support S1, et soit Y une variable
aléatoire discrète avec le support S2.
Indépendance et dépendance de 2 va
Soit maintenant, une fonction de probabilité conjointe f (x, y), et que nous
voulions trouver la moyenne statistique de X (notée E(X)).
Nous allons maintenant examiner comment l'une des deux variables aléatoires,
disons Y, se comporte étant donné qu'une autre variable aléatoire, disons X,
s'est déjà comportée d'une certaine manière.
Exemple:
Soit X une variable aléatoire discrète avec support S1 = {0,1}, et soit Y une
variable aléatoire discrète avec support S2 = {0, 1, 2}.
Solution de l’exemple:
L'une des meilleures façons de visualiser la relation possible est de tracer la paire (X,
Y) produite par plusieurs essais de l'expérience.
La comparaison entre ces deux variables, de point de vue corrélation, nous permet
d’évaluer le degré de perturbations introduites par le canal
CANAL
Source Codages Décodage
Source/Canal P(Y/X) Canal / Source
M C C’ M’
M : Message, variable aléatoire, délivré par la source sous forme d’un alphabet
original {m1, …., ml}
C : les mots de code sous forme d’un alphabet aléatoire {c1, …., cn}
C’ : les mots de code reçu avec présence d’erreurs {c’1, …., c’n}
M’ : les données reconstruites avec présence éventuelles d’une certaine perte
RELATION ENTRE DEUX VARIABLES ALEATOIRES
FONCTION DE DENSITE CONJOINTE
Le comportement conjoint de X et Y est entièrement capturé dans la distribution de
probabilité conjointe. Pour une distribution continue
La covariance peut être normalisée pour produire ce que l'on appelle le coefficient de
corrélation, ρ.
Exemple
Soit une variable aléatoire X qui indique le nombre de tasses de chocolat chaud
vendues quotidiennement dans un café local, et Y une variable aléatoire qui indique le
nombre de muffins aux pommes et à la cannelle vendus quotidiennement dans le même
café.
Si les variables aléatoires sont fortement corrélées, le gestionnaire saurait alors s'assurer
que les deux sont disponibles un jour donné.
Si les variables aléatoires ne sont pas fortement corrélées, alors le gestionnaire saurait
qu'il serait normal que l'un des éléments soit disponible sans l'autre.
En effet, elle permet de comparer deux variables aléatoires X et Y mais en tenant aussi
compte de leurs moyennes statistiques (Espérance mathématique) ce qui fait la
différence avec la fonction de covariance (qui elle compare uniquement les fluctuations
des variables aléatoires sans leurs moyennes statistiques),
En effet, elle permet de comparer deux variables aléatoires X et Y mais en tenant aussi
compte de leurs moyennes statistiques (Espérance mathématique) ce qui fait la
différence avec la fonction de covariance (qui elle compare uniquement les fluctuations
des variables aléatoires sans leurs moyennes statistiques),
Dans cet exemple nous avons trois (03) exemples qui nous montrent les corrélations
possibles entre deux variables aléatoires X et Y :
1.Dans le premier exemple il y’a une corrélation positive
2.Dans le deuxième cas les deux variables ne sont pas corrélées
3.Dans le troisième exemple il y’a une corrélation mais négative
RELATION ENTRE DEUX VARIABLES ALEATOIRES
FONCTION DE CORRELATION ENTRE DEUX VARIABLES ALEATOIRES
Rappels :
I mk log 2 P mk
Plus l'entropie d’une variable aléatoire (va) est grande, plus il y’a de
l’information délivrée par cette va et bien entendu l'incertitude est plus élevée.
H M log 2 P mk log 2 p
ENTROPIE D’UNE VARIABLE ALEATOIRE
Dans le cas d’une loi quelconque régissant une source de K éléments nous
avons:
H M log 2 K H M 1
REDONDANCE D’UNE VARIABLE ALEATOIRE
H max M log 2 K
On définit la redondance de la va comme étant l'écart ou la différence entre la
valeur maximale possible (lorsque tous les symboles sont équiprobables) de
son entropie et son entropie réelle.
Une va dont l’entropie est faible est plus redondante. Autrement dit, il y’a moins
d’incertitude et donc moins d’information délivrée par la va et par conséquence
trop de redondance.
ENTROPIE MUTUELLE
Pour mieux comprendre ces définitions et cette figure prenons le cas d’un
système de transmission sous sa forme la plus simple
source canal Récepteur
Loi binomiale
Deux des distributions de probabilité discrètes les plus utilisées sont :
n k n!
p(X k) C p q
k
n
k
avec C
k
n
k!(n k)!
Une variable Binomiale est donc une variable aléatoire X correspondant à la
somme de n variables de Bernoulli. Notée X : B(n,p)
Où X = nombre de succès au cours de n épreuves de Bernoulli identiques et
indépendantes,
55
EXEMPLES DE LOIS DE PROBABILITES DISCRETES
Loi binomiale
3 enfant = n
B(3, 0,5) =
n!
p(X k) Ckn p k q n k avec Ckn 56
k!(n k)!
EXEMPLES DE LOIS DE PROBABILITES DISCRETES
Loi binomiale
Loi de probabilité d’une loi binomiale
E(X) = np
Variance d’une loi binomiale
V(X) = np(1-p)
57
EXEMPLES DE LOIS DE PROBABILITES DISCRETES
Loi binomiale
Exemple:
Supposons que l'on sache que 10% des propriétaires d'automobiles de deux
ans ont eu des problèmes avec le système électrique de leur automobile. Pour
calculer la probabilité de trouver exactement 2 propriétaires qui ont eu des
problèmes de système électrique sur un groupe de 10 propriétaires, la fonction
de probabilité binomiale peut être utilisée en définissant n = 10, x = 2 et p = 0,1
dans l'équation suivante; dans ce cas, la probabilité est de 0,1937.
nk n!
p(X k) C p q
k
n
k
avec C
k
n
k!(n k)!
58
EXEMPLES DE LOIS DE PROBABILITES DISCRETES
Loi binomiale
Exemple:
59
EXEMPLES DE LOIS DE PROBABILITES DISCRETES
Loi binomiale
Exemple:
n k n!
p(X k) C p q k
n
k
avec C k
n
k!(n k)!
X=0 GGGG q4 0.0625
X=1 FGGG, GFGG, GGFG, GGGF 4q3p 0.25
X=2 FFGG, FGFG, FGGF, GFFG, GFGF, GGFF 6q2p2 0.375
X=3 FFFG, FFGF, FGFF, GFFF 4qp3 0,25
X=4 FFFF p4 0,0625
somme = 1
60
Indépendance statistique p (G G G G) = q.q.q.q = q4
EXEMPLES DE LOIS DE PROBABILITES DISCRETES
Loi binomiale
Exemple:
B(7,0.5)?
n k n!
p(X k) C p q k
n
k
avec C k
n
k!(n k)! 61
EXEMPLES DE LOIS DE PROBABILITES DISCRETES
Loi binomiale
Exemple:
x P(x)
0 0.25
1 0.5
2 0.25
62
EXEMPLES DE LOIS DE PROBABILITES DISCRETES
Loi binomiale
Exemple:
Symétrique!!
63
EXEMPLES DE LOIS DE PROBABILITES DISCRETES
Loi binomiale
Exemple:
B(5,0.25)???
64
EXEMPLES DE LOIS DE PROBABILITES DISCRETES
Loi binomiale
Exemple:
Dissymétrique!!!!
65
EXEMPLES DE LOIS DE PROBABILITES DISCRETES
Loi binomiale
n
Espérance mathématique
E ( x ) P( xi ) xi
i 1
Exemple:
Quelle est l’espérance mathématique du nombre de garçons dans une famille
de 7 enfants?
E ( x ) np 7 0.5 3.5
66
EXEMPLES DE LOIS DE PROBABILITES DISCRETES
Loi binomiale
Pour une distribution binomiale:
npq
2
Exemple:
Quelle est la variance du nombre de garçons dans une famille de 7 enfants?
67
EXEMPLES DE LOIS DE PROBABILITES DISCRETES
Loi de Poisson
La distribution de probabilité de Poisson est souvent utilisée comme modèle du
nombre d'arrivées dans une installation au cours d'une période donnée.
Loi de Poisson
Exemple: une variable aléatoire pourrait être définie comme le nombre
d'appels téléphoniques entrant dans un système de réservation d'une
compagnie aérienne pendant une période de 15 minutes. Si le nombre moyen
d'arrivées pendant un intervalle de 15 minutes est connu, la fonction de
probabilité de Poisson donnée par l'équation ci-dessus peut être utilisée pour
calculer la probabilité de x arrivées.
k
Loi de probabilité: P(X k) e
k!
Elle est appelée loi de Poisson,
Poisson notée P(λ) k = 0, 1, 2, …, ∞
69
E(X) = V(X) =
EXEMPLES DE LOIS DE PROBABILITES DISCRETES
Loi de Poisson
70
EXEMPLES DE LOIS DE PROBABILITES DISCRETES
Loi de Poisson
Poisson démontre que :
n!
P( x ) qn x p x
( n x )! x!
Tend vers:
np x np x
P( x ) e ou P( x ) e
x! x!
71
EXEMPLES DE LOIS DE PROBABILITES CONTINUES
Loi normale
La distribution de probabilité continue la plus largement utilisée en statistique
est la distribution de probabilité normale.
Une variable aléatoire est une variable normale quand elle dépend d’un grand
nombre de causes indépendantes dont aucune n’est prépondérante.
1 x 2
1 ( )
Densité de probabilité: f (x) e 2
2
Elle est appelée loi normale
Max en μ
Notée N (,)
E(X) = V(X) = 2
f symétrique/μ 72
V. EXEMPLES DE LOIS DE PROBABILITES CONTINUES
X
U
U ~ N(0,1)
P ( a X b) ? a X b
P( )
X
U
a b
P( U )
P ( a ' U b' )
a b ( b' ) ( a ' )
74
EXEMPLES DE LOIS DE PROBABILITES CONTINUES
P( )
ε ~ N(0,1)
1-
/2 /2
0
75
EXEMPLES DE LOIS DE PROBABILITES CONTINUES
Loi du 2 de Pearson
E( ) n
2
n
V ( n2 ) 2n
76
EXEMPLES DE LOIS DE PROBABILITES CONTINUES
Loi de Fisher-Snedecor
p
E(F )
n
p
p 2
p 2
(n p 2)
V (Fp ) 2
n
n ( p 2)( p 4)
77
EXEMPLES DE LOIS DE PROBABILITES CONTINUES
Loi de Student
E(T) = 0
V(T) = n/n-2
78
EXEMPLES DE LOIS DE PROBABILITES CONTINUES
X i nE(X)
En particulier: Yn i1
: N(0,1)
nV (X)
79
EXEMPLES DE LOIS DE PROBABILITES CONTINUES
80
ESTIMATION
Il est souvent intéressant de connaître les caractéristiques d'un grand groupe
d'éléments tels que les individus, les ménages, les bâtiments, les produits, les
pièces, les clients, etc.
Tous les éléments d'intérêt dans une étude particulière forment la population.
•le point
•l'intervalle.
ESTIMATION
Une estimation ponctuelle est une valeur d'une statistique d'échantillon qui est
utilisée comme une estimation unique d'un paramètre de population.
Les statisticiens préfèrent les estimations d'intervalle parce que les estimations
d'intervalle sont accompagnées d'un énoncé concernant le degré de confiance
que l'intervalle contient le paramètre de population estimé.
Les données collectées à partir d'un échantillon aléatoire simple peuvent être
utilisées pour calculer la moyenne de l'échantillon, x̄, où la valeur de x̄ fournit
une estimation ponctuelle de μ.
L'interprétation d'un intervalle de confiance à 95% est que 95% des intervalles
construits de cette manière contiendront la moyenne de la population.
Ainsi, tout intervalle calculé de cette manière a une confiance de 95% pour
contenir la moyenne de la population.
ESTIMATION D’UNE MOYENNE DE POPULATION
En changeant la constante de 1,96 à 1,645, un intervalle de confiance de 90%
peut être obtenu.
Des niveaux de confiance plus faibles conduisent à des intervalles encore plus
étroits. En pratique, un intervalle de confiance de 95% est le plus utilisé.
Les tailles d'échantillon peuvent être choisies de telle sorte que l'intervalle de
confiance satisfasse toutes les exigences souhaitées concernant la taille de la
marge d'erreur.
ESTIMATION D’UNE MOYENNE DE POPULATION
Avec une taille d'échantillon de 25, la valeur t utilisée serait de 2,064, par
rapport à la valeur de distribution de probabilité normale de 1,96 dans le cas du
grand échantillon.
ESTIMATION D’UNE MOYENNE DE POPULATION
Les procédures d'estimation peuvent être étendues à deux populations pour des
études comparatives.
Par exemple, supposons qu'une étude soit menée pour déterminer les différences
entre les salaires versés à une population d'hommes et à une population de
femmes.
Le test d'hypothèse est une forme d'inférence statistique qui utilise les données
d'un échantillon pour tirer des conclusions sur un paramètre de population ou
une distribution de probabilité de population.
Une hypothèse alternative (notée Ha), qui est l'opposé de ce qui est énoncé
dans l'hypothèse nulle, est alors définie.
Un concept connu sous le nom de valeur p fournit une base pratique pour tirer
des conclusions dans les applications de test d'hypothèses.
les écarts types et les médianes. Des tests d'hypothèse sont également
effectués dans l'analyse de régression et de corrélation pour déterminer si la
relation de régression et le coefficient de corrélation sont statistiquement
significatifs (voir ci-dessous Analyse de régression et de corrélation).
Les statisticiens classiques affirment que pour cette raison, les méthodes
bayésiennes souffrent d'un manque d'objectivité.