Intro Proba
Intro Proba
Intro Proba
de Ce cours provient de louvrage initiation aux probabilites Sheldon Ross, dit aux Presses Polytechniques et universitaires romanes
Ensemble fondamental et vnements Probabilit Probabilits conditionnelles Formules des probabilits totales Loi de Bayes Variables alatoires
Ensemble fondamental
On considre une exprience dont lissue nest pas prvisible mais dont lensemble des rsultats possibles (on dit aussi issues) est connu et appel ensemble fondamental, not S .
Exemples :
si le rsultat de lexprience quivaut la dtermination du sexe dun nouveau n, alors : S = {g, f } si le rsultat est lordre darrive dune course entre 7 chevaux numrotes de 1 7, alors : S = {toutes les permutations de 1 ... 7}
Evnement
enement Tout sous-ensemble E de S est appel un ev . Si le rsultat de lexprience est compris dans E , alors on dit . que E est realis e Exemples :
Dans le premier exemple, si E = {g } alors E est lvnement lenfant est un garc on. Dans le second exemple, si E = {tous les rsultats de S commenant par 3} alors E correspond lvnement le cheval 3 remporte la course.
Un vnement tant un ensemble, on peut combiner des vnements grce aux oprateurs ensemblistes : Union intersection complmentation
Union
Lvnement E F est compos des rsultats appartenant E ou F . Lvnement E F est ralis si soit E soit F lest.
11111111 00000000 000000000 111111111 00000000 11111111 000000000 111111111 00000000 11111111 000000000 111111111 E 111111111 F 00000000 11111111 000000000 00000000 11111111 000000000 111111111 00000000 11111111 000000000 111111111 00000000 11111111 000000000 111111111 00000000 11111111 000000000 111111111
S
Exemple :
intersection
Lvnement E F (not EF ) est compos des rsultats appartenant E et F . EF est ralis si E est ralis et F lest aussi.
11 00 00 11 00 11 00 11 00 11 00 11 E 00 11 00 11 00 11 00 11 00 11 00 11 00 11 00 11
Exemple :
` est pile)et Si E = {P P, P F, F P } (au moins une piece ` est face), alors, F = {P F, F P, F F } (au moins une piece ` est lvnement EF = {P F, F P } est lvnement une piece pile et lautre face.
p. 6/71 Methodes probabilistes - Probabilites
complmentation
Pour chaque vnement E , lvnement E est compos des rsultats qui sont dans S et qui ne sont pas dans E . E est appel le complmentaire de E dans S .
Exemple :
111111111111111 000000000000000 000000000000000 111111111111111 000000000000000 111111111111111 S 000000000000000 111111111111111 000000000000000 111111111111111 000000000000000 111111111111111 E 000000000000000 111111111111111 000000000000000 111111111111111 000000000000000 111111111111111 000000000000000 111111111111111 000000000000000 111111111111111
Si E = {g } alors E = {f }.
Evnement vide
Si E = {g } et F = {f }, alors lvnement EF ne pourra enement jamais tre ralis, on appellera un tel vnement lev vide, not . Si EF = , on dit que E et F sont mutuellement exclusifs.
Proprits algbriques : Les oprations ensemblistes sur les vnements obissent certaines rgles dalgbre : Commutativit : EF =F E EF = F E Associativit : (E F ) G = E (F G ) (EF )G = E (F G) Distributivit : (E F )G = EG F G EF G = (E G)(F G)
p. 9/71 Methodes probabilistes - Probabilites
Loi de de Morgan - 1
Ei =
i=1 i=1
Ei
dmonstration
x
i=1
Ei x
i=1
Ei
n Supposons que x n E . Alors x / i=1 Ei , ce qui signie i=1 i que x nest contenu dans aucun des vnements E1 . . . En . Ceci implique que x est contenu dans tous les vnements E1 . . . En . Il est donc contenu dans n i=1 Ei . n n
x
i=1
Ei x
i=1
Ei
si x n i=1 Ei , alors x appartient chaque E1 . . . En et donc n x / n E , ce qui entraine nalement que x i i=1 i=1 Ei 2
p. 11/71 Methodes probabilistes - Probabilites
Loi de de Morgan - 2
Ei =
i=1 i=1
Ei
dmonstration
Ei =
i=1 i=1
Ei
Ei =
i=1 i=1
Ei
Ei =
i=1 i=1
Ei
p. 13/71 Methodes probabilistes - Probabilites
dnition par la frquence relative une exprience densemble fondamental S est excute plusieurs fois sous les mmes conditions. Pour chaque vnement E de S , n(E ) est le nombre de fois o lvnement E survient lors des n premires rptitions de lexprience. P (E ), la probabilit de lvnement E est dnie de la manire suivante : n(E ) P (E ) = lim n n
Inconvnients : On ne sait pas si n(E ) va converger vers une limite constante qui sera la mme pour chaque squence de rptitions de lexprience. Dans le cas du jet dune pice par exemple, peut-on tre sr que la proportion de piles sur les n premiers jets va tendre vers une limite donne lorsque n grandit linni ? Mme si elle converge vers une certaine valeur, peut-on tre sr que nous obtiendrons de nouveau la mme proportion limite de piles si lexprience est entirement rpte une deuxime fois ?
On considre que pour chaque vnement E de lensemble de fondamental S , il existe une valeur P (E ) appele probabilite E qui vrie les trois axiomes suivants : 1. 0 P (E ) 1 2. P (S ) = 1 3. Pour chaque squence dvnements mutuellement exclusif E1 , E2 . . . En (Ei Ej = si i = j ),
n n
P(
i=1
Ei ) =
i=1
P ( Ei )
Approche axiomatique
En supposant qu lissue du lancer dun d les six faces ont les mmes chances dapparatre, on aura :
Exemple :
1 P ({1}) = P ({2}) = P ({3}) = P ({4}) = P ({5}) = P ({6}) = 6 Du troisime axiome, il resulte que la probabilit de tirer un nombre pair est : 3 P ({2, 4, 6}) = P ({2}) + P ({4}) + P ({6}) = 6
P (E ) = 1 P (E ) Si E F , alors P (E ) P (F ) P (E F ) = P (E ) + P (F ) P (EF )
P (E ) = 1 P (E )
Demonstration :
1 = P (S ) = P (E E ) = P (E ) + P (E ) (Axiome 2)
Si E F , alors P (E ) P (F )
Demonstration :
Du fait que E F , on peut crire : F = E EF E et EF tant mutuelement exclusifs, par laxiome 3, on tire : P (F ) = P (E ) + P (EF ) or, daprs laxiome 1 P (EF ) 0, do : P (E ) P (F )
P (E F ) = P (E ) + P (F ) P (EF )
Demonstration :
E I II III F
I = EF II = EF III = EF
E F = I II III E = I II F = II III
Dmonstration (suite)
E I II III
I, II et III tant disjoints, on a daprs laxiome 2 : P (E F ) = P (I ) + P (II ) + P (III ) P (E ) = P (I ) + P (II ) P (F ) = P (II ) + P (III ) On a donc : P (E F ) = P (E ) + P (F ) P (II ) P (E F ) = P (E ) + P (F ) P (EF )
Pour de nombreuses expriences, il est naturel dadmettre que chaque vnement lmentaire a la mme probabilit dapparatre. Si S = {1, 2 . . . N }, on a : P ({1}) = P ({2}) = . . . = P ({N }) Ce qui implique du fait des axiomes 2 et 3 : 1 i1 i N, P ({i}) = N De ceci et de laxiome 3, il rsulte que pour tout vnement E: P (E ) =
nombre dlments dans E nombre dlments dans S
p. 23/71 Methodes probabilistes - Probabilites
Exemple 1
Si deux ds sont jets, quelle est la probabilit que la somme des faces soit 7 ?
Solution :
On fait lhypothse que les 36 issues possibles sont quiprobables. Puisquil y a 6 issues qui donnent une somme de 7 : (1, 6), (2, 5), (3, 4), (4, 3), (5, 2), (6, 1) la probabilit est 6/36 = 1/6.
Exemple 2
Si deux boules sont tires au hasard dun bol en contenant 6 blanches et 5 noires, quelle est la probabilit quune des boules tires soit blanche et lautre noire ? On considre que lordre dans lequel les boules sont choisies est signicatif lensemble fondamental comprend 11 10 = 110 points. Il y a 6 5 = 30 manires de tirer pour lesquelles la premire boule est blanche et lautre noire. et 5 6 = 30 manires de tirer pour lesquelles la premire boule est noire et la seconde blanche. Si les 110 points de lensemble fondamental ont la mme probabilit, la probabilit cherche est :
Solution :
30 + 30 6 = 110 11
p. 25/71 Methodes probabilistes - Probabilites
Probabilits conditionnelles
Un des concepts les plus importants de la thorie des probabilits. Limportance de ce concept est de deux ordres : On sintresse souvent calculer des probabilits lorsquune partie de linformation concernant le rsultat de lexprience est disponible dans une telle situation, les probabilits cherches sont justement des probabilits conditionnelles. Mme lorsquaucune information partielle nest disponible, il est souvent avantageux dutiliser un dtour par certaines probabilits conditionelles pour russir le calcul des probabilits cherches.
Prsentation intuitive
On jette deux ds, chacun des 36 vnements lmentaires a la mme probabilit de survenir, soit
1 . 36
Si lon sait que le premier d donne un 3, quelle est la probabilit que la somme des deux ds donne 8 ? le d initial tant un 3, il ne peut plus y avoir que 6 vnements dans notre exprience, savoir : (3, 1), (3, 2), (3, 3), (3, 4), (3, 5), (3, 6). Puisque chacun de ces vnements a originellement la mme probabilit dapparatre, ils auront encore des probabilits gales : 1 6
Si nous dsignons respectivement par E et F les est 8 et le premier de donne 3, la vnements la somme des des probabilit prcdente est appele probabilit conditionnelle que E apparaisse sachant que F est de E sachant F ). ralise, elle est note P (E |F ) (probabilite
E
(1,3) (1,4) (2,5) (4,3) (5,4) (1,6) (6,3) (4,5) (2,6)
F
(6,4) (5,5)
(4,6) (3,1) (3,2) (6,5) (1,5) (4,4) (3,5) (3,3) (5,2) (5,6) (3,4) (5,3) (1,1) (5,1) (3,6) (6,2) (6,1) (1,2) (4,2) (2,3) (2,1) (2,2) (1,4) (2,4) (6,6)
Gnralisation
On sinspire de la mme dmarche pour driver une formule gnrale donnant P (E |F ) pour tout vnement E et F : Si F est ralis, alors E apparatra chaque fois que lon aura affaire un vnement de E et de F la fois, en dautres termes, ce sera un lment de EF . Par ailleurs, comme nous savons que F est ralis, cet ensemble devient le nouvel ensemble fondamental, appel ensemble fondamental reduit . La probabilit conditionnelle de lvnement E sera donne par comparaison de la probabilit non conditionelle de EF avec la probabilit non conditionnelle de F .
Gnralisation - 2
On dbouche ainsi sur la dnition suivante : Si P (F ) > 0, la probabilit conditionnelle de E sera : P (EF ) P (E |F ) = P (F ) En multipliant par P (F ) les deux membres de lquation, on obtient : P (EF ) = P (F )P (E |F ) Cette quation signie que la probabilit que E et F apparaissent la fois est gale la probabilit que F apparaisse multiplie par la probabilit conditionnelle de E si lon sait que F est survenu.
p. 30/71 Methodes probabilistes - Probabilites
Exemple 1
Une urne contient 10 billes blanches, 5 jaunes et 10 noires. Une bille est tire au hasard de lurne et lon constate quelle nest pas noire. Quelle est la probabilit quelle soit jaune ? est jaune et soit N elle Solution : Soit J lvnement la bille tiree nest pas noire. De la dnition des probabilits cond. on tire : P (JN ) P (J |N ) = P (N ) Cependant, JN = J puisque la bille sera la fois jaune et non noire si et seulement si elle est jaune. Nous obtenons ainsi, en supposant que chacune des 25 billes a la mme chance dtre choisie : P (J |N ) =
5 25 15 25
1 = 3
Exemple 2
Une urne contient 8 boules rouges et 4 blanches. On tire sans remise 2 boules de lurne et on admet qu chaque tape tous les tirages possibles sont quiprobables. Quelle est la probabilit que les 2 boules tires soient rouges ?
Solution : ` boule est rouge R1 = la premiere
R2 = la seconde est rouge Si la premire boule slectionne est rouge, il reste 7 boules rouges et 4 boules blanches. Donc P (R2 |R1 ) = 7/11; comme P (R1 ) vaut 8/12, la probabilite recherche est : P (R2 R1 ) = P (R2 |R1 )P (R1) = 2/3 7/11 = 14/33
p. 32/71 Methodes probabilistes - Probabilites
Evnements indpendants
En gnral P (E |F ) = P (E ) Le fait de savoir que F est survenu inuence la probabilit de E . Dans les cas o P (E |F ) est bien gal P (E ), E est dit independant de F . Du fait que P (E |F ) = quivaut :
P (EF ) , P (F )
lindpendance de E et F
P (EF ) = P (E )P (F ) Cette quation est symtrique en E et F , il en rsulte que lorsque E est indpendant de F , F lest aussi de E .
Exemple - 1
F = cest un pique E et F sont indpendants. En effet : P (EF ) = 1/52 P (E ) = 4/52 P (F ) = 13/52. On a bien : P (EF ) = P (E )P (F )
p. 34/71 Methodes probabilistes - Probabilites
Exemple - 2
On jette deux pices et on suppose que les 4 rsultats possibles sont quiprobables.
` piece ` est pile A = la premiere
B = la seconde est face. A et B sont indpendants. En effet : P (AB ) = P ({(P, F )}) = 1/4 P (A) = P ({(P, P ), (P, F )}) = 1/2 P (B ) = P ({(P, F ), (F, F }) = 1/2 On a bien : P (AB ) = P (A)P (B )
p. 35/71 Methodes probabilistes - Probabilites
Evnements indpendants
Il est important de ne pas confondre les deux notions dvnements mutuellement exclusifs et dvnements indpendants Des vnements mutuellement exclusifs ne sont pas indpendants. En effet, si lon sait que E et F sont mutuellement exclusifs alors on sait que si E est ralis, F ne peut pas ltre, et vice versa. Par consquent, la connaissance de E va modier la connaissance de F , les deux vnements ne sont donc pas indpendants.
La rgle de multiplication
On peut gnraliser la rgle des probabilits conditionnelles lintersection dun nombre arbitraire dvnements. Cette rgle est appele rgle de multiplication. P (E1 E2 . . . En ) = P (E1 )P (E2 |E1 )P (E3 |E1 E2 ) . . . P (En |E1 . . . En1 ) On dmontre cette loi en appliquant la dnition des probabilits conditionnelles au membre de droite : P ( E2 E1 ) P ( E3 E1 E2 ) P ( E1 . . . En ) P ( E1 ) ... = P ( E1 E2 . . . En ) P ( E1 ) P ( E2 E1 ) P ( E1 . . . En 1 )
Soient E et F deux vnements quelconques. Nous pouvons crire E sous la forme E = EF EF . 000000000 111111111 E F 000000000 111111111 00 11 000 111 000000000 111111111 00 11 000 111 000000000 111111111 00 11 000 EF 111 EF 000000000 111111111 00 11 000 111 000000000 111111111 00 11 000 111 000000000 111111111 00 11 000 111 000000000 111111111 000000000 111111111 EF et EF tant mutuellement exclusifs, on peut crire : P (E ) = P (EF ) + P (EF ) = P (E |F )P (F ) + P (E |F )P (F ) = P (E |F )P (F ) + P (E |F )[1 P (F )]
P (E ) = P (E |F )P (F ) + P (E |F )[1 P (F )] La probabilit de lvnement E est une moyenne pondre de la probabilit conditionnelle de E lorsque F est apparu et de la probabilit de E lorsque F nest pas apparu les poids tant les probabilits des vnements conditionnants. Lintrt de cette formule est quelle permet de dterminer la probabilit dun vnement en commenant par le conditionner selon lapparition ou non dun autre vnement.
Exemple
Une compagnie dassurance estime que les gens peuvent tre rpartis en deux classes : ceux qui sont enclins aux accidents ceux qui ne le sont pas. Les statistiques montrent quun individu enclin aux accidents a une probabilit de 0, 4 den avoir un dans lespace dun an; cette probabilit vaut 0, 2 pour les gens risque modr. On suppose que 30% de la population appartient la classe haut risque. Quelle est alors la probabilit quun nouvel assur soit victime dun accident durant lanne qui suit la signature de son contrat ?
Solution
Nous obtiendrons la probabilit de lvnement cit en le conditionnant selon que le signataire de la police est ou nest pas enclin aux accidents.
qui suit X = le signataire aura un accident dans lannee letablissement du contrat
A = le signataire est enclin aux accidents. La formule des probabilits totales nous donne : P (X ) = P (X |A)P (A) + P (X |A)P (A) = 0.4 0.3 + 0.2 0.7 = 0.26
Exemple (suite)
Un nouveau signataire a un accident dans lanne qui suit ltablissement de son contrat. Quelle est la probabilit quil fasse partie de la classe haut risque ? Solution : Cette probabilit est P (A|X ), donne par : P (AX ) P (A|X ) = P (X ) P (A)P (X |A) = P (X ) 0.3 0.4 = = 0.46 0.26
Fi = S
i=1
F1
Fn
On peut crire :
n
E=
i=1
EFi
p. 43/71 Methodes probabilistes - Probabilites
En utilisant le fait que les vnements EFi sexcluent mutuellement, on peut crire :
n
P (E ) =
i=1 n
Cette quation montre qutant donn un jeu dvnements F1 . . . Fn desquels un et un seul surviendra, on peut calculer P (E ) en commenant par conditionner selon les Fi .
Thorme de Bayes
Supposons que E se soit ralis et que nous cherchions dterminer la probabilit que lun des Fj se soit aussi ralis. On dduit de lquation ci-dessus le thorme suivant, appel thorme de Bayes : P (EFj ) P (Fj |E ) = P (E ) P (E |Fj )P (Fj ) = P (E ) P (E |Fj )P (Fj ) = n i=1 P (E |Fi )P (Fi )
Exemple 1
On considre deux urnes, lune contient une bille noire et une blanche, et lautre deux noires et une blanche. On dsigne une urne au hasard, de laquelle on tire une bille. Quelle est la probabilit quelle soit noire ? Si lon sait que la bille est blanche, quelle est la probabilit que ce soit la premire urne qui ait t dsigne ?
Solution
N = la bille choisie est noire B = la bille choisie est blanche U1 = lurne choisie est lurne 1 U2 = lurne choisie est lurne 2 Loi des probabilits totales : P (N ) = P (N |U1 )P (U1 ) + P (N |U2 )P (U2 ) = Loi de Bayes (U1 B ) = P (U1 |B ) = PP (B )
1 2
2 1 + 2 3
1 2
7 12
P (B |U1 )P (U1 ) P (N )
12 20
Exemple 2
Un laboratoire danalyse du sang assure avec une abilit de 95% la dtection dune certaine maladie lorsquelle est effectivement prsente. Cependant, le test indique aussi un rsultat faussement positif pour 1% des personnes rellement saines qui on le fait subir (une personne saine teste sera dclare malade une fois sur cent). Si 0, 5% de la population porte effectivement la maladie, quelle est la probabilit quune personne soit vraiment malade lorsquon la dclare telle sur la base du test ?
Solution
D = la personne soumise au test est porteuse de la maladie
E = le resultat du test est positif
La formule des probabilits totales nous donne : P (DE ) P (D|E ) = P (E ) P (E |D)P (D) = P (E |D)P (D) + P (E |D)P (D) .95 .005 = .323 .95 .005 + .01 .995 Ainsi 32% seulement des personnes dont le rsultat au test est positif ont vraiment la maladie !
Variables alatoires
Une variable alatoire est une fonction qui associe un nombre rel tous les lments de S Les variables alatoires permettent ainsi de passer dvnements, qui peuvent tre de natures trs diverse, des nombres, et deffectuer des calculs sur ces derniers.
b a c d e f
R
X(a) X(b) X(c) X(d) X(e) X(f)
Variables alatoires
Une variable alatoire permet aussi de nassocier quune valeur un ensemble dissues lmentaires, dans le cas o, lissue dune exprience, on sintresse plus une fonction du rsultat quau rsultat lui-mme. Lors dun jeu de ds, par exemple, certains jeux accordent de limportance la somme obtenue avec deux ds, 7 par exemple, plutt qu la question de savoir si cest la paire (1, 6) qui est apparue, ou (2, 5) . . . . On peut alors dnir une variable alatoire X qui reprsente la somme des deux ds.
Variables alatoires
S
(1,3) (2,2) (3,1) (1,4) (2,3) (3,2) (3,1) (1,5) (2,4) (3,3) (4,2) (5,1) (1,6) (2,5) (3,4) (4,3) (5,2) (6,1) (2,6) (3,5) (4,4) (5,3) (6,2) (3,6) (4,5) (5,4) (6,3) (4,6) (5,6) (6,4)
(1,1)
(1,2) (2,1)
(5,6) (6,5)
(6,6)
X R
2 3 4 5 6 7 8 9 10 11 12
Variables alatoires
La valeur dune variable alatoire est dtermine par le rsultat de lexprience, il est possible dattribuer une probabilit aux diffrentes valeurs que la variable alatoire peut prendre. On note la probabilit que la variable alatoire X prenne la valeur i par : P (X = i).
Exemple
Notre exprience consiste jeter 3 pices quilibres. Si lon dsigne le nombre de faces par Y , Y est une variable alatoire et peut prendre les valeurs 0, 1, 2, 3 avec pour probabilit respectivement :
P (Y = 0) P (Y = 1) P (Y = 2) P (Y = 3) = P ((P, P, P )) = 1 8
Une variable alatoire ne pouvant prendre quune ` . quantit dnombrable de valeurs est dite discrete Pour une telle variable alatoire X , on dnit sa loi de pX (p lorsque ce nest pas ambig) probabilite p(a) = P (X = a) = P (E ) avec E = {i S |X (i) = a}
Une loi de probabilit ne peut tre positive que pour un ensemble dnombrable darguments. Si X peut prendre les valeurs x1 , x2 , . . ., alors : p(xi ) 0 i = 1, 2, . . . p(x) = 0 pour toutes les autres valeurs de x Du fait que X doit bien prendre lune de ces valeurs xi , on aura : i=1 p(xi ) = 1 Si une variable alatoire X suit une loi de distribution p on notera X p
Histogramme
Reprsentation dune loi de probabilit sur un graphique en reportant p(xi ) sur laxe des y et xi sur laxe des x. Histogramme de la loi de probabilit dune variable alatoire comptant la somme des nombres obtenus lors du jet de deux ds quilibrs :
p(x)
La loi dune variable alatoire est constitue par lensemble des probabilits des valeurs que peut prendre cette variable. Dans certains cas, le nombre de valeurs possibles de la variable est extrmement lev ou mme inni. Il est intressant, dans ces cas, de dgager certaines caractristiques qui permettent desquisser lallure gnrale de ces lois. On dnit deux caractristiques des lois de probabilits :
lesperance permet de situer la variable. la variance permet destimer la dispersion de la variable
Esprance
Pour une variable alatoire discrte X de loi p(), on dnit lesprance de X , note E [X ], par lexpression : E [X ] =
x|p(x)>0
xp(x)
En termes concrets, lesprance de X est la moyenne pondre des valeurs que X peut prendre, les poids tant les probabilits que ces valeurs soient prises.
Esprance - 2
Interprtation en recourant la dnition des probabilits comme mesures de frquences relatives : dun ev enement La probabilite E est la proportion du nombre de realisation de E dans une sequence inniment longue dexperiences
identiques
Supposons que lon se livre jeu dargent pour lequel on connat la probabilit de chaque gain. On reprsente par X la variable alatoire reprsentant le gain. Cette v.a. peut prendre les valeurs x1 , . . . , xn avec les probabilits p(x1 ), . . . p(xn ). La proportion de jeux pour laquelle la somme xi aura t gagne va se rapprocher de p(xi ). Lesprance de la v.a. X est alors le gain moyen par jeu : n i=1 xi p(xi )
p. 60/71 Methodes probabilistes - Probabilites
Variance
E [X ] nous donne une moyenne pondre des valeurs possibles dune variable alatoire X . Mais elle ne nous dit rien des variations de X autour de lesprance. Soit les variables alatoires suivantes : X avec pX (0) = 1 1 , p (1) = Y avec pY (1) = 1 Y 2 2 1 , p (100) = Z avec pZ (100) = 1 Z 2 2 E [X ] = E [Y ] = E [Z ] = 0 Mais il y a de bien plus grands carts entre les diffrentes valeur de Y quentre celles de X (qui est constante) et de plus grands carts entre celles de Z quentre celles de Y .
p. 61/71 Methodes probabilistes - Probabilites
Variance - 2
On mesure les variations dune v.a. X par lesprance du carr de lcart entre X et son esprance, que lon appelle variance de X , note V ar(X ) : V ar(X ) = E [(X E [X ])2 ] Qui peut aussi tre calcule de la faon suivante : V ar(X ) = E [X 2 ] (E [X ])2 Si X est le rsultat du lancer dun d quilibr, alors E [X ] = 7 comme nous lavons vu ci-dessus. De plus : 2 1 1 1 1 2 1 2 1 +22 6 +32 6 +42 1 +5 +6 = 91 E [X 2 ] = 12 6 6 6 6 6 et donc : 91 7 2 35 V ar(X ) = ( ) = 6 2 12
Variables binomiales
On ralise n preuves indpendantes, chacune ayant une probabilit de succs de p et une probabilit dchec de 1 p. La variable alatoire X qui compte le nombre de succs sur lensemble des n preuves est dite variable alatoire binomiale de paramtres (n, p). toute squence comportant i succs et n i checs a pour probabilit pi (1 p)ni . il y a
n i
on a donc :
E [X ] =
i=1 n
i p(i) i
i=1 n
(1)
= =
i=1
n i
(2)
n
n
n1 i1 n1 i1 n1 j
(3)
= np
i=1 n1
(4)
= np
j =0
= np(p + 1 p)n1 = np
Il est souvent ncessaire de considrer des vnements relatifs deux variables simultanment.
conjointe de deux v.a. X et Y : On dnit la loi de probabilite
p(x, y ) = P (X = x, Y = y ) On peut dduire de la loi de probabilit conjointe de deux marginale de X de la variables X et Y la loi de probabilite faon suivante : p X ( x) = P ( X = x) =
y |p(x,y )>0
p(x, y )
De faon similaire : p Y (y ) = P (Y = y ) =
x|p(x,y )>0
p(x, y )
p. 65/71 Methodes probabilistes - Probabilites
Exemple
On tire au hasard 3 boules dune urne contenant 3 rouges, 4 blanches et 5 bleues. X et Y dsignent respectivement le nombre de boules rouges et celui de boules blanches tires. La loi de probabilit conjointe p(i, j ) = P (X = i, Y = j ) de X et Y est reprsente dans un tableau deux entres : j 1
40 220 60 220 12 220
0 0 1 i 2 3
10 220 30 220 15 220 1 220
2
30 220 18 220
3
4 220
0 0
0 0 0
p. 66/71 Methodes probabilistes - Probabilites
Exemple (suite)
j 0 0 1 2 3 P (Y = j )
10 220 30 220 15 220 1 220 56 220
1
40 220 60 220 12 220
2
30 220 18 220
3
4 220
P (X = i)
84 220 108 220 27 220 1 220
0
112 220
0 0
48 220
0 0 0
4 220
La loi marginale de X est calcule en faisant les totaux par ligne, tandis que celle de Y lest en faisant les totaux par colonne. Cest le fait que les lois de X et Y individuellement puissent tre lues dans les marges du tableau qui leur vaut leur nom de lois marginales.
p. 67/71 Methodes probabilistes - Probabilites
Deux variables alatoires X et Y sont dites independantes si, pour tout choix dune paire densembles A et B de nombres rels, on a :
P (X A, Y B ) = P (X A) P (Y B ) En dautres termes, X et Y sont indpendantes si, quels que soient A et B , les vnements EA = (X A) et EB = (X B ) sont indpendants. Cela revient dire que : p(x, y ) = pX (x)pY (y ) x, y Dun point de vue intuitif, X et Y sont indpendantes si le fait de connatre la valeur de lune ninue pas sur la distribution de lautre. Des variables qui ne sont pas indpendantes sont dites dpendantes.
Exemple
On ralise n + m preuves indpendantes ayant chacune p pour probabilit de succs. La variable X est le nombre de succs lors des n premires preuves et Y est le nombre de succs lors des m dernires. X et Y sont indpendantes car le fait de connatre le nombre de succs lors des n premires preuves ninue en rien sur celui des succs lors des m dernires (cest l la traduction de lindpendance des preuves). En revanche, X et Z sont dpendantes si Z reprsente le nombre total de succs au cours des n + m preuves.
Etant donn deux variables alatoires X et Y , on dnit la loi de probabilit de X sous la condition Y = y : pX |Y (x|y ) = P (X = x|Y = y ) P (X = x, Y = y ) = P (Y = y ) p(x, y ) = p Y (y )
Lorsque X et Y sont indpendantes, les lois conditionnelles et non conditionnelles sont identiques : pX |Y (x|y ) = P (X = x|Y = y ) P (X = x, Y = y ) = P (Y = y ) P ( X = x) P ( Y = y ) = P (Y = y ) = P ( X = x)