Support_cours_Proba_SSMT
Support_cours_Proba_SSMT
Support_cours_Proba_SSMT
de
Probabilités
1 Espace probabilisé 8
1. Expérience aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2. Probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
3. Modélisation d’une expérience aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . 14
4. Probabilités conditionnelles, indépendance . . . . . . . . . . . . . . . . . . . . . . . . 14
4.1. Probabilité conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
4.2. Indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
ii
TABLE DES MATIÈRES
2. Fonction caractéristique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
Partie I : Denombrement
Définition 0.2. Un ensemble E est dit dénombrable s’il existe une bijection de N sur E. Un ensemble
E est dit infini non dénombrable s’il n’est ni fini, ni dénombrable.
2. Principes de comptage
2
TABLE DES MATIÈRES
n
X
Alors nous avons Card(E) = Card(Ai ).
i=1
Lorsqu’on veut dénombrer un ensemble fini E, on peut trouver une partition A1 , A2 , . . . , An de cet
ensemble, où les cardinaux des ensembles Ai sont plus faciles déterminer. Il ne reste alors qu’à faire
la somme des differents cardinaux obtenus.
n1 × n2 × . . . × np .
3. Arrangements
Définition 0.3. Un arrangement avec répétition de p éléments (ou p-liste) de E est une partie
ordonnée de p éléments de E non ncessairement distincts. Cela revient à prendre p objets dans E en
tenant compte de l’ordre dans lequel on les choisit, et en pouvant prendre plusieurs fois le même.
{0, 1, 2, 3, 4, 5, 6, 7, 8, 9, }.
Exemple 3. Tirer successivement p boules, en les remettant chaque fois dans l’urne, et en tenant
compte de l’ordre de sortie des numros constitue un arrangement avec répétition de p éléments parmi
n. Il y a np possibilités.
Définition 0.4. Un arrangement de p éléments de E est une partie ordonne de p lments (distincts)
de E. Cela revient prendre p objets distincts dans E en tenant compte de l’ordre dans lequel on les
choisit.
Nous avons n possibilités pour la première place, n − 1 possibilités pour la deuxième place, n − 2
possibilités pour la troisième place,. . . , (n − (p − 1)) possibilités pour la dernière place. D’après le
principe multiplicatif, le nombre total de possibilités est :
Apn = n × (n − 1) × (n − 2) × . . . × (n − (p − 1))
n!
= .
(n − p)!
Exemple 4. Le tiercé. Une course de chevaux comporte 20 partants. Combien peut-il y avoir de
résultats possibles de tiercés dans l’ordre ?
Soit E l’ensemble des numéros des chevaux. On a Card(E) = 20. Un tiercé correspond un arrange-
ment de 3 éléments de E, il y en a A320 = 6840 possibilités.
Exemple 5. Tirer successivement p boules sans remise en tenant compte de l’ordre de sortie des
numéros constitue un arrangement de p éléments parmi n. Il y a Apn possibilités.
3.3. Permutation
Soit E un ensemble fini n éléments.
Définition 0.5. Une permutation de E est un arrangement des n éléments de E. Cela revient prendre
les n éléments de E en tenant compte de l’ordre dans lequel on les choisit.
n! = n × (n − 1) × . . . × 2 × 1.
Nous avons n possibilités pour la première place, n − 1 possibilités pour la deuxième place, n − 2
possibilités pour la troisième place,. . . , 1 possibilités pour la dernière place. D’après le principe
multiplicatif, le nombre total de possibilités est :
n! = n × (n − 1) × (n − 2) × . . . × 1 = Ann
E = {p1 , p2 , p3 , p4 , p5 , p6 , p7 }.
Exemple 7. Une urne contient n boules distinctes. Tirer successivement les n boules en tenant
compte de l’ordre de sortie des boules constitue une permutation de n éléments. Il y a n! possibilités.
4. Combinaisons
Exemple 8. Quel est le nombre de comités de 3 personnes que l’on peut élire dans une assemblée
de 20 personnes.
Le nombre de comités possibles est le nombre de combinaisons de 3 personnes parmi 20, soit C20
3
=
1140
Exemple 9. Tirer simultanement p boules parmi n constitue une combinaison de p éléments parmi
n éléments. Il y a Cnp possibilités.
Remarque 0.1. Cette application indique pour chaque élément de E le nombre de fois qu’il est
choisi ; et si l’application associe la valeur 0 à un élément de E, alors l’élément n’est pas choisi.
De plus la somme des nombres de répétitions doit bien être égale à k, si nous voulons exactement k
objets éventuellement répétés.
Théorème 0.1. Soit E un ensemble fini de cardinal n, (n ∈ N∗ ). Alors l’ensemble Kk (E) des
k-combinaisons avec répétition de E est fini et son cardinal est égal à
Γkn = Cn+k−1
k
Partie II : Probabilité
Espace probabilisé
1. Expérience aléatoire
Activité 1. On lance un dé équilibré à 6 faces numérotés de 1 à 6 et on note le nombre figurant sur
la face supérieure du dé après l’arrêt.
1. Quel est l’ensemble de résultats possibles ?
Peut-on prévoir avant le lancer les résultats possibles ?
2. Déterminer l’ensemble des résultats pairs.
3. Déterminer l’ensemble des possibilités d’avoir le chiffre "2" ?
4. Déterminer l’ensemble des possibilités d’avoir le chiffre "7" ?
5. Déterminer l’ensemble de résultats "obtenir un nombre infrieur 7 "
6. On considère les ensembles suivants :
A est l’ensemble "obtenir un nombre au moins gal 4 "
B est l’ensemble "obtenir un multiple de 2"
C est l’ensemble "obtenir le chiffre 5"
(a) Déterminer l’ensemble "obtenir un multiple de 2 ou un nombre au moins gal 4".
(b) Déterminer l’ensemble "obtenir un multiple de 2 et un nombre au moins gal 4".
(c) Déterminer l’ensemble "obtenir un multiple de 2 et le chiffre 5".
Ω = {1, 2, 3, 4, 5, 6}.
8
CHAPITRE 1. ESPACE PROBABILISÉ
Définition 1.1. Une expérience E est qualifiée d’aléatoire si on ne peut pas prévoir par avance
son résultat mais on connait l’ensemble de tous les résultats possible. Répétée dans des conditions
identiques, elle peut donner lieu des résultats différents.
Remarque 1.1. Avant toute exprimentation, on peut décrire l’ensemble des résultats possibles de
l’expérience aléatoire.
Définition 1.2. Soit E une expérience aléatoire. On appelle univers, et l’on note souvent Ω, l’en-
semble des résultats possibles de E. Si Ω est non vide. On notera P(Ω) l’ensemble des parties de Ω.
Dans toute la suite de ce chapitre, on supposera que Ω est fini.
Définition 1.3. On appelle événement associé à une expérience aléatoire, toute partie A de Ω.
Les événements étant des ensembles, on utilisera 3 opérateurs définies sur les ensembles :
- l’union ; l’événement A ∪ B se réalise si A se réalise ou B se réalise
- l’intersection ; A ∩ B se réalise si A se réalise et B se réalise
- le complémentaire ; Ā se ralise si A ne réalise pas.
Application 1. Un sac contient trois boules de couleurs différentes ; une boule rouge, une boule verte
et une boule bleue. On tire au hasard une boule du sac, on note sa couleur. On replace la boule dans
le sac et on retire au hasard en notant nouveau sa couleur.
1. Déterminer l’univers des éventualités de cette expérience.
2. Citer un événement élémentaire et un événement non élémentaire
3. Soit A l’événement : "les deux boules sont de même couleur", B l’événement : "obtenir une
boule bleue et une boule verte ", et C l’événement : "obtenir d’abord une boule rouge"
(a) Déterminer l’événement contraire de A
(b) Déterminer l’événement : "A et B " ; "A et C" puis l’événement "A ou C", Les événe-
ments A et B sont-ils incompatibles ?
Ω = {(R, R), (R, V ), (V, R), (R, B), (B, R), (V, V ), (V, B), (B, V ), (B, B)}.
2. (R, V ) est un événement élémentaire ; {(R, R), (R, V )} est un événement non élémentaire.
3. Nous avons
A = "les deux boules sont de même couleur" = {(R, R), (V, V ), (B, B)}
B = "obtenir une boule bleue et une boule verte " = {(B, V ), (V, B)}
C = "obtenir d’abord une boule rouge" = {(R, R), (R, V ), (R, B)}.
Ā = {(R, V ), (V, R), (R, B), (B, R), (V, B), (B, V )}.
A∩B =∅
A ∩ C = {(R, R)}
A ∪ C = {(R, R), (V, V ), (B, B), (R, V ), (R, B)}
Définition 1.4. Soit Ω l’univers d’une expérience aléatoire, et P(Ω) l’ensemble de parties de Ω.
Alors, le couple (Ω, (Ω)) est appelé espace probabilisable.
2. Probabilité
Activité 2. Un sac contient trois boules de couleurs différentes ; une boule rouge, une boule verte
et une boule bleue. On tire au hasard une boule du sac, on note sa couleur. On replace la boule dans
le sac et on retire en notant à nouveau sa couleur. Chaque boule a la même chance d’être tirée.
Correction de l’activité 2. Un sac contient trois boules de couleurs différentes ; une boule rouge,
une boule verte et une boule bleue. On tire au hasard une boule du sac, on note sa couleur. On replace
la boule dans le sac et on retire en notant nouveau sa couleur. Chaque boule a la même chance d’être
tirée.
1. card(Ω) = 9.
1 1
2. La fréquence d’apparition du couple (R, B) est = .
card(Ω) 9
3. La fréquence d’apparition de chaque couple de l’univers est 19 . De plus,
1 1 1 1 1 1 11 1
+ + + + + + + =1
9 9 9 9 9 9 99 9
4. Tirer deux boules de même couleur revient tirer un élément de
P : P(Ω) −→ [0, 1]
A 7−→ P(A)
telle que
• P(Ω) = 1
• pour tout sous-ensemble {A1 , . . . , An , . . .} ⊂ P(Ω) deux deux disjoints, nous
∞
! ∞
[ X
P An = P(An ).
n=1 n=1
Correction de l’activité 3. Soit A l’événement "obtenir un nombre au moins gal 4" et B="obtenir
un multiple de 2 "
1. Nous avons A = {4, 5, 6} = {4} ∪ {5} ∪ {6}. Les événements {4}, {5} et {6} tant deux deux
disjoints, nous obtenons
4
P(A) = P({4}) + P({5}) + P({6}) = P4 + P5 + P6 =
7
1 1 2 4
De même, nous avons B = {2, 4, 6} et P(B) = + + = .
7 7 7 7
2. A ∩ B = {4, 6} et A ∪ B = {2, 4, 5, 6} et
3 5
P(A ∩ B) = P(A ∪ B) = .
7 7
3. P(A) + P(B) − P(A ∩ B) = P(A ∪ B)
4. (a) C = {1, 3, 5}
3
(b) P(C) = et P(B) + P(C) = 1.
7
Activité 4. Soit A et B deux événements tels que P(A) = 0.45 ; P(B) = 0.60 et P(A ∪ B) = 0.80
calculer P(A ∩ B) et P(Ā)
Par suite
P(A ∩ B) = P(A) + P(B) − P(A ∪ B) = 0.25.
Remarque 1.3. Une expérience se déroule dans les conditions équiprobables si tous les événements
élémentaires ont la même probabilité de se réaliser. Dans ce cas, nous avons pour tout événement A,
X 1 X
P(A) = P ({ω}) = 1
ω∈A
card(Ω) ω∈A
card(A)
=
card(Ω)
nombre de cas favorables
P(A) = .
nombre de cas possibles
Exercice de fixation 1. Dans un jeu de 32 cartes il y’a 4 As, on tire au hasard 4 cartes de ce jeu.
1. Calculer la probabilité d’obtenir 2 As.
2. Quelle est la probabilité de n’avoir aucun As ?
3. Quelle est la probabilité de tirer au moins un As ?
Correction de l’exercice de fixation 1. Dans un jeu de 32 cartes il y’a 4 As, on tire au hasard 4
cartes de ce jeu. Le nombre total de possibilits est le nombre de combinaisons de 4 cartes parmi 32 :
4
card(Ω) = C32 .
1. Nous obtenons
23
P(A) =
36
29
P(B) =
36
17
P(A ∩ B) = .
36
2. D’après le tableau, c’est parmi les 29 filles qu’on cherche celles qui ont 18 ans :
17
P(C) =
29
3. Nous obtenons 17
P(A ∩ B) 36 17
= = .
P(B) 29
36
29
P(A ∩ B)
P(C) =
P(B)
Deuxime méthode : arbres de choix. La somme des probabilités des branches issues d’un même
noeud est 1. La probabilité de l’événement correspond à un trajet est le produit des probabilités des
différentes branches composant ce trajet. En dehors des branches du premier niveau, les probabilités
indiques sont des probabilités conditionnelles .
Théorème 1.1. Soit une expérience aléatoire E d’univers Ω, P une probabilité sur Ω et B un évé-
nement tel que P(B) 6= 0. L’application
PB : P −→ [0, 1]
P(A ∩ B)
A 7−→ PB (A) =
P(B)
Définition 1.6. L’application PB ainsi définie s’appelle "probabilité conditionnelle sachant B". La
quantité PB (A) est parfois note P(A|B).
Exercice de fixation 2. Une urne contient trois boules rouges et deux boules blanches. On tire
successivement avec remise deux boules de l’urne en notant leur couleur. Calculer la probabilité d’avoir
deux boules de même couleur sachant que la première boule est rouge.
Soit B l’événement "la première boule tiré est rouge" ; nous avons 31 possibilits de tirer une boule
rouge au premier tirage et 51 possibilits de tirer une boule au second tirage, soit
card(B) = 31 × 51 .
32
P(A ∩ B) =
52
31 × 51
P(B) = .
52
Nous déduisons que
P(A ∩ B) 32
P(A|B) = = 1 .
P(B) 3 × 51
Définition 1.7 ((Système complet d’événement)). On dit qu’une famille (Bk )1≤n est un système
complet d’évènements lorsque :
1. ∀ (i, j) ∈ b1; nc2 , (i 6= j) Bi ∩ Bj = (On dit alors que les (Bk )1≤n , sont deux a deux disjoints
ou incompatibles)
S
2. nk=1 Bk = Ω.
Autrement dit les Bk , k = 1, · · ·, n, constituent une partition de Ω.
Exemple 1.1. Soit A une partie non trivial de Ω. Alors la paire {A, Ā} est un système complet
d"événement.
Théorème 1.2 ((Probabilité totale)). Soit (Ω, P, P) un espace probabilisé et (Bk )1≤n un système
complet d"événement. Alors pour tout événement A, on a :
n
X n
X
P(A) = P(A ∩ Bk ) = P(A|Bk )P(Bk )
k=1 k=1
Corollaire 1.1 ((Formule de Bayes)). Soit (Ω, P, P) un espace probabilisé et (Bk )1≤n un système
complet d"événement. Alors pour tout événement A, on a :∀ j ∈ b1; nc,
P(A|Bj )P(Bj )
P(Bj |A) = Pn .
k=1 P(A|Bk )P(Bk )
4.2. Indépendance
Définition 1.8. Deux événements A et B de probabilités non nulles sont indépendants lorsque la
réalisation (ou non) de l’un n’a pas d’influence sur la probabilité de réalisation de l’autre : PA (B) =
P(B) ou PB (A) = P(A).
Exercice de fixation 3. On lance une pièce de monnaie non truqué deux fois de suite et on note
le couple de côtés qui apparaît.
1. Les événements : A= "face apparaît au premier lancer " et B="pile apparaît au deuxième
lancer" sont-ils indpendants ?
2. Les événements : C="le même côté apparaît deux fois" et D=" le nombre d’apparition de "
face" est différent de deux " sont-ils indépendants ?
Correction de l’exercice de fixation 3. On lance une pièce de monnaie non truquée deux fois de
suite et on note le couple de côtés qui apparaît. L’univers est
On fait une expérience aléatoire qui est traduite par l’espace probabilisé (Ω, P(Ω), P). Maintenant
on s’intéresse à certaines conséquences de cette expérience.
1. Généralités
Définition 2.1. Soient (Ω, A, P) un espace probabilisé et (E, B) un espace probabilisable. On appelle
variable aléatoire toute application X définie sur Ω à valeurs dans E telle que
∀A ∈ B, X −1 (A) = {ω ∈ Ω; X(ω) ∈ A} ∈ A.
Remarque 2.1. 1. (i) Si (E, B) = (R, B(R)), X est une variable aléatoire réelle
2. (ii) Soit X une variable aléatoire réelle. Si X(Ω) est un sous-ensemble fini ou infini dénombrable
de R, alors la v.a.r X est dite discrète. Sinon, elle est dite continue.
Définition 2.2. Soit X une variable aléatoire définie sur (Ω, A, P) valeurs dans l’espace probabilisable
(E, B). On appelle loi de probabilité de X, la probabilité PX définie sur B par :
Définition 2.3. Soit X une variable aléatoire réelle définie sur (Ω, A, P). On appelle fonction de
répartition de la v.a.r X, la fonction F définie par :
F : R −→ [0, 1]
x −→ F (x) = P(X ≤ x) = PX (] − ∞, x[).
18
CHAPITRE 2. VARIABLES ALÉATOIRES RÉELLES
Définition 2.4. Soit X une variable aléatoire réelle. Supposons que la fonction de répartition F soit
continue et strictement croissante. Pour 0 ≤ α ≤ 1 ; on note xα l’unique nombre réel vérifiant
Remarque 2.2. Pour connaître la loi d’une variable aléatoire discrète X, il faut connaître l’ensemble
de ses valeurs possibles, et la probabilité avec laquelle elle réalise chaque valeur i.e
X(Ω) = {x1 , . . . , xn , . . .} ⊂ R et P (X = xi ).
En particulier
si h(x) = |x|p , p ≥ 1 alors on parle de moment d’ordre p de la v.a. X. Le moment d’ordre 1 est
appelé l’espérance de X.
si h(x) = |x − E(X)|p , p ≥ 1 alors on parle de moment centré d’ordre p de la v.a. X. Le moment
centré d’ordre 2 est appelé la variance de X.
En particulier
si h(x) = |x|p , p ≥ 1 alors on parle de moment d’ordre p de la v.a. X. Le moment d’ordre 1
est appelé l’espérance de X.
si h(x) = |x − E(X)|p , p ≥ 1 alors on parle de moment centré d’ordre p de la v.a. X. Le
moment centré d’ordre 2 est appelé la variance de X.
Remarque 2.4. La loi d’une variable aléatoire est complètement détermine via sa fonction de ré-
partition, ou via sa densité de probabilite.
Une variable aléatoire discrète X est dite uniforme si X(Ω) = {1; 2; · · ·; n}. On note
1
p = P(X = k) = , ∀ k ∈ {1; 2; · · ·; n}
n
Exemple
Tire une lettre de l’alphabet français parmi les 26 lettres si elle ont indiscernable au toucher.
Théorème
Soit X une v.a de loi uniforme sur {1; 2; · · ·; n}. Alors
E(X) = n+1
2
n2 −1
V ar(X) = 12
Loi de Bernoulli
C’est la plus simple des lois de probabilité. Une variable aléatoire X est dite de Bernoulli si
X(Ω) = {0; 1}. On note
p = P(X = 1); q = 1 − p = P(X = 0)
Exemple
Le jeu de pile ou face (non truqué, p = 0, 5, truqué, p 6= 0, 5).
Théorème
Soit X une v.a de loi de Bernouilli. Alors
E(X) = p
V ar(X) = p(1 − p)
Loi Binomiale
Une variable aléatoire S suit une loi binomiale de paraemètre (n, p) si S(Ω) = {0; 1; 2; . . . , n}, et
pour 0 ≤ k ≤ n, on a
P(S = k) = Cnk pk q n−k ;
où p ∈ [0, 1], q = 1 − p.
— L’espérance d’une variable de Binomiale est E(S) = np.
— La variance est V (S) = npq = np(1 − p).
Remarque 2.6. C’est la loi d’une somme de n variables Xi de Bernoulli indépendantes et de même
paramètre p.
Exemple
On joue n fois à pile ou face avec une pièce non truquée. On suppose les lancés indépendants. Soit S
la variable "nombre de pile obtenus". Si on note Xi la variable définie par Xi = 1 si "pile" au i-ème
lancé, on a
S = X1 + X2 + . . . + Xn
Les variables Xi sont de Bernoulli de paramètre p = 1/2, indépendantes, et S suit une loi Binomiale
de paramètre (n, p = 1/2).
Loi géométrique
P(S = k) = (1 − p)k−1 p.
Lois discrètes
Bernoulli
P(X = 0) = q, P(X = 1) = p p pq pz + q
q =1−p
λk
Poisson P(λ) P(X = k) = e−λ λ λ eλ(z−1)
k!
k = 0, 1, . . .
P(X = k) = pq k−1 1 q pz
Géométrique G(p)
p p2 1 − qz
q = 1 − p, k = 1, 2, . . .
k n−k
CN p CN q
P(X = k) = N −n n
CN
Hypergéométrique Cn q
q =1−p N np npq
N −1 n F (−n, −N p; N q − n + 1; z)
CN
H(N, n, p)
max(0, n − N q) 6 k 6 min(N p, n)
( )r
r−1 rq rq p
Binomiale négative
P(X = k) = Ck+r−1 pr q k
p p2 1 − qz
q = 1 − p, k = 0, 1, . . .
( )r
r−1 r k−r r rq pz
Pascal
P(X = k) = Ck−1 p q
p p2 1 − qz
q = 1 − p, k = r, r + 1, . . .
+∞
∑ a(a + 1) . . . (a + n − 1) b(b + 1) . . . (b + n − 1) z n
Fonction hypergéométrique : F (a, b; c; z) =
n=0
c(c + 1) . . . (c + n − 1) n!
• La somme de n v.a. indépendantes suivant la loi de Bernoulli de paramètre p suit une loi binomiale B(n, p).
• La somme de deux v.a. indépendantes suivant les lois binomiales B(m, p) et B(n, p) suit la loi binomiale B(m + n, p).
• La somme de deux v.a. indépendantes suivant les lois de Poisson P(λ) et P(µ) suit la loi de Poisson P(λ + µ).
• La somme de deux v.a. indépendantes suivant les lois binomiales négatives de paramètres (r, p) et (s, p) suit la loi
binomiale négative de paramètres (r + s, p).
• La somme de r v.a. indépendantes suivant la loi géométrique G(p) suit la loi de Pascal de paramètres (r, p).
Lois absolument continues
(1 ) 2 ( )
Weibull W(λ, a) λaxa−1 e−λx 1l]0,+∞[ (x)
a 1
λ− a Γ +1 λ− a [Γ a2 + 1
a ( )2
−Γ a1 + 1 ]
a
Cauchy C(a, b) non dénie non dénie eibt−a|t|
π(a2 + (x − b)2 )
( )a
λa a a λ
Gamma Γ(a, λ) xa−1 e−λx 1l]0,+∞[ (x)
Γ(a) λ λ2 λ − it
1 a ab
Bêta B(a, b) xa−1 (1 − x)b−1 1l]0,1[ (x) M (a, a + b; it)
B(a, b) a+b (a + b)2 (a + b + 1)
1 n x
Khi-Deux χ2 (n) n x 2 −1 e− 2 1l]0,+∞[ (x) n 2n (1 − 2it)−n/2
2 2 Γ( n2 )
( )− n+1 ( √ )n
Γ( n+1
2 ) x2 2
n 2 |t| n 2 √
Student T (n) √ 1+ 0 si n > 1 si n > 2 K n2 (|t| n)
πn Γ( n2 ) n n−2 Γ( n2 ) 2
n 2n2 (m + n − 2) (m n )
m n m
m 2 n2 x 2 −1 n
Fisher F(m, n) m n 1l]0,+∞[ (x) n−2 m(n − 4)(n − 2)2 M ; − ; − it
B( 2 , 2 ) (mx + n) m+n
2 2 2 m
si n > 2 si n > 4
∫ +∞
Fonction Gamma : Γ(a) = xa−1 e−x dx
0
∫ 1
Fonction Bêta : B(a, b) = xa−1 (1 − x)b−1 dx
0
+∞
∑ a(a + 1) . . . (a + n − 1) z n
Fonction de Kummer : M (a; b; z) =
n=0
b(b + 1) . . . (b + n − 1) n!
( z )ν ∑ +∞ ( )n
π I−ν (z) − Iν (z) 1 z2
Fonction de Bessel modiée : Kν (z) = où Iν (z) =
2 sin πν 2 n=0 n! Γ(n + ν + 1) 4
• La somme de n v.a. indépendantes suivant la loi exponentielle E(λ) suit la loi Gamma Γ(n, λ).
• La somme de deux v.a. indépendantes suivant les lois Gamma Γ(a, λ) et Γ(b, λ) suit la loi Gamma Γ(a + b, λ).
• Si les v.a. indépendantes X et Y suivent les lois Gamma Γ(a, λ) et Γ(b, λ), alors X+YX
suit la loi Bêta B(a, b).
• La somme de deux v.a. indépendantes suivant les lois normales N (m1 , σ1 ) et N (m2 , σ22 ) suit la loi normale
2