0% ont trouvé ce document utile (0 vote)
2 vues14 pages

cenMP2_c

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1/ 14

Variables entièrement décomposables : un corrigé

1 Variables aléatoires entières décomposables


1.A - Premiers exemples
1. Si X ∼ X 0 alors (on sait dans cette question que X(Ω) et X 0 (Ω0 ) sont inclus dans N) ∀k ∈
N, P(X = k) = P0 (X 0 = k) (c’est à dire PX (k) = PX 0 (k)) et ainsi GX = GX 0 .
Réciproquement, si GX = GX 0 alors, on a deux séries entières de rayon de convergence au moins
égal à 1 dont les sommes sont égales. Par unicité des DSE, ∀k ∈ N, P(X = k) = P0 (X 0 = k).
Ainsi, X ∼ X 0 (puisque les variables sont supposées à valeurs dans N).

X ∼ X 0 ⇐⇒ GX = GX 0

2. On a, pour t ∈ [−1, 1] au moins puisqu’alors les variables considérées sont bornées et ont une
espérance, GX (t) = E(tX ) et comme X ∼ Y + Z, E(tX ) = E(tY +Z ) = E(tY tZ ). Comme Y et
Z sont indépendantes, il en est de même de tZ et tZ (par lemme des coalitions) et E(tY tZ ) =
E(tY )E(tZ ). Finalement,

X ∼ Y + Z ⇒ G X = GY G Z

3. Le cours indique que GX (t) = (pt + (1 − p))n . Ce qui nous servira, c’est que GX est un polynôme.

Supposons que X ∼ Y + Z avec Y, Z indépendantes et à valeurs dans N. On a (Y + Z)(Ω0 ) =


X(Ω) = [[0, n]] (ou au moins, Y + Z est presque surement à valeurs dans [[0, n]]). Comme Y, Z
sont à valeurs dans N, on en déduit que Y (Ω0 ) et Z(Ω0 ) sont inclus dans [[0, n]] (ou que Y et
Z 0 sont presque surement à valeurs dans cet ensemble). L’égalité GX = GY GZ est ainsi une
identité entre polynômes. Comme Y, Z ne sont pas presque sûrement nulles (puisque pas presque
surement constantes), deg(GY ) et deg(GZ ) sont ≥ 1. Ainsi deg(GX ) = n ≥ 2.

Réciproquement, supposons n ≥ 2. On peut trouver des variables X1 , . . . , Xn définies sur un


même espace probabilisé, indépendantes et de loi de Bernoulli B(p). S = X1 + · · · + Xn vérifie
GS = GX1 . . . GXn = GX et donc X ∼ S. En posant Y = X1 + · · · + Xn−1 et Z = Xn , on a
X ∼ Y + Z avec Y, Z indépendantes (lemme des coalitions) et non presque sûrement constante.
X est donc décomposable.

X ∼ B(n, p) est décomposable ssi n ≥ 2



3
4. (a) Une étude
√ de fonctions montre que A est décroissante sur ] − ∞, −1/ 2] puis croissante sur
3
[−1/ 2, +∞[. Comme A(−1) =√0 et A(0) > 0, A possède donc exactement deux racines
réelles qui sont −1 et t0 ∈] − 1/ 3 2, 0[. On a donc
1
A(T ) = (T + 1)(T 3 − T 2 + T + 1) = (T + 1)(T − t0 )(T 2 + (t0 − 1)T − )
t0
Notons que le terme de degré 2 n’admet pas de racine réelle et est irreductible dans R.
Supposons que A(T ) = U (T )V (T ) avec U et V à coefficients réels positifs et unitaires
(hypothèse non réductrice puisque l’on peut multiplier le polynôme U par un scalaire pour le
rendre unitaire et V par l’inverse de ce scalaire, V devenant alors unitaire). Si, par l’absurde,
U et V ne sont pas constants et si deg(U ) ≤ deg(V ) (ils jouent des rôles symétriques) on a
deux possibilités :
- deg(U ) = 1 et alors U = (T + 1) et V = (T 3 − T 2 + T + 1) ou U = (T − t0 ) et
V = T 3 + t0 T 2 + (t0 − 1 − t10 )T − t10 . Dans les deux cas, V a un coefficient négatif ce
qui est exclu.

1
- deg(U ) = deg(V ) = 2 et les deux facteurs sont (T + 1)(T − t0 ) et (T 2 + (t0 − 1)T − t10 )
et comme t0 − 1 < 0, on a encore un coefficient négatif.
A + U V ⇒ U ou V est constant
(b) Comme 1/4 + 1/2 + 1/4 = 1, il existe une variable aléatoire X telle que X(Ω) = {0, 1, 2}
et P(X = 0) = 1/4, P(X = 1) = 1/2 et P(X = 2) = 1/4. On a GX (t) = 14 (1 + t)2 . On a en
fait X ∼ B(2, 1/2) et on a vu en question 3 que X est décomposable.
C = X 2 est telle que C(Ω) = {0, 1, 4} et GC (t) = 41 A(t). Si C était décomposable,
alors comme en question 3 on pourrait écrire GC comme produit de deux polynômes non
constants à coefficients positifs (puisque ces polynômes seraient des fonctions génératrices)
et on vient de voir que c’est impossible.
On peut avoir X décomposable et X 2 non décomposable.

1.B - Variables uniformes


5. (a) Supposons, par conditions nécessaires, disposer de Q et R. Pour tout ω ∈ Ω, on a
X(ω) = aQ(ω) + R(ω)
Comme Q(ω) et R(ω) sont des entiers avec 0 ≤ R(ω) ≤ a − 1, Q(ω) et R(ω) sont
nécessairement le quotient et le reste dans la division euclidienne de X(ω) par a.
Réciproquement, notons Q et R les applications définies sur Ω comme ci-dessus. On a
immédiatement X = aQ + R. Il reste à voir si Q et R sont des variables aléatoires. Or,
[
R(Ω) ⊂ [[0, a − 1]] et ∀k ∈ [[0, a − 1]], (R = k) = (X = k + qa)
q∈N

a−1
[
Q(Ω) ⊂ N et ∀q ∈ N, (Q = q) = (X = qa + k)
k=0
ce qui montre que (R = k) et (Q = q) sont des éléments de A (stable par réunion
dénombrable ou fini) et donc que Q, R sont des variables aléatoires.
∃!(Q, R), variable entières sur Ω, telles que X = aQ + R et R(Ω) ⊂ [[0, a − 1]]
(b) On a (Q, R)(Ω) ⊂ N × [[0, a − 1]] et
1

n si aq + k ≤ n − 1
∀(q, k) ∈ N × [[0, a − 1]], P((Q, R) = (q, k)) = P(X = aq + k) =
0 sinon
En reprenant les égalités de la question précédente et comme les réunions mises en jeu sont
disjointes, X
∀k ∈ [[0, a − 1]], P(R = k) = P(X = k + qa)
q∈N
a−1
X
∀q ∈ N, P(Q = q) = P(X = k + qa)
k=0
Il s’agit de compter à k (resp q) fixé combien il y a de q (resp k) tels que 0 ≤ qa + k ≤
n − 1 = ab − 1 (puisque X suit une loi uniforme).
A k fixé, les q convenables sont 0, 1, . . . , b − 1 et il y en a b.
A q fixé dans [[0, b − 1]], il y a a valeurs pour k et si q ≥ b, il n’y en a aucune.
b 1
∀k ∈ [[0, a − 1]], P(R = k) = =
n a
a 1
∀q ∈ [[0, b − 1]], P(Q = q) = =
n b

2
R ∼ U([[0, a − 1]]) et Q ∼ U([[0, b − 1]])
(c) On vient de voir que X = aQ + R et comme a, b ≥ 2, aQ et R ne sont pas des variables
presque sûrement constantes. Ces variables sont indépendantes. En effet, pour 0 ≤ q ≤ b−1
et 0 ≤ k ≤ a − 1,
1
P(Q = q ∩ R = k) = P((Q, R) = (q, k)) = = P(Q = q)P(R = k)
n
X est donc décomposable et GX = GaQ+R = GaQ GR et ainsi
a−1  b−1 !
1 P k P aq
GX (t) = n t t
k=0 q=0

6. (a) Supposons que X soit décomposable et qu’on ait donc X ∼ Y + Z (avec Y, Z indépendantes
et non surement constantes). On a alors GX = GY GZ et, comme en question 1.1.3, GY et
GZ sont des polynômes non constants (et à coefficients dans R+ ). Or,
n−1
1X k
GX (t) = t
n
k=0

Si X est décomposable, il existe donc une décomposition de 1+T +· · ·+T n−1 comme produit
de deux polynômes non constants à coefficients dans R+ . En contraposant, on obtient le
résultat demandé (se ramener au cas de polynôme unitaire ne pose pas de problème car
quitte à multiplier l’un par un scalaire positif - et l’autre par l’inverse - on peut en supposer
un unitaire et l’autre l’est alors aussi).
(b) Les racines de U V sont les racines n-ièmes de 1 différentes de 1. Comme n est premier, il
est égal à 2 ou impair. Si n = 2 le cas est simple (U (T ) = 1 + T et V (T ) = 1 ou l’inverse).
Si n est impair alors −1 n’est pas racine n-ième de 1. Les racines se regoupent donc par
paires de conjuguées qui sont aussi des inverses (e−iθ = e1iθ ).
Comme U est à coefficients réels, deux racines conjuguées se trouvent groupées dans U et
U est de la forme
Yk
U (T ) = (T − eiθk )(T − e−iθk )
j=1

On vérifie alors que


k
Y k
Y
U (T ) = T 2k (1 − eiθk /T )(1 − e−iθk /T ) = T 2k (e−iθk − 1/T )(eiθk − 1/T ) = T 2k U (1/T )
j=1 j=1

On procède de même pour V .


1 1
U (T ) = T r U et V (T ) = T s V
 
T T

(c) Comme U (T ) = T r U ( T1 ), on a l’égalité polynomiale

u0 + u1 T + · · · + ur−1 T r−1 + T r = u0 T r + u1 T r−1 + · · · + ur−1 T + 1

Ceci montre que u0 = 1 (ce que l’énoncé donne sans le justifier) et plus généralement
ur−i = ui .
En regardant le coefficient de T r dans le polynôme U V = 1 + · · · + T n−1 on obtient
r
X
ui vr−i = 1
i=0

3
Comme ur = v0 = 1, on obtient
r−1
X
ui vr−i = 0
i=0
Les uk , vk étant positifs, les termes dans la somme sont positifs et comme la somme est
nulle, ils sont tous nuls. Ainsi

∀i ∈ [[0, r − 1]], ui vr−i = 0

Mais on a vu que ui = ur−i et comme r − i varie dans [[1, r]] quand i varie dans [[0, r − 1]],
on conclut que
∀k ∈ [[1, r]], uk vk = 0
(d) Montrons par récurrence le résultat demandé.
- En regardant le coefficient de degré 1 de U V on obtient u1 + v1 = 1. Comme u1 ou v1
est nul, on a donc u1 et v1 qui sont dans {0, 1}.
- Supposons le résultat vrai jusqu’à un rang k − 1 ≤ r − 1. En regardant le coefficient de
degré k de U V on obtient
k−1
X
vk + ui vk−i + uk = 1
i=1
Chaque élément de la somme vaut 0 ou 1 par hypothèse de récurrence.
S’ils sont tous nuls, uk + vk = 1. Comme uk ou vk est nul, on a donc l’un des deux qui
est nul et l’autre qui vaut 1.
Sinon, la somme vaut au moins 1 et uk + vk ≤ 0 ce qui entraı̂ne uk = vk = 0 (car
uk , vk ≥ 0).
Dans les deux cas, on a uk et vk dans {0, 1}.

∀k ∈ [[1, r]], uk ∈ {0, 1} et vk ∈ {0, 1}

(e) Regardons le coefficient de T r+1 dans U V . On obtient

1 = v1 + v2 ur−1 + · · · + vr u1 + vr+1

Les termes v1 , v2 ur−1 , . . . , vr u1 valent tous 0 ou 1. S’ils sont tous nuls, vr+1 = 1. Sinon
vr+1 ≤ 0 et comme c’est un terme positif, vr+1 = 1. Ainsi vr+1 ∈ {0, 1}. On peut poursuivre
et montrer par récurrence comme en question précédente que

vr+1 , . . . , vs−1 ∈ {0, 1}

L’évaluation de U V en 1 donne alors n = U (1)V (1) avec U (1) ≥ 2 et V (1) ≥ 2 (car r, s ≥ 1)


et ceci contredit la primalité de n.

Si X ∼ U([[0, n − 1]]) et n premier alors X n’est pas décomposable

2 Variables infiniment divisibles : exemples


2.A - Variables bornées
7. On suppose X constante égale à a. Pour tout m ∈ N∗ , on peut trouver m variables mutuelle-
a
ment indépendantes Xm,i et toutes constantes à m (résultat admis par l’énoncé). La variable
Xm,1 + · · · + Xm,m est alors constante égale à a et a donc même loi que X.

4
Une variable constante est infiniment divisible

8. (a) On a évidemment
n  
\ M
Xi > ⊂ (X1 + · · · + Xn > M )
n
i=1
En passant aux probabilités, et par indépendance des Xi ,
n  
Y
0 M
P Xi > ≤ P0 (X1 + · · · + Xn > M )
n
i=1

Comme X ∼ X1 + · · · + Xn , le membre de droite vaut P(X > M ) et est donc nul. Comme
le membre de gauche est positif, il est en fait nul et
 
0 M
∃ i/ P Xi > =0
n
Comme les Xi , ont même loi, on en déduit que
 
0 M
∀i, P Xi > =0
n
On prouve de même que  
0 −M
∀i, P Xi < =0
n
Ainsi, P0 (|Xi | > M/n) = P0 (Xi > M/n ∪ Xi < −M/n) = P0 (Xi > M/n) + P0 (Xi < −M/n)
(événements incompatibles) et cette quantité est nulle. Donc
 
0 M
∀i, P |Xi | > =0
n
et finalement, en passant à l’événement contraire,

∀i, P0 |Xi | ≤ M

n =1

(b) Les variables considérées ici sont presque surement bornée et admettent donc des espérance
et variance.
Xi est presque surement à valeurs dans [−M/n, M/n] et donc Xi2 est presque surement à
2
valeurs dans [0, M 2 /n2 ]. Ainsi E(Xi2 ) ≤ Mn2
(croissance de l’espérance).
Les Xi étant indépendantes, V(X1 + · · · + Xn ) = V(X1 ) + · · · + V(Xn ). Or, V(Xi ) =
2 2
E(Xi2 ) − E(Xi )2 ≤ E(Xi2 ) ≤ M n2
et donc V(X1 + · · · + Xn ) ≤ Mn .
Comme X et X1 + · · · + Xn ont même loi,
M2
V(X) ≤ n

9. Ceci a lieu pour tout n et on peut faire tendre n vers l’infini pour obtenir V(X) = 0 et ainsi

X est presque sûrement constante

En effet, V(X) = 0 s’écrit, en posant m = E(X),


X
(x − m)2 P(X = x)
x∈X(Ω)

Si cette somme est nulle, alors tous les termes le sont et x = m dès que P(X = x) 6= 0. X est
donc presque surement égale à m.

5
2.B - Etude du caractère infiniment divisible de quelques variables entières
10. Une variable binomiale est bornée (puisque finie). La partie précédente montre qu’elle n’est
infiniment divisible que si elle est constante. Ainsi

Si X ∼ B(n, p) avec p ∈]0, 1[, X n’est pas infiniment divisible

Si p = 0 ou p = 1 la variable est presque surement constante et donc infiniment divisible.


11. Le cours nous indique que si X ∼ P(λ) alors GX (t) = eλ(t−1) . Si X1 , . . . , Xn sont indépendantes,
on a de plus GX1 +···+Xn = GX1 . . . GXn (avec la question 2 et à l’aide d’une récurrence utilisant
le lemme des coalitions).
Dans le cadre de la question GX1 +···+Xn (t) = e(λ1 +···+λn )(t−1) . On reconnaı̂t la fonction génératrice
d’une loi de Poisson de paramètre λ1 + · · · + λn et avec la question 1

X1 + · · · + Xn ∼ P(λ1 + · · · + λn )

12. On suppose X ∼ P(λ). Soit m ∈ N∗ . On peut trouver m variables indépendantes Xm,i suivant
la loi de Poisson de paramètre λ/m. On a alors X ∼ Xm,1 + · · · + Xm,m .

Si X ∼ P(λ) alors X est infiniment divisible

13. Je propose deux approches.


- Première preuve
Le programme indique que l’on admet le résultat suivant : “étant donnée une suite de lois
Lj discrètes données, il existe un espace probabilisé et une suite de variables indépendantes
Zj sur celui-ci tels que la loi de Zj soit Lj ”.

Ici, chaque Xi suit une loi de Poisson avec un certain paramètre λi . On considère la famille
de lois Li,j = P(λi /m) pour i ∈ [[1, r]] et j ∈ [[1, m]] et on trouve ainsi, sur un même espace
probabilisé, des variables indépendantes Yi,j associées. On a alors
m
X
Xi ∼ Yi,j
j=1

Posons alors
r
X
Zj = iYi,j
i=1

Par lemme des coalitions, les variables Z1 , . . . , Zm sont mutuellement indépendantes et par
indépendances des iYi,j (lemme des coalitions encore)
r
Y
GZ j = GiYi,j
i=1

Mais comme Yi,j ∼ Yi,1 , on a aussi iYi,j ∼ iYi,1 et donc GZj = GZ1 . Ainsi, les Zj suivent
toutes la même loi.
Pr Pm
Il nous reste à voir que i=1 iXi ∼ j=1 Zj . Pour cela, on remarque que
 
m
X m X
X r r
X m
X
Zj = iYi,j = i Yi,j 
j=1 j=1 i=1 i=1 j=1

6
On a, pour tout i, iXi ∼ i m
P Pm
j=1 Yi,j et chacune des familles (iXi ) et (i j=1 Yi,j ) est
composée de variables indépendantes. On en déduit que les sommes ont mêmes fonctions
génératrices et donc que  
X r Xm r
X
i Yi,j  ∼ iXi
i=1 j=1 i=1

ce qui nous manquait.


- Seconde preuve.
Chacune des variables Xi est infiniment divisible et il en est de même des iXi (il suffit de
multiplier par i les variables de la décomposition). Pour conclure, il suffit donc de montrer
qu’une somme de variables entières indépendantes et infiniment divisibles à l’aide de va-
riables entières est infiniment divisible. Et quitte à conclure par une récurrence simple, il
suffit de traiter le cas d’une somme de deux variables.
Soient donc X et Y infiniment divisibles et indépendantes. Soit m ∈ N∗ . On a alors
une décomposition X ∼ X1 + · · · + Xm où les Xi sont indépendantes de même loi et
Y ∼ Y1 +· · ·+Ym où les Yi sont indépendantes de même loi. Notons F la fonction génératrice
de X1 et H celle de Y1 en sorte que GX = F m et GY = H m .
F H = A est une fonction DSE de rayon de convergence au moins 1. La suite (an ) de ses
coefficients est le produit de Cauchy des suites (fn ) et (hn ) des coefficients de F et H.
Comme les fi et hi sont positifs, les an le sont aussi. De plus, l’égalité F H = A est valable
sur [−1, 1] (car il y a convergence normale sur [−1, 1] donc absolue en tout point de [−1, 1]).
Ainsi A(1) = F (1)H(1).
Finalement, A peut s’interpréter comme la fonction génératrice d’une variable aléatoire Z.
On peut alors trouver m variables indépendantes Zi de même loi que Z. Z1 +· · ·+Zm a pour
fonction génératrice Am = F m H m = GX GY = GX+Y (car X et Y sont indépendantes).
On en déduit que X + Y ∼ Z1 + · · · + Zm et on conclut.
On a ainsi prouvé de deux façons que

n
P
iXi est infiniment divisible
i=1

2.C - Séries de variables aléatoires à valeurs entières


14. (a) On remarque que A ∪ B est la réunion disjointe de A ∩ B, A ∩ B et A ∩ B. On a donc

P(A ∪ B) = P(A ∩ B) + P(A ∩ B) + P(A ∩ B)

Comme P(A ∪ B) = P(A) + P(B) − P(A ∩ B), on en déduit que

P(A) + P(B) − 2P(A ∩ B) = P(A ∩ B) + P(A ∩ B)

Comme P(A ∩ B) est plus petit que P(A) et que P(B) on a donc P(B) − P(A) et son opposé
plus petits que P(A ∩ B) + P(A ∩ B).

|P(A) − P(B)| 6 P(A ∩ B) + P(A ∩ B)


(b) En particulier, on a |P(X = n) − P(Y = n)| ≤ P(X = n ∩ Y 6= n) + P(X 6= n ∩ Y = n) pour
tout n . On somme les inégalités sous reserve d’existence :

X ∞
X
|P(X = n) − P(Y = n)| ≤ (P(X = n ∩ Y 6= n) + P(X 6= n ∩ Y = n))
n=0 n=0

7
Les événements (X = n) ∩ (Y 6= n) sont incompatibles et tous inclus dans (X 6= Y ). Il en
est de même pour les événements (X 6= n) ∩ (Y = n). Le majorant est donc plus petit que
2P(X 6= Y ). Ceci justifie les existences (car on somme des quantités positives) et donne

X
|P(X = n) − P(Y = n)| ≤ 2P(X 6= Y )
n=0

Pour t ∈ [−1, 1], on a |P(X = n)tn − P(Y = n)tn | ≤ |P(X = n) − P(Y = n)| qui est le terme
général d’une
P série convergente avec ce qui précède.
On a donc ((P(X = n)tn − P(Y = n))tn )n∈N qui converge et est de somme en module
inférieure à 2P(X 6= Y ).
∀t ∈ [−1, 1], |GX (t) − GY (t)| 6 2P(X 6= Y )
15. (a) Si on peut trouver i ≥ n + 1 tel que Ui (ω) 6= 0, on peut a fortiori trouver un i ≥ n. Ainsi
Zn+1 ⊂ Zn . On remarque que
+∞
[
Zn = (Ui 6= 0)
i=n
P
Comme (P(Ui 6= 0)) converge, on en déduit (reste de série convergente) que
+∞
X
0 ≤ P(Zn ) ≤ P(Ui 6= 0) → 0
i=n

(Zn ) décroı̂t et P(Zn ) → 0


(b) Par continuité décroissante, on a aussi
n +∞
! !
\ \
0 = lim P(Zn ) = lim P Zk =P Zk
n→+∞ n→+∞
k=1 k=1

Il est ainsi quasiment impossible qu’une infinité des événement Zk soient satisfaits simul-
tanément (car une infinité de Zk sont satisfaits, ils le sont tous par décroissance). Ainsi,
l’ensemble des ω pour lesquels il existe une infinité de i tels que Ui (ω) 6= 0 est de probabilité
nulle. Autrement dit
{i ∈ N∗ / Ui 6= 0} est presque sûrement fini
(c) Notons C l’ensemble des ω ∈ Ω tels qu’il n’existe qu’un nombre fini de i pour lesquels
Ui (ω) 6= 0. Si ω ∈ C alors S(ω) existe (comme somme finie). S est définie au moins sur C
qui est de probabilité 1 (question précédente) et donc
S est donc définie presque sûrement
Avec la question 14.b, on a

∀t ∈ [−1, 1], |GSn (t) − GS (t)| ≤ 2P(Sn 6= S)

On en déduit que
kGSn − GS k∞,[−1,1] ≤ 2P(Sn 6= S)
La suite d’événements ((Sn 6= S))n∈N∗ est décroissante car les Ui sont à valeurs positives.
Comme plus haut, la continuité décroissante donne

!
\
lim P(Sn 6= S) = P (Sn 6= S) = P(C) = 0
n→+∞
n=1

8
(GSn ) converge uniformément vers GS sur [−1, 1]
Plusieurs problèmes pour parler de GS , se posent : (ce n’est pas l’essentiel ie pas une
priorité !)
(i) : S est à valeurs dans N = N ∪ {+∞} mais à valeurs dans N presque sûrement.
(ii) : L’énoncé ne se préoccupe pas du fait que S est une variable aléatoire. Je déconseillerai
à un candidat au temps limité de le faire.
Pour montrer cela, on remarque que S est une application bien définie à valeurs dans
N qui est dénombrable.
Pour k ∈ N, on a
  
[ \ \
(S = k) = (Sn = k)  (Ui = 0) ∈ A
n∈N i≥=n+1

et (S = +∞) = Ω \ C ∈ A.
Ainsi S est bien une variable aléatoire presque sûrement à valeurs dans N ce qui autorise
la définition de GS .
16. (a) On a P(Xi 6= 0) = 1 − P(Xi = 0) = 1 − e−λi ∼ λi car λi → 0 (ou 0 ≤ P(Xi 6= 0) ≤ λi par
inégalité de convexité si on est gêné par le fait que λi peu être nul). Par comparaison des
séries positives,
P
P(Xi 6= 0) converge
(b) On est dans le cadre de la question 15 et X = ∞
P
i=1 Xi est définie presque sûrement. De
plus, la fonction génératrice GX est la limite uniforme sur [−1, 1] de la suite de fonctions
de terme général
n n
!
Y X
λi (t−1)
GX1 +···+Xn = GX1 . . . GXn : t 7→ e = exp (t − 1) λi
i=1 i=1

La limite uniforme de cette suite de fonctions est aussi sa limite simple et ainsi

!
X
∀t ∈ [−1, 1], GX (t) = exp (t − 1) λi
i=1

On reconnaı̂t la fonction génératrice d’une loi de Poisson.


P∞ P∞
i=1 Xi ∼ P ( i=1 λi )

(c) De même, P(iXi 6= 0) = 1 − P(iXi = 0)P= 1 = e−λi ∼ λi est le terme général d’une série
convergente. La variable aléatoire X = ∞ i=1 iXi est donc définie presque sûrement (noter
que les iXi sont indépendantes et qu’on est donc dans le cadre précédent). Sa fonction
génératrice
Pn est la limite uniforme de la suite (Gn ) où Gn est la fonction génératrice de
Sn = i=1 iXi .
Soit m ∈ N∗ . Avec 13 il existe des variables entières Yn,i indépendantes de même loi telles
que Sn ∼ Yn,1 + · · · + Yn,m .
On a alors ∀t ∈ [−1, 1], Gn (t) = Fn (t)m où Fn est la fonction génératrice de Yn,1 . Fn (t) =
Gn (t)1/m → GX (t)1/m . En posant F (t) = GX (t)1/m , on a alors GX (t) = F (t)m . On pourra
conclure comme en 13 si on montre que F (t) est la fonction génératrice d’une variable
aléatoire.
Remarquons alors que

X
GiXi (t) = P(Xi = k)tik = GXi (ti )
k=0

9
en sorte que
n n n n
! !
λi (ti −1)
Y Y X X
i
Gn = GiXi : t 7→ e = exp − λi × exp λi t
i=1 i=1 i=1 i=1

et donc que
∞ ∞
! !
X X
i
∀t ∈ [−1, 1], GX (t) = exp − λi × exp λi t
i=1 i=1
ou encore que
∞ ∞
! !
X λi X λi
∀t ∈ [−1, 1], F (t) = exp − × exp ti
m m
i=1 i=1

C’est bien la fonction génératrice d’une variable aléatoire : il suffit de reprendre le calcul
de la question en travaillant avec µi = λi /m au lieu de λ.

P
iXi est infiniment divisible
i=1

3 Variables entières infiniment divisibles : étude générale


3.A - Série entière auxiliaire
17. Si la suite (λi ) convient alors, on a nécessairement

P(X = 1)
λ1 =
P(X = 0)
 
k−1
1 X
∀k ≥ 2, λk = kP(X = k) − jλj P(X = k − j)
kP(X = 0)
j=1

Réciproquement, ceci définit bien une suite de manière récurrente (pour définir λk , on n’utilise
que les valeurs précédemment définies) et elle vérifie les relations demandées.
Remarque
P0 : la formule générale pour k ≥ 2 est encore valable si k = 1 en convenant que
y
j=1 j = 0.

k
X
∃ !(λi )i∈N∗ , ∀k ∈ N∗ , kP(X = k) = jλj P(X = k − j)
j=1

18. On multiplie la relation précédente par P(X = 0) et on passe au module puis on utilise l’inégalité
triangulaire :
k−1
X j
∀k ≥ 1, |λk |P(X = 0) ≤ P(X = k) + |λj |P(X = k − j)
k
j=1
j
Les quantités k étant ≤ 1, on en déduit que

k−1
X
∀k ≥ 1, |λk |P(X = 0) ≤ P(X = k) + |λj |P(X = k − j)
j=1

En remarquant que P(X = k − j) ≤ 1 − P(X = 0) quand k − j 6= 0, on en déduit que

10
 
k−1
X
∀k ≥ 1, |λk |P(X = 0) ≤ (1 − P(X = 0)) 1 + |λj |
j=1

19. On prouve le résultat par récurrence sur k.


P(X=1) P(X=1) 1
- On a 1 + |λ1 | = 1 + P(X=0) ≤ P(X=0) ≤ P(X=0) . Le résultat est donc vrai au rang 1.
- Supposons le résultat vrai jusqu’au rang k − 1. On a donc
k−1
X 1
1+ |λj | ≤ (∗)
P(X = 0)k−1
j=1

La question précédente donne alors

1 − P(X = 0)
|λk |P(X = 0) ≤ (∗∗)
P(X = 0)k−1

En sommant (∗) et (∗∗) divisée par P(X = 0), on en déduit que


k
X 1 1 − P(X = 0) 1
1+ |λj | ≤ k−1
+ k
=
P(X = 0) P(X = 0) P(X = 0)k
j=1

ce qui donne le résultat au rang k.

k
X 1
1+ |λj | 6
P(X = 0)k
j=1

20. En particulier, |λk |P(X = 0)k ≤ P(X = 0)k kj=1 |λj | ≤ 1. La suite (λk P(X = 0)k ) est donc
P

λk tk est de rayon de convergence


P
bornée. Par définition du rayon de convergence,

ρ(X) ≥ P(X = 0)

21. Comme on peut dériver terme à terme les séries entières sur l’intervalle ouvert de convergence,
on a
X∞
∀t ∈] − αX , αX [, G0X (t) = (n + 1)P(X = n + 1)tk
n=0

X
0
∀t ∈] − αX , αX [, HX (t) = (k + 1)λk+1 tk
k=0

Pour t ∈] − αX , αX [, les séries définissant 0 (t)


HX
et GX (t) sont absolument convergentes. Le
produit des quantités est alors la somme d’un produit de Cauchy :

X n
X
0 n
HX (t)GX (t) = µn t avec µn = (k + 1)λk+1 P(X = n − k)
n=0 k=0

Le changement d’indice j = k + 1 montre que


n+1
X
µn = jλj P(X = n + 1 − j) = (n + 1)P(X = n + 1)
j=1

On a finalement montré que

11
0 (t)G (t) = G0 (t)
∀t ∈] − αX , αX [, HX X X

On sait résoudre cette équation différentielle. Il existe une constante c telle que

∀t ∈] − αX , αX [, GX (t) = c exp(HX (t))

et comme GX (0) = P(X = 0) et HX (0) = ln(P(X = 0)), c = 1.

∀t ∈] − αX , αX [, GX (t) = exp(HX (t))

22. Pour |t| < min(ρ(X), ρ(Y ), 1), on a

HX+Y (t) = ln(GX+Y (t)) = ln(GX (t)GY (t)) = ln(GX (t)) + ln(GY (t)) = HX (t) + HY (t)

L’égalité étant valable sur un intervalle ] − r, r[ avec r > 0, les coefficients des séries entières sont
égaux et l’égalité est en fait vraie pour |t| < min(ρ(X), ρ(Y )).

3.B - Variables aléatoires entières λ-positives


23. Si les λj sont positifs, la relation obtenue en 3.1.1 donne immédiatement

P(X = k)
∀k ≥ 1, 0 ≤ λk ≤
P(X = 0)
Le majorant est le terme général d’une série positive convergente (sommes partielles majorées
par 1−P(X=0)
P(X=0) ). Par théorème de comparaison des séries positives,
P
(λk ) converge

24. En particulier, le rayon de convergence ρ(X) de (λk tk ) est plus grand que 1. Mieux, la série
P
entière définissant HX est normalement convergente sur [−1, 1]. Il en est de même pour celle
définissant GX . La partie 3.1 donne une identité valable sur ] − 1, 1[ et qui le reste sur [−1, 1]
(par passage à la limite aux bornes). Ainsi

∀t ∈ [−1, 1], GX (t) = exp(HX (t))

La relation pour t = 1 donne



X ∞
X
ln(P(X = 0)) = HX (1) − λk = ln(GX (1)) − λk
k=1 k=1
P∞
Comme GX (1) = k=0 P(X = k) = 1, on conclut que

P
λk = − ln (P(X = 0))
k=1

25. Remarquons tout d’abord que



X
GiXi (t) = P(Xi = k)tik = GXi (ti )
k=0
Pn
Posons Sn = i=1 iXi . On a
n n n n
! !
(ti −1)
Y Y X X
GSn = GiXi : t 7→ eλi = exp − λi × exp λi ti
i=1 i=1 i=1 i=1

12
P∞
On obtient la fonction génératrice de S = i=1 iXi en passant à la limite (d’après la partie 2)
et ainsi
∞ ∞
! !
X X
i
∀t ∈ [−1, 1], GS (t) = exp − λi × exp λi t = exp(HX (t)) = GX (t)
i=1 i=1

On conclut donc

P
X∼S= iXi
i=1

3.C - Caractérisation des variables entières infiniment divisibles


Dans les questions suivantes, je note Sn = Xn,1 + · · · + Xn,n qui a la même loi que X. Les variables
S et X ne sont pas forcément définies sur le même espace probabilisé mais pour la simplicité de la
rédaction, on utilisera toujours le symbole P et on écrira ainsi P(Sn = k) = P(X = k) (au lieu de
P0 (Sn = k) = P(X = k))
26. (a) On a
n
\
(Xn,k < 0) ⊂ (Sn < 0)
k=1

On en déduit que
n
!
\
0≤P (Xn,k < 0) ≤ P(Sn < 0) = 0
k=1

Par indépendance des Xn,k ,


n
Y
P(Xn,k < 0) = 0
k=1

il existe donc un k tel que P(Xn,k < 0) = 0. Comme les Xn,j ont tous la même loi,
P(Xn,1 < 0) et Xn,1 est presque sûrement positive ou nulle .
(b) On a
P(Sn = 0) = P(Sn = 0|Xn,1 , . . . , Xn,n ≥ 0)P(Xn,1 , . . . , Xn,n ≥ 0)
Mais par indépendance,
n
Y
P(Xn,1 , . . . , Xn,n ≥ 0) = P(Xn,k ≥ 0) = 1
k=1

et par ailleurs
n
Y
P(Sn = 0|Xn,1 , . . . , Xn,n ≥ 0) = P(Xn,1 = 0 ∩ · · · ∩ Xn,n = 0) = P(Xn,k = 0)
k=1

En conclusion,
n
Y
P(Sn = 0) = P(Xn,k = 0)
k=1

Cette quantité étant non nulle, aucun des facteurs ne l’est et


P(Xn,1 = 0) > 0

13
(c) Soit k ∈ N. L’événement (Xn,1 ∈]i, i + 1[) ∩ (Xn,2 = 0) ∩ · · · ∩ (Xn,n = 0) est impossible
puisque Sn est à valeurs dans N. Par indépendance des variables,
P(Xn,1 ∈]i, i + 1[)P(Xn,2 = 0) . . . P(Xn,n = 0) = 0
Les P(Xn,k = 0) étant non nuls, P(Xn,1 ∈]i, i + 1[) = 0. Ceci étant vrai pour tout i, on
conclut que
Xn,1 (et donc tous les Xn,k ) est presque surement à valeurs entières
P(X=0)
27. (a) On sait que P(Xn,1 = 0)n = P(X = 0) > 0. Ainsi P(Xn,1 = 0) = e n → 1.
lim P (Xn,1 = 0) = 1
n→∞

(b) On a 0 ≤ P(Xn,1 ≥ 1) ≤ 1 − P(Xn,1 ) → 0 quand n → +∞. Comme 0 ≤ P(Xn,1 = i) ≤


P(Xn,1 ≥ 1) pour tout i ≥ 1, on en déduit que
∀i ∈ N∗ , lim P (Xn,1 = i) = 0
n→∞

28. Comme 0 ≤ P(X = 0) ≤ P(Xn,1 = 0), les séries entières Hn et HX ont un rayon de convergence
convergence au moins égal à P(X = 0) (question 20). Ci-dessous, les égalités entre séries entières
ont donc au moins lieu sur I =] − P(X = 0), P(X = 0)[ et comme P(X = 0) > 0, cela suffit pour
une éventuelle identification des coefficients des séries entières. Dans la suite, les égalités entre
fonctions sont à comprendre comme des égalités sur I.
(a) On a GX = ni=1 GXi,n = GnX1,n . En passant au logarithme, on en déduit que
Q

nHn = HX
(b) On peut alors identifier les coefficients des séries entières comme indiqué plus haut pour
conclure que, pour k, n ∈ N∗,
nλk (X1,n ) = λk (X)
où on note λk (Y ) le coefficients λk associé à la variable Y . Ainsi
k
X k
X
jλj (X)P (Xn,1 = k − j) = n jλj (X1,n )P (Xn,1 = k − j) = nkP (Xn,1 = k)
j=1 j=1

29. On fixe k ∈ N∗ . Pour j ∈ [|1, k − 1|], P (Xn,1 = k − j) → 0 quand n → +∞ alors que


P (Xn,1 = 0) → 1. Le passage à la limite n → +∞ dans la relation de la question précédente
donne donc
∀k ∈ N∗ , lim nP(Xn,1 = k) = λk
n→+∞

Les λk sont donc tous positifs comme limite de quantités positives et X est λ-positive .
30. (a) On vient de voir que si X est infiniment divisible, elle est λ-positive. (ii) ⇒ (iii) provient
de 25. La dernière implication provient de 16.c (si X ∼ Y et Y est infiniment divisible,
alors X l’est aussi).
(b) Dans le cas d’une variable à valeurs dans N∗ , on a P(X = 0) = 0. Si P(X = 1) 6= 0, il suffit
de travailler avec la variable Y = X − 1 qui est à valeur dans N. X est infiniment divisible
si et seulement si Y l’est et on peut appliquer ce qui précède à Y .
(c) Y = X − 1 suit la loi P(Y = k) = p(1 − p)k , la suite λ associée est la suite des coefficients
du DSE de
HY (t) = ln(GY (t)) = ln(p) − ln(1 − (1 − p)t)
On a donc
(1 − p)j
∀j ≥ 1, λj = ≥0
j
Y est donc infiniment divisible et X l’est donc aussi.

14

Vous aimerez peut-être aussi