cenMP2_c
cenMP2_c
cenMP2_c
X ∼ X 0 ⇐⇒ GX = GX 0
2. On a, pour t ∈ [−1, 1] au moins puisqu’alors les variables considérées sont bornées et ont une
espérance, GX (t) = E(tX ) et comme X ∼ Y + Z, E(tX ) = E(tY +Z ) = E(tY tZ ). Comme Y et
Z sont indépendantes, il en est de même de tZ et tZ (par lemme des coalitions) et E(tY tZ ) =
E(tY )E(tZ ). Finalement,
X ∼ Y + Z ⇒ G X = GY G Z
3. Le cours indique que GX (t) = (pt + (1 − p))n . Ce qui nous servira, c’est que GX est un polynôme.
1
- deg(U ) = deg(V ) = 2 et les deux facteurs sont (T + 1)(T − t0 ) et (T 2 + (t0 − 1)T − t10 )
et comme t0 − 1 < 0, on a encore un coefficient négatif.
A + U V ⇒ U ou V est constant
(b) Comme 1/4 + 1/2 + 1/4 = 1, il existe une variable aléatoire X telle que X(Ω) = {0, 1, 2}
et P(X = 0) = 1/4, P(X = 1) = 1/2 et P(X = 2) = 1/4. On a GX (t) = 14 (1 + t)2 . On a en
fait X ∼ B(2, 1/2) et on a vu en question 3 que X est décomposable.
C = X 2 est telle que C(Ω) = {0, 1, 4} et GC (t) = 41 A(t). Si C était décomposable,
alors comme en question 3 on pourrait écrire GC comme produit de deux polynômes non
constants à coefficients positifs (puisque ces polynômes seraient des fonctions génératrices)
et on vient de voir que c’est impossible.
On peut avoir X décomposable et X 2 non décomposable.
a−1
[
Q(Ω) ⊂ N et ∀q ∈ N, (Q = q) = (X = qa + k)
k=0
ce qui montre que (R = k) et (Q = q) sont des éléments de A (stable par réunion
dénombrable ou fini) et donc que Q, R sont des variables aléatoires.
∃!(Q, R), variable entières sur Ω, telles que X = aQ + R et R(Ω) ⊂ [[0, a − 1]]
(b) On a (Q, R)(Ω) ⊂ N × [[0, a − 1]] et
1
n si aq + k ≤ n − 1
∀(q, k) ∈ N × [[0, a − 1]], P((Q, R) = (q, k)) = P(X = aq + k) =
0 sinon
En reprenant les égalités de la question précédente et comme les réunions mises en jeu sont
disjointes, X
∀k ∈ [[0, a − 1]], P(R = k) = P(X = k + qa)
q∈N
a−1
X
∀q ∈ N, P(Q = q) = P(X = k + qa)
k=0
Il s’agit de compter à k (resp q) fixé combien il y a de q (resp k) tels que 0 ≤ qa + k ≤
n − 1 = ab − 1 (puisque X suit une loi uniforme).
A k fixé, les q convenables sont 0, 1, . . . , b − 1 et il y en a b.
A q fixé dans [[0, b − 1]], il y a a valeurs pour k et si q ≥ b, il n’y en a aucune.
b 1
∀k ∈ [[0, a − 1]], P(R = k) = =
n a
a 1
∀q ∈ [[0, b − 1]], P(Q = q) = =
n b
2
R ∼ U([[0, a − 1]]) et Q ∼ U([[0, b − 1]])
(c) On vient de voir que X = aQ + R et comme a, b ≥ 2, aQ et R ne sont pas des variables
presque sûrement constantes. Ces variables sont indépendantes. En effet, pour 0 ≤ q ≤ b−1
et 0 ≤ k ≤ a − 1,
1
P(Q = q ∩ R = k) = P((Q, R) = (q, k)) = = P(Q = q)P(R = k)
n
X est donc décomposable et GX = GaQ+R = GaQ GR et ainsi
a−1 b−1 !
1 P k P aq
GX (t) = n t t
k=0 q=0
6. (a) Supposons que X soit décomposable et qu’on ait donc X ∼ Y + Z (avec Y, Z indépendantes
et non surement constantes). On a alors GX = GY GZ et, comme en question 1.1.3, GY et
GZ sont des polynômes non constants (et à coefficients dans R+ ). Or,
n−1
1X k
GX (t) = t
n
k=0
Si X est décomposable, il existe donc une décomposition de 1+T +· · ·+T n−1 comme produit
de deux polynômes non constants à coefficients dans R+ . En contraposant, on obtient le
résultat demandé (se ramener au cas de polynôme unitaire ne pose pas de problème car
quitte à multiplier l’un par un scalaire positif - et l’autre par l’inverse - on peut en supposer
un unitaire et l’autre l’est alors aussi).
(b) Les racines de U V sont les racines n-ièmes de 1 différentes de 1. Comme n est premier, il
est égal à 2 ou impair. Si n = 2 le cas est simple (U (T ) = 1 + T et V (T ) = 1 ou l’inverse).
Si n est impair alors −1 n’est pas racine n-ième de 1. Les racines se regoupent donc par
paires de conjuguées qui sont aussi des inverses (e−iθ = e1iθ ).
Comme U est à coefficients réels, deux racines conjuguées se trouvent groupées dans U et
U est de la forme
Yk
U (T ) = (T − eiθk )(T − e−iθk )
j=1
Ceci montre que u0 = 1 (ce que l’énoncé donne sans le justifier) et plus généralement
ur−i = ui .
En regardant le coefficient de T r dans le polynôme U V = 1 + · · · + T n−1 on obtient
r
X
ui vr−i = 1
i=0
3
Comme ur = v0 = 1, on obtient
r−1
X
ui vr−i = 0
i=0
Les uk , vk étant positifs, les termes dans la somme sont positifs et comme la somme est
nulle, ils sont tous nuls. Ainsi
Mais on a vu que ui = ur−i et comme r − i varie dans [[1, r]] quand i varie dans [[0, r − 1]],
on conclut que
∀k ∈ [[1, r]], uk vk = 0
(d) Montrons par récurrence le résultat demandé.
- En regardant le coefficient de degré 1 de U V on obtient u1 + v1 = 1. Comme u1 ou v1
est nul, on a donc u1 et v1 qui sont dans {0, 1}.
- Supposons le résultat vrai jusqu’à un rang k − 1 ≤ r − 1. En regardant le coefficient de
degré k de U V on obtient
k−1
X
vk + ui vk−i + uk = 1
i=1
Chaque élément de la somme vaut 0 ou 1 par hypothèse de récurrence.
S’ils sont tous nuls, uk + vk = 1. Comme uk ou vk est nul, on a donc l’un des deux qui
est nul et l’autre qui vaut 1.
Sinon, la somme vaut au moins 1 et uk + vk ≤ 0 ce qui entraı̂ne uk = vk = 0 (car
uk , vk ≥ 0).
Dans les deux cas, on a uk et vk dans {0, 1}.
1 = v1 + v2 ur−1 + · · · + vr u1 + vr+1
Les termes v1 , v2 ur−1 , . . . , vr u1 valent tous 0 ou 1. S’ils sont tous nuls, vr+1 = 1. Sinon
vr+1 ≤ 0 et comme c’est un terme positif, vr+1 = 1. Ainsi vr+1 ∈ {0, 1}. On peut poursuivre
et montrer par récurrence comme en question précédente que
4
Une variable constante est infiniment divisible
8. (a) On a évidemment
n
\ M
Xi > ⊂ (X1 + · · · + Xn > M )
n
i=1
En passant aux probabilités, et par indépendance des Xi ,
n
Y
0 M
P Xi > ≤ P0 (X1 + · · · + Xn > M )
n
i=1
Comme X ∼ X1 + · · · + Xn , le membre de droite vaut P(X > M ) et est donc nul. Comme
le membre de gauche est positif, il est en fait nul et
0 M
∃ i/ P Xi > =0
n
Comme les Xi , ont même loi, on en déduit que
0 M
∀i, P Xi > =0
n
On prouve de même que
0 −M
∀i, P Xi < =0
n
Ainsi, P0 (|Xi | > M/n) = P0 (Xi > M/n ∪ Xi < −M/n) = P0 (Xi > M/n) + P0 (Xi < −M/n)
(événements incompatibles) et cette quantité est nulle. Donc
0 M
∀i, P |Xi | > =0
n
et finalement, en passant à l’événement contraire,
∀i, P0 |Xi | ≤ M
n =1
(b) Les variables considérées ici sont presque surement bornée et admettent donc des espérance
et variance.
Xi est presque surement à valeurs dans [−M/n, M/n] et donc Xi2 est presque surement à
2
valeurs dans [0, M 2 /n2 ]. Ainsi E(Xi2 ) ≤ Mn2
(croissance de l’espérance).
Les Xi étant indépendantes, V(X1 + · · · + Xn ) = V(X1 ) + · · · + V(Xn ). Or, V(Xi ) =
2 2
E(Xi2 ) − E(Xi )2 ≤ E(Xi2 ) ≤ M n2
et donc V(X1 + · · · + Xn ) ≤ Mn .
Comme X et X1 + · · · + Xn ont même loi,
M2
V(X) ≤ n
9. Ceci a lieu pour tout n et on peut faire tendre n vers l’infini pour obtenir V(X) = 0 et ainsi
Si cette somme est nulle, alors tous les termes le sont et x = m dès que P(X = x) 6= 0. X est
donc presque surement égale à m.
5
2.B - Etude du caractère infiniment divisible de quelques variables entières
10. Une variable binomiale est bornée (puisque finie). La partie précédente montre qu’elle n’est
infiniment divisible que si elle est constante. Ainsi
X1 + · · · + Xn ∼ P(λ1 + · · · + λn )
12. On suppose X ∼ P(λ). Soit m ∈ N∗ . On peut trouver m variables indépendantes Xm,i suivant
la loi de Poisson de paramètre λ/m. On a alors X ∼ Xm,1 + · · · + Xm,m .
Ici, chaque Xi suit une loi de Poisson avec un certain paramètre λi . On considère la famille
de lois Li,j = P(λi /m) pour i ∈ [[1, r]] et j ∈ [[1, m]] et on trouve ainsi, sur un même espace
probabilisé, des variables indépendantes Yi,j associées. On a alors
m
X
Xi ∼ Yi,j
j=1
Posons alors
r
X
Zj = iYi,j
i=1
Par lemme des coalitions, les variables Z1 , . . . , Zm sont mutuellement indépendantes et par
indépendances des iYi,j (lemme des coalitions encore)
r
Y
GZ j = GiYi,j
i=1
Mais comme Yi,j ∼ Yi,1 , on a aussi iYi,j ∼ iYi,1 et donc GZj = GZ1 . Ainsi, les Zj suivent
toutes la même loi.
Pr Pm
Il nous reste à voir que i=1 iXi ∼ j=1 Zj . Pour cela, on remarque que
m
X m X
X r r
X m
X
Zj = iYi,j = i Yi,j
j=1 j=1 i=1 i=1 j=1
6
On a, pour tout i, iXi ∼ i m
P Pm
j=1 Yi,j et chacune des familles (iXi ) et (i j=1 Yi,j ) est
composée de variables indépendantes. On en déduit que les sommes ont mêmes fonctions
génératrices et donc que
X r Xm r
X
i Yi,j ∼ iXi
i=1 j=1 i=1
n
P
iXi est infiniment divisible
i=1
Comme P(A ∩ B) est plus petit que P(A) et que P(B) on a donc P(B) − P(A) et son opposé
plus petits que P(A ∩ B) + P(A ∩ B).
7
Les événements (X = n) ∩ (Y 6= n) sont incompatibles et tous inclus dans (X 6= Y ). Il en
est de même pour les événements (X 6= n) ∩ (Y = n). Le majorant est donc plus petit que
2P(X 6= Y ). Ceci justifie les existences (car on somme des quantités positives) et donne
∞
X
|P(X = n) − P(Y = n)| ≤ 2P(X 6= Y )
n=0
Pour t ∈ [−1, 1], on a |P(X = n)tn − P(Y = n)tn | ≤ |P(X = n) − P(Y = n)| qui est le terme
général d’une
P série convergente avec ce qui précède.
On a donc ((P(X = n)tn − P(Y = n))tn )n∈N qui converge et est de somme en module
inférieure à 2P(X 6= Y ).
∀t ∈ [−1, 1], |GX (t) − GY (t)| 6 2P(X 6= Y )
15. (a) Si on peut trouver i ≥ n + 1 tel que Ui (ω) 6= 0, on peut a fortiori trouver un i ≥ n. Ainsi
Zn+1 ⊂ Zn . On remarque que
+∞
[
Zn = (Ui 6= 0)
i=n
P
Comme (P(Ui 6= 0)) converge, on en déduit (reste de série convergente) que
+∞
X
0 ≤ P(Zn ) ≤ P(Ui 6= 0) → 0
i=n
Il est ainsi quasiment impossible qu’une infinité des événement Zk soient satisfaits simul-
tanément (car une infinité de Zk sont satisfaits, ils le sont tous par décroissance). Ainsi,
l’ensemble des ω pour lesquels il existe une infinité de i tels que Ui (ω) 6= 0 est de probabilité
nulle. Autrement dit
{i ∈ N∗ / Ui 6= 0} est presque sûrement fini
(c) Notons C l’ensemble des ω ∈ Ω tels qu’il n’existe qu’un nombre fini de i pour lesquels
Ui (ω) 6= 0. Si ω ∈ C alors S(ω) existe (comme somme finie). S est définie au moins sur C
qui est de probabilité 1 (question précédente) et donc
S est donc définie presque sûrement
Avec la question 14.b, on a
On en déduit que
kGSn − GS k∞,[−1,1] ≤ 2P(Sn 6= S)
La suite d’événements ((Sn 6= S))n∈N∗ est décroissante car les Ui sont à valeurs positives.
Comme plus haut, la continuité décroissante donne
∞
!
\
lim P(Sn 6= S) = P (Sn 6= S) = P(C) = 0
n→+∞
n=1
8
(GSn ) converge uniformément vers GS sur [−1, 1]
Plusieurs problèmes pour parler de GS , se posent : (ce n’est pas l’essentiel ie pas une
priorité !)
(i) : S est à valeurs dans N = N ∪ {+∞} mais à valeurs dans N presque sûrement.
(ii) : L’énoncé ne se préoccupe pas du fait que S est une variable aléatoire. Je déconseillerai
à un candidat au temps limité de le faire.
Pour montrer cela, on remarque que S est une application bien définie à valeurs dans
N qui est dénombrable.
Pour k ∈ N, on a
[ \ \
(S = k) = (Sn = k) (Ui = 0) ∈ A
n∈N i≥=n+1
et (S = +∞) = Ω \ C ∈ A.
Ainsi S est bien une variable aléatoire presque sûrement à valeurs dans N ce qui autorise
la définition de GS .
16. (a) On a P(Xi 6= 0) = 1 − P(Xi = 0) = 1 − e−λi ∼ λi car λi → 0 (ou 0 ≤ P(Xi 6= 0) ≤ λi par
inégalité de convexité si on est gêné par le fait que λi peu être nul). Par comparaison des
séries positives,
P
P(Xi 6= 0) converge
(b) On est dans le cadre de la question 15 et X = ∞
P
i=1 Xi est définie presque sûrement. De
plus, la fonction génératrice GX est la limite uniforme sur [−1, 1] de la suite de fonctions
de terme général
n n
!
Y X
λi (t−1)
GX1 +···+Xn = GX1 . . . GXn : t 7→ e = exp (t − 1) λi
i=1 i=1
La limite uniforme de cette suite de fonctions est aussi sa limite simple et ainsi
∞
!
X
∀t ∈ [−1, 1], GX (t) = exp (t − 1) λi
i=1
(c) De même, P(iXi 6= 0) = 1 − P(iXi = 0)P= 1 = e−λi ∼ λi est le terme général d’une série
convergente. La variable aléatoire X = ∞ i=1 iXi est donc définie presque sûrement (noter
que les iXi sont indépendantes et qu’on est donc dans le cadre précédent). Sa fonction
génératrice
Pn est la limite uniforme de la suite (Gn ) où Gn est la fonction génératrice de
Sn = i=1 iXi .
Soit m ∈ N∗ . Avec 13 il existe des variables entières Yn,i indépendantes de même loi telles
que Sn ∼ Yn,1 + · · · + Yn,m .
On a alors ∀t ∈ [−1, 1], Gn (t) = Fn (t)m où Fn est la fonction génératrice de Yn,1 . Fn (t) =
Gn (t)1/m → GX (t)1/m . En posant F (t) = GX (t)1/m , on a alors GX (t) = F (t)m . On pourra
conclure comme en 13 si on montre que F (t) est la fonction génératrice d’une variable
aléatoire.
Remarquons alors que
∞
X
GiXi (t) = P(Xi = k)tik = GXi (ti )
k=0
9
en sorte que
n n n n
! !
λi (ti −1)
Y Y X X
i
Gn = GiXi : t 7→ e = exp − λi × exp λi t
i=1 i=1 i=1 i=1
et donc que
∞ ∞
! !
X X
i
∀t ∈ [−1, 1], GX (t) = exp − λi × exp λi t
i=1 i=1
ou encore que
∞ ∞
! !
X λi X λi
∀t ∈ [−1, 1], F (t) = exp − × exp ti
m m
i=1 i=1
C’est bien la fonction génératrice d’une variable aléatoire : il suffit de reprendre le calcul
de la question en travaillant avec µi = λi /m au lieu de λ.
∞
P
iXi est infiniment divisible
i=1
P(X = 1)
λ1 =
P(X = 0)
k−1
1 X
∀k ≥ 2, λk = kP(X = k) − jλj P(X = k − j)
kP(X = 0)
j=1
Réciproquement, ceci définit bien une suite de manière récurrente (pour définir λk , on n’utilise
que les valeurs précédemment définies) et elle vérifie les relations demandées.
Remarque
P0 : la formule générale pour k ≥ 2 est encore valable si k = 1 en convenant que
y
j=1 j = 0.
k
X
∃ !(λi )i∈N∗ , ∀k ∈ N∗ , kP(X = k) = jλj P(X = k − j)
j=1
18. On multiplie la relation précédente par P(X = 0) et on passe au module puis on utilise l’inégalité
triangulaire :
k−1
X j
∀k ≥ 1, |λk |P(X = 0) ≤ P(X = k) + |λj |P(X = k − j)
k
j=1
j
Les quantités k étant ≤ 1, on en déduit que
k−1
X
∀k ≥ 1, |λk |P(X = 0) ≤ P(X = k) + |λj |P(X = k − j)
j=1
10
k−1
X
∀k ≥ 1, |λk |P(X = 0) ≤ (1 − P(X = 0)) 1 + |λj |
j=1
1 − P(X = 0)
|λk |P(X = 0) ≤ (∗∗)
P(X = 0)k−1
k
X 1
1+ |λj | 6
P(X = 0)k
j=1
20. En particulier, |λk |P(X = 0)k ≤ P(X = 0)k kj=1 |λj | ≤ 1. La suite (λk P(X = 0)k ) est donc
P
ρ(X) ≥ P(X = 0)
21. Comme on peut dériver terme à terme les séries entières sur l’intervalle ouvert de convergence,
on a
X∞
∀t ∈] − αX , αX [, G0X (t) = (n + 1)P(X = n + 1)tk
n=0
∞
X
0
∀t ∈] − αX , αX [, HX (t) = (k + 1)λk+1 tk
k=0
11
0 (t)G (t) = G0 (t)
∀t ∈] − αX , αX [, HX X X
On sait résoudre cette équation différentielle. Il existe une constante c telle que
HX+Y (t) = ln(GX+Y (t)) = ln(GX (t)GY (t)) = ln(GX (t)) + ln(GY (t)) = HX (t) + HY (t)
L’égalité étant valable sur un intervalle ] − r, r[ avec r > 0, les coefficients des séries entières sont
égaux et l’égalité est en fait vraie pour |t| < min(ρ(X), ρ(Y )).
P(X = k)
∀k ≥ 1, 0 ≤ λk ≤
P(X = 0)
Le majorant est le terme général d’une série positive convergente (sommes partielles majorées
par 1−P(X=0)
P(X=0) ). Par théorème de comparaison des séries positives,
P
(λk ) converge
24. En particulier, le rayon de convergence ρ(X) de (λk tk ) est plus grand que 1. Mieux, la série
P
entière définissant HX est normalement convergente sur [−1, 1]. Il en est de même pour celle
définissant GX . La partie 3.1 donne une identité valable sur ] − 1, 1[ et qui le reste sur [−1, 1]
(par passage à la limite aux bornes). Ainsi
12
P∞
On obtient la fonction génératrice de S = i=1 iXi en passant à la limite (d’après la partie 2)
et ainsi
∞ ∞
! !
X X
i
∀t ∈ [−1, 1], GS (t) = exp − λi × exp λi t = exp(HX (t)) = GX (t)
i=1 i=1
On conclut donc
∞
P
X∼S= iXi
i=1
On en déduit que
n
!
\
0≤P (Xn,k < 0) ≤ P(Sn < 0) = 0
k=1
il existe donc un k tel que P(Xn,k < 0) = 0. Comme les Xn,j ont tous la même loi,
P(Xn,1 < 0) et Xn,1 est presque sûrement positive ou nulle .
(b) On a
P(Sn = 0) = P(Sn = 0|Xn,1 , . . . , Xn,n ≥ 0)P(Xn,1 , . . . , Xn,n ≥ 0)
Mais par indépendance,
n
Y
P(Xn,1 , . . . , Xn,n ≥ 0) = P(Xn,k ≥ 0) = 1
k=1
et par ailleurs
n
Y
P(Sn = 0|Xn,1 , . . . , Xn,n ≥ 0) = P(Xn,1 = 0 ∩ · · · ∩ Xn,n = 0) = P(Xn,k = 0)
k=1
En conclusion,
n
Y
P(Sn = 0) = P(Xn,k = 0)
k=1
13
(c) Soit k ∈ N. L’événement (Xn,1 ∈]i, i + 1[) ∩ (Xn,2 = 0) ∩ · · · ∩ (Xn,n = 0) est impossible
puisque Sn est à valeurs dans N. Par indépendance des variables,
P(Xn,1 ∈]i, i + 1[)P(Xn,2 = 0) . . . P(Xn,n = 0) = 0
Les P(Xn,k = 0) étant non nuls, P(Xn,1 ∈]i, i + 1[) = 0. Ceci étant vrai pour tout i, on
conclut que
Xn,1 (et donc tous les Xn,k ) est presque surement à valeurs entières
P(X=0)
27. (a) On sait que P(Xn,1 = 0)n = P(X = 0) > 0. Ainsi P(Xn,1 = 0) = e n → 1.
lim P (Xn,1 = 0) = 1
n→∞
28. Comme 0 ≤ P(X = 0) ≤ P(Xn,1 = 0), les séries entières Hn et HX ont un rayon de convergence
convergence au moins égal à P(X = 0) (question 20). Ci-dessous, les égalités entre séries entières
ont donc au moins lieu sur I =] − P(X = 0), P(X = 0)[ et comme P(X = 0) > 0, cela suffit pour
une éventuelle identification des coefficients des séries entières. Dans la suite, les égalités entre
fonctions sont à comprendre comme des égalités sur I.
(a) On a GX = ni=1 GXi,n = GnX1,n . En passant au logarithme, on en déduit que
Q
nHn = HX
(b) On peut alors identifier les coefficients des séries entières comme indiqué plus haut pour
conclure que, pour k, n ∈ N∗,
nλk (X1,n ) = λk (X)
où on note λk (Y ) le coefficients λk associé à la variable Y . Ainsi
k
X k
X
jλj (X)P (Xn,1 = k − j) = n jλj (X1,n )P (Xn,1 = k − j) = nkP (Xn,1 = k)
j=1 j=1
Les λk sont donc tous positifs comme limite de quantités positives et X est λ-positive .
30. (a) On vient de voir que si X est infiniment divisible, elle est λ-positive. (ii) ⇒ (iii) provient
de 25. La dernière implication provient de 16.c (si X ∼ Y et Y est infiniment divisible,
alors X l’est aussi).
(b) Dans le cas d’une variable à valeurs dans N∗ , on a P(X = 0) = 0. Si P(X = 1) 6= 0, il suffit
de travailler avec la variable Y = X − 1 qui est à valeur dans N. X est infiniment divisible
si et seulement si Y l’est et on peut appliquer ce qui précède à Y .
(c) Y = X − 1 suit la loi P(Y = k) = p(1 − p)k , la suite λ associée est la suite des coefficients
du DSE de
HY (t) = ln(GY (t)) = ln(p) − ln(1 − (1 − p)t)
On a donc
(1 − p)j
∀j ≥ 1, λj = ≥0
j
Y est donc infiniment divisible et X l’est donc aussi.
14