AAP438 v2
AAP438 v2
AAP438 v2
June 1, 2020
Contents
1 GÉNÉRALITÉS 2
1.1 Généralités sur les polynômes orthogonaux. . . . . . . . . . . . . . . . . . . . . . 2
1.1.1 Dénitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.1.2 Représentation par les moments . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2 Propriétés générales des polynômes. orthogonaux . . . . . . . . . . . . . . . . . . 6
1.2.1 Relation de récurrence à trois termes. . . . . . . . . . . . . . . . . . . . . 6
1.2.2 Formule de Darboux-Christoel. . . . . . . . . . . . . . . . . . . . . . . . 7
1.2.3 Propriétés des zéros. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
4 Fonctions spéciales 55
5 Introduction au calcul formel: Calcul dans Maple 56
1
Chapter 1
GÉNÉRALITÉS
1.1.1 Dénitions
Soit ρ : (a, b) → R une fonction presque partout positive.
Dénition 1.1.1. ρ est dite fonction poids sur (a, b) si pour tout entier naturel n, l'intégrale
a x ρdx converge. Et, dans ce cas, le réel
Rb n
Z b
µn = xn ρdx (n = 0, 1, 2, . . . )
a
est appelé moment d'ordre n de la fonction poids ρ sur l'intervalle (a, b).
Dénition 1.1.2. Deux polynômes p et q sont dits orthogonaux sur (a, b) par rapport au poids
ρ si
Z b
ρ(x)p(x)q(x)dx = 0
a
Dénition 1.1.3. Une suite {pn }n de polynômes est dite orthogonale sur (a, b) par rapport au
poids ρ si:
1. 1. pn est de degré n, (n = 0, 1, 2, . . .)
2. ab ρ(x)pn (x)pm (x)dx = 0, (n 6= m)
R
3. ab ρ(x)p2n (x)dx 6= 0, (n = 0, 1, 2, . . .)
R
Rb
Si
a ρ(x)p2n (x)dx = 1, (n = 0, 1, 2, . . .), la suite {pn }n est dite orthonormale.
Notation:
Rb Rb
Dans toute la suite, l'intégrale
a ρ(x)p(x)q(x)dx sera notée (p, q), et a ρ(x)p2n (x)dx
2
sera notée dn .
Théorème 1.1.1. Si ρ est un poids sur l'intervalle (a, b), alors il existe une suite de polynômes
orthogonaux sur l'intervalle (a, b).
Proof.
Rb
Si ρ est un poids sur l'intervalle (a, b) alors pour tout p ∈ R[x], a ρ(x)p(x)dx converge.
Donc ρ induit sur R[x] la forme bilinéaire symétrique (., .) dénie par
Z b
(p, q) = ρ(x)p(x)q(x)dx
a
2
Il est évident que (., .) est dénie positive, donc est un produit scalaire sur le R-espace vectoriel
R[x].
Considérons la base canonique {1, x, x2 , . . . , xn , . . .} de R[x] par le procédé d'orthonormalisation
de Schmidt la base orthonormale {p0 , p1 , p2 , . . . pn , . . .} associée est:
Posons
Z b
p0 (x) = µ−1
0 , où µ0 = ρ(x)dx
a
n−1
xn − Σ (pk , xn )pk
k=0
pn (x) =
n≥1
n−1
xn − Σ (pk , xn )pk
k=0
Proposition 1.1.1. Toute suite {pn }n de polynômes orthogonaux est linéairement indépendante.
De plus tout polynôme q de degré ≤ n (n xé) est combinaison linéaire des pk (k ≤ n), i.e.,
Xn
q= ck pk
k=0
avec
(q, pk )
ck = , où d2k = (pk , pk ).
d2k
Exemples.
1. L2 (0, 1) est un espace de Hilbert pour le produit scalaire
Z 1
(f ; g) = f gdx
0
et R[x] ⊂L2 (0, 1), donc L2 (0, 1) induit sur R[x] un produit scalaire déni par
Z 1
(p; q) = pqdx
0
2. Nous savons que cos mθ cos nθ = [cos(m + n)θ + cos(m − n)θ] /2. Donc
Z π
1 π
Z
cos mθ cos nθdθ = [cos(m + n)θ + cos(m − n)θ] dθ
0 2 0
π
= {.0 si m 6= n si m = n.
2
Par ailleurs par le changement de variable x = cos θ, on a
Z π Z 1
dx
cos mθ cos nθdθ = cos(mArc cos x) cos(nArc cos x) √
0 −1 1 − x2
3
et de la relation
cos(n + 1)θ + cos(n − 1)θ = cos nθ cos θ
on montre par récurrence que Tn (x) = cos(nArc cos x) (−1 ≤ x ≤ 1) est un polynôme
de degré n. {T } est
D'où une suite de polynômes orthogonaux sur (−1, 1) par rapport
√ n n −1/2
au poids ρ = 1 − x2 . Les Pn sont connus sous l'appelation de polynômes de
Chebyshev de 1
ère espèce.
Théorème 1.1.2. Soit {pn }n une suite de polynômes tels que ∀n ∈ N, deg pn = n. Les assertions
suivantes sont équivalentes:
1) {pn }n est orthogonale par rapport à ρ sur (a, b)
2) (xm , pn ) = Kn δm,n (n, m = 0, 1, 2, ...) où Kn est une constante non nulle et δm,n désigne
le symbole de Kronecker.
Proof. Si {pn }n est une suite de polynômes orthogonaux, alors pour n xé {p0 , ..., pn } est une
base du sous-espace vectoriel des polynômes de degré ≤ n. Soit n, m deux entiers xés. On a
m
xm = (xm , pn ) = Kn δm,n , Kn = cn d2n .
P
ck pk avec cm 6= 0. Donc conséquent D'où 2).
k=0
Réciproquement, supposons que {pn }n satisfait à 2). Soit m, n xé. On a
m
X
(pm , pn ) = ck (xk , pn )
k=0
m
X
= ck Kn δk,n
k=0
où
Xm
pm = ck xk , cm 6= 0.
k=0
En dénitive (pm ; pn ) = {.0 si m 6= nKn si m = n. D'où {pn }n est une suite de polynômes
orthogonaux.
Dans toute la suite, l'expression suite orthogonale de polynômes désignera une suite de
polynômes orthogonaux sur (a; b) par rapport à un poids ρ.
Corollaire 1.1.1. Si {pn }n est une suite de polynômes orthogonaux, alors pour tout entier
naturel n xé, et pour tout polynôme p tel que deg p ≤ n on a:
(p, pn ) = Kn δk,n
où k est le degré de p, Kn est une constante non nulle et δk,n désigne le symbole de Kronecker.
Corollaire 1.1.2. Une suite orthogonale de polynômes est dénie de manière unique à une
constante multiplicative près.
Proof. En eet vu la proposition 1.1.1, si {qn }n est une autre suite orthogonale de polynômes
n
P (pk ,qn )
alors qn = ck,n pk avec ck,n = . Et, puisque {qn } est une suite orthogonale alors d'après
d2k
k=0
(pn ,qn )
le corollaire1.1.1 on a: (pk , qn ) = 0, ∀k < n. Donc ∀n, qn = cn,n pn avec cn,n = d2n
.
4
1.1.2 Représentation par les moments
Soit ρ un poids sur (a, b) dont la suite des moments est (µn ). En vertu du théorème 1.1.2, on
observe que les coecients d'un polynôme orthogonal ne dépendent que des µn du poids ρ.
En eet soit {pn }n la suite de polynômes orthogonaux associée à ρ. Soit n xé. Écrivant
n
pn = Σ ak xk , on déduit du théorème 1.1.2-3) que les ak sont solutions du système
k=0
a0 µ0 + a1 µ1 + . . . +an µn = 0
a0 µ1 +
a1 µ2 + . . . +an µn+1 = 0
. . .. . . . (1.1)
. . . . . .
. . . . .
a0 µn + a1 µn+1 + . . . +an µ2n = Kn
µ0
µ1 · · · µn
µ1 µ2 · · · µn+1
∆n = . (1.2)
. .. .
.. . .
. . .
µn µn+1 · · · µ2n
µ0
µ1 ··· µn
µ1 µ 2 ···
Kn . . .. .
pn (x) = . . . . (1.3)
.
∆n . . .
µn−1 µn
··· µ2n−1
1 x ··· xn
D'où le théorème suivant donnant une condition nécessaire et susante pour qu'une suite de
réels (µn )n dénisse une suite orthogonale de polynômes. Mais avant cela précisons le sens dans
lequel l'orthogonalité sera comprise.
À la suite (µn )n , on associe la forme linéaire L dénie sur le R-espace R[x] de la façon
suivante: on pose
L(xn ) = µn (n = 0, 1, 2, ...).
Ainsi on a:
Xn
L(p) = a k µk
k=0
n
ak xk .
P
où p(x) = La suite (µn )n est alors appelé suite des moments de la forme linéaire L.
k=0
Dénition 1.1.4. Deux polynômes p et q seront dits orthogonaux par rapport à la suite des
moments (µn )n si pq appartient à KerL = {p ∈ R[x] : L(p) = 0}. On dira simplement que p et
q sont L − orthogonaux.
Dénition 1.1.5. Une suite {pn }n de polynômes sera dite L − orthogonale si
1) deg pn = n, ∀n
2) L(pn pm ) = 0, (n 6= m)
3) L(p2n ) 6= 0, ∀n
Le théorème 1.1.2 reste toujours valable avec (p, q) = L(pq).
5
Théorème 1.1.3. Soit L une forme linéaire sur R[x] dont la suite des moments {µn }n . Soit
{pn }n une suite de polynômes tels que deg pn = n, ∀n. La suite {pn }n est dite L − orthogonale
si et seulement si pour tout entier naturel n, le déterminant ∆n déni par (1.2), est non nul.
Proof. La démonstration de ce théorème utilise essentiellement le théorème 1.1.2 et le système
(1.1); et se trouve dans [4, pp. 11 et 12].
Théorème 1.2.1. Trois polynômes consécutifs d'une suite de polynômes orthogonaux sont liés
entre eux par une relation linéaire, dite relation de récurrence à trois termes
an−1 d2n
an bn bn+1
xpn = pn+1 + − pn + pn−1 (1.4)
an+1 an an+1 an d2n−1
où
pn (x) = an xn + bn xn−1 et d2n = (pn ; pn ).
Proof. Soit n entier xé. Le polynôme xpn est de degré n + 1. Et par conséquent
n+1
X
xpn = ck,n pk
k=0
avec
(xpn , pk )
ck,n = . (1.5)
d2k
Puisque (xpn , pk ) = (pn , xpk ) et xpk est de degré k+1 on a: ck,n = 0 (0 ≤ k ≤ n − 1). Donc
n+1
X
xpn = ck,n pk . (1.6)
k=n−1
cn+1,n = an /an+1
(1.7)
cn,n = abnn − abn+1
n+1
donc
an−1 2
d2n−1 cn−1,n = d2n cn,n−1 , d2n−1 cn−1,n = d .
an n
D'où tenant compte de (1.7) et on obtient:
an−1 d2n
cn−1,n = (1.9)
an d2n−1
Portant (1.7) et (1.9) dans (1.6), on obtient (1.5). Ce qui achève la démonstration.
6
Remarque 3. 1) Supposant p−1 (x) = 0 et p0 (x) = 1, le théorème 1.2.1 ci-dessus détermine ex-
plicitement les polynômes orthogonaux {pn }n connaissant les suites (an )n et (bn )n des coecients
dominants des pn , et la suite (d2n )n des carrés des normes.
Corollaire 1.2.1. Soit {pn } une suite de polynômes orthogonaux. Alors
pn+1 (x) = (αn x + βn )pn (x) + γn pn−1 (x) (1.10)
avec
an+1 bn+1 bn an+1 an−1 an+1 d2n
αn = , βn = − et γn = − (1.11)
an an a2n a2n d2n−1
De plus si les polynômes sont moniques, on a:
pn+1 = (x + βn ) pn + γn pn−1 (1.12)
avec
(xpn , pn ) d2n
βn = − et γn = − .
d2n d2n−1
il vient
an−1 an+1 d2n
an+1 bn an+1 bn+1
pn+1 = x− + pn − pn−1
an a2n an a2n d2n−1
D'où la relation (1.10).
n
(xpn ,pk )
De la proposition 1.1.1, on a: xpn = pn+1 + Σ ck,n pk avec ck,n = d2k
(car les pn sont
k=0
(xpn ,pn−1 )
moniques). Il vient: xpn = pn+1 + cn,n pn + cn−1,n pn−1 . De cn−1,n = d2n−1
= (pnd,xp
2
n−1 )
et
n−1
n−1
d2n
xpn−1 = pn + Σ ck,n pk , on a cn−1,n = 2
dn−1
. D'où le résultat.
k=0
ak−1 d2k
xpk (x) = ck+1,k pk+1 (x) + ck,k pk (x) + pk−1 (x) (1.14)
ak d2k−1
ak−1 d2k
ypk (y) = ck+1,k pk+1 (y) + ck,k pk (y) + pk−1 (y) (1.15)
ak d2k−1
Multipliant (1.14) par pk (y) et (1.15) par pk (x), puis divisant chacune d'elle par d2k et
soustrayant la deuxième de la première on obtient:
pk (x)pk (y)
(x − y) = Ak (x, y) − Ak−1 (x, y)
d2k
7
où
ck+1,k
Ak (x, y) = [pk+1 (x)pk (y) − pk+1 (y)pk (x)]
d2k
Sommant sur k de 0 à n, et en tenant compte des conditions initiales p−1 (x) = 0 et p0 (x) = 1
on obtient:
n
X pk (x)pk (y)
(x − y) = An (x, y)
d2k
k=0
k
Y
qk (x) = (x − tn ,j ).
j=1
(qk , pn ) = Kn δk,n
où δk,n est le symbole de Kronecker etKn est une constante non nulle.
Puisque toutes les racines deq k p n sont d'ordre de multiplicité pair, il vient: qk pn ≥ 0 sur
Rb
]a, b[. Et par conséquent a ρqk pn dx > 0, i.e., (qk , pn ) 6= 0. Donc nécessairement k = n. D'où
toutes les racines de pn sont simples et appartiennent à ]a, b[.
Notation Dans toute la suite les zéros des pn seront notés xn ,1 , xn ,2 , ..., xn ,n et supposés
rangés par ordre croissant.
Théorème 1.2.4. Soit {pn }n une suite de polynômes orthogonaux sur (a, b) de poids ρ. Alors
pour tout entier n ≥ 1
xn+1 ,k < xn ,k < xn+1 ,k+1 (1 ≤ k ≤ n).
Proof. Soit n entier xé, n ≥ 1. Soit 1 ≤ k ≤ n. Nous allons supposer les pn moniques.
Remplaçant successivement dans la relation(1.13) y par xn+1 ,k et xn+1 ,k+1 on obtient:
n
X pk (x)pk (xn+1 ,k ) 1 pn+1 (x)pn (xn+1 ,k )
= 2 (a)
d2k dn x − xn+1 ,k
k=0
n
X pk (x)pk (xn+1 ,k+1 ) 1 pn+1 (x)pn (xn+1 ,k+1 )
2 = 2 (b)
dk dn x − xn+1 ,k+1
k=0
et faisant tendre x vers xn+1 ,k dans (a) (resp. vers xn+1 ,k+1 dans (b)) on obtient
n
X p2k (xn+1 ,k ) p0n+1 (xn+1 ,k )pn (xn+1 ,k )
= (1.16)
d2k d2n
k=0
taga0 (1.17)
n
X p2k (xn+1 ,k+1 ) p0n+1 (xn+1 ,k+1 )pn (xn+1 ,k+1 )
= (1.18)
d2k d2n
k=0
0
tagb (1.19)
8
D'après le théorème de Rolle, p0n+1 admet exactement un zéro dans
]xn+1 ,k , xn+1 ,k+1 [ (car les zéros de pn+1 sont simples). Il vient que p0n+1 (xn+1 ,k ) et p0n+1 (xn+1 ,k+1 )
sont de signes contraires. De (a') et (b'), on déduit
que pn (xn+1 ,k+1 ) et pn (xn+1 ,k ) sont aussi de signes contraires. D'où par le théorème des valeurs
intermédiaires, pn admet au moins une racine dans ]xn+1 ,k , xn+1 ,k+1 [; ce zéro n'est rien d'autre
que xn ,k .
Donc {pn (−x)}n est aussi orthogonale sur (−a, a) de poids ρ. Et, par unicité de la suite de
polynômes orthogonaux, on obtient:
i.e.,
βn (pn , pn ) = −αn (xpn , pn )
En outre Z a
(xpn , pn ) = xρ(x)p2n (x)dx = 0
−a
9
Chapter 2
POLYNÔMES ORTHOGONAUX
CLASSIQUES
Ce chapitre est consacré à l'étude des polynômes orthogonaux classiques. Nous donnons dans la première
partie une caractérisation des polynômes orthogonaux classiques; la deuxième partie est consacrée l'étude
des propriétés spéciques des polynômes orthogonaux classiques dont la plus importante est la formule
de Rodrigues. Nous terminons ce chapitre par une brève étude des fonctions de type p Fq en vue d'établir
des relations fonctionnelles entre ces fonctions et les polynômes orthogonaux classiques.
[σρ]0 = τ ρ (2.2)
Proposition 2.1.1. Les dérivées de toute solution de l'équation diérentielle (2.1) sont aussi
des solutions d'équations diérentielles du type (2.1).
Proof. Nous allons raisonner par récurrence.
Soit la propriété P(k) : y (k) est solution de σ(x)y 00 + τk (x)y 0 + µk y = 0". Puisque y est C∞
dans ]a, b[, dérivant (2.1) on obtient:
avec
τ1 (x) = τ (x) + σ 0 (x) et µ1 = λ + τ 0 (x).
D'où P(1) vraie.
Soitk ≥ 1. Supposons P(k) vraie et montrons que P(k + 1) est vraie. P(k) vraie entraine
σ(x)y (k+2) + τk (x)y (k+1) + µk y (k) = 0. Dérivant cette équation, on trouve:
10
avec
τk+1 (x) = σ 0 (x) + τk (x), µk+1 = µk + τk0 (x).
D'où P(k + 1) est vraie.
k(k − 1) 00
τk (x) = τ (x) + kσ 0 (x) et µk = λ + kτ 0 + σ .
2
D'où le corolaire suivant:
Corollaire 2.1.1. Soit y une solution de l'équation (2.1). Alors pour tout entier k ≥ 1, y(k) est
solution de l'équation diérentielle
σ(x)y 00 + τk (x)y 0 + µk y = 0 (2.4)
avec
k(k − 1) 00
τk (x) = τ (x) + kσ 0 (x), µk = λ + kτ 0 + σ
2
Proposition 2.1.2. Toute solution de l'equation diérentielle (2.3) avec λ 6= 0 est dérivée d'ordre
1 d'une solution de (2.1).
Proof. Soit v1 une solution de (2.3). Cherchons y1 solution de (2.1) telle que v1 = y10 . Si un tel
y1 existe, on a σy100 + τ y10 + λy1 = 0 et v1 = y10 . D'où on a
1 0
y1 = − σv1 + τ v1 . (2.5)
λ
Considérant la fonction u dénie par (2.5), on a évidemment u0 = v1 et u00 = v10 . Et par suite on
a
σu00 + τ u0 + λu = σv10 + τ v1 − σv10 − τ v1 = 0.
D'où u est solution de (2.1) et u0 = v1 .
k(k − 1) 00
λ = λk = −kτ 0 − σ (2.6)
2
(k)
admet une solution yk telle que vk = yk . yk est donc un polynôme de degré k.
Dénition 2.1.1. On appelle polynôme hypergéométrique toute solution polynômiale d'une équa-
tion diérentielle du type (2.1).
Théorème 2.1.1. Soit ρ solution de (2.2) sur l'intervalle (a, b). On suppose que
lim xm σ(x)ρ(x) = 0
x→a
et lim xm σ(x)ρ(x) = 0, ∀m ∈ N. (2.7)
x→b
Alors la suite {yk }k de polynômes hypergéométriques correspondant aux valeurs {λk }k de λ (λk
étant déni par la relation (2.6)) est orthogonale sur l'intervalle (a, b) par rapport au poids ρ,
i.e.,
Z b
yn (x)ym (x)ρ(x)dx = 0 (λn 6= λm ).
a
11
Proof. Notons d'abord que si y est solution de (2.1), on a y vérie l'équation diérentielle
taga (2.10)
0 0
[σρym ] + λρym = 0. (2.11)
tagb (2.12)
0 0
yn [σρym ] − ym [σρyn0 ]0 = [σρW (yn , ym )]0 ;
Z b
(λn − λm ) yn (x)ym (x)ρ(x)dx = σρW (yn , ym )|ba .
a
Des conditions aux limites (2.7) et du fait que W (yn , ym ) est un polynôme on a:
On montrera dans la suite que pour avoir des polynômes à coecients réels, il est nécessaire
que σ ait l'une des formes suivantes:
(b − x)(x − a) si a, b ∈ R
x−a si a ∈ R, b = +∞
σ(x) = (2.14)
b−x si a = −∞, b ∈ R
1 a = −∞, b = +∞
si
De façon que l'équation (2.13) ne présente aucune singularité dans l'intervalle ]a, b[; et par suite
la fonction ρ est inniment dérivable sur ]a, b[.
Théorème 2.2.1. Soit ρ une solution de l'équation diérentielle (2.13). Pour que ρ dénisse
une suite de polynômes orthogonaux sur (a, b), il est nécessaire que pour tout entier naturel m
lim xm σ(x)ρ(x) = 0; lim xm σ(x)ρ(x) = 0 (2.15)
x→a x→b
12
Proof. Soit m entier naturel xé.
1) Montrons que les limites x→a
lim xm σ(x)ρ(x) = 0 et lim xm σ(x)ρ(x) = 0 sont nies.
x→b
Soit x1 , x2 ∈ ]a, b[, x1 < x2 . On a
Z x2
xm σ(x)ρ(x)|xx21 = [xm σ(x)ρ(x)]0 dx
Zx1x2
xm σ(x)ρ(x)|xx21 = [mxm−1 σ(x) + xm τ (x)]ρ(x)dx (2.16)
x1
le membre de droite de l'égalité ci-dessus est ni, car les moments existent et mxm−1 σ(x)+xm τ (x)
est un polynôme. Donc lim xm σ(x)ρ(x) existe et est nie.
x→a
De façon analogue, on montre en xant x1 dans (2.16) et faisant tendre x2 vers b que lim xm σ(x)ρ(x)
x→b
existe et est nie. Posons:
2) Montrons que Am = Bm = 0.
Raisonons par l'absurde. Supposons que Am 6= 0 et distinguons deux cas.
1 cas:
er a ∈ R.
Ici Am = am A0 de façon que Am 6= 0 entraîne a 6= 0 et A0 6= 0. Donc pour a 6= 0
σ(x)ρ(x)
lim = 1,
x→a A0
A0
i.e., la fonction
σ(x) est équivalente à ρ(x) a. Plus précisement,
au voisinage de
A0
il existe ε>0 tel que (a < x < a + ε) ⇒ ρ(x) > .
σ(x)
A0
Il vient alors que la fonction
σ(x) est intégrable au voisinage a; ce qui est impossible vu les
formules (2.15).
Pour a = 0, on a automatiquement Am = 0 vu la première partie de la preuve.
2 ème cas: a = −∞. On a Am+1 = Am lim x. Ce qui contredit le fait que Am+1
x→−∞
est ni.
Les théorèmes 2.1.1 et 2.2.1 arment que pour τ choisis avec deg σ ≤ 2 et deg τ = 1, ρ
σ et
dénie par (2.14) est un poids sur (a, b) si et seulement si ρ est solution de l'équation diérentielle
(2.13) vériant les conditions aux limites (2.15). D'où le corollaire
Corollaire 2.2.1. Une suite de polynômes orthogonaux sur un intervalle (a, b) de poids ρ est
dite classique si et seulement si ρ est une solution de l'équation diérentielle (2.13) vériant les
conditions aux limites (2.15).
Soit
R polynômes tels que deg σ ≤ 2 et deg τ = 1. Alors ρ solution de (2.13)
σ et τ deux est de
la forme ρ = exp( στ dx); et une décomposition en pôles de στ nous permet de voir que ρ prend
l'une des formes suivantes à un facteur multiplicatif près:
α = − τb−a
(b)
− 1 et β = τb−a
(a)
− 1 si deg σ = 2 et
(b − x)α (x − a)β
σ admet 2 racines distinctes
ρ(x) = α xτ (x) 0 (2.17)
(x − Ra) e α = τ (a) − 1 si deg σ = 1
exp( τ (x)dx) si σ est indépendant de x
13
avec a, b, α, et β sont des nombres complexes; a, b étant racines éventuelles de σ.
Le cas deg σ = 2 avec σ admettant une racine double se ramène au cas deg σ = 1 par un
changement de variable.
Puisque dans la cadre de notre travail nous n'utilisons que des poids réels, il est nécessaire
que a et b soient des réels et vu la condition σ > 0 σ devra être à un coecient multiplicatif près
de l'une des formes données par (2.13). Et dans ce cas ρ prend l'une des formes suivantes à un
facteur multiplicatif près:
(b − x)α (x − a)β , α = − τb−a (b)
−1 et β = τb−a
(a)
− 1 si a, b ∈ R
0
α
(x − a) e xτ (x) , α = τ (a) − 1 si a ∈ R et b = +∞
ρ(x) = α −xτ 0 (x) (2.18)
(b − x) e , α = −τ (b) − 1 si a = −∞ et b ∈ R
exp(R τ (x)dx)
si a = −∞ et b = +∞
En vertu des conditions aux limites (2.15), on déduit que le polynôme τ doit vérier les
contraintes suivantes:
τ (a) > 0 si a ∈ R
1)
τ (b) < 0 si b ∈ R
2)
0
3) τ (x) < 0.
Notons que pour a, b ∈ R la condition 3) découle de 1) et 2).
On déduit de (2.18) et (2.15) que chacune des formes suivantes de ρ
dénit une suite de polynômes orthogonaux classiques sur (a, b), (a, +∞), (−∞, b) et R respec-
tivement.
2x − a − b
t=
b−a
n o
(α,β)
transforme l'intervalle (a, b) en l'intervalle (−1, 1). pn
Par conséquent la suite
de polynômes
n o
α β (α,β)
orthogonaux dénie sur (a, b) par le poids ρ = (b−x) (x−a) est transformée en la suite Pn
orthogonale sur (−1, 1) par rapport au poids ρ = (1 − t)α (1 + t)β ; tandis que σ = (b − x)(x − a)
est transformé en σ = (1 − t)(1 + t). Portant σ = (1 − t)(1 + t) et ρ = (1 − t)α (1 + t)β dans
(2.13), on obtient
τ (t) = −(α + β + 2)t + β − α, avec α, β > −1
14
Pour a = −∞ et b∈R ou a∈R et b = +∞ les changement de variable
t = {.−x + bx − a
0 0 (x)
transforme (a, b) en (0, +∞) et ρ(x) = {.(x − a)α exτ (x) (b − x)α e−xτ en ρ(t) = tα e−t et σ(x) =
{.b − xx − a en σ(t) = t. Ainsi
τ (t) = −t + α + 1
Dénition 2.2.3. Les polynômes orthogonaux correspondant à ρ(t) = tα e−t sur (0, +∞) son
appelés polynômes de Laguerre et sont notés Lαn (α > −1).
R
Dans le cas où (a, b) = (−∞, +∞), on a σ(x) = 1 et ρ(x) = exp τ (x)dx. Et, le changement
2
τ (x)dx en ρ(t) = e−t et
R
de variable t = −τ (x) transforme σ(x) = 1 en σ(t) = 1, ρ(x) = exp
on a τ (t) = −2t.
Dénition 2.2.4. Les polynômes orthogonaux correspondant à ρ(t) = e−t2 sur dans (−∞, +∞)
sont appelés polynômes de Hermite et sont notés Hn .
Remarque 6. 1) De la parité de e−t2 , il découle de la proposition1.2.1 du chapitre1 que l'on
peut exprimer les polynômes de Hermite en fonction de ceux de Laguerre. Plus précisement nous
−1 1
avons H2n (x) = 22n n!(−1)n Ln 2 (x2 ) et H2n+1 (x) = 22n+1 n!(−1)n xLn2 (x2 ).
2) Les polynômes de Jacobi ont des cas particuliers importants:
1. (a) les polynômes de Legendre Pn correspondant à α = β = 0
(b) les polynômes de Chebyshev de première et de seconde espèces Tn et Un correspondant
respectivement à α = β = − 12 et α = β = 21 .
(c) les polynômes de Gegenbauer Cnλ correspondant à α = β = λ − 21 (λ > − 12 ), encore
appelés polynômes ultrasphériques.
Dans toute la suite l'expression suite de polynômes orthogonaux classiques désignera l'une
des familles ci-dessous:
(α,β)
pn Pn (α, β > −1) Lαn (α > −1) Hn
σ (1 − t)(1 + t) t σ(t) = 1
2
ρ (1 − t)α (1 + t)β t e−t
α e−t
τ −(α + β + 2)t + β − α τ −t+α+1 −2t
Polynômes orthogonaux classiques.
Z b Z b
pn (x)xm−1 τ (x)ρ(x)dx = pn (x)xm−1 [σ(x)ρ(x)]0 dx, m ∈ N.
a a
15
Par une intégration par parties, on obtient:
Z b b b Z
0
m−1 m−1
σρ pn xm−1 dx
pn (x)x τ (x)ρ(x)dx = pn x σρa −
a a
Z b Z b
= − σρp0n xm−1 dx − (m − 1) σρpn xm−2 dx.
a a
Z b Z b
pn (x)x m−1
τ (x)ρ(x)dx = − σ(x)ρ(x)p0n (x)xm−1 dx, (m < n)
a a
il vient: Z b
σ(x)ρ(x)p0n (x)xm−1 dx = 0, (m < n).
a
Donc pour tout entier n, le polynôme p0n de degré n − 1 est orthogonal sur (a, b) par rapport
au poids σρ à tout polynôme de degré< n − 1. En outre on déduit en prenant m = n dans la
relation ( ??) que Z b
σ(x)ρ(x)p0n (x)xn−1 dx 6= 0.
a
Et d'après le théorème 1.1.2 du chapitre 1, la suite {p0n }n≥1 est une suite de polynômes orthog-
onaux sur (a, b) de poids σρ.
De plus on a:
[σρ1 ]0 = σ 0 ρ1 + σρ01 où ρ1 = σρ
= σ 0 + τ ρ1
donc vérie une équation diérentielle du type (2.13). Il est évident de voir que ρ1 vérie
des conditions aux limites du type (2.15). D'où la suite {p0n }n≥1 est une suite de polynômes
orthogonaux classiques sur (a, b) de poids σρ.
Reprenant le raisonnement ci-dessus avec la suite {p0n }n≥1 , on montre que {p00n }n≥2 est une
2
suite de polynômes orthogonaux classiques sur (a, b) de poids ρ2 = σ ρ,et ρ2 solution de l'équation
0
diérentielle [σρ2 ] = τ2 ρ2 avec
τ2 = τ + 2σ 0 .
Ainsi par le principe de récurrence, nous obtenons le théorème suivant:
Théorème 2.3.1. Soit m entier xé, m ≥ 1. nSoit {pon }n une suite de polynômes orthogonaux
classiques sur (a, b) de poids ρ. Alors la suite p(m)
n+m des dérivées d'ordre m des polynômes
n
{pn+m }n est aussi classique sur (a, b) de poids
ρm = σ m ρ. (2.20)
16
2.3.2 Équation diérentielle des polynômes orthogonaux classiques.
Théorème 2.3.2. Soit {pn }n une suite de polynômes orthogonaux classiques sur (a, b) de poids
ρ. Alors pour tout entier n, pn est solution d'une équation diérentielle du type
σy 00 + τ y 0 + λn y = 0 (2.23)
avec
n(n − 1) 00
λn = −nτ 0 − σ (2.24)
2
Proof. {pn }n suite de polynômes orthogonaux classique entraine que son poids ρ solution de
l'équation diérentielle [σy]0 = τ y où σ est un polynôme de degré ≤ 2 et τ est un polynôme de
degré 1. Soit n entier
0
xé. pn est un polynôme orthogonal sur (a, b) par rapport au poids σρ.
Donc pour tout m < n, on a
Z b
p0n (x)(xm )0 σ(x)ρ(x)dx = 0
a
Z b Z b
0
p0n (x)(xm )0 σ(x)ρ(x)dx = pn (x)xm σ(x)ρ(x)|ba − σ(x)ρ(x)p0n (x) xm dx
a a
Z b
σ(x)p00n (x) + τ (x)p0n (x) xm ρ(x)dx
= −
a
i.e.,
Z b
σ(x)p00n (x) + τ (x)p0n (x) xm ρ(x)dx = 0, (m < n).
a
Z b Z b
1
σ(x)p00n (x) τ (x)p0n (x) n
p0n (x)(xn )0 σ(x)ρ(x)dx 6= 0,
+ x ρ(x)dx = −
a n a
{p̃n }n est une suite de polynômes orthogonaux sur (a, b) de poids ρ. D'où par unicité de la suite
de polynômes orthogonaux, on a: p̃n = −λn pn (n = 0, 1, 2, ...), i.e.,
n(n − 1) 00
λn an + nτ 0 an + σ an = 0
2
où an est le coecient dominant de pn . D'où
n(n − 1) 00
λn = −nτ 0 − σ .
2
Ce qui achève la preuve du théorème.
On a le théorème suivant:
Théorème 2.3.3. Soit σ et τ deux polynômes de degré au plus 2 et 1 respectivement. Soit ρ une
solution bornée sur (a, b) de l'équation diérentielle
[σρ]0 = τ ρ
17
telle que
lim xm σ(x)ρ(x) = 0 (m = 0, 1, 2, ...).
x→a,b
Soit y une solution non triviale de l'équation diérentielle σy00 +τ y0 +λy = 0. Alors y(x) ρ(x)
p
Pn Equation diérentielle
(α,β)
Pn (α, β > −1) (1 − t2 )y 00 + [β − α − (α + β + 2)t]y 0 + n(nα + β + 1)y = 0
Lαn (α > −1) ty 00 + (α + 1 − t)y 0 + ny = 0
Hn y 00 − 2ty 0 + 2ny = 0
Table 2.1: Équation di ?rentielle pour les polyn?mes de Jacobi, de Laguerre et de Hermite
σy 00 + τ y 0 + λy = 0. (2.1)
σρy 00 + ρτ y 0 + λyρ = 0
i.e., 0
σ(x)ρy 0 + λρy = 0.
(2.26)
Donc (2.1) est équivalente à (2.26), avec ρ vériant (2.13). En particulier (2.25) est équivalente
0 0 (m)
à [σρpn ] + λn ρpn = 0. Par ailleurs du corollaire 2.1.1 on a pn (m ≤ n) est solution σy 00 + τm y 0 +
µn,m y = 0 avec
τm = τ + mσ 0
m(m − 1) 00
µn,m = λn + mτ 0 + σ
2
= λn − λm .
Il vient h i0
σρm p(m+1)
n = −µn,m ρm p(m)
n , (m ≤ n) (2.27)
18
avec
1 0 00
µn,m = −(n − m) τ + (n + m − 1)σ . (2.28)
2
De (2.27) on déduit la série d'égalité suivantes:
1 0 0
ρpn = − ρ 1 pn
µn,0
1 00 0
ρ1 p0n = − ρ 2 pn
µn,1
.
.
.
1 h i0
ρm−1 p(m−1)
n = − ρm p(m)
n
µn,m−1
(−1)m h (m)
i(m)
ρpn = m−1
ρ m p n , (m ≤ n). (2.29)
Π µn,k
k=0
Donc les polynômes orthogonaux classiques vérie l'équation diérentielle d'ordre 2m, (m ≤
n);
dm h (m)
i
ρm y = An,m ρy (2.30)
dxm
où
m−1
An,m = (−1)m Π µn,k , An,0 = 1. (2.31)
k=0
(n)
Ainsi de l'égalité (2.31) pour m=n et pn = n!an , on déduit:
1 dn n!an
pn = An [ρn ] où An = (2.32)
ρ dxn An,n
1 dn n
p n = An [σ ρ] . (2.33)
ρ dxn
La relation (2.33) qui exprime les polynômes orthogonaux classiques en fonction de leur poids
est connue sous l'appelation de formule généralisée de Rodrigues.
La formule généralisée de Rodrigues dérive essentiellement de l'équation diérentielle (2.1);
elle est donc valable pour les polynômes hypergéométriques. Ce qui permet de généraliser les
polynômes de Jacobi, et de
n Laguerre
o dans le cas où α, β prennent des valeurs quelconques.
(m)
Puisque les dérivées pn+m des polynômes orthogonaux classiques {pn } sont aussi des
polynômes orthogonaux classiques, il existe aussi une relation du type (2.33) pour les dérivées
(m)
pn (m ≤ n) de pn . Plus précisement on a:
1 dn−m n
p(m)
n = Bn,m [σ ρ] (2.34)
σ m ρ dxn−m
D'où la proposition:
19
Proposition 2.3.1. Soit {pn } une suite de polynômes orthogonaux classiques. Alors on a:
1 dn n
pn (x) = Cn [σ ρ] , (n = 0, 1, 2, ...).
ρ dxn
De plus
1 dn−m
∀n ∈ N, p(m)
n = Cn,m [σ n ρ] (m ≤ n),
σ m ρ dxn−m
où σ estdonné par l'équation du poids, Cn et Cn,m sont des constantes à déterminer.
Remarque 7. Si {pn } est une suite de polynômes orthogonaux classiques, il découle de (2.33)
que p1 est proportionnel au polynôme τ gurant dans l'équation du poids.
Dans toute la suite, les expressions polynômes
n de Jacobi,
o de Laguerre et de Hermite dans
(α,β)
le cas classique seront reservées aux polynômes Pn , Lαn , Hn pour lesquels la constante An
(−1)n 1
dans (2.33) prend respectivement les valeurs
2n n! , n! et (−1)n . On a:
(−1)n 1 dn h i
Pn(α,β) (x) = (1 − x) α+n
(1 + x) β+n
, (α, β > −1).
2n n! (1 − x)α (1 + x)β dxn
1 ex dn α+n −x
Lαn (x) = x e , (α > −1).
n! xα dxn
n −x2
2d e
Hn (x) = (−1)n ex .
dxn
Puisque toute solution de l'équation diérentielle [σρ]0 = τ ρ est analytique dans le plus petit
dn
disque ouvert du plan complexe contenant son intervalle de dénition, on peut exprimer
dxn [σ n ρ]
dans (2.33) à l'aide de la formule intégrale de Cauchy. On a
dn n σ n (z)ρ(z)
Z
n!
n
[σ ρ] = dz
dx 2πi C (z − x)n+1
où C est un cercle de centre z=x contenu dans le domaine d'analyticité de ρ. Il vient
σ n (z)ρ(z)
Z
An n!
pn (x) = dz. (2.36)
ρ(x) 2πi C (z − x)n+1
La formule (2.36) est la forme intégrale de la formule de Rodrigues.
dn n n−1
An+1 0 d n
pn+1 = τn n [σ ρ] + nτn n−1 [σ ρ]
ρ dx dx
donc
An+1 ρ 0 σρ 0
pn+1 = τn pn + nτn p
ρ An An An,1 n
20
tenant compte de (2.31), on a: An,1 = λn . D'où
λn An
σp0n = pn+1 + τn pn . (2.37)
nτn0 An+1
La formule (2.37) donne explicitement les dérivées p0n des polynômes orthogonaux classiques pn
connaissant leurs formules explicites.
De plus en utilisant les relations de récurrence, on parvient à exprimer σp0n en fonction de pn
et pn−1 . Plus précisement, on a:
1
σp0n 00
= Cn + nxσ pn + Dn pn−1 (2.38)
2
où Cn et Dn sont des constantes à déterminer.
(α,β)
dPn 1
= (n + α + β + 1)Pn(α,β)
dx 2
dLαn
= −Lα+1
n−1 (2.39)
dx
dHn
= 2nHn−1
dx
(α,β)
(α,β)dPn
En eet, pour les polynômes de Jacobi Pn , on a
dx orthogonal sur (−1, 1) par rapport
(α,β)
dPn (α+1,β+1)
au poids ρ(x) = (1 − x)α+1 (1 + x)β+1 . Par conséquent
dx et Pn−1 sont égaux à un
coecient multiplicatif près, i.e.,
(α,β)
dPn (α+1,β+1)
= Cn(α,β) Pn−1 .
dx
(α,β) (−1)n
Et par application des formules de Rodrigues, on obtient: Cn = − λAnn−1
An
, avec An = 2n n!
n(n−1) 00
et λn = −nτ 0 − 2 σ . Puisque τ (x) = −(α + β + 2)x + β − α et σ(x) = 1 − x2 , alors
(α,β) 1
Cn = 2 (n + α + β + 1).
De façon analogue, on obtient les formules de dérivation pour Laguerre et Hermite.
Appliquant la formule (2.38) au cas particulier de Jacobi, Laguerre et Hermite, nous obtenons:
(α,β)
dPn
(2n + α + β)(1 − x2 ) = n [α − β − (2n + α + β)x] Pn(α,β)
dx
(α,β)
+2(n + α)(n + β)Pn−1 .
dLαn
x = nLαn − (n + α)Lαn−1 .
dx
dHn
= 2nHn−1 .
dx
En n de (2.37), on a:
(α,β)
2n + α + β + 2 dPn
(1 − x2 ) = − [β − α + (2n + α + β + 2) x] Pn(α,β)
n+α+β+1 dx
(α,β)
+2(n + 1)Pn+1
dLαn
(n − 1)x = (n + 1)Lαn+1 − [1 + α + (n − 1)x] Lαn
dx
dHn
= 2nHn−1
dx
21
2. Détermination des coecients an , bn et des carrés des normes d2n , avec pn (x) =
an xn + bn xn−1 + ... pour les polynômes de Jacobi, de Laguerre et de Hermite.
Les formules de dérivation (2.39) entrainent:
1 (α+n,β+n)
2n (n + α + β + 1) · · · (2n + α + β)P0
n!an = (α+n)
(−1)n L0
(2n)2(n − 1) · · · 2H0
or
(α+n,β+n) (α+n)
P0 = L0 = H0 = 1
donc
Γ(2n+α+β+1)
pour Jacobi.
2n n!Γ(n+α+β+1)
an = (−1)n (2.40)
pour Laguerre.
n!
2n pour Hermite.
n(n−1) 00
Puisque pn vérie l'équation σp00n + τ p0n + λn pn = 0 avec λn = −nτ 0 − 2 σ , on obtient:
σ 00 (0)
n(n − 1)σ 0 (0)an + (n − 1)(n − 2) + nan τ (0) + (n − 1)τ 0 (0)bn + λn bn = 0
2
i.e.
n τ (0) + (n − 1)σ 0 (0) an + (λn − λn−1 ) bn = 0.
D'où
bn nτn−1 (0)
= 0 où τn−1 = τ + (n − 1)σ 0 . (2.41)
an τn−1 (0)
Et par suite on a en vertu de (2.40)
(β−α)Γ(2n+α+β+1)
pour Jacobi.
2n (2n+α+β)(n−1)!Γ(n+α+β+1)
bn = (−1)n+1 (α+n) (2.42)
pour Laguerre.
(n−1)!
0 pour Hermite.
La formule de Rodrigues permet d'obtenir une expression plus commode pour les carrés des
normes d2n dans le cas classique. On a:
Z b Z b
d2n = p2n (x)ρ(x)dx = an xn pn (x)ρ(x)dx
a a
b
dn n
Z
= an An xn [σ (x)ρ(x)] dx.
a dxn
Z b
d2n = an An (−1) n! n
σ n (x)ρ(x)dx (2.43)
a
i.e.,
22
2n+α+β+1
2 an An (−1)n n!B(n + β + 1, α + n + 1) pour Jacobi
d2n = an An (−1)n n!Γ(n + α + 1) pour Laguerre
R +∞ 2
an An (−1)n n! −∞ e−t dt
pour Hermite
2α+β+1 Γ(n+α+1)Γ(n+β+1)
pour Jacobi
n!(2n+α+β+1)Γ(n+β+α+1)
d2n = Γ(n+α+1)
pour Laguerre (2.44)
√
n!
2n n! π
pour Hermite
Donc
−1 1
H2n (x) = 22n n!(−1)n Ln 2 (x2 ) et H2n+1 (x) = 22n+1 n!(−1)n xLn2 (x2 ) (2.45)
est une fonction génératrice de {pn }, où ξ(x, t) est la racine du polynôme s − x − σ(s)t qui est
la plus proche de x (x xé).
Proof. En vertu de (2.36), on a
σ n (z)ρ(z)
Z
An n!
pn (x) = dz
ρ(x) 2πi C (z − x)n+1
où C est le cercle frontière d'un disque fermé contenu dans le domaine d'analyticité de ρ. Posons
_ pn (x) 1 n!
Z
σ n (z)ρ(z)
p n (x) = = dz (2.48)
An ρ(x) 2πi C (z − x)n+1
Soit x xé. Etudions la série entière
∞ _
X p n (x) n
t (2.49)
n!
n=0
23
En portant (2.48) dans (2.49), on obtient
∞ _ ∞
p n (x) n σ n (z)ρ(z)
Z
X X 1 1
t = dz tn
n! ρ(x) 2πi C (z − x)n+1
n=0 n=0
∞ Z
ρ(z) σ(z)t n
1 X
= dz
2πiρ(x) C z−x z−x n=0
σ(z) 1
La fonction z→ z−x est bornée sur C, notant M sa borne supérieure sur C et prenant |t| < 2M ,
on a n
σ(z)t 1
≤ , ∀n et ∀z ∈ C .
z−x 2n
∞ h in
P σ(z)t
Il vient que la série
z−x est normalement convergente sur C, donc y est uniformément
n=0
convergente. Par conséquent
∞ Z ∞
ρ(z) σ(z)t n ρ(z) X σ(z)t n
X Z
dz = dz,
C z−x z−x C z−x z−x
n=0 n=0
ρ(z)
car la fonction
z−x est bornée sur C. Par ailleurs
∞
σ(z)t n
X z−x
= ;
z−x z − x − σ(z)t
n=0
d'où
∞ _
p n (x) n
Z
X 1 ρ(z)
t = dz
n! 2πiρ(x) C z − x − σ(z)t
n=0
i.e., Z
1 ρ(z)
Φ(x, t) = dz .
2πiρ(x) C z − x − σ(z)t
Le polynômez − x − σ(z)t a deux racines dont l'une tend vers x lorsque t → 0, et l'autre
tend vers l'inni quand t → 0. Donc on est en droit de supposer qu'il y a une seule des racines
de z − x − σ(z)t intérieur à C (à l'occurence la plus proche de x). Par conséquent, la fonction
ρ(z)
z−x−σ(z)t admet un seul pôle à l'intérieur de C , donc par le théorème des résidus
Z
ρ(z) ρ(z)
dz = 2πi
C z − x − σ(z)t 1 − σ 0 (z)t z=ξ(x,t)
∞ _
p n (x) n
X ρ(z) 1
t = 0
n! ρ(x) 1 − σ (z)t z=ξ(x,t)
n=0
i.e.,
∞
ρ(z) 1 X 1 pn (x) n
0
= t
ρ(x) 1 − σ (z)t z=ξ(x,t)
An n!
n=0
24
1) Pour les polynômes de Laguerre, l'équation z − x − σ(z)t = 0 devient z − x − zt = 0. Donc
ξ(x, t) = x/1 − t, et par suite Φ(x, t) = (1 − t)−α−1 e−xt/1−t . D'où
∞
(1 − t)−α−1 e−xt/1−t =
X
Lαn (x)tn (2.50)
n=0
2
Φ(x, −t) = e2xt−t ,
et on obtient en dénitive
∞
2
X tn
e2xt−t = Hn (x) (2.51)
n!
n=0
p α p β
2t + 1 − 1 + 4t(t + x) 2t − 1 + 1 + 4t(t + x)
Φ(x, t) =
(2t − 2tx)α (2t + 2tx)β 1 + 4t(t + x)
p
par suite
√ α √ β
t 1−t− 1 − 2tx + t2 1 + t − 1 − 2tx + t2
Φ(x, − ) = √ .
2 (tx − t)α (tx + t)β 1 − 2tx + t2
Utilisant les égalités:
p 2 (tx − t)
1−t− 1 + 4t(t + x) = √
1 − t + 1 − 2tx + t2
p 2 (tx + t)
1+t− 1 + 4t(t + x) = √
1 + t + 1 − 2tx + t2
on déduit
t
Φ(x, − ) = 2α+β (1 + t + R)−β (1 − t + R)−α R−1
2
où p
R= 1 − 2tx + t2
D'où
∞
X
Pn(α,β) (x)tn = 2α+β (1 + t + R)−β 1 − t + R)−α R−1 .
n=0
n o
(α,β)
Donc une fonction génératrice de Pn est
où p
R= 1 − 2tx + t2 .
25
En particulier pour les polynômes de Legendre Pn correspondant à α = β = 0, on a
∞
1 X
√ = Pn (x)tn (2.52)
1 − 2xt + t2 n=0
√
Les points singuliers de 1/ 1 − 2xt + t2 étant t1,2 = e±iφ où x = cos φ (x xé dans [−1; 1])
il résulte que la relation (2.52) est valable dans ]−1; 1[, pour x xé dans [−1; 1].
La formule (2.52) est utilisé en physique théorique sous la forme
∞
X rn
1 <
= n+1 Pn (cos θ) (2.53)
|r1 − r2 | r
n=0 >
où r< = min(|r1 | , |r2 |), r> = max(|r1 | , |r2 |), θ est l'angle en radians entre les vecteurs r1 et r2 ,
et |r| désigne la norme du vecteur r. En eet
s 2
r< r<
q
|r1 − r2 | = r12 + r22 − 2r1 r2 cos θ = r> 1 − 2 cos θ + .
r> r>
D'où de la relation (2.52), on obtient (2.53).
Remarque 9. Les fonctions génératrices sont très utiles lorsqu'il s'agit de calculer des valeurs
particulières des polynômes orthogonaux classiques. Par exemple, posant dans (2.52) x = 1, on
obtient ∞
1 X
= Pn (1)tn
1−t
n=0
et par unicité du développement en série entière, on déduit:
Pn (1) = 1, (n = 0, 1, 2, ...).
∞
De même, posant x = 0 dans (2.51) on obtient e−t = Hn (0) tn! . Puisque
2 P n
n=0
∞ n ∞
−t2
X −t2 X t2n
e = = (−1)n ,
n! n!
n=0 n=0
1 f (z)dz 1
R n=0
g(z)dz
n=0
z = reiθ
R
Cauchy, fn = 2iπ C z n+1 et gn = 2iπ C z n+1 . En eectuant le changement de variable
on obtient Z 2π
1
fn − gn = (f − g)(reiθ )e−inθ dθ
2rn π 0
. Comme f-g est continue sur le cercle C
Z 2π
lim (f − g)(reiθ )e−inθ dθ = 0.
n→+∞ 0
D'où le résultat.
26
Exemple 2.3.1. Détermine le comportement asymptotique des polynômes de Legendre.
Ind: poser x = cos θ, décomposer la fonction génératrice de ces polynômes en éléments simples
et en déduire le résultat.
Solution 2.3.5. Comme les polynômes de Legendre sont orthogonaux sur l'intervalle (−1, 1),
en prenant x = cos α dans 2.52, on obtient
∞
1 X
1 1 = Pn (cos θ)tn
(eiθ − t) 2 (e−iθ − t) 2
n=0
où (a)n est le symbole de pochhammer déni par (a)0 = 1, (a)n = a(a + 1)...(a + n − 1) On
obtient ∞
π ( 12 )n n
1 1 X 1
1 1 = 1 cos (n + )θ − t
(eiθ − t) 2 (e−iθ − t) 2 (2 sin θ) 2 2 4 n!
n=0
Par identication on a
π ( 12 )n
− 12 1
Pn (cos θ) = 2(2 sin θ) cos (n + )θ −
2 4 n!
En utilisant la relation
Γ(a + z)
lim z b−a =1
z→∞ Γ(b + z)
et le fait que Γ(a + n) = (a)n Γ(a) on a
( 12 )n
1 1
= 1 + o 3
n! Γ( 12 )n 2 n2
. Par conséquent,
− 21 − 12 − 21 1 π 1
Pn (cos θ) = 2π n (2 sin θ) cos (n + )θ − +o 3 , 0<θ<π
2 4 n2
√
car Γ( 12 ) = π.
Exemple 2.3.2. Montre que les polynômes de Jacobi satisfont
1
Pn (cos θ) = k(θ) cos(N θ + γ) + o 3 , 0<θ<π
n2
−α− 21 −β− 12
où k(θ) = √1
π
sin θ
2 cos θ
2 , N = n + (α+β+1)
2 et γ = −(α + 12 ) π2 .
27
2.4 Application 1: méthodes de quadrature approchée du type
Gauss.
2.4.1 Généralités.
f désigne une application dénie de l'intervalle (a, b) vers R (a, b ∈ R tels que a < b; a et b
pouvant être inni.). On notera Pn le R-espace vectoriel des polynômes de degré ≤ n.
Soit x1 , x2 , ..., xn n réels distincts rangés par ordre croissant.
Théorème 2.4.1. Il existe un unique polynôme Ln−1 de degré n − 1 qui interpole f en x1 , x2 , ...,
xn ; à condition que f ne s'annule pas en au moins un xi .
AlorsLn−1 − Q est de degré au plus n−1 et admet n racines distinctes. Donc nécessairement
Ln−1 − Q = 0. D'où Ln−1 = Q.
28
Dénition 2.4.4. Une formule de quadrature approchée à n points x1 , x2 , ..., xn donc les coe-
cients sont λ1 , λ2 , ..., λn, est dite
1) exacte sur un sous-ensemble E de Lρ (a, b) si
1
Z b Xn
f (x)ρ(x)dx = λk f (xk ), ∀f ∈ E.
a k=1
2 ) de type interpolation si Z b
In (f ) = Ln−1 (f )dx
a
où Ln−1 (f ) est le polynôme d'interpolation de Lagrange de f, aux points x1 , x2 , ..., xn .
3) d'ordre m (m ≥ 1) si elle est exacte sur Pm et non exacte sur Pm+1 .
Il est clair qu'une formule de quadrature approchée à n points x1 , x2 , ..., xn est de type
interpolation si et seulement si
Z b
λk = `k (x)ρ(x)dx (k = 1, 2, ..., n).
a
Proposition 2.4.1. Une formule de quadrature approchée à n points x1 , x2 , ..., xn est exacte sur
Pn−1 si et seulement si elle est de type interpolation.
Proof. Si la formule est exacte sur Pn−1 , elle est en particulier exacte sur les `k , donc on a
Z b
`k (x)ρ(x)dx = λk .
a
où n
Y
F (x) = (x − xi ).
i=1
n
Proof.
Rb P
Si la formule est exacte sur P2n−1 , soit P ∈ Pn−1 . On a: P F ∈ P2n−1 et
a P F ρdx =
k=1
λk P F (xk ) = 0. ce qui achève la démonstration.
29
Corollaire 2.4.1. Une formule de quadrature approchée à n points exacte sur P2n−1 est d'ordre
2n − 1.
Théorème 2.4.2. Une formule de quadrature approchée à n points x1 , x2 , ..., xn de type inter-
polation est d'ordre 2n − 1 si et seulement si les xk (k = 1, 2, ..., n) sont les racines du n-ième
polynôme orthogonal associé au poids ρ.
Proof. On suppose la formule de type interpolation. Si elle est d'ordre 2n − 1Ralors elle est exacte
b
sur P2n−1 . Donc pour tout polynôme P ∈ Pn−1 , on a:
a P F ρdx = 0.
Par ailleurs Z b
F 2 ρdx > 0.
a
Donc F appartient à l'orthogonal de Pn−1
Pn . D'où F est colinéaire au n-ième polynôme or-
dans
thogonal associé au poids ρ. Et, par conséquent x1 , x2 , ..., xn sont racines du n-ième polynôme or-
thogonal associé au poids ρ.
Par ailleurs
Ln−1 (Q) = Ln−1 (S) car Q(xk ) = S(xk )
et la formule étant de type interpolation, elle est exacte sur Pn−1 (cf.proposition 2.4.1), donc on
a Z b Z b Z b Z b
Qρdx = Sρdx = Ln−1 (S)ρdx = Ln−1 (Q)ρdx.
a a a a
D'où la formule est exacte sur P2n−1 .
En outre, on a
Z b Z b
2
F ρdx > 0 et Ln−1 (F 2 )ρdx = 0, car Ln−1 (F 2 ) = 0,
a a
c-à-d. la formule est inexacte sur P2n . D'où la formule est d'ordre 2n − 1.
Théorème 2.4.3. Il existe un unique choix des points x1 , x2 , ..., xn de ]a, b[ et des coecients
λ1 , λ2 , ..., λn tels que la formule de quadrature à n points de type interpolation assocée soit d'ordre
2n − 1.
Proof. Appliquer le théorème 2.4.2 et le fait qu'une formule est de type interpolation si et seule-
ment si Z b
λk = `k ρdx (k = 1, 2, ..., n) (2.59)
a
où
n
Q
(x − xi )
i=1,i6=k
`k (x) = n .
Q
(xi − xk )
i=1,i6=k
30
Soit ρ une fonction poids sur un intervalle (a, b) , {Pn } la suite de polynômes orthogonaux
moniques associés à ρ. Soit (xn,k )1≤k≤n les zéros de Pn , (n xé, n ≥ 1).
Dénition 2.4.5. On appelle formules de quadrature de type Gauss toute formule de quadrature
approchée, de type interpolation, d'ordre 2n − 1, i.e., toute formule du type
Z b n
f ρdx ∼ xé, n ≥ 1)
X
= λn,k f (xn,k ) (n (2.60)
a k=1
telle que Z b Xn
pρdx = λn,k p(xn,k ), ∀p ∈ P2n−1
a k=1
31
Théorème 2.4.4. Pour n xé, n ≥ 1 on a
Z b
Pn (x)
λn,k = ρ(x) 0
dx (2.61)
a (x − x n,k )Pn (xn,k )
Z b 2
Pn (x)
= ρ(x) dx (2.62)
a (x − xn,k )Pn0 (xn,k )
−1
n
X Pj2 (xn,k )
= 2
(2.63)
j=0
d j
d2n
= − (2.64)
Pn+1 (xn,k )Pn0 (xn,k )
où Z b
d2j = ρ(x)Pj2 (x)dx.
a
n
X Pj (x)Pj (xn,k ) 1 Pn+1 (xn,k )Pn (x)
2 =− 2 (∗)
dj dn x − xn,k
j=0
b
d2n
Z
Pn (x)
ρ(x) dx = − (∗∗)
a (x − xn,k ) Pn+1 (xn,k )
De (6.a) et (∗∗), on obtient (6.d).
En faisant tendre x vers xn,k dans (∗), et utilisant la règle de l'Hospital, on obtient
n−1
Pn+1 (xn,k )Pn0 (xn,k ) X Pj2 (xn,k )
− =
d2n
j=0
d2j
Les points d'interpolation étant les zéros du polynôme Pn , d'après le théorème 2.4.2, la
formule de quadrature approchée à n points de type interpolation assocée est d'ordre 2n − 1 de
coecients λn,k . Donc on a:
Z b Xn
`2k ρdx = λn,k `2k (xn,k ) = λn,k
a j=1
d'où (6.b).
Théorème 2.4.5. On suppose que l'intervalle (a, b) est borné, i.e., (a, b ∈ R). Soit n un entier
naturel, n ≥ 1.
Si f est une fonction de classe C 2n sur [a, b] alors
b n
f (2n) (ξ) b 2
Z X Z
f (x)ρ(x)dx = λn,k f (xn,k ) + P (x)(x)ρ(x)dx (2.65)
a (2n)! a n
k=1
32
Lemme 2.4.1. Pour tout x ∈ [a, b], il existe ηx ∈ [x, x̄] tel que
f (2n) (ηx ) 2
f (x) = H(x) + Pn (x) (2.66)
(2n)!
avec
n n
Pn00 (xn,j )
X X
H(x) = f (xn,j ) 1 − 0 (x − xn,j ) `2j (x)+ f 0 (xn,j )(x − xn,j )`2j (x) (2.67)
Pn (xn,j )
j=1 j=1
et
x = min(x, xn,1 , xn,2 , ..., xn,n ); x̄ = max(x, xn,1 , xn,2 , ..., xn,n ).
Preuve du lemme.
Notons que puisque Pn est monique et admet n racines distinctes xn,1 , xn,2 , ..., xn,n on a
Yn
Pn (x) = (x − xn,i ).
i=1
Soit x xé dans [a, b] , x 6= xn,k (k = 1, 2, ..., n). considérons la fonction F dénie sur [a, b] par
où
Aest une constante réelle telle que F (x) = 0.
Il vient: F C 2n et admet n + 1 zéros distincts à savoir x, xn,1 , xn,2 , ..., xn,n dans
est de classe
0
l'intervalle . [x, x̄], donc F admet n zéros distincts dans [x, x̄] \ {x, xn,1 , xn,2 , ..., xn,n } . De plus
0 0
on a: F (xn,k ) = 0, donc F admet 2n zéros dans [x, x̄] .
Par une application repétée du théorème de Rolle, on montre que F (2n) admet une racine
dans [x, x̄] . Soit ηx cette racine, puisque
f (2n) (ηx )
A= (2.68)
(2n)!
Remarque 10. La fonction x → f (2n) (ηx ) est continue sur [a, b] . En eet cette fonction n'est
autre chose que le prolongement par continuité de
−F (x) + f (x) − H(x)
Pn2 (x)
33
Preuve du théorème.
D'après le lemme 2.4.1 on a
b b b
f (2n) (ηx ) 2
Z Z Z
f (x)ρ(x)dx = H(x)ρ(x)dx + Pn (x)ρ(x)dx
a a a (2n)!
Z b Z b (2n)
f (ηx ) 2
= Ln−1 (H)(x)ρ(x)dx + Pn (x)ρ(x)dx
a a (2n)!
n Z b (2n)
X f (ηx ) 2
= λn,k f (xn,k ) + Pn (x)ρ(x)dx
a (2n)!
k=1
b b
f (2n) (ηx ) 2 f (2n) (ξ)
Z Z
Pn (x)ρ(x)dx = Pn2 (x)ρ(x)dx, ξ ∈ [a, b] .
a (2n)! (2n)! a
D'où
b n
f (2n) (ξ) b 2
Z X Z
f (x)ρ(x)dx = λn,k f (xn,k ) + P (x)ρ(x)dx, ξ ∈ [a, b] .
a (2n)! a n
k=1
n
X
sup |f (x) − p(x)| < ε/2 λn,j
a≤x≤b j=1
Rb n
P
Posant I(f ) = a f (x)ρ(x)dx, In (f ) = λn,j f (xn,j ), on obtient:
j=1
on déduit
|I(f ) − In (f )| < |I(p) − In (p)| + ε.
De plus, on a pour tout entier naturel n tel que n ≥ deg p + 1, I(p) = In (p), donc
34
1) Fomules de quadrature de Gauss-Legendre:[a, b] = [−1, 1], ρ(x) = 1.
Les points d'interpolation dans ce cas sont les racines des polynômes de Legendre. Du théorème
??, on a
1 n
f (2n) (ξ) 1 2
Z X Z
f (x)dx = λn,k f (xn,k ) + p (x)dx
−1 (2n)! −1 n
k=1
Z 1
Pn (x)Pn (xn,k ) 2
dx = , (k = 1, 2, ..., n)
−1 x − xn,k n
il vient
2
λn,k = (k = 1, 2, ..., n)
nPn−1 (xn,k )Pn0 (xn,k )
En outre, on a
Z 1 Z 1
1
p2n (x)dx = Pn2 (x)dx
−1 a2n −1
d2n
=
a2n
22n+1 (n!)4
=
((2n)!)2 (2n + 1)
où ξ ∈ [−1, 1] , n ≥ 1.
Soit n entier xé, n ≥ 1.D'après le théorème 2.4.5 pour toute fonction f de classe C 2n sur [−1, 1],
on a
1 n
f (2n) (ξ) 1 t2n (x)
Z Z
f (x) X
√ dx = λn,k f (xn,k ) + √ dx
−1 1 − x2 (2n)! −1 1 − x2
k=1
où ξ ∈ [−1, 1], ettn est le polynôme monique de Chebyshev de 1ère espèce, xn,k (k = 1, 2, ..., n)
sont les racines de tn .
1
Rappelons que tn (x) = n−1 Tn (x), t0 (x) = 1 où Tn (x) = cos nθ avec x = cos θ. Il vient:
2
2k − 1
xn,k = cos π, (k = 1, 2, ..., n)
2n
35
Donc
π 2k − 1
Tn+1 (xn,k ) = cos (2k − 1) + π (2.70)
2 2n
tag1 (2.71)
q
= ε(−1)k 1 − x2n,k où ε = ±1
et
(−1)k−1 n
Tn0 (xn,k ) = ε q où ε = ±1 (2)
1 − x2n,k
De plus, on a
1 π
t2 (x)
Z Z
1 π
d2n = √n = 2n−2 cos2 nθdθ = (3)
−1 1−x 2 2 0 22n−1
Ainsi de
d2n
λn,k = − , (k = 1, 2, ..., n)
tn+1 (xn,k )t0n (xn,k )
et tenant compte de (1), (2) et (3) on obtient
π
λn,k = (k = 1, 2, ..., n).
n
D'où
1 nX
2k − 1 π f (2n) (ξ)
Z
f (x) π
√ dx = k=1 f (cos π) + 2n−1 , ∀f ∈ C 2n ([−1, 1] ; R)
−1 1 − x2 n 2n 2 (2n)!
ξ ∈ [−1, 1] .
En utilisant les polynômes de Chebyshev de seconde espèce, on a: ∀f ∈ C 2n ([−1, 1] ; R),
1 nX
π f (2n) (ξ)
Z p π kπ k
f (x) 1 − x2 dx = k=1 sin2 f (cos π) + 2n+1 ,ξ ∈
−1 n+1 n+1 n+1 2 (2n)!
[−1, 1] .
1 n
f (2n) (ξ) 1 2 p
Z p X Z
2
f (x) 1 − x dx = λn,k f (xn,k ) + u (x) 1 − x2 dx
−1 (2n)! −1 n
k=1
où un est le polynôme unitaire de Chebyshev de seconde espèce, i.e., le polynôme unitaire associé
au polynôme
sin(n + 1)θ
Un (x) = où x = cos θ.
sin θ
Les xn,k étant les racines de Un , on a
kπ
xn,k = cos , (k = 1, 2, ..., n)
n+1
Puisque
36
et
(−1)k
un+1 (xn,k ) = .
2n+1
R1 √
2 (x) 1 − x2 dx = π/2
Par ailleurs
−1 Un entraine
Z 1 p π
u2n (x) 1 − x2 dx = .
−1 22n+1
Donc
π kπ
λn,k = sin2 .
n+1 n+1
37
Chapter 3
P = {h : D(h) ⊂ E −→ R},
vériant les propriétés suivantes:
38
1 f (x) + α ≤ p(x + x0 )∀x ∈ D(f )
Proof. Puisque 0E ∈ Γ, N (Γ) = Γ ∩ (−Γ) et N (Γ) est le plus grand sous-espace vectoriel inclut
dans Γ. Soit W , un supplémentaire algébrique de N (Γ). On pose Γ0 = Γ ∩ W . Il est clair que
N (Γ) + Γ0 ⊂ Γ.
Réciproquement, tout élément x de Γ se décompose selon x = v + y , avec v ∈ N (Γ) et y ∈ W ;
alors y = x − v ∈ Γ car −v ∈ Γ et donc y ∈ Γ0 .
Donc, Γ = N (Γ) + Γ0 .
Le cône Γ0 ne peut contenir de droite vectorielle car sinon, elle serait incluse dans N (Γ). Il est
donc saillant.
Comme Γ0 = Γ ∩ W et que W est fermé, il est clair que si Γ est fermé, Γ0 l'est aussi.
39
Proof. Γ = cone(u1 , ...us ) et considérons une décomposition de Γ = N (Γ) + Γ0 , donnée par
Soit
la proposition 3.1.2. Comme Γ0 est la projection de Γ su un supplémentaire W de N (Γ), alors
on a Γ0 = cone(y1 , ..., ys ) où les yi sont les projeté des ui .
Montrons que Γ0 est fermé. On peut supposer que les yi sont non nuls pour i ≤ k et nuls pour
k < i ≤ s. Alors, Γ0 = cone(y1 , ..., yk ). Le convexe K = cone(y1 , ..., yk ) est compact et ne
contient pas {0E }: en eet, {y1 , ...yk } ⊂ Γ0 \{0E } qui est encore convexe car Γ0 est saillant. La
distance d(0E , K) est donc strictement positive. Soit (zn )n∈N une suite dans Γ0 , qui converge
vers le point z ∈ E . On peut écrire zn = λn xn ; avec λn ≥ 0 et xn ∈ K . Alors la suite (λn )n∈N
est bornée car
kzn k kzn k
λn = ≤ sup .
kxn k n∈N d
On notera que (zn )n∈N est convergente, donc borné, ce qui nous assure l'existence de supn∈N kzn k.
Quitte à passer à une sous-suite, on peut supposer que lim λn = λ ∈ R+ et lim = x ∈ K .
n→∞ n→∞
Alors, lim zn = z = λx ∈ Γ0 . Donc, Γ0 est fermé. Comme N (Γ) est fermé et Γ0 est inclut dans
n→∞
le supplémentaire W de N (Γ), Γ = Γ0 + N (Γ) est fermée: en eet, si une suite de Γ
la somme
converge dans E , les suites projetées sur N Γ et W convergent, et leurs limites sont nécessairement
dans N (Γ) et W respectivement.
Théorème 3.1.2 (Théorème de séparation des convexes.). Soit E , un espace vectoriel topologique
localement convexe. Soient A ⊂ E , B ⊂ E , deux ensembles convexes, non vides et disjoints.
(i) Si B est ouvert, alors il existe une forme linéaire L : E → R et a ∈ R tel que L(x) ≤ a <
L(y), pour tout x ∈ A et tout y ∈ B .
(ii) Si A est compact et B et fermé, alors il existe une forme linéaire L : E → R et des nombres
a, b ∈ R tels que L(x) ≤ a < b ≤ L(y) pour tout x ∈ A et tout y ∈ B .
40
Théorème 3.1.4. Soit f ∈ L1 (R), une fonction positive, non identiquement nulle. Alors il
existe une fonction h ∈ H 1 (R) telle que |f (x)| = h(x) presque partout sur R.
Proof. cf. [10].
Notation 3.2.1. On désigne par M+ (X), l'ensemble des mesures de Radon sur X .
On dénit l'ensemble
E+ = { f ∈ E | f (x) ≥ 0 pour x ∈ X}.
Si µ ∈ M+ (X) est telle que E ⊆ L1 (X, µ), on dénit la forme linéaire E+ -positive Lµ sur E par:
Z
Lµ (f ) = f (x) dµ(x), f ∈ E. (3.2)
X
Dénition 3.2.1. Une forme linéaire L sur E est une fonctionnelle de moments s'il existe une
mesure µ ∈ M+ (X) telle que L = Lµ . Une telle mesure est appelée mesure représentative de L.
Dénition 3.2.2.
ML,K = { µ ∈ M+ (X) | L = Lµ }.
désigne l'ensemble des mesures représentatives de la fonctionnelle de moments L.
Dénition 3.2.3. Une fonctionnelle de moments L sur K est dite déterminée si elle admet une
unique mesure représentative ou encore si l'ensemble ML,K se réduit un singleton. Dans le cas
contraire, on dit que L est indéterminée.
Dénition 3.2.4. Pour f, g ∈ C(X, R) on dit que g domine f si pour tout ε > 0, il existe un
compact Kε tel que g(x) < ε pour tout x ∈ X \ Kε .
f (x)
f (x)
En d'autres termes, g domine f signie lim = 0.
x→∞ g(x)
Dénition 3.2.5. Un sous-espace vectoriel E de C(X, R) est dit adapté si les conditions suivantes
sont satisfaites:
(i) E = E+ − E+ ;
41
(ii) Pour tout x ∈ X il existe f ∈ E+ tel que f (x) > 0;
(iii) Pour tout f ∈ E+ il existe g ∈ E+ tel que g domine f.
Lemme 3.2.1. Cc (X, R) est sous-espace vectoriel adapté de C(X, R).
Proof. f de Cc (X, R) admet une décomposition de la forme f = f + − f − , où
(i) tout élement
f+ = max(f, 0) et f
−
= max(−f, 0). Donc, Cc (X, R) = Cc + (X, R) − Cc + (X, R).
+
(ii) Soit x0 ∈ X cherchons f ∈ Cc (X, R) tel que f (x0 ) > 0. Puisque X est un espace
localement compact, alors x0 admet un voisinage compact Kx0 . D'après le lemme de Urysohn
+
(Lemme 3.1.1), il existe une fonction ϕ ∈ Cc (X, R) telle que ϕ(x) = 1, pour tout x ∈ Kx0 .
Donc en particulier, ϕ(x0 ) > 0. Il sut de prendre f = ϕ.
+ +
(iii) Soit f ∈ Cc (X, R). Cherchons g ∈ Cc (X, R) tel que g domine f . Soit ε > 0. Pour
K = supp(f ), on a f (x) ≤ εf (x) pour tout x ∈ X\K . Donc il sut de prendre g = f . Nous
venons ainsi de prouver que Cc (X, R) est sous-espace vectoriel adapté de C(X, R).
Lemme 3.2.2. Si E est un sous-espace adapté de C(X , R), alors pour tout f ∈ Cc+ (X, R) il
existe g ∈ E+ tel que g(x) ≥ f (x) pour tout x ∈ X .
Proof. f ∈ Cc+ (X, R) et soit x ∈ supp(f ). Comme E est adapté, alors il existe gx ∈ E+ tel
Soit
que gx (x) > 0. Comme f ∈ Cc+ (X, R) ⊆ Cb+ (X, R), alors on peut trouver une constante λx > 0
telle que la relation
λx gx (x) ≥ f (x). (3.3)
reste valable dans un voisinage Vx de x. La famille (Vx )x∈supp(f ) où Vx est un voisinage ouvert
de x forme un recouvrement ouvert de supp(f ); comme supp(f ) est compact, alors il existe un
[n
nombre ni de x1 ,...,xn tels que supp(f ) ⊂ Vxi . Pour tout i, on construit la fonction λxi gxi
i=1
n
X
comme en (3.3) et on considère la fonction g= λxi gxi . Nous allons montrer que la fonction
i=1
g ainsi dénie satisfait la propriété souhaitée. Soit x ∈ X.
Si x ∈ supp(f ) alors x ∈ Vxi0 , i0 ∈ {1, ...n}. On a:
n
X n
X
g(x) = λxi0 gxi0 + λxj gxj (x) ≥ f (x) + λxj gxj (x)
j=1j6=i0 j=1j6=i0
n
X
≥ f (x) car λxj gxj (x) ≥ 0.
j=1j6=i0
Si x∈
/ supp(f ) alors f (x) = 0 et par conséquent, f (x) ≤ g(x).
42
(i) Montrons que q est positivement homogène .
Soit λ > 0 montrons que q(λf ) = λq(f ).
Posons P = {L(g) : g ∈ E, g − λf ∈ C} et Q = λ{L(g) : g ∈ E, g − f ∈ C}. Soit α ∈ P alors
λg g
on a: α = L(g) = L(
λ ) = λL( λ ), avec g ∈ E et g − λf ∈ C .
E étant un sous-espace vectoriel de F , on a λg ∈ E . Il ne reste plus qu'à montrer que λg − f ∈ C .
1 1
On a: g − λf ∈ C ⇒
λ (g − λf ) ∈ C car C est un cône convexe. Ainsi λ g − f ∈ C et par
conséquent α ∈ Q.
Soit α ∈ Q montrons que α ∈ P . On a: α ∈ λQ =⇒ α = λL(g) avec g ∈ E et g − λf ∈ C .
Donc α = λL(g) = L(λg) et λg ∈ E . Il ne reste plus qu'à monter que λg − λf ∈ C .
Par dénition, on a: g − f ∈ C et par conséquent λ(g − f ) ∈ C car λ > 0 et C est un cône. Il
suit que α ∈ P . Ainsi, q(λf ) = λq(f ). Donc q est positivement homogène.
(ii) Montrons que q(f1 + f2 ) ≤ q(f1 ) + q(f2 ).
on pose: A = {L(g) : g ∈ E, g − f1 ∈ C}, B = {L(h) : h ∈ E, h − f2 ∈ C} et
D = {L(g) : g ∈ E, g − (f1 + f2 ) ∈ C}.
Soient α ∈ A et β ∈ B , on a: α + β = L(g) + L(h) = L(g + h) avec g + h ∈ E .
Comme g − f1 ∈ C et h − f2 ∈ C alors g − f1 + h − f2 = g + h − (f1 + f2 ) ∈ C car C est un cône
convexe. Ainsi, α + β ∈ D ie A + B ⊂ D et par conséquent,
43
On a: E
e =E+E
e+ . En eet,
(a) Montrons que E+E e+ ⊂ E e.
Soient f1 ∈ E et f2 ∈ E e+ alors on a: f1 + f2 ∈ C(X, R).
De plus, |f1 (x) + f2 (x)| 6 |f1 (x)| + |f2 (x)|, ∀x ∈ X .
Comme f2 ∈ E e+ ⊂ Ee alors il existe g2 ∈ E tel que f2 (x) 6 g2 (x), ∀x ∈ X . Ainsi, |f1 (x)+f2 (x)| 6
g1 (x) + g2 (x), ∀x ∈ X ; avec g1 = |f1 | ∈ E+ . Donc f1 + f2 ∈ E e ; et par suite E + Ee+ ⊂ E.
e
Remarque 12. Puisque Cc (X, R) est un sous espace adapté de C(X, R) (d'après le lemme 3.2.1)
alors on peut constater que le théorème de représentation de Riesz (théorème ??) n'est q'un cas
particulier du théorème de représentation de Choquet (théorème 3.2.1).
Théorème 3.2.2 ( Théorème de Haviland ). Soit K un sous-ensemble fermé de Rd et soit L
une forme linéaire sur R[x1 , x2 , · · · , xd ]. Les assertions suivantes sont équivalentes:
1. L(p) ≥ 0 pour tout p ∈ P os(K);
2. L(p + ε1) ≥ 0 pour tout p ∈ P os(K) et ε > 0;
3. Pour tout p ∈ P os(K), il existe q ∈ P os(K) tel que L(p + qε) ≥ 0 pour tout ε > 0.
4. L est une fonctionnelle de moments sur K c'est-à-dire qu'il existe une mesure µ ∈ M+ (Rd )
à support dans K telle que R[x] ⊆ L1 (Rd ; µ) et
Z
L(p) = p dµ, p ∈ R[x].
Rd
44
Proof. Posons X = K. Alors, E = R[x] est un sous-espace adapté de C(K). En eet, pour
p ∈ R[x], on a:
p+1 2 P −1 2
p=( ) −( ) .
2 2
Donc, E ⊆ E+ − E+ .
d
De plus, pour tout p, q ∈ E , p − p ∈ E et par suite E = E+ − E+ . Soit x ∈ R le polynôme
p ≡ 1 satisfait la condition p(x) > 0.
2 2 p
Si p ∈ E+ alors q = (x1 + ... + xd )p domine p car: lim = 0. Ainsi, E est un sous-espace
kxk→+∞ q
adapté de C(K). Donc d'après le théorème (3.2.1) les assertions (i), (ii) et (iv) sont équivalentes.
De plus, (i) et (iii) sont équivalentes.
où:
Proposition 3.3.2.
(i) P os(R) = R[x]2 = {f 2 + g 2 : f, g ∈ R[x]};
P
45
Proposition 3.3.3.
X
P os([0; +∞)) = {f + xg : f, g ∈ R[x]2 }. (3.10)
Proof.
X
R[x]2 +x R[x]2 .
P
On dénit l'ensemble Q= Par dénition, on a: Q ⊆ P os([0; +∞)).
Pos([0;2+∞)) ⊆ Q.
P L'ensemble Q est invariant pour la multiplication. En eet, pour f1 , f2 , g1 , g2 ∈
R[x] on a:
Soit p ∈ P os([0; +∞)), p 6= 0. Puisque Q est stable pour la multiplication alors en considérant la
représentation (2.3) du polynôme p on voit qu'il sut de montrer que tous les facteurs dans (2.3)
2 2 j
sont des éléments de Q. On sait grâce à (3.9) que tous les facteurs de la formes ((x − uk ) + vk ) k
sont des éléments de Q car ce sont des sommes de deux carrés. Les facteurs (x − αk ) k pour
n
lesquels nk est pair sont dans Q car ce sont des carrés de polynômes. Il reste donc à montrer
que la constante a et les facteurs x − αi pour toute racine αi d'ordre de multiplicité impair
appartiennent à Q. Soit αi une racine d'ordre de multiplicité impair de p. Puisque p(x) ≥ 0 sur
[0; +∞) alors en passant à la limite lorsque x → +∞ dans (2.3) on obtient a > 0 et αi ≤ 0 car
p change de signe lorsqu'il traverse une racine d'ordre de multiplicité impair.
R[x]2 + x R[x]2 .
P P
Ainsi, a∈Q et x − αi = (−αi + x) ∈ Q =
2
X 2
X
P os([a, b])2n = {f + (b − x)(x − a)g : f ∈ R[x], g ∈ R[x]}. (3.12)
n n−1
2
X
P os([a, b])2n+1 = {(b − x)f + (x − a)g : f, g ∈ R[x]}. (3.13)
n
Proof. L'égalité (3.11) est une conséquence immédiate des égalités (3.12) et (3.13).
Par dénition, on a les inclusions
2
X
{(b − x)f + (x − a)g : f, g ∈ R[x]} ⊆ P os([a, b])2n+1
n
2
X
P2
et {f + (b − x)(x − a)g : f ∈ n R[x], g ∈ R[x]} ⊆ P os([a, b])2n . Nous allons montrer les
n−1
inclusions inverses de (3.12) et (3.13) par récurrence. Pour n=0 les inclusions (3.12) et (3.13)
sont triviales.
Supposons que les inclusions inverses de (3.12) et (3.13) sont vériées pour n. Soit p ∈ P os([a, b])2n+2
ou p ∈ P os([a, b])2n+3 .
Supposons que p possède un facteur quadratique q qui n'a aucune racine réelle dans la représen-
tation (2.2). En multipliant si nécessaire par -1, on peut supposer que q ≥ 0 sur R. Alors p = qp0
avec p0 ∈ P os([a, b]) et deg(p0 ) ≤ deg(p) − 2. En appliquant l'hypothèse d'induction à p0 , il suit
que p est dans le membre de gauche des égalitéss (3.12) et (3.13).
Traitons le cas où p possède une racine réelle α. En considérant la bijection ψ : [a; b] →
[0; 1]; t 7→ (1 − a)t + a, on peut supposer sans nuire à la généralité que a = 0 et b = 1. Alors
(b − x)(x − a) = x(x − 1).
46
Supposons que α ∈ (0, 1). Alors α est d'ordre de multiplicité pair. Donc p peut se factoriser
comme p = (x − α)2 p0 avec p0 ∈ P os([a, b]) et deg(p0 ) ≤ deg(p) − 2. En appliquant l'hypothèse
d'induction à p0 , il suit que p est dans le membre de gauche des égalités (3.12) et (3.13).
Supposons que α ∈ / (0, 1).
2
X 2
X
nous permet de conclure que p∈ R[x] + x(1 − x) R[x].
n+1 n
Donc l'égalité
p = (α − x)p0
α
= xf + (1 − x)x2 g − [x(2f + (1 − x)2 g) + (1 − x)(2f + x2 g)].
2
2
X 2
X
nous permet de conclure que :p ∈ (1 − x) R[x] + x R[x].
n+1 n+1
2
X 2
X
nous permet de conclure que: p ∈ (1 − x) R[x] + x R[x].
n+1 n+1
47
3.3.2 Théorèmes d'existences pour les problèmes de moments classique.
Dans cette partie on résout le problèmes des moments pour les intervalles fermés K ⊂ R en
combinant le théorème de Haviland(théorème 3.2.2) et la description des polynômes positifs
faite dans la section précédente.
Dénition 3.3.1. Une suite s = (sn )n∈N de nombres réels est dite positive si pour tout c0 , c1 , ..., cn ∈
Ret n ∈ N on a: n X
sk+l ck cl ≥ 0. (3.14)
k,l=0
Notation 3.3.1. On désigne par P(N), l'ensemble des suites numériques positives.
Soit s = (sn )n∈N une suite de nombres réels. On rappelle que la fonctionnelle de Riesz
associée à s est l'application dénie par Ls (xn ) = sn , n ∈ N. Soit Es la suite "shift avant"
dénie par: (Es )n = sn+1 . On dénie la matrice symétrique
s0 s1 s2 ... sn
s1 s2 s3 ... sn+1
Hn (s) = (si+j )0≤i,j≤n = s2
s3 s4 ... sn+2 . (3.15)
... ... ... ... ...
sn sn+1 sn+2 ... s2n
Dénition 3.3.2. Pour n ∈ N, la matrice Hn (s) est appelée matrice de Hankel associée à la
suite s = (sn )n∈N .
Théorème 3.3.1 (Solution au problème des moments de Hamburger). Pour toute suite de
nombres réels s = (sn )n∈N les assertions suivantes sont équivalentes:
(i) s est une suite de moments de Hamburger, c'est-à-dire qu'il existe une mesure µ ∈ M+ (R)
telle que xn ∈ L1 (R, µ) et Z
sn = xn n ∈ N. (3.16)
R
sn = Ls (xn ) = n dµ(x).
R
D'où
Rx
48
Remarque 13. Pour toute suite s = (sn )n∈N de nombres réels, la matrice de Hankel Hn (Es)
est la matrice symétrique dénie par: Hn (Es) = ((Es)i+j )0≤i,j≤n .
Théorème 3.3.2 (Théorème d'existence du problème des moments de Stieltjes). Pour toute
suite s = (sn )n∈N de nombres réels, les propriétés suivantes sont équivalentes:
(i) s est une suite de moments de Stieltjes c'est-à-dire qu'il existe une mesure µ ∈ M+ (R) à
support dans R+ telle que xn ∈ L1 (R, µ) et
Z ∞
sn = xn n ∈ N. (3.17)
0
Théorème 3.3.3 (Théorème d'existence pour un intervalle fermé borné). Soient a, b ∈ R, a < b.
Pour toute suite s = (sn )n∈N de nombres réels les assertions suivantes sont équivalentes:
(i) s est une suite de moments sur [a;b],
49
(ii) s ∈ P(N) et ((a + b)Es − E(Es) − abs) ∈ P(N);
(ii) Ls (p2 ) ≥ 0 et Ls ((b − x)(x − a)p2 ) ≥ 0 pour tout p ∈ R[x].
Proof. Montrons que (ii) et (iii) sont équivalents.
D'après la preuve du théorème (3.2.1) on sait que s ∈ P(N) si et seulement si Ls (p2 ) ≥ 0, ∀p ∈
R[x].
n
X
Supposons que Ls ((b − x)(x − a)p2 ) ≥ 0 pour tout p ∈ R[x]. Soit p(x) = ci xi ∈ R[x]. on a:
i=0
n
X
ci cj ((a + b)Es − E(Es) − abs)i+j ≥ 0.
i,j=0
a x dµ ∀n ∈ N.
50
Proof. µ ∈ M+ (R) telle que supp(µ) soit compact alors µ ∈ M+ (Rd ) xα dµ 6
R
Soit car
Rd
α
sup ˙ αd ) ∈ Nd .
|x |µ(supp(µ)) < ∞, pour tout α = (α1 , ...,
x∈supp(µ)
Soita > 0 tel que supp(µ) ⊂ [−a; a]d et soit ν ∈ M+ (Rd ) alors
supp(µ) ⊂ [−a; a]d . En eet, si y ∈ Rd \ [−a; a]d , alors il existe une coordonnée yj de y telle que
|yj | > a. Soit U un voisinage ouvert de y tel que |yj | > a + ε pour tout y ∈ U et tout ε > 0 on a:
Z Z
2n
yj dν(y) > yj2n dν(y) > (a + ε)2n ν(U ).
Rd U
a 2n
yj2n dν(y) =
yj2n dµ(y) 6 a2n µ(Rd ). Ainsi, ν(U ) 6 ( a+ε ) µ(Rd ).
R R
Mais
Rd Rd
En passant à la limite lorsque n → ∞ dans l'inégalité précédente, on obtient ν(U ) = 0. Ainsi,
c
U est un voisinage ouvert de y , de mesure nulle; ce qui montre que y ∈ supp(ν) et par suite,
d d
supp(µ) ⊂ [−a; a] . Soit f ∈ Cc (R ) et soit ε > 0, d'après le théorème d'approximation de
d
Weierstrass, il existe un polynôme p à d-variables tel que l'on ait: |f (y)−p(y)| ≤ ε, ∀y ∈ [−a; a] .
R R
Puisque
Rd p dµ = Rd p dν , alors
Z Z Z Z
| f dµ − f dν| 6 |f − p| dµ + |f − p| dν
Rd Rd Rd Rd
d d
6 ε(µ(R ) + ν(R )).
Rd f dµ = Rd f dν .
Cc (Rd , R)
R
Comme l'application L : f 7→ Rd f dµ est une forme linéaire positive sur alors d'après
le théorème de représentation de Riesz (théorème
R ??), µ est l'unique mesure de Radon sur
R Rd
telle que L(f ) = Rd f dµ. Or d'après ce qui précède on a: L(f ) = Rd f dν donc par unicité de
la mesure µ, µ = ν . Donc µ est déterminée.
Corollaire 3.4.1. Lorsquelle existe, la solution à un problème des moments sur un compact K
de Rd est unique. Un tel problème est donc déterminé.
Proof. Ce n'est qu'une conséquence immédiate du théorème 3.4.2.
Dénition 3.4.1. Soit (mn )n∈N une suite positive et J ⊂ R un intervalle ouvert. Soit C{mn },
l'ensemble des fonctions f ∈ C ∞ (J) pour lesquelles il existe une constante kf > 0, telle que
sup|f (n) (t)| ≤ kf n mn , ∀n ∈ N. (3.18)
t∈J
On dit que C{mn } est une est une famille de fonctions quasi-analytiques si la propriété suivante
est satisfaite: si f ∈ C{mn } et il existe un point t0 ∈ J tel que f n (t0 ) = 0 pour tout n ∈ N alors
f ≡ 0 sur J . Dans ce cas, les fonctions de C{mn } sont dites quasi-analytiques.
Théorème 3.4.2. C{mn } est une famille de fonctions quasi-analytiques si et seulement si
∞
X 1
( inf mkk )−1 = ∞. (3.19)
k>n
n=1
51
Corollaire 3.4.2. Soit (mn )n∈N une suite positive telle que
∞
X −1
mnn . (3.20)
n=1
Soit f ∈ C ∞ (J) on suppose qu'il existe une constante kf ≥ 0 telle que (3.18) soit satisfaite. S'il
existe une un t0 ∈ J tel que f (n) (t0 ) = 0, ∀n ∈ N, alors f (t) ≡ 0 sur J.
1 1
Proof. Puisque mnn > inf k>n mnk , (3.19) entraine (3.20) et par conséquent C{mn } est une famille
de fonctions quasi-analytiques d'après le théorème 3.4.2
0
|φh (x)| = |φh (x) − φh (0)| 6 |x| sup{|φh (y)| : |y| 6 |x|, y ∈ R}.
0
Ainsi, puisque |φh (y)| = |eihy | = 1, alors
|ψh (x)| = |φh (x)(ix)n eitx ξ(x)| 6 |xn+1 |kξkL∞ (R,µ) pp sur R.
Ainsi, puisque µ ∈ M+ (R) et xn+1 ∈ L1 (R, µ) alors d'après le théorème de convergence dominée
de Lebesgue(Théorème ??), on a:
g (n) (t + h) − g (n) (t)
Z Z
lim = lim ψh (x) dµ(x) = (ix)n+1 eitx ξ(x) dµ(x).
h→0 h h→0 R R
En particulier, Z
sn (µ) = xn dµ(x) = (−i)n fµ (0) pour n ∈ N. (3.24)
R
Théorème 3.4.3 (Théorème de Carleman). Soit s = (sn )n∈N une suite positive. Si s vérie la
condition de Carleman ∞ X −1
2n
s2n = +∞, (3.25)
n=1
alors le problème des moments de Hamburger associé à la suite s est déterminé.
52
Proof. D'après le théorème de Hamburger(théorème 3.3.1), il sut de prouver l'unicité de la
mesure. Soient µ1 , µ2 ∈ Ms ; on pose f = fµ1 − fµ2 alors d'après le corollaire 3.4.3 f ∈ C ∞ (R).
Posons mn = supt∈R |f (n) (t)|, pour n ∈ N. D'après (3.23),
Z Z
(2n) (2n) 2n
m2n 6 sup(|fµ1 (t)| + |fµ2 (t)|) 6 x dµ1 (x) + x2n dµ2 (x) = 2s2n .
t∈R R R
∞ ∞ ∞ ∞
X −1 X − 1 X 1 − 1 1 X − 2n
1
mn n > m2n2n > 2− 2n s2n2n > s2n = ∞.
2
n=1 n=1 n=1 n=1
Ainsi, les conditions du corollaire 3.4.3 sont satisfaites; par conséquent, f (t) ≡ 0 donc fµ1 (t) ≡
fµ2 (t), ∀t ∈ R. Puisque la transformée de Fourier est uniquement déterminée par une mesure
nie alors µ1 = µ2 . Ainsi, s est déterminée. Donc le problème des moments de Hamburger
associé à la suite s est déterminé.
Corollaire 3.4.4. Soit s = (sn )n∈N une suite positive. S'il existe une constante M >0 telle que
alors la condition de Carleman est satisfaite et le problème des moments de Hamburger associé
à la suite s est déterminé.
Proof.
1 1
Pour n ∈ N, on a: (2n)! ≤ (2n)2n d'où [(2n)!]− 2n 6 2n et par suite
1
2n 6 [(2n)!]− 2n .
1 −1/2n
D'où M −1/2 2n
1
≤ M −1/2 [(2n)!]− 2n ≤ s2n , n ∈ N.
P∞ 1 P∞ −1/2n
Comme la série n=1 2n est divergente alors n=1 s2n = +∞. Donc la condition de Carleman
est satisfaite.
Corollaire 3.4.5.
alors µ ∈ M+ (R), la condition (3.26) est satisfaite et le problème des moments de Ham-
burger associé à µ est déterminé.
alors µ ∈ M+ ([0; ∞)), la condition (3.24) est satisfaite, et le problème des moments de
Stieltjes associé à µ est déterminé.
53
Proof. (i) Soit n∈N et soit x∈R la fonction x 7→ x2n e−ε|x| est bornée car lim x2n e−ε|x| = 0,
|x|→∞
et par conséquent elle admet une borne supérieure.Il vient donc que:
Z Z Z
2n 2n −ε|x| ε|x| 2n −ε|x|
x dµ(x) = x e e dµ(x) ≤ sup(x e ) eε|x| dµ(x). (3.29)
R R x∈R R
2n dµ(x) k
R R
Donc
Rx < ∞ et par conséquent,
R |x | dµx < +∞ ∀k ∈ N . D'où µ ∈ M+ (R). De
plus, d'après (3.29) on a:
Z Z
2n 2n −ε|x|
s2n = x dµ(x) ≤ (2n)! sup(x e ) eε|x| dµ(x).
R x∈R R
Donc il existe une constante M >0 telle que s2n ≤ M n (2n)! pour n ∈ N. Ainsi, la condition
(3.26) est satisfaites. Donc d'après la condition (i) du corollaire 3.4.5 le problème des moments
de Hamburger associé à µ est déterminé.
(ii) en utilisant un raisonnement similaire à celui employé pour (i) on obtient le résultat pour
x ∈ R+ .
Théorème 3.4.4 (condition de Krein). Soit f une fonction de borélienne non positive
R n sur R.
Supposons que la mesure µ dénie par dµ = f (x)dx ∈ M+ (R) et que sn := R x dµ(x) <
+∞ ∀ n ∈ N. Si Z
ln f (x)
dx > −∞ (3.30)
R 1 + x2
alors la suite de moments s = (sn )n∈N de la mesure est indéterminée. De plus l'espace de
polynômes C[x] n'est pas dense dans L2 (R, µ).
Proof. Supposons que la condition (3.30) est vériée. Puisque dµ = f (x)dx ∈ M+ (R), alors
f ∈ L1 (R). Donc d'après le théorème 3.1.4, il existe h ∈ H 1 (R) tels que |h(x)| = f (x) p.p sur
R. Puisque h ∈ H 1 (R), il suit du théorème de Paley-Wiener (théorème 3.1.5) que
Z
eitx h(x)dx = 0 pour t ≥ 0. (3.31)
R
On pose ξ(x) = h(x)f (x)−1 si f (x) 6= 0 et ξ(x) = 0 si f (x) = 0. Alors |ξ(x)| ≤ 1 sur R et
dµ = f dx. Ainsi, la fonction
Z Z
itx
g(t) := e h(x)dx = eitx ξ(x)dµ(x)
R R
vérie les hypothèses du lemme 3.4.1. D'après (3.31), g(t) = 0 pour t ≥ 0. De plus, d'après la
formule (3.22) du Lemme 3.4.1, on a
Z Z
n (n) n
(−i) g (0) = x ξ(x)dµ(x) = xn h(x)dx = 0 pour n ∈ N0 . (3.32)
R R
Posons h1 (x) := Reh(x) et h2 (x) := Imh(x). D'après (3.32), on obtient
Z Z
xn h1 (x)dx = xn h2 (x)dx = 0 pourn ∈ N0 . (3.33)
R R
Puisque f 6= 0 par (3.30) et |h(x)| = f (x) p.p sur R, l'une au moins des deux fonctions h1 et h2
est non nulle, nous la noterons hj . On a f (x) − hj (x) ≥ 0 sur R. Ainsi, d'après (3.33) la mesure
de Radon ν sur R donnée par dν := (f (x) − hj (x))dx a les mêmes moments que µ. Mais ν 6= µ
carhj 6= 0.
Puisque h est non nulle,ξ l'est aussi. D'après (3.32), ξ ∈ L2 (R, µ) est orthogonale à C[x] dans
2
L (R, µ). Par 2
conséquent C[x] n'est pas dense dans L (R, µ).
54
Chapter 4
Fonctions spéciales
55
Chapter 5
dans Maple
56
Bibliography
[1] ANDREWS E.G., ASKEY R., ROY Ranjan, Special functions, Encyclopedia of mathematics
and its applications, volume 71, Cambridge University Press, 1999.
[2] BREZIS Haïm, Analyse fonctionnelle: théorie et applications, Masson, Paris, 1993.
[3] CAGNAC G., COMMEAU J., RAMIS E., Traité de Mathématiques Spéciales, Tome 2 . Anal-
yse, Masson et Cie,Paris, 1970.
[4] CHIHARA T.S. An introduction to orthogonal polynômials, Gordon and Breach Science Pub-
lisher, New-York, 1978.
[7] NIKIFOROV A.F., UVAROV B.V., Special functions of mathematical physics : An introduc-
tion with applications, translated from the Russian by R.P. BOAS, Basel; Boston: Birkhaüser,
1988.
[8] RUDIN Walter, Real and complex analysis, Mc Graw-Hill, Second edition, 1976.
[9] TEMME Nico M., Special functions: An introduction to the classical functions of mathemat-
ical physics, John Wiley & Sons.Inc.,1996.
[10] Garnett,J.B. : Bounded Analytics Functions, Springer-Verlag, New York, 2006.
[11] Schmüdgen, K: Unbounded Self-adjoint Operator on Hilbert Spaces, Springer-Verlag, New
York, 2012.
[12] Prestel, A and B. Reznick:Positive Polynomials-from Hilbert's 17th Problem to Real Alge-
bra, Springer-Verlag, New York, 2001.
[13] Rudin, W.: Real and Complex Analysys, Third Edition, MacGraw-Hill Inc., New York, 1987.
57