Sujet TP 1 Et 2
Sujet TP 1 Et 2
Sujet TP 1 Et 2
TP Echantillonnage et Quantification
2.1 Rappels
L’échantillonnage et la quantification permettent l’acquisition et le codage d’un signal en vue
d’un traitement ou d’un stockage. Le but de ce TP est d’illustrer les notions d’échantillonnage et
de quantification et d’analyser leurs effets sur différents signaux.
2.1.1 Echantillonnage
L’échantillonnage consiste à représenter un signal à temps continu s (t) par ses valeurs s (nTe ) à
des instant multiples de Te , Te étant la période d’échantillonnage. La condition de Shannon
permet d’échantillonner un signal sans perte d’information aucune perte d’information si la
1
fréquence d’échantillonnage fe = Te est au moins 2 fois supérieure à la plus grande fréquence
intervenant dans le spectre (répartition de la puissance du signal en fonction des fréquences) du
signal. Si cette condition n’est pas respectée on observe un “repliement de spectre” (voir figure
suivante). On note ce signal échantillonné se (t) :
+∞
se (t) = s (t) × δ (t − nTe )
−∞
21
22 CHAPITRE 2. TP ECHANTILLONNAGE ET QUANTIFICATION
Plusieurs méthodes d’interpolation existent pour restituer le signal entre deux points d’échan-
tillonnage successifs. Entre deux points d’échantillonnage situés entre kTe et (k + 1) Te , comment
reconstituer le signal s (kTe + τ )?
Par bloqueur :
x
(kTe + τ ) = x(kTe ) 0 ≤ τ ≤ Te
τ
x
(kTe + τ ) = x(kTe ) + (x(kTe ) − x((k − 1)Te )) 0 ≤ τ ≤ Te
Te
Les marches d’escalier sont remplacées par des rampes.
2.1. RAPPELS 23
τ
x
(kTe + τ ) = x(kTe ) + (x((k + 1)Te ) − x(kTe )) 0 ≤ τ ≤ Te
Te
Par filtrage
1
Se (f ) = Fe S(f − nFe ), Fe =
Te
n∈Z
24 CHAPITRE 2. TP ECHANTILLONNAGE ET QUANTIFICATION
Si x (t) est à spectre borné (−FM , +FM ), et si la condition de Shannon est vérifiée, on peut
restituer le signal par filtrage de façon à ne récupérer que le spectre d’ordre 0 :
1
S(f ) = [Se (f )]n=0
Fe
Donc
S(f ) = Se (f )Hr (f )
1
Hr (f ) = si f ∈ (−FM , FM )
Fe
Hr (f ) = 0 si |f | ≥ Fe − FM
1
Hr (f ) = ΠF (f )
Fe e
2.1. RAPPELS 25
2.1.3 Quantification
Quantification uniforme
Leurs caractéristiques sont données sur la figure suivante. Dans les deux cas, le domaine de
quantification est symétrique par rapport à zéro.
L’amplitude du signal d’erreur est comprise entre −q/2 et q/2. Quand les variations du signal
sont grandes par rapport au pas de quantification, c’est-à-dire que la quantification est faite avec
suffisamment de finesse, et lorsque le signal n’est pas écrêté, le signal d’erreur peut être supposé
à distribution uniforme, de densité de probabilité :
1 q q
pe (x) ≈ pour x ∈ [− , ]
q 2 2
pe (x) ≈ 0 ailleurs
q2
σe2 =
12
Considérons la quantification uniforme de type B. La gamme des amplitudes qu’il est possible
de coder est soumise à une double limitation : vers les faibles valeurs, elle est limitée par le pas
Nq
de quantification q et vers les fortes valeurs par 2 . Toute amplitude qui dépasse cette valeur ne
peut être représentée et il y a écrêtage du signal. Il s’en suit une dégradation par distorsion
harmonique, par exemple si le signal est sinusoïdal.
Pour définir et calculer le rapport signal à bruit de quantification, considérons un signal sinu-
soïdal non écrêté et occupant la pleine échelle du quantificateur.
On appelle puissance crête Pc d’un codeur la puissance du signal sinusoïdal ayant l’amplitude
maximale Am admissible sans écrêtage :
2
Nq 1 Nq
Am = Pc =
2 2 2
Quantification non uniforme : codage non linéaire suivant une loi segmentée
Le rapport signal à bruit de quantification varie fortement avec le niveau du signal dans le cas
de la quantification uniforme. La quantification non uniforme vise à maintenir l’erreur relative
28 CHAPITRE 2. TP ECHANTILLONNAGE ET QUANTIFICATION
de quantification constante, quelle que soit l’amplitude du signal alors que la quantification
uniforme introduit une erreur absolue maximum de ± 12 q.
La solution théorique est de faire varier le pas de quantification q proportionnellement à
l’amplitude de l’entrée. Or ceci est incompatible avec la nécessité d’avoir un nombre fini de
niveaux de quantifications. En pratique, la quantification non-uniforme utilise une quantification
uniforme avec compression-extension : on réalise tout d’abord une compression de la dynamique
du signal dans laquelle le signal x est transformé en un signal y, puis une quantification uniforme
du signal y et finalement une extension (opération inverse de la compression) du signal quantifié.
La compression du signal x est destinée à amplifier les faibles amplitudes et à minimiser
l’effet des fortes amplitudes. En pratique, deux caractérisitiques de compression (correspondant
à deux approximations de la loi logarithmique) sont normalisées au niveau international par le
C.C.I.T.T. : la loi A et la loi µ.
- la loi A :
1 + Ln (A |x|) 1
y = sign (x) pour < |x| ≤ 1
1 + Ln (A) A
A |x| 1
y = sign (x) pour 0 ≤ |x| ≤
1 + Ln (A) A
- la loi µ :
Ln (1 + µ |x|)
y = sign (x) pour − 1 ≤ x ≤ 1
Ln (1 + µ)
Les paramètres de A et µ déterminent l’augmentation de la dynamique du codeur. La valeur
retenue pour A est 87.6, celle retenue pour µ est 255. Ces lois sont ensuite approchées par des
segments de droite, de façon à coder sur un nombre fini de bits le signal ainsi distordu. La loi A
est normalisée par le C.C.I.T.T. comme une loi à 13 segments alors que la loi µ est normalisée à
15 segments. La caractéristique de compression de la loi A à 13 segments est donnée sur la figure
suivante. La caractéristique fait apparaître 7 segments dans le quadrant positif, on en imagine
autant dans le cadrant négatif et, les deux segments entourant l’origine étant colinéaires, on
obtient bien 13 segments. Les lois A et µ sont utilisées en téléphonie. Elles constituent deux
approximations de la loi logarithmique proposées respectivement en Europe et aux Etats-Unis.
Ces lois permettent d’obtenir un rapport signal à bruit de quantification constant à partir d’un
seuil (1/A ou 1/µ).
L’intérêt de telles lois réside dans la diminution du nombre d’éléments binaires pour coder les
échantillons, tout en conservant la dynamique du signal d’entrée (au détriment du RSB aux forts
niveaux).
Si on prend l’exemple de la loi A, pour coder l’amplitude du signal distordu par cette loi, il
faut :
- 1 bit de signe
- 3 bits indiquant le numéro de segments
2.1. RAPPELS 29
Figure 2.9 – Rapport signal à bruit de quantification avec quantification non uniforme
Le test de Kolmogorov permet de décider (avec une marge d’erreur donnée) si une variable
aléatoire X suit une loi de fonction de répartition F (x). Dans ce TP, il est utilisé pour l’étude
de la distribution de l’erreur de quantification.
Le déroulement du test est le suivant :
1) Estimation de la fonction de répartition F (x) à partir de K observations xk k = 1, ..., K de la
variable aléatoire X. Remarque importante : pour se rapprocher au maximum des conditions
30 CHAPITRE 2. TP ECHANTILLONNAGE ET QUANTIFICATION
H0 avec un risque α. Cette table n’est valable que pour Nc inférieur à 100. Pour Nc plus grand,
on sait calculer P (max |F −F | > ∆kolmo ) sous H0 (Vladimir N.Vapnik, ”The Nature of Statistical
Learning Theory”, Springer Ed. p87 ). Or :
k=+∞
α = P [rejeter H0 | H0 vraie] = P (max |F −F | > ∆kolmo ) ≃ 2(−1)k−1 exp(−2k 2 Nc ∆2komo )
k=1
On mesure tout d’abord ∆max = max |F − F |, écart maximal entre la fonction de répartition
théorique et la fonction de répartition estimée. On calcule ensuite :
k=+∞
P∆max = P (max |F − F | > ∆max ) ≃ 2(−1)k−1 exp(−2k 2 Nc ∆2max )
k=1
Or cette probabilité est une fonction décroissante de ∆max . Donc si P∆max > α, on peut en déduire
que ∆max < ∆kolmo . Il n’est donc pas nécessaire de caluler ∆kolmo pour prendre la décision. En
effet, on accepte l’hypothèse H0 si :
k=+∞
2(−1)k−1 exp(−2k 2 Nc ∆2max ) > α
k=1
Le calcul de cette probabilité sera effectué sous Matlab, la somme infinie pouvant être approchée
par une somme de 1 à K ”très grand” (par exemple K = 1000).
Nc α = 5% α = 1%
5 0.5633 0.6685
10 0.4087 0.4864
15 0.3375 0.4042
20 0.2939 0.3524
25 0.2639 0.3165
30 0.2417 0.2898
40 0.2101 0.2521
50 0.1884 0.2260
60 0.1723 0.2067
70 0.1597 0.1917
80 0.1496 0.1795
90 0.1412
100 0.1340
2.2.1 Echantillonnage
Générer N=100 points d’un signal sinusoïdal de fréquence 5000 Hz échantillonné à 100 000
Hz.
Dans une période du sinus, combien y a-t-il de points ?
Effectuer le “spectre” du signal (cette fonction sera étudiée en détail dans le TP Corrélations
et Spectres).
Expliquer ce que l’on obtient, en particulier la présence des deux “pics” et leurs fréquences
respectives (utiliser le zoom...).
Changer le nombre de points N=1000. Que se passe-t-il ? (utiliser le zoom)
Passer en fréquences normalisées (bouton “changement échelle fréquentielle”). Retrouver les
valeurs des fréquences intéressantes.
Reprendre le signal généré au départ : N=100 points, sinus de fréquence 5000 Hz, échantillonné
à 100 000 Hz.
Pour différentes fréquences d’écantillonnage Fe, observez le signal en temporel et en spectral :
Fe= 50 000 Hz
Fe= 20 000 Hz : combien de points par période du sinus ?
Fe= Fréquence de Shannon : combien de points par période du sinus ? Que se passe-t-il du
point de vue spectral ?
Fe= 7 500 Hz : sur le spectre, d’où proviennent les pics observés ? (Faire un dessin). La
fréquence du sinus reconstitué est de quelle valeur ? Vérifier sur la représentation temporelle que
le nombre de points par période du sinus correspond bien à cette fréquence.
Fe= 4 000 Hz : mêmes questions.
Générer N=1000 points d’un signal carré de fréquence fondamentale de 800 Hz, échantillonné
à 100 000 Hz.
Visualiser son spectre. Qu’observez-vous ?
Changer la fréquence d’échantillonnage : Fe=10 000 Hz. Observez le spectre. Que se passe-t-il ?
Un tel signal est-il échantillonnable en théorie ?
2.2. TRAVAIL À RÉALISER 33
Il est également possible d’échantillonner des images. Dans ce cas, la notion d’échantillonnage
correspond au nombre de pixels par unité de longueur. On parle alors de fréquence spatiale.
Lancer l’interface ech_quant_img sous Matlab. Cette interface permet d’échantillonner une image
de taille 512 × 512 pixels. Diminuer l’échantillonnage de l’image. Que constatez-vous ? A votre
avis, dans une image, quel type d’information contient les hautes fréquences ? Et les basses
fréquences ?
2.2.2 Quantification
Générer N=1000 points d’un signal sinusoïdal de fréquence 20 Hz échantillonné à 2000 Hz.
Quantifier ce signal à l’aide d’un quantificateur uniforme à 4 niveaux. Pour voir l’erreur de
quantification, utiliser “traitement”. Que se passe-t-il en temporel ?... Bien caler la dynamique ! ! !
Visualiser le spectre du signal quantifié. Quel est l’effet d’une quantification grossière sur un
signal sinusoïdal ?
Considérer une dynamique de 40 pour une quantification uniforme à 4 niveaux. Effectuer la
quantification uniforme de type A et de type B du signal sinusoïdal précédent. Conclusions ?
34 CHAPITRE 2. TP ECHANTILLONNAGE ET QUANTIFICATION
Vérifier la formule liant SNR et nombre de niveaux de quantification dans le cas haute réso-
lution (nombre de niveaux de quantification 2b avec b = 16, 15, 14...) :
Pc 3
= N2
σe2 2
2.2.3 Restitution
Générer N=100 points d’un signal sinusoïdal de fréquence 2100 Hz, échantillonné à 100 000
Hz. Comparer les méthodes de restitution par bloqueur, interpolateur linéaire, extrapolateur et
filtrage tant sur le plan temporel que sur le plan spectral.
Mêmes questions lorsque le signal sinusoïdal est échantillonné à 10 000 Hz.
Mêmes questions pour un signal carré de fréquence fondamentale 2100 Hz, échantillonné à 100
000 Hz.
2.2.5 Image
Pour connaître le mode d’appel de ces fonctions, penser à l’aide en ligne de Matlab : help
“nom de la fonction” ou lookfor “mot”.
fft : transformée de Fourier discrète
ifft : transformée de Fourier inverse
interp1q: interpolation linéaire
quantiz: quantification uniforme du signal.
lin2mu: conversion à la loi µ.
mu2lin: conversion inverse (de la loi µ à la loi linéaire).
2.3.2 Echantillonnage
Génération d’une sinusoïde : Pour générer le signal obtenu après l’échantillonnage d’une
sinusoide de fréquence 20 KHz échantillonnée à un rythme de 1 échantillon toute les 10 micro-
secondes, on peut procéder soit en utilisant les fréquences physiques :
N = 1000;
Te = 10*10^(-6);
fsin = 20*10^3;
temps = (0:N-1)*Te;
signal = sin(2*pi*fsin*temps);
soit en raisonnant directement en fréquences normalisées :
N = 1000;
Fe = 1/(10*10^(-6));
fsin_norm = 20*10^3/Fe;
indice = 0:N-1;
signal = sin(2*pi*fsin_norm*indice);
Visualisation de la densité spectrale de puissance : Le calcul et le tracé de la densité
spectrale de puissance seront détaillés au cours du TP Corrélations et Spectres.
L’instruction de base pour réaliser la transformée de Fourier discrète d’un signal x est fft(x).
Les commandes suivantes permettent de tracer la densité spectrale de x soit en fréquence nor-
malisée :
36 CHAPITRE 2. TP ECHANTILLONNAGE ET QUANTIFICATION
2.3.3 Quantification
3.1 Rappels
Signaux déterministes
— Energie finie +∞
Cxy (τ ) = x(t)y ∗ (t − τ )dt
−∞
— Puissance finie T
1
Cxy (τ ) = lim x(t)y ∗ (t − τ )dt
T →+∞ T 0
37
38 CHAPITRE 3. TP ANALYSE SPECTRALE - CORRÉLATIONS ET SPECTRES
Signaux aléatoires
Cxy (τ ) = E[x(t)y ∗ (t − τ )]
Parité : Cx (−τ ) = Cx (τ )
Maximum en zéro : |Cx (τ )| ≤ Cx (0)
Puissance moyenne du signal = Cx (0)
Lorsque k tend vers N − 1 peu de termes interviennent dans le calcul de la moyenne alors que
1
le terme de normalisation reste égal à N. Cela a pour conséquences d’introduire un biais dans
l’estimation : la corrélation est pondérée par une fenêtre triangulaire. Ce premier estimateur
Cb (k) est donc biaisé.
Pour éliminer ce biais, un second estimateur peut être défini de la façon suivante :
N!
−k−1
1
Cnb (k) = x(n)x(n + k) 0 ≤ k ≤ N − 1 (3.2)
N −k
n=0
Le choix entre ces deux estimateurs se porte normalement sur l’estimateur non biaisé mais,
pour les valeurs k proches de N, la variance de cet estimateur augmente considérablement ce
3.2. EXEMPLES D’UTILISATION DES FONCTIONS DE CORRÉLATION 39
qui n’était pas le cas du précédent estimateur. D’autre part, il peut être intéressant de choisir
l’estimateur biaisé ce qui est équivalent à prendre la fonction de corrélation multipliée par une
fenêtre temporelle triangulaire.
N2
Remarque : Le calcul de ces deux estimateursl requiert de l’ordre de 2 multiplications et
additions. Pour réduire le coût calculatoire, on peut utiliser un algorithme à base de transfor-
mée de Fourier rapide (FFT). En effet, les deux estimateurs ci-dessus représentent à un facteur
multiplicatif près la même opération de convolution discrète x(k) ∗ x(−k). Pour calculer cette
convolution, on peut utiliser le fait que
avec X(f ) la transformée de Fourier de x(n). Ainsi, les sommes temporelles coûteuses en coût
calculatoire contenues dans (3.1) et (3.2) peuvent être remplacées par F F T −1 |F F T (x(n))|2 ,
ce qui rend le calcul plus rapide.
Par détection, on entend détection de présence. Il ne s’agit pas de retrouver la forme du signal
périodique mais de détecter sa présence, de savoir si ce signal existe ou non.
Soit x(n) le signal périodique de période inconnue noyé dans un bruit centré b(n) :
Cyy (k) = Cxx (k) + Cxb (k) + Cbx (k) + Cbb (k)
Si le bruit b(n) est indépendant du signal x(n), les intercorrélations Cxb (k) et Cbx (k) sont nulles
pour tout k. Si de plus la densité spectrale du bruit est absolument continue, on a :
D’où :
Cyy (k) → Cxx (k) lorsque k → +∞
Considérons un filtre ou d’une façon plus générale un système linéaire invariant dans le temps,
de réponse temporelle h(t) et de réponse fréquentielle H(f ) (fonction de transfert). La relation
temporelle qui relie la sortie y(t) à l’entrée x(t) est la suivante :
+∞
y(t) = x(t) ∗ h(t) = x(u)h(t − u)du
−∞
Y (f ) = X(f )H(f )
La fonction de transfert H(f ) permet une interprétation plus visuelle de la nature du filtre
(passe-haut, passe-bas, passe-bande).
x(n) = Acos(2πf0 n + φ) n = 0, · · · , N − 1
donne :
A sin(π(f − f0 )N )
X(f ) = e−i(π(f −f0 )(N −1)−φ)
2 sin(π(f − f0 ))
sin(π(f + f0 )N )
+e−i(π(f +f0 )(N −1)+φ)
sin(π(f + f0 ))
A2
x(n) = Acos(2πf n + φ) → Cx (k) = cos(2πf k) (3.3)
2
42 CHAPITRE 3. TP ANALYSE SPECTRALE - CORRÉLATIONS ET SPECTRES
— Bruit blanc
Cx (k) = σ 2 δ(k) (3.4)
1 A2
Sx (f ) = |X(f )|2 ≈ σ 2 + N (sinc2 (πN (f − f0 )) + sinc2 (πN (f + f0 ))) (3.5)
N 4
sin(x)
avec sinc(x) = x .
A2
L’amplitude du pic à la fréquence f = f0 correspond donc à 4 N + σ 2 ce qui permet d’estimer
le rapport signal-à-bruit (SNR) :
A2
P uissance de la sinusoide = 2
SN R = 10log (3.6)
P uissance du bruit = σ 2
En effet, l’observation de la DSP obtenue permet de mesurer le niveau de bruit moyen σ 2 ainsi
que l’amplitude du sinus A, comme l’illustre la figure suivante.
Figure 3.1 – Exemple de DSP estimée d’une sinusoïde bruitée en échelle linéaire
3.4.1 Autocorrélations
Générer 50 échantillons d’une sinusoïde de fréquence 0.134 (phase uniformément répartie sur
[0, 2π]). Observer les estimations de son autocorrélation en utilisant le bouton "ok" pour générer
à chaque fois une nouvelle réalisation de signal.
Pour l’estimateur biaisé, quelle est l’allure du biais ?
Pour l’estimateur non biaisé, dans quelle partie de l’autocorrélation la variance est-elle la plus
importante ? Expliquer.
Retrouver les caractéristiques du signal (puissance et fréquence).
Rappel : l’expression théorique de la corrélation est donnée par (3.3).
Générer un bruit blanc (N = 100) de variance σ 2 = 4. Utiliser le bouton "ok" pour voir des
réalisations différentes de ce processus aléatoire. Observer les estimations de son autocorréla-
tion, utiliser le bouton "ok" pour visualiser différentes estimations correspondant à différentes
réalisations du signal.
Des 2 estimations (biaisée ou non biaisée), laquelle paraît la plus satisfaisante ? Expliquer.
44 CHAPITRE 3. TP ANALYSE SPECTRALE - CORRÉLATIONS ET SPECTRES
Retrouver les caractéristiques du bruit (remarquer que, pour plus de facilité, la fenêtre "Infor-
mations et mesures" fournit la valeur et l’indice du maximum de la fonction).
Rappel : l’expression théorique de la corrélation est donnée par (3.4).
Générer 500 échantillons d’une sinusoïde bruitée (bruit blanc additif) de fréquence 0.0134
√
(SN R = −7 dB). Pour cela, sachant que les sinusoïdes générées sont d’amplitude A = 2 (i.e.
de puissance unité), régler le niveau de bruit nécessaire en utilisant la définition du SNR don-
née par (3.6). Observer le signal et l’estimation biaisée de son autocorrélation (ne pas oublier
d’utiliser le bouton "ok" pour générer plusieurs réalisations du processus). Montrer que l’estima-
tion de l’autocorrélation permet de retrouver les caractéristiques du signal : présence d’un signal
périodique, puissances du sinus et du bruit.
Périodogramme
Remarque : On rappelle que pour le périodogramme, le seul paramètre à fixer est la taille de
la FFT.
Recommencer en faisant du zero-padding avec une taille de FFT de 4096. Expliquer les dif-
férences observées : l’expression théorique de la DSP est donnée par (3.5) et des rappels sur le
zero-padding sont fournis au paragraphe 3.3.2). Retrouver les caractéristiques du signal : fré-
quence et amplitude du sinus.
Charger le fichier quisuisje0.txt et cliquer sur le bouton "signal" pour observer le signal en tem-
porel. En faire l’analyse spectrale en utilisant le périodogramme : retrouver les caractéristiques
du signal. Ne pas oublier d’observer l’estimateur spectral obtenu en échelle log ! Que représente
la DSP à la fréquence f = 0 ?
Périodogramme modifié
Pour une sinusoïde (N = 100, f = 0.25), analyser et comparer les effets des différentes fe-
nêtres en utilisant le périodogramme modifié. Classer-les en fonction de leur pouvoir à réduire
l’amplitude des lobes secondaires (utiliser la représentation en échelle logarithmique et le bouton
hold ).
Remarque : Pour le périodogramme modifié, les paramètres à choisir sont le type de fenêtre
d’apodisation et la taille de la FFT.
3.4. TRAVAIL À EFFECTUER 45
Charger le fichier quisuisje1.txt et cliquer sur le bouton "signal" pour observer le signal en
temporel. En utilisant le périodogramme modifié et les différentes fenêtres d’apodisation, donner
les caractéristiques de ce signal.
Refaire la même analyse sur le fichier quisuisje2.txt.
Corrélogramme
Remarque : Pour le corrélogramme, les seuls paramètres à choisir sont la nature de l’esti-
mation de la corrélation (biaisée ou non biaisée) et la taille de la FFT.
Blackman-Tukey
Faire varier tous les paramètres afin d’en observer leur effet (en particulier sur la positivité de
la DSP estimée et sur les lobes secondaires des fenêtres spectrales équivalentes) : choix du type
de corrélation, choix de la fenêtre, choix de la taille de la fenêtre.
Générer 1000 échantillons d’une sinusoïde bruitée (bruit blanc additif) de fréquence 0.134
(SN R = −7 dB). Comparer l’analyse spectrale obtenue avec le périodogramme modifié et avec
Blackman-Tukey, utilisé par exemple en prenant la corrélation biaisée et la fenêtre de Blackman
(permettant d’avoir une DSP positive). Que remarquez vous sur la variance de l’estimation
spectrale ?
Périodogramme de Bartlett
DSP d’un bruit blanc. En remarquant que la fenêtre "informations et mesures" fournit la valeur
moyenne de la DSP ainsi que sa variance, expliquer la différence entre la théorie et l’estimation
obtenue de cette DSP. Ne pas hésiter à utiliser le bouton "ok" pour générer plusieurs réalisations
du processus aléatoire.
Pour ce même type de signal, utiliser le périodogramme de Bartlett en choisissant des tailles
de fenêtre différentes : 1000 et 100 par exemple. Qu’observe-t-on ?
L’utilisation de la méthode de Bartlett se révèle intéressante sur le bruit blanc mais elle
s’accompagne d’un inconvénient. Afin de le mettre en évidence, recommencer la même expérience
sur un signal constitué d’un sinus bruité (N = 4000, f = 0.2) en conservant la même variance de
bruit. Faire varier la taille de la fenêtre d’analyse de 4000, à 1000 puis à 100. Pour ce type de
signal, le logiciel n’affiche pas la valeur moyenne et la variance du spectre mais la variance peut
être observée en se plaçant en échelle logarithmique. En déduire les avantages et inconvénients
de la méthode de Bartlett.
Périodogramme de Welch
Pour améliorer la méthode de Bartlett, on peut utiliser le périodogramme de Welch qui permet
d’utiliser une fenêtre d’analyse et un recouvrement entre les tranches.
Après avoir étudié les estimateurs de corrélation et de DSP, analyser les signaux d’engrenage
cités au début du TP. Donner une description (sommaire) de ces signaux. A votre avis, pourrait-
on distinguer ces deux signaux et donc signaler l’usure des engrenages à partir de l’analyse
spectrale ?
3.5.2 Autocorrélations
L’instruction de base pour réaliser la transformée de Fourier discrète d’un signal x est fft(x).
L’algorithme de transformée de Fourier rapide est utilisé par Matlab si et seulement si la longueur
48 CHAPITRE 3. TP ANALYSE SPECTRALE - CORRÉLATIONS ET SPECTRES
du vecteur x, Nech, est une puissance de 2. Si ce n’est pas le cas, on peut utiliser la technique
du zero-padding pour s’y ramener :
nfft = 2^nextpow2(Nech); %calcul de la puissance de 2 immédiatement supérieure à Nech
fft(x,nfft);
Exemple : Génération de 512 points d’un sinus de fréquence normalisée f0 = 0.2
x=sin(2*pi*f0*(0:511));
Calcul de sa FFT et tracé du module (fonction abs) de sa FFT :
plot(abs(fft_de_x))
cet axe porte alors par défaut les indices des éléments du vecteur tracé (ici 0,1,2,... nfft-1).
Pour interpréter correctement le tracé de la Transformée de Fourier Discrète, il est nécessaire de
graduer l’axe des x, par exemple en fréquences normalisées par rapport à la fréquence d’échan-
tillonnage :
axe_des_x = linspace(0, 1, nfft)
plot(axe_des_x, abs(fft_de_x))
L’affichage du spectre peut être également recentré autour de zéro à l’aide de la commande
fftshift, l’axe des x doit alors être modifié :
Corrélogramme