Signaux Et Systèmes Tome 1
Signaux Et Systèmes Tome 1
Signaux Et Systèmes Tome 1
I. GENERALITES
1. Place de la théorie et du traitement du signal dans le génie
électrique
2. Aperçu historique
II. DEFINITIONS
1. Signal
2. Bruit
3. Rapport signal sur bruit
4. Théorie du signal
5. Théorie de l'information et du codage
6. Modèles et mesures de signaux: fonctions et fonctionnelles
7. Traitement des signaux
8. Langage du traitement des signaux
D. CLASSIFICATION SPECTRALE
1. Définitions
2. Classes de signaux fréquentiels
3. Fréquence et vitesse des signaux
E. SIGNAUX PAIRS ET IMPAIRS
F. SIGNAUX CAUSALS
G. SIGNAUX BORNÉS EN AMPLITUDE
VII. EXERCICES
I. DEFINITION DE LA TRANSFORMATION DE
LAPLACE
1. Définition
2. Région De Convergence
3. Pôles et Zéros de X(s)
4. Propriétés de la RDC
VI. EXERCICES
I. DEFINITIONS DE BASE
1. Spectre
2. Analyse Spectrale
3. Signal périodique
VI. EXERCICES
VIII. EXERCICES
Chapitre 1
GENERALITES ET DEFINITIONS
I. GENERALITES
2. Aperçu historique
Le mot signal vient de signe - signum en latin - qui dénote un
objet, une marque, un élément de langage, un symbole convenu
pour servir de vecteur à une information l'usage des signes remonte
à la préhistoire.
Ce n'est qu'au XIXe siècle qu'apparaît l'exploitation des
signaux électriques avec l'invention du télégraphe électrique
(Morse, Cooke, Wheatstone, 1830~1840). Cette invention est
rapidement suivie par celle du téléphone (Bell, 1876), puis par la
réalisation des premières liaisons radio (Popov, Marconi, 1895-
1896). L'émergence de l'électronique, au début du XXe siècle
(Fleming, Lee de Forest, 1904-1907) permet enfin la détection et
l'amplification de faibles signaux. Ce sont là les véritables prémices
du traitement des signaux.
Les auteurs des premières contributions à l'étude
mathématique des fluctuations du courant électrique se sont
efforcés d'adapter à ce cas la méthode d'analyse développée par
Fourier (1822) dans le cadre de ses travaux sur la propagation de
la cha1eur. Les premiers travaux importants généralisant cette
méthode aux phénomènes et signaux aléatoires ont été publiés à
l'aube des années 1930 par Wiener et Khintchine.
L'optimisation des moyens de télécommunications et de radar
(pendant la deuxième guerre mondiale) fut à la base du
développement de la théorie du signal et de l'information que nous
connaissons aujourd'hui. Dans les années 1920 déjà, Nyquist et
Hartley s'étaient attachés à quantifier la quantité d'information
transmise sur une voie télégraphique et avaient observé que la
cadence maximum de transmission est proportionnelle à la largeur
de bande fréquentielle disponible. Il faut toutefois attendre jusqu'en
1948-1949 pour que paraissent les travaux fondamentaux de
Shannon sur la théorie mathématique de la communication et de
Wiener sur la cybernétique (communication et réglage) et le
traitement optimal des signaux ou des données affectés par du
bruit. L'élément novateur est ici la prise en compte de l'aspect
statistique des phénomènes étudiés.
D'autres chercheurs ont contribué au développement initial de
cette théorie. Citons particulièrement : Küpfmüller. Gabor,
Woodward, Kolmogorov, Kotelnikov, Rice, Goldman, Lawson et
Uhlenbeck, Ville, Blanc-Lapierre et Fortet, Brillouin.
II. DEFINITIONS
1. Signal
Un signal est la représentation physique de l’information qu’il
transporte de sa source à son destinataire. Il sert de vecteur à une
information. Il constitue la manifestation physique d’une grandeur
mesurable (courant, force, pression, température, etc.). C’est aussi
une fonction d’une ou plusieurs variables engendrées par un
phénomène physique. Les signaux sonores, par exemple,
correspondent à de faibles variations de pression qui se propagent
dans l’espace, et que le système auditif humain est capable de
capter, d’analyser, et de percevoir l’information dont ils peuvent être
porteurs. Dans la plupart des cas pratiques la variable d’évolution
est le temps, et la notion de signal se rapporte davantage à un
transfert d’information qu’à un transfert d’énergie. Ainsi la plupart
des signaux manipulés de nos jours correspondent à l’évolution
temporelle de tensions électriques délivrées par des capteurs. On
parlera par exemple du signal v(t)délivré par un capteur de
température, un accéléromètre ou une sonde à effet Hall. Mais le
traitement du signal s’applique à tous les signaux physiques (onde
acoustique, signal optique, signal magnétique, signal
radioélectrique, etc.). Le traitement d’images peut être considéré
comme du traitement du signal appliqué aux signaux
bidimensionnels (images).
2. Bruit
Le bruit (en anglais: noise) est défini comme tout phénomène
perturbateur gênant la perception ou l’interprétation d’un signal, par
analogie aux nuisances acoustiques (interférence, bruit de fond,
etc.).
La dichotomie apparente entre signal et bruit est artificielle et
dépend des critères propres de l'utilisateur. Certains phénomènes
électromagnétiques d'origine galactique captés par des antennes
sont considérés comme du bruit par les ingénieurs des
télécommunications et comme un signal du plus haut intérêt par les
radioastronomes!
Ce qui différencie le signal du bruit est donc avant tout l'intérêt
de l'observateur. Un signal perturbé reste un signal et les mêmes
modèles s'appliquent à la description du signal utile et à celle des
perturbations. La théorie du signal englobe donc celle du bruit.
Ainsi, il apparaît évident qu’un problème fondamental en
traitement du signal sera d’extraire le signal utile du bruit. La
difficulté du problème dépend en particulier de la proportion entre
signal et bruit. Ceci est mesuré par le rapport signal sur bruit (RSB,
ou SNR en anglais pour signal noise ratio).
3. Rapport signal sur bruit
Le rapport signal sur bruit est une mesure du degré de
contamination du signal par du bruît. Il s'exprime sous la forme du
rapport β des puissances respectives du signal Ps et du bruit Pn
𝑃𝑠
β= (1.1)
𝑃𝑛
β est souvent indiqué selon une échelle logarithmique mesurée en
décibels
4. Théorie du signal
La description mathématique des signaux est l'objectif
fondamental de la théorie du signal. Complémentaire de la théorie
des circuits et de celle de la propagation des ondes
électromagnétiques, la théorie du signal fournit les moyens de mise
en évidence, sous une forme mathématique commode, des
principales caractéristiques d'un signal: la distribution spectrale de
son énergie ou la distribution statistique de son amplitude, par
exemple. Elle offre également les moyens d'analyser la nature des
altérations ou modifications subies par les signaux lors de leur
passage au travers de blocs fonctionnels, dispositifs généralement
électriques ou électroniques. Par là-même, elle fournit les
renseignements essentiels nécessaires à la conception (cahier des
charges) ou à l'utilisation (mode d'emploi) de ces dispositifs. C'est
ainsi que l'on peut établir les règles à respecter pour passer d'un
signal analogique à un signal numérique. Elle permet aussi de
déterminer et de tenir compte des limites de fonctionnement
imposées par la présence de perturbations aléatoires telles que le
bruit de fond.
Son outil de base est le développement en série de fonctions
orthogonales dont le cas particulier le plus intéressant est celui de
Fourier. Sa forme la plus générale est connue sous le nom de
transformée de Fourier, dont les principales propriétés sont
rappelées ultérieurement. Avec les notations usuelles en traitement
des signaux, la transformée de Fourier d'un signal temporel x(t) est
une fonction de la fréquence f définie par la relation intégrale.
Elle introduit le principe fécond de dualité entre l'espace-
temps et l'espace fréquence. Ceci conduit à la notion de spectre:
répartition d'une grandeur caractéristique d'un signal (amplitude,
énergie, puissance) en fonction de la fréquence. La technique de
l'analyse spectrale en est l'application pratique directe.
Applicable également à l'étude des signaux aléatoires, grâce
au développement de modèles statistiques appropriés, ce concept
d'une extrême richesse permet d'aborder à un niveau d'abstraction
élevé l'étude de procédures complexes de traitement des signaux.
L'introduction des modèles de signal analytiques et
d'enveloppe complexe facilite la représentation des signaux à
bande étroite et favorise le développement d'une théorie de la
modulation. La théorie de la détection s’appuie, elle, sur les apports
de la théorie statistique de la décision et de l'estimation.
Elle trouve un prolongement naturel en reconnaissance des formes
(fig. 1.2).
Fig1.2
produit de convolution
+∞
Fig.1.8
Influence de la technologie
électronique analogique:
électronique numérique câblée (logique spécialisée);
électronique numérique programmée (processeur universel
ou à architecture spéciale);
autre technologie.
1. Sondage sismique
La sismologie étudie les vibrations du sous-sol provoquées par
des phénomènes naturels alors que la sismique provoque
l’ébranlement et en étudie les conséquences. Le sondage sismique
repose sur ce principe. Une source (explosion, vibroséisme,. . .)
provoque une onde élastique dans le sous-sol, onde qui va interagir
avec son milieu de propagation. Une antenne munie de divers
capteurs permet en un point plus éloigné de mesurer l’onde après
son voyage sous terre. Les signaux reçus portent alors des
informations relatives à la structure de leur milieu de propagation.
Un exemple de mesure issu d’une antenne sismique est montre sur
la figure suivante.
Fig1.10 : Exemple d’une trace sismique.
5. Télécommunications
Que ce soit dans le domaine de la téléphonie ou dans le
transfert de données numériques terrestre ou via satellite, la
compression des données est primordiale pour exploiter au mieux
la bande passante disponible, et minimiser les pertes. La
suppression d'échos est un autre domaine d'application1.
6. Audio
On cherche à améliorer les techniques d'enregistrement et de
compression pour obtenir la plus grande qualité sonore possible.
Les techniques de correction d'écho permettent de réduire les effets
de réflexions acoustiques dans la pièce. Le traitement du son s'est
largement amélioré grâce aux ordinateurs. Toutefois, certains
musiciens parlent davantage d'un son de nature différente que
d'une simple amélioration qualitative (de même que le CD ne
"sonne" pas comme le disque vinyle, et que certains groupes, par
exemple Genesis, ont particulièrement profité du "nouveau son"
offert par le nouveau support). La synthèse sonore permet en outre
de créer des sons artificiels ou de recréer les sons d'instruments
naturels. Elle a été à l'origine de nombreux bouleversements
en musique2.
7. Télédétection
L’analyse des échos permet d'obtenir des informations sur le
milieu sur lequel les ondes se sont réfléchies. Cette technique est
exploitée dans le domaine de l'imagerie radar ou sonar.
En géophysique, en analysant les réflexions d'ondes acoustiques,
on peut déterminer l'épaisseur et la nature des strates du sous-sol.
Cette technique est utilisée dans le domaine de la prospection
minière et dans la prédiction des tremblements de terre3.
8. Imagerie
On trouve des applications dans le
domaine médical (reconstruction tomographique, imagerie par
résonance magnétique - IRM), dans le spatial (traitement de photos
satellite ou d'images radar). Ce domaine inclut aussi les techniques
de reconnaissance de formes et de compression4.
9. Vidéo
Le traitement de séquences vidéo concerne la compression, la
restauration, la réalisation d'effets spéciaux, et l'extraction de
descripteurs (reconnaissance de formes et textures, suivi de
mouvements, caractérisation etc.) afin de produire des annotations
automatiques dans une perspective de bases de données
(recherche par le contenu)5.
10. Pour terminer et préparer la suite
Ces quelques exemples divers ont montré la nécessité de
développer des modèles précis de signaux et d’étudier leurs
interactions avec les systèmes. Dans la suite, nous allons donc
nous intéresser aux modèles de signaux, en présentant (ou en
rappelant) les modèles de signaux déterministes. Nous étudierons
les grandeurs qui révèlent des informations utiles (fonctions de
corrélations, densités spectrales,. . .).
Chapitre 2
2. Modèles théoriques
Sur le plan théorique, le modèle d'un signal est une fonction,
réelle ou complexe, ou une fonctionnelle dépendant par exemple de
la variable temps t. Il est avantageux d'attribuer chaque modèle à
une classe spécifique regroupant les signaux jouissant de
propriétés communes. Par ailleurs, il est souvent judicieux de
simplifier la représentation utilisée en choisissant des modèles
commodes, mais qui ne seront pas nécessairement limités par les
contraintes énoncées précédemment.
C'est ainsi que l'on fait un large usage de modèles de signaux à
énergie théorique infinie, à amplitude non bornée ou subissant des
discontinuités, représentables par des distributions. La qualité du
modèle dépend finalement de la qualité de l'approximation faite et
de la commodité d'emploi.
3. Exemples
Un signal sinusoïdal est représenté par une fonction définie
sur tout l'axe réel: son énergie théorique est donc infinie.
Le modèle usuel de signaux perturbateurs appelés bruit de fond
admet la possibilité, bien qu'avec une probabilité tendant vers zéro,
d'amplitudes infinies.
Les changements d'états de signaux logiques binaires sont
généralement représentés par de simples discontinuités.
Une excitation de type percussionnnelle est symbolisée par la
distribution de Dirac 𝛿(𝑡).
4. Modes de classification
Différents modes de classification des modèles de signaux
peuvent être envisagés.
A. CLASSIFICATION PHENOMENOLOGIQUE
1. Définitions
La première classification (fig. 2.1) est obtenue en
considérant la nature profonde de l'évolution du signal en fonction
du temps. Elle fait apparaître deux types fondamentaux de signaux:
Fig.2.5
3. Sous-classe de signaux aléatoires. Définitions
Les signaux aléatoires peuvent, quant à eux, être classés en
deux grandes catégories:
les signaux aléatoires stationnaires, dont les
caractéristiques statistiques sont invariantes dans le temps
(fig. 2.7);
les signaux aléatoires non stationnaires, qui ne jouissent pas
de cette propriété (fig. 2.8).
Si les valeurs moyennes statistiques, ou moments, d'un signal
stationnaire s'identifient aux valeurs moyennes temporelles, on dit
qu'il est ergodique.
Fig. 2. 7 Signal aléatoire stationnaire: x(t) = signal à large bande (bruit blanc);
y (t) = signal filtré passe-bas.
Commentaire
Fig. 2.10 Représentation graphique d’un signal à temps continu (a) et à temps
discret (b)
𝑥𝑛 = 𝑥[𝑛] = 𝑥(𝑛𝑇)
1 𝑛
1 𝑛
𝑥[𝑛] = 𝑥𝑛 = {(2) 𝑛≥0 1 1
ou {𝑥𝑛 } = {1, 2 , 4 , … , (2) , … }
0 𝑛<0
On peut aussi expliciter la liste la liste des valeurs de la
séquence
{𝑥𝑛 } = {… .0,0,1,2,2,1,0,1,0,2,0,0, … }
↑
{𝑥𝑛 } = {1,2,2,1,0,1,0,2}
↑
On utilise la flèche pour indiquer le terme 𝑛 = 0. Par convention si
aucune flèche n’est indiquée alors le premier correspond a 𝑛 = 0 et
toutes les valeurs de la séquence sont nulles pour𝑛 < 0.
𝑊𝑥 = ∫ 𝑥 2 (𝑡) 𝑑𝑡 < +∞
−∞
𝑊𝑥 = ∑ |𝑥[𝑛]|2
𝑛=−𝑁
1. Définitions
On appelle spectre d’un signal, toute représentation de ce
signal en fonction de la fréquence. Ainsi la distribution ou
représentation de l’énergie du signal en fonction de la fréquence est
appelée spectre d’énergie. Si c’est l’amplitude que nous
représentons en fonction de la fréquence on parle de spectre
d’amplitude etc.…
La largeur de bande B d'un signal est le domaine principal
des fréquences (positives ou négatives) occupé par son spectre.
Elle est définie par la relation
𝑩 = 𝒇𝟐 − 𝒇𝟏 avec 0 ≤ 𝑓1 ≤ 𝑓2
Φ𝑥 (𝑓) = 0 ∀|𝑓| ∈ 𝐵
Tout signal réel peut être décomposé en une partie paire et une
partie impaire
Avec
1 1
𝑥𝑝 (𝑡) = [𝑥(𝑡) + 𝑥(−𝑡)]𝑥𝑝 [𝑛] = [𝑥[𝑛] + 𝑥[(−𝑛)]]
2 2
1 1
𝑥𝑖 (𝑡) = [𝑥(𝑡) − 𝑥(−𝑡)]𝑥𝑖 [𝑛] = [𝑥[𝑛] − 𝑥[(−𝑛)]]
2 2
Notons que le produit de deux signaux pairs ou de deux signaux
impairs est un signal pair. Et un produit entre un signal pair et un
signal impair est un signal impair.
F. Signaux causals
Un signal est dit causal s'il est nul pour toute valeur négative du
temps
Fig 2.14
𝑦(𝑡) = 𝑥(𝑡 − 𝑇)
Fig 2.15
Exemple 1
4. Amortissement exponentiel
C’est une opération qui, à un signal 𝑥(𝑡) associe le signal :
〈𝑥, 𝑦〉 = ∫ 𝑥(𝑡)𝑦(𝑡)𝑑𝑡
𝑡1
En géométrie euclidienne, deux vecteurs sont orthogonaux si
leur produit scalaire est nul. Par analogie, x(t) et y(t) sont des
fonctions orthogonales sur l’intervalle
[𝑡1 ; 𝑡2 ] si leur produit scalaire
𝑡2
〈𝑥, 𝑦〉 = ∫ 𝑥(𝑡)𝑦(𝑡)𝑑𝑡 = 0
𝑡1
Remarque :
La spécification de l'intervalle [𝑡1 ; 𝑡2 ] est importante, Deux
fonctions orthogonales sur [𝑡1 ; 𝑡2 ] ne le sont pas nécessairement
sur tout autre intervalle [𝑡3 ; 𝑡4 ]
Exemple :
𝑦(𝑡) = 𝑥(𝑎𝑡)
Avec
Exemple
Exemple
Le peigne de Dirac est une périodisation de l’impulsion de Dirac.
+∞
Solution :
Solution :
𝑇
Cette impulsion de hauteur A, débute a 𝑡 = − 2.
𝑇 𝑇 𝑇 𝑇
𝑖(𝑡) = 𝐴. 𝑢 (𝑡 + ) − 𝐴. 𝑢 (𝑡 − ) = 𝐴 [𝑢 (𝑡 + ) − 𝑢 (𝑡 − )]
2 2 2 2
Exemple3
Solution :
𝑞(𝑡) 1 𝑡
𝑣𝑐 (𝑡) = = ∫ 𝑖𝑐 (𝜃) 𝑑𝜃
𝐶 𝐶 −∞
Dès que l’interrupteur est ferme à l’ instant 𝑡 = 0, on peut exprimer
le courant
𝑖𝑐 (𝑡) = 𝑖𝑠 . 𝑢(𝑡)
1 𝑡 1 0 1 𝑡
𝑣𝑐 (𝑡) = ∫ 𝑖𝑠 𝑢(𝜃) 𝑑𝜃 = ∫ 𝑖𝑠 𝑢(𝜃) 𝑑𝜃 + ∫ 𝑖𝑠 𝑢(𝜃) 𝑑𝜃
𝐶 −∞ 𝐶
⏟ −∞ 𝐶 0
0
𝑖𝑠
𝑣𝑐 (𝑡) = . 𝑡. 𝑢(𝑡)
𝐶
Ainsi, on voit que quand une capacité est chargée avec une source
de courant constant, la tension à ses bornes est une fonction
𝒊𝒔
linéaire et forme une rampe de pente 𝑪
(slope en anglais) comme
présentée à la figure suivante
Ce qui veut dire que si on multiplie n’importe quelle fonction f(t) par
𝛿(𝑡 − 𝛼) et qu’on intègre de −∞ 𝑎 + ∞, on obtient la valeur de f(t) a
𝑡=𝛼
Et de même
+∞
𝑑𝑛
∫ 𝑓(𝑡)𝛿 𝑛 (𝑡 − 𝛼) 𝑑𝑡 = (−1)𝑛 [𝑓(𝑡)]|𝑡=𝛼
−∞ 𝑑𝑡 𝑛
Exemple1
Solution :
+∞
Pour cet exemple 𝑓(𝑡) = 𝑡 et 𝛼 = 2. Alors ∫−∞ 𝑡𝛿(𝑡 − 2) 𝑑𝑡 =
𝑓(2) = 𝑡I𝑡=2 = 2
c. Propriétés additionnelles
3. Rampe unité
Le signal rampe unité, noté 𝑟(𝑡) est défini par
𝑡
0 𝑡<0
𝑟(𝑡) = ∫ 𝑢(𝜃) 𝑑𝜃 = {
−∞ 1 𝑡≥0
Comme 𝑟(𝑡) est l’intégrale de 𝑢(𝑡), alors 𝑢(𝑡) doit être la dérivée de
𝑟(𝑡) soit
𝑑𝑟(𝑡)
= 𝑢(𝑡)
𝑑𝑡
Remarque : les signaux 𝑡 d’ordre supérieur ( 𝑡 𝑛 ) peuvent être
générés par intégrations successives de l’échelon unité. Par
exemple en intégrant deux fois u(t) et en multipliant le résultat par
deux on définit la rampe unité d’ordre deux ( 𝑡 2 )
𝑡
0 𝑡<0
𝑟2 (𝑡) = { 2 𝑜𝑢 𝑟2 (𝑡) = 2 ∫ 𝑟(𝜃)𝑑𝜃
𝑡 𝑡≥0 −∞
De façon similaire,
𝑡
0 𝑡<0
𝑟3 (𝑡) = { 3 𝑜𝑢 𝑟3 (𝑡) = 3 ∫ 𝑟2 (𝜃)𝑑𝜃
𝑡 𝑡≥0 −∞
Et de façon générale
𝑡
0 𝑡<0
𝑟𝑛 (𝑡) = { 𝑛 𝑜𝑢 𝑟𝑛 (𝑡) = 𝑛 ∫ 𝑟𝑛−1 (𝜃)𝑑𝜃
𝑡 𝑡≥0 −∞
1 𝑑𝑢𝑛 (𝑡)
Aussi 𝑢𝑛−1 (𝑡) = 𝑛 𝑑𝑡
4. Phaseur de fréquence 𝝎𝟎
Le Phaseur de fréquence ou signal exponentiel complexe
note 𝑥(𝑡) = 𝑒 𝑗𝜔0 est un exemple important de signaux complexes.
En utilisant la formule de Euler ce signal peut être défini par :
Fig. signal sinusoïdal multiplie par un Phaseur croissant (a) et multiplie par un
Phaseur décroissant (b)
7. Signal sinusoïdal
Un signal sinusoïdal peut s’exprimer comme suit : 𝑥(𝑡) =
𝐴𝑠𝑖𝑛(𝜔0 𝑡 + 𝜃) ou A est l’amplitude (réel), 𝜔0 est la fréquence
angulaire ou pulsation en radian par seconde, et 𝜃 est la phase en
radians. Le signal sinusoïdal x(t) est présente a le figure suivante,
et est périodique de période fondamentale :
2𝜋
𝑇0 =
𝜔0
𝑢[𝑛] = ∑ 𝛿[𝑘]
𝑘=−∞
𝑥[𝑛] = ∑ 𝑥[𝑘]𝛿[𝑛 − 𝑘]
𝑘=−∞
𝑥[𝑛] = 𝐴𝑐𝑜𝑠(Ω0 𝑛 + 𝜃)
𝑛𝜋
Fig. séquence sinusoïdales 𝑥[𝑛] = 𝑐𝑜𝑠 [ ] (a) et 𝑥[𝑛] = 𝑐𝑜𝑠(𝑛/2)
6
𝟏 − |𝒕| ; −𝟏 ≤ 𝒕 ≤ 𝟏
𝒙(𝒕) = {
𝟎 ; 𝒂𝒊𝒍𝒍𝒆𝒖𝒓𝒔
Déterminer et représenter la séquence numérique obtenue par
échantillonnage de x(t) avec les périodes d’échantillonnage
suivantes : (𝒂) 𝟎. 𝟐𝟓𝒔 (𝒃) 𝟎. 𝟓𝒔 (𝒄) 𝟏𝒔
Réponse :
{… ,0, 0.25,0.5,0.75,1,0.75,0.5,0.25,0, … }
𝑥[𝑛] = ⏟
↑
(b) 𝑇𝑠 = 0.5 𝑠 fig. c on obtient
{… ,0,0.5,1,0.5,0, … }
𝑥[𝑛] = ⏟
↑
{… ,0,1,0, … } = 𝛿[𝑛]
𝑥[𝑛] = ⏟
↑
(𝑎) 𝑦1 [𝑛] = {…
⏟ … … ,0, −2, −2,3,4,3, −2,0,2,2,0, . .} 𝑓𝑖𝑔. 𝑎
↑
(𝑏) 𝑦2 [𝑛] = {…
⏟ … … … … . ,0,2,4,6,0,4,4,0, … .} 𝑓𝑖𝑔. 𝑏
↑
(𝑐) 𝑦1 [𝑛] = {…
⏟ … ,02,4,0, . .} 𝑓𝑖𝑔. 𝑐
↑
Exercice 5 Représenter la partie paire et impaire des signaux de
la figure suivante.
Réponse :
Avec
1 1
𝑥𝑝 (𝑡) = [𝑥(𝑡) + 𝑥(−𝑡)] 𝑥𝑝 [𝑛] = [𝑥[𝑛] + 𝑥[(−𝑛)]]
2 2
1 1
𝑥𝑖 (𝑡) = [𝑥(𝑡) − 𝑥(−𝑡)] 𝑥𝑖 [𝑛] = [𝑥[𝑛] − 𝑥[(−𝑛)]]
2 2
𝑜𝑛 𝑜𝑏𝑡𝑖𝑒𝑛𝑡 𝑙𝑒𝑠 𝑟𝑒𝑝𝑟é𝑠𝑒𝑛𝑡𝑎𝑡𝑖𝑜𝑛𝑠 𝑠𝑢𝑖𝑣𝑎𝑛𝑡𝑒𝑠
Exercice 6 Déterminer les parties paire et impaire du signal
𝑥 (𝑡) = 𝑒 𝑗𝑡
Réponse :
𝑒 𝑗𝑡 = 𝑥𝑝 (𝑡) + 𝑥𝑖 (𝑡)
Réponse :
𝑎 0 𝑎
a. On peut écrire ∫−𝑎 𝑥(𝑡)𝑑𝑡 = ∫−𝑎 𝑥(𝑡)𝑑𝑡 + ∫0 𝑥(𝑡)𝑑𝑡
Ainsi,
𝑎 𝑎 𝑎 𝑎
∫ 𝑥(𝑡)𝑑𝑡 = ∫ 𝑥(𝑡)𝑑𝑡 + ∫ 𝑥(𝑡)𝑑𝑡 = 2 ∫ 𝑥(𝑡)𝑑𝑡
−𝑎 0 0 0
De façon similaire,
𝑘 −1 𝑘
∑ 𝑥[𝑛] = ∑ 𝑥[−𝑚]
𝑛=−𝑘 𝑚=−1
Ainsi,
𝑘 𝑘 𝑘 𝑘
De façon similaire,
𝑎 0 𝑎 𝑎 𝑎
∫ 𝑥(𝑡)𝑑𝑡 = ∫ 𝑥(𝑡)𝑑𝑡 + ∫ 𝑥(𝑡)𝑑𝑡 = ∫ 𝑥(−𝜆)𝑑𝜆 + ∫ 𝑥(𝑡)𝑑𝑡
−𝑎 −𝑎 0 0 0
𝑎 𝑎 𝑎 𝑎
= − ∫ 𝑥(𝜆)𝑑𝜆 + ∫ 𝑥(𝑡)𝑑𝑡 = − ∫ 𝑥(𝑡)𝑑𝑡 + ∫ 𝑥(𝑡)𝑑𝑡 = 0
0 0 0 0
Et
𝑘 −1 𝑘 𝑘 𝑘
Exercice 8
Réponse :
Sachant que
𝑐𝑜𝑠[𝜔0 (𝑡 + 𝑇) + 𝜃] = cos(𝜔0 𝑡 + 𝜃)
On voit que
2𝜋
Ainsi, la période fondamentale de 𝑥2 (𝑡) est donnée par 𝑇0 = 𝜔
0
𝑥[𝑛] = 𝑒 𝑗Ω0 𝑛
Ω0⁄
est périodique seulement si 2𝜋 est un nombre rationnel.
Réponse :
ou encore
Ω0 𝑚
= = nombre rationnel
2𝜋 𝑁
Ω0
Ainsi, 𝑥[𝑛] est périodique seulement si est un nombre rationnel.
2𝜋
𝑥(𝑡) = 𝑒 𝑗𝜔0 𝑡
Réponse :
Ou bien
𝑇𝑒 𝑚
= = nombre rationnel
𝑇0 𝑁0
𝑥(𝑡) = 𝑐𝑜𝑠(15𝑡)
Réponse :
𝑇𝑒 𝑇𝑒 𝑚
= = 𝑎𝑣𝑒𝑐 𝑚 𝑒𝑡 𝑁0 𝑑𝑒𝑠 𝑒𝑛𝑡𝑖𝑒𝑟𝑠 𝑝𝑜𝑠𝑖𝑡𝑖𝑓𝑠.
𝑇0 2𝜋⁄15 𝑁0
Exercice 12
Réponse :
Alors,
𝑚𝑇1 = 𝑘𝑇2 = 𝑇
Ou
𝑇1 𝑘
= = 𝑛𝑜𝑚𝑏𝑟𝑒 𝑟𝑎𝑡𝑖𝑜𝑛𝑛𝑒𝑙
𝑇2 𝑚
𝑚𝑇1 = 𝑘𝑇2 = 𝑇
2𝜋⁄
1 𝑇0 𝜔0 𝜔0
𝑃 = ∫ |𝑥(𝑡)|2 𝑑𝑡 = ∫ 𝐴2 𝑐𝑜𝑠 2 (𝜔0 𝑡 + 𝜃)𝑑𝑡
𝑇0 0 2𝜋 0
2𝜋⁄
𝜔0
2
𝜔0 1 𝐴2
=𝐴 ∫ (1 + cos(2𝜔0 𝑡 + 𝜃))𝑑𝑡 = < +∞
2𝜋 0 2 2
(c)
3
(𝑇⁄2)
𝑇⁄ 𝑇⁄
2 2
𝐸 = lim ∫ |𝑥(𝑡)|2 𝑑𝑡 = lim ∫ 𝑡 2 𝑑𝑡 = lim = +∞
𝑇→+∞ −𝑇 𝑇→+∞ 0 𝑇→∞ 3
2
3
1 (𝑇⁄2)
𝑇⁄ 𝑇⁄
1 2 1 2
𝑃 = lim ∫ |𝑥(𝑡)|2 𝑑𝑡 = lim ∫ 2
𝑡 𝑑𝑡 = lim = +∞
𝑇→+∞ 𝑇 −𝑇 𝑇→+∞ 𝑇 0 𝑇→∞ 𝑇 3
2
Signaux élémentaires
𝛿(−𝑡) = 𝛿(𝑡)
𝑥(𝑡)𝛿(𝑡 − 𝑡0 ) = 𝑥(0)𝛿(𝑡) 𝑠𝑖 𝑥(𝑡)𝑒𝑠𝑡 𝑐𝑜𝑛𝑡𝑖𝑛𝑢 𝑒𝑛 𝑡 = 0
𝑥(𝑡)𝛿(𝑡 − 𝑡0 ) = 𝑥(𝑡0 )𝛿(𝑡 − 𝑡0 ) 𝑠𝑖 𝑥(𝑡)𝑒𝑠𝑡 𝑐𝑜𝑛𝑡𝑖𝑛𝑢 𝑒𝑛 𝑡 = 𝑡0
1 𝜏>0
𝑢(−𝑡) = 𝑢(𝜏) = {
0 𝜏<0
Réponse :
1 𝜏>0
𝑢(−𝑡) = 𝑢(𝜏) = {
0 𝜏<0
∫(3𝑡 2 + 1)𝛿(𝑡)𝑑𝑡
1
Réponse :
𝑏 𝑥(0) 𝑎<0<𝑏
∫ 𝑥(𝑡)𝛿(𝑡)𝑑𝑡 = { 0 𝑎 < 𝑏 < 0 𝑜𝑢 0 < 𝑎 < 𝑏
𝑎 𝑖𝑛𝑑é𝑓𝑖𝑛𝑖 𝑎 = 0 𝑜𝑢 𝑏 = 0
et
∞
∫ 𝑥(𝑡)𝛿(𝑡 − 𝑡0 )𝑑𝑡 = 𝑥(𝑡0 )
−∞
1
∫−1(3𝑡 2 + 1)𝛿(𝑡)𝑑𝑡
𝑎 = −1 𝑒𝑡 𝑏 = 1, on a
1
𝑎 = 1 𝑒𝑡 𝑏 = 2, on a
2
∫(3𝑡 2 + 1)𝛿(𝑡)𝑑𝑡 = 0
1
B. Exercices supplémentaires
Exercice 19
Exercice 21
Exercice 22
Exercice 23
1. Représenter x(t)
2. Le signal est-il transitoire ou permanent
3. Calculer la valeur moyenne de x(t)
4. On désire périodiser le signal x(t). soit y(t) le signal ainsi
obtenu
a. Donner l’expression de y(t) si la période de répétition est
𝑇0 = 3
b. Calculer la valeur moyenne de y(t)
c. Déterminer sa valeur efficace
5. Faire la même chose pour les signaux suivants : Λ 2 (𝑡), Γ2 (𝑡)
Exercice 25
Exercice 26
Exercice 27
∫ 𝑥(𝑡)𝑑𝑡 = ∫ 𝑥(𝑡)𝑑𝑡
𝛼 𝛼+𝑇
𝑇 𝑎+𝑇
∫ 𝑥(𝑡)𝑑𝑡 = ∫ 𝑥(𝑡)𝑑𝑡
𝑎 𝑎+𝑇
Exercice 28
Exercice 29
𝑥(𝑡) = 𝑢(𝑡) − 𝑢(𝑡 − 𝑎), 𝑎 > 0 𝑦(𝑡) = 𝑡[𝑢(𝑡) − 𝑢(𝑡 − 𝑎)], 𝑎 > 0
Exercice 30
π
5 + 10cos(100πt + 3 )
π π
10 cos (100πt + 3 ) + 16sin(150t + 5 )
(10 + 2sin(3𝑡))cos((10𝑡)
10 cos(5𝑡) cos(10𝑡)
Chapitre 3
TRANSFORMATION DE LAPLACE
I. DEFINITION DE LA TRANSFORMATION DE
LAPLACE
1. Définition
La forme bilatérale de la Transformation de Laplace est définie
par :
+∞
𝜎+𝑗𝜔
1
ℒ −1 {𝑋(𝑠)} = 𝑥(𝑡) = ∫ 𝑋(𝑠)𝑒 𝑠𝑡 𝑑𝑠
2𝜋𝑗
𝜎−𝑗𝜔
2. Région De Convergence
L’ensemble des valeurs de la variable complexe s pour
lesquelles la transformée de Laplace converge est appelée Région
De Convergence (RDC). Pour illustrer la Transformée de Laplace
et sa RDC associée considérons quelques exemples.
Fig.3-1
𝑎0 𝑠 𝑚 + 𝑎1 𝑠 𝑚−1 + ⋯ + 𝑎𝑚 𝑎0 (𝑠 − 𝑧1 ) … (𝑠 − 𝑧𝑚 )
𝑋(𝑠) = =
𝑏0 𝑠 𝑛 + 𝑏1 𝑠 𝑛−1 + ⋯ + 𝑏𝑛 𝑏0 (𝑠 − 𝑝1 ) … (𝑠 − 𝑝𝑛 )
(𝑠 − 𝑧1 ) … (𝑠 − 𝑧𝑚 )
=𝐾
(𝑠 − 𝑝1 ) … (𝑠 − 𝑝𝑛 )
1. Linéarité
La propriété de linéarité dit que si 𝑓1 (𝑡), 𝑓2 (𝑡), … , 𝑓𝑛 (𝑡) ont
respectivement pour transformée de Laplace
Démonstration :
3. Translation fréquentielle
La propriété de décalage fréquentielle dit qu’un amortissement
exponentiel dans le domaine temporel correspond à une
translation dans le domaine fréquentiel.
Démonstration :
∞ ∞
−𝑎𝑡 −𝑎𝑡 −𝑠𝑡
ℒ{𝑒 𝑓(𝑡)} = ∫ 𝑒 𝑓(𝑡)𝑒 𝑑𝑡 = ∫ 𝑓(𝑡)𝑒 −(𝑠+𝑎)𝑡 𝑑𝑡 = 𝐹(𝑠 + 𝑎)
0 0
4. Facteur d’échelle ou dilatation-comprimation
Soit a une constante positive ; la propriété de dilatation dit
que :
𝟏 𝒔
𝒇(𝒂𝒕) ⟺ 𝑭( )
𝒂 𝒂
Démonstration :
∞
𝜃
En posant 𝑡 = 𝑎 on obtient :
∞ ∞
𝜃 𝜃 1 𝑠 1 𝑠
−𝑠( ) −( )𝜃
ℒ{𝑓(𝑎𝑡)} = ∫ 𝑓(𝜃)𝑒 𝑎 𝑑 ( ) = ∫ 𝑓(𝜃)𝑒 𝑎 𝑑𝜃 = 𝐹 ( )
𝑎 𝑎 𝑎 𝑎
0 0
Note :
5. Dérivation temporelle
Cette propriété indique qu’une dérivation temporelle
correspond à une multiplication par s moins la valeur à l’origine de
f(t).
𝒅
𝒇′ (𝒕) = 𝒇(𝒕) ⟺ 𝒔𝑭(𝒔) − 𝒇(𝟎− )
𝒅𝒕
Démonstration :
∞
Posons 𝑢′ (𝑡) = 𝑓 ′ (𝑡) 𝑒𝑡 𝑣 = 𝑒 −𝑠𝑡 alors 𝑢(𝑡) = 𝑓(𝑡) 𝑒𝑡 𝑣 ′ (𝑡) = −𝑠𝑒 −𝑠𝑡 et
on a
∞
+∞
ℒ{𝑓′(𝑡)} = ∫ 𝑓′(𝑡)𝑒 −𝑠𝑡 𝑑𝑡 = [𝑓(𝑡)𝑒 −𝑠𝑡 ]+∞
0 +𝑠∫ 𝑓(𝑡)𝑒 −𝑠𝑡 𝑑𝑡 = 0 − lim− 𝑓(𝑡) + 𝑠𝐹(𝑠)
0 𝑡→0
0
= 𝑠𝐹(𝑠) − 𝑓(0− )
𝒅𝟐
𝒇(𝒕) ⟺ 𝒔𝟐 𝑭(𝒔) − 𝒔𝒇(𝟎− ) − 𝒇′ (𝟎− )
𝒅𝒕𝟐
𝒅𝟑
𝒇(𝒕) ⟺ 𝒔𝟑 𝑭(𝒔) − 𝒔𝟐 𝒇(𝟎− ) − 𝒔𝒇′ (𝟎− ) − 𝒇′′ (𝟎− )
𝒅𝒕𝟑
Et de façon générale
𝒅𝒏
𝒇(𝒕) ⟺ 𝒔𝒏 𝑭(𝒔) − 𝒔𝒏−𝟏 𝒇(𝟎− ) − 𝒔𝒏−𝟐 𝒇′ (𝟎− ) − ⋯ 𝒔𝒇(𝒏−𝟐) (𝟎− )
𝒅𝒕𝒏
− 𝒇(𝒏−𝟏) (𝟎− )
Démonstration :
𝑛=3
ℒ{𝑓 (𝑛+1) (𝑡)} = ∫ 𝑓 (𝑛+1) (𝑡)𝑒 −𝑠𝑡 𝑑𝑡 = 0 − lim− 𝑓 (𝑛) (𝑡) + 𝑠ℒ{𝑓 (𝑛) (𝑡)}
𝑡→0
0
et comme on pense que
ℒ{𝑓 (𝑛) (𝑡)} = 𝑠 𝑛 𝐹(𝑠) − 𝑠 𝑛−1 𝑓(0− ) − 𝑠 𝑛−2 𝑓 ′ (0− ) − ⋯ 𝑠𝑓 (𝑛−2) (0− ) − 𝑓 (𝑛−1) (0− )
alors on aura pour l′ ordre 𝑛 + 1
ℒ{𝑓 (𝑛+1)
(𝑡)} = 𝑠 𝑛+1
𝐹(𝑠) − 𝑠 𝑛 𝑓(0− ) − 𝑠 𝑛−1 𝑓 ′ (0− ) − ⋯ 𝑠𝑓 (𝑛−1) (0− ) − 𝑓 (𝑛) (0− )
ℒ{f (n) (t)} = s n F(s) − s n−1 f(0− ) − s n−2 f ′ (0− ) − ⋯ sf (n−2) (0− ) − f (n−1) (0− )
6. Dérivation fréquentielle
Cette propriété dit que la dérivation dans le domaine
fréquentiel complexe correspond à la multiplication par la variable
temporelle 𝑡 dans le domaine temporel.
𝒅
𝒕𝒇(𝒕) = − 𝑭(𝒔) = −𝑭′(𝒔)
𝒅𝒔
Démonstration :
∞
7. Intégration temporelle
Cette propriété établit que l’intégration dans le domaine
temporel correspond dans le domaine fréquentiel à une division de
la transformée 𝐹(𝑠) par la variable complexe 𝑠.
𝒕
𝑭(𝒔) 𝒇(𝟎− )
∫ 𝒇(𝜽)𝒅𝜽 ⟺ +
𝒔 𝒔
−∞
Démonstration :
𝑡 0
Soit 𝑔(𝑡) = ∫0 𝑓(𝜃)𝑑𝜃 alors 𝑔′ (𝑡) = 𝑓(𝜃) et 𝑔(0) = ∫0 𝑓(𝜃)𝑑𝜃 = 0
Maintenant,
Démonstration :
∞
9. Périodicité
Cette propriété permet de calculer la transformée de Laplace d’un
signal périodique.
Soit le signal périodique 𝑓(𝑡) de période T défini par
∞
Alors on a :
∞ 𝑻
∫ 𝒈(𝒕)𝒆−𝒔𝒕 𝒅𝒕
𝒇(𝒕) = ∑ 𝒈(𝒕 − 𝒏𝑻) ⟺ 𝟎
𝟏 − 𝒆−𝒔𝑻
𝒏=𝟎
Démonstration :
∞ ∞ ∞
= 𝐺0 (𝑠) ∑ 𝑒 −𝑛𝑇𝑠
𝑛=0
Soit en définitive
∞ 𝑇
𝐺0 (𝑠) ∫0 𝑔(𝑡)𝑒 −𝑠𝑡 𝑑𝑡
ℒ {∑ 𝑔(𝑡 − 𝑛𝑇)} = =
1 − 𝑒 −𝑠𝑇 1 − 𝑒 −𝑠𝑇
𝑛=0
Démonstration :
Démonstration :
𝑇
𝑑
lim [𝑠𝐹(𝑠) − 𝑓(0− )] = lim ∫ 𝑓(𝑡)𝑑𝑡
𝑠→∞ 𝑇→∞ 𝑑𝑡
𝜀→0 𝜀
𝑇
Démonstration :
∞ ∞ ∞
Démonstration :
∞
𝑛=2
∞
∞ ∞ ∞
𝑡 2 𝑒 −𝑠𝑡 2𝑡𝑒 −𝑠𝑡 𝑡 2 𝑒 −𝑠𝑡
ℒ{(𝑡 2 )𝑢(𝑡)} = [− ] −∫− 𝑑𝑡 = [− ]
𝑠 0
𝑠 ⏟ 𝑠 0
0
=0
∞
2
+ ∫ 𝑡𝑒 −𝑠𝑡 𝑑𝑡
𝑠
⏟
0
ℒ{𝑡}
1
Or comme on l’a vu plus haut ℒ{𝑡} = 𝑠2 alors
2 2
ℒ{(𝑡 2 )𝑢(𝑡)} = . ℒ{𝑡} = 3 𝑝𝑜𝑢𝑟 𝜎 > 0
𝑠 𝑠
𝑛=3
∞
∞ ∞ ∞
𝑡 3 𝑒 −𝑠𝑡 3𝑡 2 𝑒 −𝑠𝑡 𝑡 3 𝑒 −𝑠𝑡
ℒ{(𝑡 2 )𝑢(𝑡)} = [− ] −∫− 𝑑𝑡 = [− ]
𝑠 0
𝑠 ⏟ 𝑠 0
0
=0
∞
3
+ ∫ 𝑡 2 𝑒 −𝑠𝑡 𝑑𝑡
𝑠
⏟
0
ℒ{𝑡 2 }
2
Or comme on l’a vu plus haut ℒ{𝑡 2 } = 𝑠3 alors
3 6
ℒ{(𝑡 3 )𝑢(𝑡)} = . ℒ{𝑡} = 4 𝑝𝑜𝑢𝑟 𝜎 > 0
𝑠 𝑠
𝑛≥4
𝑛!
En observant les résultats précédents on a ℒ{𝑡 𝑛 𝑢(𝑡)} = 𝑠𝑛+1
𝑛!
Or comme on l’a vu plus haut ℒ{𝑡 𝑛 } = alors
𝑠𝑛+1
𝑛+1 𝑛 + 1 𝑛! (𝑛 + 1)!
ℒ{(𝑡 𝑛+1 )𝑢(𝑡)} = . ℒ{𝑡} = = 𝑝𝑜𝑢𝑟 𝜎 > 0
𝑠 𝑠 𝑠 𝑛+1 𝑠 𝑛+2
Alors on peut conclure que
𝒏!
∀𝒏 ∈ ℕ ∗ 𝓛{𝒕𝒏 𝒖(𝒕)} = 𝐩𝐨𝐮𝐫 𝝈 > 0
𝒔𝒏+𝟏
4. Transformée de Laplace d’une impulsion de
Dirac 𝜹(𝒕)
Appliquons la définition
∞
𝐬𝐢𝐧(𝝎𝒕)𝒖(𝒕)
1
On a vu plus haut que 𝑒 −𝑎𝑡 𝑢(𝑡) ⟺ 𝑠+𝑎 pour 𝜎 > −𝑎 or 𝐬𝐢𝐧(𝝎𝒕) =
𝟏
𝟐𝒋
(𝒆𝒋𝝎𝒕 − 𝒆−𝒋𝝎𝒕 )alors
1 1 1 1
ℒ{sin(𝜔𝑡) 𝑢(𝑡)} = (ℒ{𝑒 𝑗𝜔𝑡 𝑢(𝑡)} − ℒ{𝑒 −𝑗𝜔𝑡 𝑢(𝑡)}) = ( − )
2𝑗 2𝑗 𝑠 − 𝑗𝜔 𝑠 + 𝑗𝜔
1 (𝑠 + 𝑗𝜔) − (𝑠 − 𝑗𝜔) 𝜔
= 2 2
= 2
2𝑗 𝑠 +𝜔 𝑠 + 𝜔2
Ainsi
𝝎
𝐬𝐢𝐧(𝛚𝐭)𝒖(𝒕) ⟺ 𝒑𝒐𝒖𝒓 𝝈 > 0
𝒔𝟐 + 𝝎𝟐
𝐜𝐨𝐬(𝝎𝒕) 𝒖(𝒕)
1
On a vu plus haut que 𝑒 −𝑎𝑡 𝑢(𝑡) ⟺ pour 𝜎 > −𝑎 or cos(𝜔𝑡) =
𝑠+𝑎
1
2
(𝑒 𝑗𝜔𝑡 + 𝑒 −𝑗𝜔𝑡 )alors
1 1 1 1
ℒ{cos(𝜔𝑡) 𝑢(𝑡)} = (ℒ{𝑒 𝑗𝜔𝑡 𝑢(𝑡)} + ℒ{𝑒 −𝑗𝜔𝑡 𝑢(𝑡)}) = ( + )
2 2 𝑠 − 𝑗𝜔 𝑠 + 𝑗𝜔
1 (𝑠 + 𝑗𝜔) + (𝑠 − 𝑗𝜔) 𝑠
= 2 2
= 2
2 𝑠 +𝜔 𝑠 + 𝜔2
Ainsi
𝒔
𝐜𝐨𝐬(𝛚𝐭)𝒖(𝒕) ⟺ 𝒑𝒐𝒖𝒓 𝝈 > 0
𝒔𝟐 + 𝝎𝟐
𝒆−𝒂𝒕 𝐬𝐢𝐧(𝛚𝐭)𝒖(𝒕)
𝝎
On a vu ci-dessus que 𝐬𝐢𝐧(𝛚𝐭)𝒖(𝒕) ⟺ 𝒔𝟐+𝝎𝟐 et on sait que
𝑒 −𝑎𝑡 𝑓(𝑡) ⟺ 𝐹(𝑠 + 𝑎) ce qui nous permet aisément d’obtenir
𝝎
𝒆−𝒂𝒕 𝐬𝐢𝐧(𝛚𝐭)𝒖(𝒕) ⟺ pour 𝝈 > 0 et 𝒂 > 0
(𝒔 + 𝒂)𝟐 + 𝝎𝟐
𝒆−𝒂𝒕 𝐜𝐨𝐬(𝛚𝐭)𝒖(𝒕)
𝒔
On a vu ci-dessus que 𝐜𝐨𝐬(𝛚𝐭)𝒖(𝒕) ⟺ 𝒔𝟐+𝝎𝟐 et on sait que
𝑒 −𝑎𝑡 𝑓(𝑡) ⟺ 𝐹(𝑠 + 𝑎) ce qui nous permet aisément d’obtenir
𝒔+𝒂
𝒆−𝒂𝒕 𝐜𝐨𝐬(𝛚𝐭)𝒖(𝒕) ⟺ pour 𝝈 > 0 et 𝒂 > 0
(𝒔 + 𝒂)𝟐 + 𝝎𝟐
Nous résumons dans le tableau ci-dessous toutes ces transformée
élémentaires.
IV. TRANSFORMATION DE LAPLACE DES
FORMES D’ONDES USUELLES
1. Transformée de Laplace d’un signal
impulsionnel
𝑓𝐿 (𝑡) = (𝑡 − 1)𝑢(𝑡 − 1)
On sait que
𝑓(𝑡 − 𝑎)𝑢(𝑡 − 𝑎) ⟺ 𝑒 −𝑎𝑠 𝐹(𝑠)
Et comme
1
𝑡𝑢(𝑡) ⇔
𝑠2
Alors
𝟏 −𝒔
(𝒕 − 𝟏)𝒖(𝒕 − 𝟏) ⇔ 𝒆
𝒔𝟐
On sait que
𝑓(𝑡 − 𝑎)𝑢(𝑡 − 𝑎) ⟺ 𝑒 −𝑎𝑠 𝐹(𝑠)
Et
1
𝑡𝑢(𝑡) ⇔
𝑠2
Alors,
1 1 1
fT (t) = tu(t) − 2(t − 1)u(t − 1) + (t − 2)u(t − 2) ⇔ 2
− 2e−s 2 + e−2s 2
s s s
1
fT (t) ⇔ (1 − 2e−s + e−2s )
s2
1 (1 + 𝑒 −𝜋𝑠 )
ℒ{𝑓𝐻𝑊 (𝑡)} =
𝑠 2 + 1 (1 + 𝑒 −𝜋𝑠 )(1 − 𝑒 −𝜋𝑠 )
V. TRANSFORMATION DE LAPLACE
INVERSE ET DECOMPOSITION EN
ELEMENTS SIMPLES
Cette section présente différentes méthodes de détermination de
la TL inverse. La Décomposition en Eléments Simples (D.E.S) y
est expliquée et illustrée avec des exemples.
1. TL inverse
La TL inverse a été déjà définie par :
𝝈+𝒋𝝎
𝟏
𝓛−𝟏 {𝑿(𝒔)} = 𝒙(𝒕) = ∫ 𝑿(𝒔)𝒆𝒔𝒕 𝒅𝒔
𝟐𝝅𝒋
𝝈−𝒋𝝎
Cette intégrale est difficile à évaluer car elle requiert une
intégration de contour utilisant la théorie des variables
complexes. Heureusement, pour la plupart des problèmes
d’ingénierie nous pouvons utiliser la table des TL, les
propriétés et la TL des signaux usuels pour déterminer la TL
inverse.
𝑁(𝑠)
𝐹(𝑠) =
𝐷(𝑠)
𝑵(𝒔)
𝑭(𝒔) = (𝒔−𝒑 )(𝒔−𝒑
ou les𝑝𝑘 sont des pôles distincts les
𝟏 𝟐 )(𝒔−𝒑𝟑 )…(𝒔−𝒑𝒏 )
uns des autres
Solution
Exemple 2 :
Utiliser la méthode de d-e-s pour déterminer l’original de
3𝑠 2 + 2𝑠 + 5
𝐹2 (𝑠) =
𝑠 3 + 12𝑠 2 + 44𝑠 + 48
Solution
3𝑠 2 + 2𝑠 + 5 𝑟1 𝑟2 𝑟2
𝐹2 (𝑠) = = + +
(𝑠 + 2)(𝑠 + 4)(𝑠 + 6) 𝑠 + 2 𝑠 + 4 𝑠 + 4
3𝑠 2 + 2𝑠 + 5 9
𝑟1 = lim [(𝑠 + 2)𝐹2 (𝑠)] = |𝑠=−2 =
𝑠→−2 (𝑠 + 4)(𝑠 + 6) 8
3𝑠 2 + 2𝑠 + 5 37
𝑟2 = lim [(𝑠 + 4)𝐹2 (𝑠)] = |𝑠=−4 = −
𝑠→−4 (𝑠 + 2)(𝑠 + 6) 4
2
3𝑠 + 2𝑠 + 5 89
𝑟3 = lim [(𝑠 + 6)𝐹2 (𝑠)] = |𝑠=−6 =
𝑠→−6 (𝑠 + 2)(𝑠 + 4) 8
Donc on exprime notre fonction image
9 37 89
3𝑠 2 + 2𝑠 + 5 8
𝐹2 (𝑠) = 3 = − 4 + 8
𝑠 + 12𝑠 2 + 44𝑠 + 48 𝑠 + 2 𝑠 + 4 𝑠 + 6
En utilisant la table des transformées de Laplace on trouve
1
𝑒 −𝑎𝑡 𝑢(𝑡) ⇔
𝑠+𝑎
donc
9 37 89
𝐹2 (𝑠) = 8 − 4 + 8 ⟺ 𝑓2 (𝑡)
𝑠+2 𝑠+4 𝑠+6
9 37 89
= ( 𝑒 −2𝑡 − 𝑒 −4𝑡 + 𝑒 −6𝑡 ) 𝑢(𝑡)
8 4 8
Remarque :
Alors
𝒏
𝒇(𝒕) = (𝒓𝟏 𝒆𝒑𝟏𝒕 + 𝒓𝟐 𝒆𝒑𝟐𝒕 + ⋯ + 𝒓𝒏 𝒆𝒑𝒏 𝒕 )𝒖(𝒕) = ∑ 𝒓𝒌 𝒆𝒑𝒌 𝒕 𝒖(𝒕)
𝒌=𝟏
o Pôles complexes
6
2 𝑠+2 2 2 𝑠+2 3 2
=− ( − 10 )=− +
5 [(𝑠 + 2) + 4] 2 [(𝑠 + 2)2 + 4]
2 5 [(𝑠 + 2)2 + 4] 10 [(𝑠 + 2)2 + 4]
donc
𝟐
𝟐 𝒔+𝟐 𝟑 𝟐
𝑭𝟑 (𝒔) = 𝟓 − +
𝒔 + 𝟏 𝟓 [(𝒔 + 𝟐) + 𝟒] 𝟏𝟎 [(𝒔 + 𝟐)𝟐 + 𝟒]
𝟐
𝟐 𝟐 𝟑 −𝟐𝒕
⟺ 𝒇𝟑 (𝒕) = ( 𝒆−𝒕 − 𝒆−𝟐𝒕 𝐜𝐨𝐬(𝟐𝒕) + 𝒆 𝐬𝐢𝐧(𝟐𝒕)) 𝒖(𝒕)
𝟓 𝟓 𝟏𝟎
Remarque :
o Pôles multiples
Dans ce cas,
𝑁(𝑠)
𝐹(𝑠) =
(𝑠 − 𝑝1 )𝑚 (𝑠 − 𝑝2 ) … (𝑠 − 𝑝𝑛−1 )(𝑠 − 𝑝𝑛 )
Les résidus 𝑟11 , 𝑟12 , … , 𝑟1𝑚 , correspondants aux pôles répétés sont
obtenus en multipliant chaque membre de la d-e-s par (𝒔 − 𝒑𝟏 )𝒎 .
Alors
𝑟2 𝑟3 𝑟𝑛
+ lim [(𝑠 − 𝑝1 )𝑚 ( + +⋯+ )]
𝑠→𝑝1 (𝑠 − 𝑝2 ) (𝑠 − 𝑝3 ) (𝑠 − 𝑝𝑛 )
Ou encore
𝑑𝑘−1
(𝑘 − 1)! 𝑟1𝑘 = lim [(𝑠 − 𝑝1 )𝑚 𝐹(𝑠)]
𝑠→𝑝1 𝑑𝑠 𝑘−1
𝟏 𝒅𝒌−𝟏
𝒓𝟏𝒌 = 𝐥𝐢𝐦 [(𝒔 − 𝒑𝟏 )𝒎 𝑭(𝒔)]
𝒔→𝒑𝟏 (𝒌 − 𝟏)! 𝒅𝒔𝒌−𝟏
Exemple 4
Solution :
𝑠+3
𝑟21 = | =2
(𝑠 + 2) 𝑠=−1
𝑑 𝑠+3 (𝑠 + 2) − (𝑠 + 3)
𝑟22 = ( )| = | = −1
𝑑𝑠 𝑠 + 2 𝑠=−1 (𝑠 + 1)2 𝑠=−1
𝑠+3 1 2 −1
𝐹4 (𝑠) = 2
= + 2
+ ⟺ 𝑓4 (𝑡)
(𝑠 + 2)(𝑠 + 1) (𝑠 + 2) (𝑠 + 1) (𝑠 + 1)
= 𝑒 −2𝑡 + 2𝑡𝑒 −𝑡 − 𝑒 −𝑡
Exemple 5
𝑠 2 + 3𝑠 + 1
𝐹5 (𝑠) =
(𝑠 + 1)3 (𝑠 + 2)2
Solution
𝑠 2 + 3𝑠 + 1
𝑟11 = ( )| = −1
(𝑠 + 2)2
𝑠=−1
𝑑 𝑠 2 + 3𝑠 + 1
𝑟12 = ( )|
𝑑𝑠 (𝑠 + 2)2 𝑠=−1
(𝑠 + 2)2 (2𝑠 + 3) − 2(𝑠 + 2)𝑠 2 + 3𝑠 + 1
= |
(𝑠 + 2)4 𝑠=−1
𝑠+4
= | =3
(𝑠 + 2)3 𝑠=−1
1 𝑑2 𝑠 2 + 3𝑠 + 1 1 𝑑 𝑑 𝑠 2 + 3𝑠 + 1
𝑟13 = ( )| = [ ( )]|
2! 𝑑𝑠 2 (𝑠 + 2)2 𝑠=−1
2 𝑑𝑠 𝑑𝑠 (𝑠 + 2)2 𝑠=−1
1𝑑 𝑠+4 1 (𝑠 + 2)3 − 3(𝑠 + 2)2 (𝑠 + 4)
= ( )| = [ ]|
2 𝑑𝑠 (𝑠 + 3)3 𝑠=−1 2 (𝑠 + 2)6 𝑠=−1
1 𝑠 + 2 − 3𝑠 − 12 −𝑠 − 5
= ( 4
)| = | =4
2 (𝑠 + 2) 𝑠=−1
(𝑠 + 2)4 𝑠=−1
Pour le pole 𝑝 = −2
𝑠 2 + 3𝑠 + 1
𝑟21 = | =1
(𝑠 + 1)3 𝑠=−2
Exemple 6
𝒔𝟐 +𝟐𝒔+𝟐
Déterminer l’original de 𝑭𝟔 (𝒔) = 𝒔+𝟏
Solution
s 2 + 2s + 2 1
F6 (s) = = +1+s
s+1 s+1
Et on reconnait ici,
1
⟺ 𝑒 −𝑡 𝑒𝑡 1 ⟺ 𝛿(𝑡) 𝑒𝑡 𝑠 ⟺ 𝛿 ′ (𝑡)
𝑠+1
Pour 𝑠 on utilise la propriété d’intégration temporelle et on obtient
s 2 + 2s + 2 1
F6 (s) = = + 1 + s ⟺ 𝑓6 (𝑡) = 𝑒 −𝑡 + 𝛿(𝑡) + 𝛿 ′ (𝑡)
s+1 s+1
4. Méthode alternative à la D-E-S
La d-e-s peut aussi être réalisée par la méthode de
« nettoyage des fractions », qui consiste à rendre identique les
dénominateurs des deux membres de l’équation, et à déterminer
les numérateurs par un système d’équations. Mais pour cela il faut
que la fonction image 𝐹(𝑠) soit d’abord une fonction rationnelle
propre, sinon il faut procéder d’abord à une division euclidienne et
après travailler avec les quotients et les restes.
Exemple 7
Solution
Avec l’étape 4,
Et avec l’étape 5,
4 = 2𝑟1 𝑠𝑜𝑖𝑡 𝑟1 = 2
𝐴 = 1 𝑒𝑡 𝑟21 =
Exemple 8
𝑠+3
Faire de même avec 𝐹8 (𝑠) = 𝑠3 +5𝑠2 +12𝑠+8
Solution
𝑠 + 3 = 𝑟1 (𝑠 2 + 4𝑠 + 8) + (𝑟2 𝑠 + 𝑟3 )(𝑠 + 1)
𝑠+3 2⁄5 1 2𝑠 + 1
𝐹8 (𝑠) = = −
𝑠3 2
+ 5𝑠 + 12𝑠 + 8 𝑠 + 1 5 (𝑠 2 + 4𝑠 + 8)
Ce qui donne l’original
2 2 3
𝑓8 (𝑡) = 𝑓3 (𝑡) = ( 𝑒 −𝑡 − 𝑒 −2𝑡 cos(2𝑡) + 𝑒 −2𝑡 sin(2𝑡)) 𝑢(𝑡)
5 5 10
VI. EXERCICES
A. Exercices résolus
Exercice 1
Ainsi, on obtient
1
−𝑒 −𝑎𝑡 𝑢(−𝑡) ↔ 𝑅𝑒(𝑠) < −𝑎
𝑠+𝑎
(b) De façon similaire,
+∞ 0−
𝑎𝑡 −𝑠𝑡
𝑋(𝑠) = ∫ 𝑒 𝑢(−𝑡)𝑒 𝑑𝑡 = ∫ 𝑒 −(𝑠−𝑎)𝑡 𝑑𝑡
−∞ −∞
0 −
1 1
=− 𝑒 −(𝑠−𝑎)𝑡 ] = 𝑅𝑒(𝑠) < 𝑎
𝑠+𝑎 −∞ 𝑠−𝑎
Ainsi, on obtient
1
𝑒 𝑎𝑡 𝑢(−𝑡) ↔ 𝑅𝑒(𝑠) < 𝑎
𝑠−𝑎
Exercice 2 :
−𝑎𝑡
Soit le signal 𝑥(𝑡) = {𝑒 0≤𝑡≤𝑇
0 𝑎𝑖𝑙𝑙𝑒𝑢𝑟𝑠
Déterminer la transformée de Laplace de 𝑥(𝑡).
Réponse :
Exercice 3
Réponse :
𝑥(𝑡) = 𝑒 −𝑎|𝑡|
Réponse :
Exemple 5
Réponse :
(e) Soit
𝑓(𝑡) = 𝛿(𝑎𝑡)
Maintenant, comme
𝑏 𝑏
𝑥(𝑡) = 𝛿(𝑎𝑡 + 𝑏) = 𝛿 [𝑎 (𝑡 + )] = 𝑓 (𝑡 + )
𝑎 𝑎
En utilisant le décalage temporel et le facteur d’échelle, on
obtient
𝑏 1 𝑠𝑏
𝑋(𝑠) = 𝑒 𝑠𝑎 𝐹(𝑠) = 𝑒 𝑎 pour tout 𝑠
|𝑎|
Exercice 6
2𝑠+4
(a) 𝑋(𝑠) = 𝑠2 +4𝑠+3 𝑅𝑒(𝑠) > −1
2𝑠+4
(b) 𝑋(𝑠) = 𝑠2 +4𝑠+3 𝑅𝑒(𝑠) < −3
2𝑠+4
(c) 𝑋(𝑠) = − 3 < 𝑅𝑒(𝑠) < −1
𝑠2 +4𝑠+3
Réponse :
𝑠+2
𝑐2 = (𝑠 + 3)𝑋(𝑠)|𝑠=−3 = 2 | =1
𝑠 + 1 𝑠=−3
Alors,
1 1
𝑋(𝑠) = +
𝑠+1 𝑠+3
(a) La RDC de 𝑋(𝑠) est 𝑅𝑒(𝑠) > −1. Et comme 𝑥(𝑡) est un
signal unilatéral à droite et de la table des transformées on
obtient
(b) La RDC de 𝑋(𝑠) est 𝑅𝑒(𝑠) < −3. Et comme 𝑥(𝑡) est un
signal unilatéral à gauche et de la table des transformées
on obtient
(c) La RDC de 𝑋(𝑠) est −3 < 𝑅𝑒(𝑠) < −1. Et comme 𝑥(𝑡) est
un signal bilatéral et de la table des transformées on
obtient
Exercice 7
On peut écrire
𝑠 2 + 4𝑠 + 13 = (𝑠 + 2)2 + 9 = (𝑠 + 2)2 + 32
= (𝑠 + 2 − 3𝑗)(𝑠 + 2 + 3𝑗)
Alors
5𝑠 + 13 𝑐1 𝑐2 𝑠 + 𝑐3
𝑋(𝑠) = = +
𝑠((𝑠 + 2) + 3 ) 𝑠 (𝑠 + 2)2 + 32
2 2
𝑐2 = −1 et 𝑐3 = 1
Ainsi,
1 𝑠−1 1 𝑠+2−3
𝑋(𝑠) = − 2 2
= −
𝑠 (𝑠 + 2) + 3 𝑠 (𝑠 + 2)2 + 32
1 𝑠+2 3
= − 2 2
+
𝑠 (𝑠 + 2) + 3 (𝑠 + 2)2 + 32
Exercice 8
Déterminer l’original de
Avec
2 2𝑠 4
𝑋1 (𝑠) = 𝑋2 (𝑠) = 𝑋3 (𝑠) =
𝑠2 + 4𝑠 + 3 𝑠2 + 4𝑠 + 3 𝑠2 + 4𝑠 + 3
Si
𝑥(𝑡) = 𝑥1 (𝑡) + 𝑥2 (𝑡 − 2) + 𝑥3 (𝑡 − 4)
Exercice 9
Réponse :
Ainsi,
2𝑠 2 + 13𝑠 + 12 2𝑠 2 + 13𝑠 + 12
𝑌1 (𝑠) = =
(𝑠 + 1)(𝑠 2 + 5𝑠 + 6) (𝑠 + 1)(𝑠 + 2)(𝑠 + 3)
Réponse :
1 𝑡
𝑅𝑖(𝑡) + ∫ 𝑖(𝜏)𝑑𝜏 = 𝑣𝑠 (𝑡)
𝐶 −∞
⏟
𝑣𝑐 (𝑡)
Exercice 11
Réponse :
Exercice 12
Réponse :
𝑎. 8𝑗 𝑐. 8𝑡 7 𝑒 −5𝑡 𝑢(𝑡)
𝑏. 5𝑒 −5𝑡 𝑢(𝑡) 𝑑. 15𝛿(𝑡 − 4)
Réponse :
Exercice 14
Réponse :
Et on a 9𝛿(𝑡 − 3) ⟺ 9𝑒 −3𝑠
5
c. 3 𝑠2 +52
𝑠
d. 5 𝑠2 +32
Exercice 15
Déterminer la transformée de Laplace des signaux suivants :
c.
8(𝑠 + 3) 8(𝑠 + 3)
2 2
=
(𝑠 + 3) + 4 (𝑠 + 3)2 + 16
d.
𝜋 √2 𝜋 √2 −(𝜋/4)𝑠
cos(𝑡)|𝑡=𝜋 𝛿 (𝑡 − ) = 𝛿 (𝑡 − ) ⟺ 𝑒
4 4 2 4 2
B. Exercices supplémentaires
Exercice 16
Déterminer la transformée de Laplace des signaux suivants :
Exercice 17
Déterminer la transformée de Laplace des signaux suivants :
𝑑 𝑑 2 𝑑 2 −2𝑡
𝑎. (𝑠𝑖𝑛3𝑡) 𝑏. (𝑡 cos(2𝑡)) (𝑡 𝑒 )
𝑑𝑡 𝑑𝑡 𝑑𝑡
𝑡
sin(𝑡) sin(𝜃) sin(𝑎𝑡)
𝑑. 𝑒. ∫ 𝑑𝜃 𝑓.
𝑡 0 𝜃 𝑡
Exercice 18
Déterminer la transformée de Laplace 𝑋(𝑠) avec sa RDC et
représenter la position des pôles et zéros des signaux suivants :
Exercice 19
Exercice 20
Déterminer la transformée inverse de Laplace des fonctions
images suivantes
3𝑠 + 4 𝑠 2 + 3𝑠 + 2 𝑠+1
𝑎. 𝑐. 𝑒. 3
𝑠 2 + 4𝑠 + 85 3 2
𝑠 + 5𝑠 + 10.5𝑠 + 9 𝑠 + 6𝑠 2 + 11𝑠 + 6
2
4𝑠 + 5 𝑠 − 16
𝑏. 2 𝑑. 3
𝑠 + 5𝑠 + 18.5 𝑠 + 8𝑠 2 + 24𝑠 + 32
Exercice 21
Déterminer la transformée inverse de Laplace des fonctions
images suivantes
3𝑠 + 2 2𝑠 + 3 3
𝑎. 𝑐. 𝑒. 𝑒 −2𝑠
𝑠 2 + 25 𝑠2 + 4.25𝑠 + 1 (2𝑠 + 3)3
5𝑠 2 + 3 𝑠 3 + 8𝑠 2 + 24𝑠 + 32
𝑏. 𝑑.
(𝑠 2 + 4)2 𝑠 2 + 6𝑠 + 8
Exercice 22
Utiliser le théorème de la valeur initiale du signal dont la
transformée de Laplace est
2𝑠 + 3
𝑠2 + 4.25𝑠 + 1
Exercice 23
Soit une fonction image 𝐹(𝑠) possédant 𝑠 = 0 et l’autre a deux
pôles distincts, un a 𝑠 = −1.
Exercice 24
Résoudre les équations différentielles suivantes à l’aide de la
Transformée de Laplace :
Exercice 25
Déterminer les solutions causales du système différentiel suivant :
𝑑𝑥
= 2𝑥(𝑡) + 𝑦(𝑡) + 𝑒 𝑡 𝑢(𝑡)
𝑑𝑡
𝑑𝑦
= 3𝑥(𝑡) + 4𝑦(𝑡) − 𝑒 𝑡 𝑢(𝑡)
𝑑𝑡
{ 𝑥(0+ ) = 0 𝑦(0+ ) = 4
Chapitre 4
ANALYSE SPECTRALE
DES SIGNAUX PERIODIQUES
I. DEFINITIONS DE BASE
1. Signal périodique
Un signal périodique est un signal qui se répète identiquement
à lui-même au bout d’un certain temps appelé période.
Mathématiquement on montre qu’un signal x est périodique de
période T s’il vérifie la relation :
𝒙(𝒕) = 𝒙(𝒕 + 𝑻)
2. Spectre
On appelle spectre d’un signal, toute représentation de ce
signal en fonction de la fréquence. Ainsi, si nous représentons
l’amplitude du signal en fonction de la fréquence on obtient un
spectre d’amplitude; si c’est la phase on parle de spectre de phase
…
3. Analyse Spectrale
L’analyse spectrale ou analyse harmonique constitue un
ensemble de méthodes et de techniques qui permettent de mettre
en évidence les caractéristiques essentielles d’un signal dans le
domaine fréquentiel. Il s’agit essentiellement d’outils
mathématiques tels que les séries et transformées de Fourier qui
nous aideront à déterminer des caractéristiques importantes
comme la distribution de l’amplitude, de la phase, de l’énergie
…etc. d’un signal en fonction de la fréquence.
1. Introduction
L'analyse harmonique ou fréquentielle est l'instrument majeur
de la théorie des signaux. Le développement en séries de Fourier
et, plus généralement, la transformation de Fourier permettent
d'obtenir une représentation spectrale des signaux déterministes.
Celle-ci exprime la répartition de l'amplitude, de la phase, de
l'énergie ou de la puissance des signaux considérées en fonction
de la fréquence.
𝒙(𝒕) = 𝑨𝒄𝒐𝒔(𝟐𝝅𝒇𝟎 𝒕 + 𝜶)
b. Existence
Un signal est développable en série de Fourier ssi il satisfait les
conditions de Dirichlet.
Théorème de Dirichlet :
On dit qu’un signal T-périodique 𝑥(𝑡) satisfait les conditions de
Dirichlet si :
Remarque :
[𝑎; 𝑎 + 𝑇] désigne un intervalle ferme de longueur T.
Si 𝑇 = 2𝜋, on peut choisir pour [𝑎; 𝑎 + 𝑇], les
intervalles :[0; 2𝜋] 𝑜𝑢 [−𝜋; 𝜋] 𝑜𝑢 [−2𝜋; 0] …
𝟏
Ou 𝒇𝟎 = est la fréquence fondamentale du signal, 𝒂𝟎 est la
𝑻
valeur moyenne ou composante continue (DC) du signal et
𝒂𝒌 , 𝒃𝒌 sont les coefficients de Fourier du développement en
cosinus et sinus.
∫ sin(𝑚𝑡) 𝑑𝑡 = 0
0
2𝜋
∫ cos(𝑚𝑡) 𝑑𝑡 = 0
0
2𝜋
∫ sin(𝑚𝑡) cos(𝑛𝑡)𝑑𝑡 = 0
0
Fig.1.4
1
sin(𝑥) . sin(𝑦) = [𝑐𝑜𝑠(𝑥 + 𝑦) − 𝑐𝑜𝑠(𝑥 − 𝑦)]
2
Le résultat de cette intégrale peut être confirmé
graphiquement sur la figure 1.5 suivante, ou m=2 et n=3.
Fig 1.5
De même, si m et n sont des entiers, alors
2𝜋
∫0 cos(𝑚𝑡) cos(𝑛𝑡)𝑑𝑡 = 0 car
1
cos(𝑥) . cos(𝑦) = [𝑐𝑜𝑠(𝑥 + 𝑦) + cos(𝑥 − 𝑦)]
2
Le résultat de cette intégrale peut être confirmé graphiquement sur
la figure 1.6 suivante, ou m=2 et n=3.
Fig.1.6
∫ 𝑥(𝑡)𝑑𝑡 = 2𝜋. 𝑎0
0
2𝜋
1
𝑎0 = ∫ 𝑥(𝑡)𝑑𝑡
2𝜋
0
𝜋. 𝑎𝑛 = ∫ 𝑥(𝑡) cos(𝑛2𝜋𝑡) 𝑑𝑡
0
2𝜋 2𝜋
1 2
𝑎𝑛 = ∫ 𝑥(𝑡) cos(𝑛2𝜋𝑡) 𝑑𝑡 = ∫ 𝑥(𝑡) cos(𝑛2𝜋𝑡) 𝑑𝑡
𝜋 2𝜋
0 0
𝟐𝝅
𝟐
𝒂𝒏 = ∫ 𝒙(𝒕) 𝐜𝐨𝐬(𝒏𝟐𝝅𝒕) 𝒅𝒕
𝑻
𝟎
𝟐𝝅
𝟐
𝒃𝒏 = ∫ 𝒙(𝒕) 𝐬𝐢𝐧(𝒏𝟐𝝅𝒕) 𝒅𝒕
𝑻
𝟎
d. Symétrie dans la Série de Fourier trigonométrique
𝒙(𝒕) = 𝑨𝟎 + ∑ 𝑨𝒌 𝐜𝐨𝐬(𝒏𝝎𝒕 + 𝝋𝒏 )
𝒏=𝟏
−𝒃
Avec𝑨𝟎 = 𝒂𝟎 et 𝑨𝒏 = √𝒂𝟐𝒏 + 𝒃𝟐𝒏 𝝋𝒏 = 𝒂𝒓𝒄𝒕𝒂𝒏 ( 𝒂 𝒏 )
𝒏
+∞
𝑎+𝑇 𝑎+𝑇
1 1 2 2
𝑐𝑛 = (𝑎𝑛 − 𝑗𝑏𝑛 ) = [ ∫ 𝑥(𝑡)cos(𝑛𝜔𝑡)𝑑𝑡 − 𝑗 ∫ 𝑥(𝑡)sin(𝑛𝜔𝑡)𝑑𝑡]
2 2 𝑇 𝑇
𝑎 𝑎
𝑎+𝑇
1
= ∫ 𝑥(𝑡)𝑒 −𝑗𝑛𝜔𝑡 𝑑𝑡
𝑇
𝑎
pour chacun des calculs analogues concernant un signal T-
périodique quelconque on obtient :
𝑎+𝑇
1
𝑐𝑛 = ∫ 𝑥(𝑡)𝑒 −𝑗𝑛𝜔𝑡 𝑑𝑡
𝑇
𝑎
+∞
𝑥(𝑡) = ∑ 𝑐𝑛 𝑒 𝑗𝑛𝜔𝑡
𝑛=−∞
+∞
𝟏
𝑷= 𝑿𝟐𝒆𝒇𝒇 = ∑ 𝑷𝒌 = 𝑨𝟐𝟎 + ∑ 𝑨𝟐𝒌 = 𝑷𝒅𝒄 + 𝑷𝒂𝒄
𝟐
𝒌=𝟏
+∞ +∞
𝟏
= 𝑿(𝟎) + ∑ 𝟐|𝑿(𝒋𝒌)|𝟐 = ∑ |𝑿(𝒋𝒌)|𝟐
𝟐
𝟐
𝒌=𝟏 𝒌=−∞
De ces résultats, on conclut que la puissance peut se calculer
avec l'une ou l'autre de ces équations et que le carrée de la valeur
efficace d'un signal est égal à la somme des carrées des valeurs
efficaces de chacune de ses composantes.
𝑨𝟐
𝒙(𝒕) = 𝑨𝒔𝒒𝒓(𝟐𝝅𝒇𝒕) → 𝑷𝒂𝒄 =
𝟏
𝑨𝟐
𝒙(𝒕) = 𝑨𝒔𝒊𝒏(𝟐𝝅𝒇𝒕) → 𝑷𝒂𝒄 =
𝟐
𝑨𝟐
𝒙(𝒕) = 𝑨𝒕𝒓𝒊(𝟐𝝅𝒇𝒕) → 𝑷𝒂𝒄 =
𝟑
6. Exemples de calcul de séries de Fourier de
formes d’ondes usuelles
1 2𝜋 1 𝜋 2𝜋
𝑎𝑛 = ∫ 𝑓(𝑡)𝑑𝑡 = [∫ 𝐴𝑐𝑜𝑠(𝑛𝑡)𝑑𝑡 + ∫ (−𝐴) cos(𝑛𝑡) 𝑑𝑡]
𝜋 0 𝜋 0 𝜋
𝐴
= (sin(𝑛𝑡)|𝜋0 − sin(𝑛𝑡)|2𝜋
𝜋 )
𝑛𝜋
𝐴
= (sin(𝑛𝜋) − 0 − sin(2𝑛𝜋) + sin(𝑛𝜋)) = 0
𝑛𝜋
Tous les coefficients 𝑎𝑛 sont tous nuls comme prévu avec le fait
que la fonction est impaire. Pour le terme 𝑎0 , on va utiliser son
expression
𝜋 2𝜋
1 1
𝑎0 = [∫ 𝐴𝑑𝑡 + ∫ (−𝐴)𝑑𝑡] = (𝜋 − 0 − 2𝜋 + 𝜋) = 0
2𝜋 2𝜋
0 𝜋
1 2𝜋 1 𝜋 2𝜋
𝑏𝑛 = ∫ 𝑓(𝑡)𝑑𝑡 = [∫ 𝐴𝑠𝑖𝑛(𝑛𝑡)𝑑𝑡 + ∫ (−𝐴) sin(nt) 𝑑𝑡]
𝜋 0 𝜋 0 𝜋
𝐴 𝜋
= (− cos(𝑛𝑡)|0 + cos(𝑛𝑡)|2𝜋
𝜋 )
𝑛𝜋
𝐴
= (−cos(𝑛𝜋) + 1 + cos(2𝑛𝜋) − cos(𝑛𝜋))
𝑛𝜋
𝐴 2𝐴
= (2 − 2 cos(𝑛𝜋)) = (1 − cos(𝑛𝜋))
𝑛𝜋 𝑛𝜋
Or en utilisant la formule de Moivre et Euler on sait que :
𝑛
𝑗𝜋 𝑛
(𝑒 ) = (cos(𝜋)
⏟ + 𝑗 𝑠𝑖𝑛(𝜋)
⏟ ) 𝑠𝑜𝑖𝑡 𝑒 𝑗𝑛𝜋 = cos(𝑛𝜋) = (−1)𝑛
=−1 =0
2𝐴
𝑏𝑛 = (1 − (−1)𝑛 )
𝑛𝜋
Pour les 𝑛 pair c-à-dire 𝑛 = 2𝑘
𝑏2𝑘 = 0
𝑎2𝑘 = 0
𝜋
Et en remplaçant 𝜔𝑡 par 𝜔𝑡 + . Avec cette substitution, on obtient
2
𝜋
𝑔(𝑡) = 𝑓(𝑡 + ) comme suit :
2
𝜋 4𝐴 𝜋 1 𝜋 1 𝜋
𝑔(𝑡) = 𝑓 (𝑡 + ) = (sin (𝜔𝑡 + ) + sin (3𝜔𝑡 + ) + sin (5𝜔𝑡 + )
2 𝜋 2 3 2 5 2
+ ⋯)
2𝐴 2𝐴
= 2 2
(sin(𝑛𝑡) − 𝑛𝑡 cos(𝑛𝑡))|𝜋0 = 2 2 (sin(𝑛𝜋) − 𝑛𝜋 cos(𝑛𝜋))
𝑛 𝜋 𝑛 𝜋
On sait que sin(𝑛𝜋) = 0 ∀𝑛 ∈ ℤ 𝑒𝑡 cos(𝑛𝜋) = (−1)𝑛
2𝐴
𝑏𝑛 = − (−1)𝑛
𝑛𝜋
On a donc la série de Fourier correspondante
+∞
2𝐴 (−1)𝑛
𝑓(𝑡) = − ∑ sin(𝑛𝑡)
𝜋 𝑛
𝑛=1
8𝐴 8𝐴 𝜋 𝜋 𝜋
= 2 2
(sin(𝑛𝑡) − 𝑛𝑡 cos(𝑛𝑡))|𝜋/2
0 = 2 2 (sin (𝑛 ) − 𝑛 cos (𝑛 ))
𝑛 𝜋 𝑛 𝜋 2 2 2
On s’intéresse ici simplement aux entiers impairs, ce qui donne
+∞ (2𝑘+1)−1
8𝐴 (−1) 2
𝑓(𝑡) = 2 ∑ sin[(2𝑘 + 1)𝑡]
𝜋 𝑛2
𝑘=0
IV. SPECTRES D’AMPLITUDES ET DE
PHASES
𝐴0 ⋁ 𝛼0 = 3 ⋁ 0
𝜋
𝐴1 ⋁ 𝛼1 = 4 ⋁
3
𝜋
𝐴3 ⋁ 𝛼3 = 2 ⋁ −
4
Appliquant les règles d'Euler à l'expression en cosinus, on obtient
la forme complexe :
𝝅 𝝅 𝝅 𝝅
𝒋(𝟐𝝅𝒇𝟎 𝒕+ ) −𝒋(𝟐𝝅𝒇𝟎 𝒕+ ) 𝒋(𝟐𝝅.𝟑.𝒇𝟎 𝒕− ) −𝒋(𝟐𝝅.𝟑.𝒇𝟎 𝒕− )
𝒙(𝒕) = 𝟑 + 𝟐𝒆 𝟑 + 𝟐𝒆 𝟑 + 𝟏𝒆 𝟒 + 𝟏𝒆 𝟒
𝝅 𝝅 𝝅 𝝅
= 𝟑 + 𝟐𝒆𝒋𝟑 𝒆𝒋(𝟐𝝅𝒇𝟎𝒕) + 𝟐𝒆−𝒋𝟑 𝒆−𝒋(𝟐𝝅𝒇𝟎 𝒕) + 𝟏𝒆−𝒋𝟒 𝒆𝒋(𝟐𝝅.𝟑.𝒇𝟎 𝒕) + 𝟏𝒆𝒋 𝟒 𝒆−𝒋(𝟐𝝅.𝟑.𝒇𝟎 𝒕)
= 𝑿(𝟎) + 𝑿(𝒋𝟏)𝒆𝒋(𝟐𝝅𝒇𝟎 𝒕) + 𝑿(−𝒋𝟏)𝒆−𝒋(𝟐𝝅𝒇𝟎𝒕) + 𝑿(𝒋𝟑)𝒆𝒋(𝟔𝝅𝒇𝟎𝒕) + 𝑿(−𝒋𝟑)𝒆−𝒋(𝟔𝝅𝒇𝟎 𝒕)
𝑋(0) = 3 = 3 ⋁ 0
𝝅 𝜋
𝑋(±𝑗1) = 2𝒆±𝒋 𝟑 = 2 ⋁ ±
3
𝝅 𝜋
𝑋(∓𝑗3) = 1𝒆∓𝒋 𝟒 = 1⋁∓
4
De la lecture de ces descriptions découle immédiatement le tracé
des spectres d'amplitudes et de phases dans les deux
représentations spectrales (figure 1.8). On notera que, pour 𝑘 ≠ 0,
les amplitudes du spectre bilatéral sont 2 fois plus petites que
celles du spectre unilatéral. Les puissances et valeurs efficaces
associées à ce signal se calculent aisément à partir du spectre
unilatéral. Afin de pouvoir préciser les unités, on admet que le
signal x(t) est une tension électrique ; on a alors :
2
1 1
𝑃𝑑𝑐 = 𝐴20 = 32 = 9 𝑉𝑑𝑐 𝑃𝑎𝑐 = ∑ 𝐴2𝑘 = (42 + 22 ) = 10 𝑉𝑎𝑐
2
2 2
𝑘≥1
2
𝑃 = 𝑃𝑑𝑐 + 𝑃𝑎𝑐 = 19 𝑉𝑒𝑓𝑓 𝑋𝑒𝑓𝑓 = √𝑃 = √19 = 4.36 𝑉𝑒𝑓𝑓
𝑋𝑑𝑐 = 𝐴0 = 3 𝑉𝑑𝑐 𝑋𝑎𝑐 = √𝑃𝑎𝑐 = √10 = 3.16 𝑉𝑎𝑐
V. QUELQUES THEOREMES UTILES
1. Décalage temporel
Il est fréquent en analyse des signaux de devoir décaler
temporellement un signal x(t) ; on obtient alors un nouveau
signal 𝑦(𝑡) = 𝑥(𝑡 + 𝑡𝑑). Ce décalage td peut être positif (signal
avance) ou négatif (signal retardé) (fig. 1.16). On montre alors
qu'entre les espaces temps et fréquences, il existe la relation
suivante :
Comme le module du phaseur 𝒆𝒋𝟐𝝅𝒌𝒇𝟎𝒕𝒅 vaut toujours un, il
s'ensuit que seul le spectre de phases est modifié par un décalage
temporel. On a donc :
2. Modulation d’amplitude
Il est fréquent en télécommunications de devoir émettre
des signaux dont le spectre a été préalablement déplacé dans un
domaine de fréquences permettant la transmission des messages
par ondes électromagnétiques. Une des possibilités consiste à
moduler l'amplitude de la porteuse p(t) à l'aide du message m(t).
𝟏 𝒋𝟐𝝅𝒇 𝒕
𝒄𝒐𝒔(𝟐𝝅𝒇𝒑 𝒕) = (𝒆 𝒑 + 𝒆−𝒋𝟐𝝅𝒇𝒑 𝒕 )
𝟐
On a donc a affaire, de manière plus fondamentale, à une
multiplication du message m(t) par un phaseur:
𝒙(𝒕) = 𝒎(𝒕). 𝒑(𝒕) = 𝒎(𝒕). 𝒆±𝒋𝟐𝝅𝒇𝒑 𝒕
VI. EXERCICES
A. Exercices résolus
Exercice 1
Réponse :
= ∑ 𝑐𝑘 𝑒 𝑗𝑘𝜔0 𝑡
𝑘=−∞
Ainsi, les coefficients de Fourier complexes de sin(𝜔0 𝑡)
sont
1 1
𝑐1 = 𝑐−1 = − 𝑐 = 0, |𝑘| ≠ 1
2𝑗 2𝑗 𝑘
(c) La fréquence angulaire fondamentale 𝜔0 de 𝑥(𝑡) est 2.
Ainsi,
∞ ∞
𝜋
𝑥(𝑡) = 𝑐𝑜𝑠 (2𝑡 + ) = ∑ 𝑐𝑘 𝑒 𝑗𝑘𝜔0 𝑡 = ∑ 𝑐𝑘 𝑒 𝑗2𝑘𝑡
4
𝑘=−∞ 𝑘=−∞
𝜋
Ainsi, les coefficients de Fourier complexe de 𝑐𝑜𝑠 (2𝑡 + 4 ) sont
1 𝜋 1 1 + 𝑗 √2
𝑐1 = 𝑒 𝑗 4 = = (1 + 𝑗)
2 2 √2 4
1 𝜋 1 1 − 𝑗 √2
𝑐−1 = 𝑒 −𝑗 4 = = (1 − 𝑗)
2 2 √2 4
𝑐𝑘 = 0 |𝑘| ≠ 1
2𝜋
(d) La période fondamentale 𝑇0 de 𝑥(𝑡) est 𝜋 et 𝜔0 = 𝑇0
=2
Ainsi,
+∞ +∞
𝑗𝑘𝜔0 𝑡
𝑥(𝑡) = cos(4𝑡) + sin(6𝑡) = ∑ 𝑐𝑘 𝑒 = ∑ 𝑐𝑘 𝑒 𝑗𝑘2𝑡
𝑘=−∞ 𝑘=−∞
Ainsi,
2
2 (𝑡)
𝑒 𝑗𝑡 − 𝑒 −𝑗𝑡 1
𝑥(𝑡) = 𝑠𝑖𝑛 =( ) = − (𝑒 𝑗2𝑡 − 2 + 𝑒 −𝑗2𝑡 )
2 4
+∞
1 1 1
= − 𝑒 −2𝑗𝑡 + − 𝑒 2𝑗𝑡 = ∑ 𝑐𝑘 𝑒 𝑗𝑘2𝑡
4 2 4
𝑘=−∞
Réponse :
a. Posons
+∞
2𝜋
𝑥(𝑡) = ∑ 𝑐𝑘 𝑒 𝑗𝑘𝜔0 𝑡 𝜔0 =
𝑇0
𝑘=−∞
1 𝑇0 1 𝑇0 /2
𝑐𝑘 = ∫ 𝑥(𝑡)𝑒 −𝑗𝑘𝜔0 𝑡 𝑑𝑡 = ∫ 𝐴𝑒 −𝑗𝑘𝜔0 𝑡 𝑑𝑡
𝑇0 0 𝑇0 0
𝑇0 /2
𝐴 𝐴
= 𝑒 −𝑗𝑘𝜔0 𝑡 ] = (𝑒 −𝑗𝑘𝜔0 𝑇0 /2 − 1)
−𝑗𝑘𝜔0 𝑇0 0
−𝑗𝑘𝜔 𝑇
0 0
𝐴 𝐴
= (1 − 𝑒 −𝑗𝑘𝜋 ) = [1 − (−1)𝑘 ]
𝑗𝑘2𝜋 𝑗𝑘2𝜋
𝑘
𝑎𝑣𝑒𝑐 𝜔0 𝑇0 = 2𝜋 𝑒𝑡 𝑒 −𝑗𝑘𝜋 = (𝑒 −𝑗𝜋 ) . Ainsi,
𝑐𝑘 = 0 𝑘 = 2𝑚 ≠ 0
𝐴
𝑐𝑘 = 𝑘 = 2𝑚 + 1
𝑗𝑘𝜋
1 𝑇0 1 𝑇0 /2 𝐴
𝑐0 = ∫ 𝑥(𝑡)𝑑𝑡 = ∫ 𝐴 𝑑𝑡 =
𝑇0 0 𝑇0 0 2
Ensuite,
𝐴 𝐴
𝑐0 = 𝑐2𝑚 = 0 𝑐2𝑚+1 =
2 𝑗(2𝑚 + 1)𝜋
Et on obtient
∞
𝐴 𝐴 1
𝑥(𝑡) = + ∑ 𝑒 𝑗(2𝑚+1)𝜔0 𝑡
2 𝑗𝜋 2𝑚 + 1
𝑚=−∞
a. Soit
∞
2𝜋
𝑥(𝑡) = ∑ 𝑐𝑘 𝑒 𝑗𝑘𝜔0 𝑡 𝜔0 =
𝑇0
𝑘=−∞
1 𝑇0 /2 1 𝑇0 /4 −𝑗𝑘𝜔 𝑡
𝑐𝑘 = ∫ 𝑥(𝑡)𝑒 −𝑗𝑘𝜔0 𝑡 𝑑𝑡 = ∫ 𝐴𝑒 0 𝑑𝑡
𝑇0 −𝑇0 /2 𝑇0 −𝑇0 /4
𝑇0 /4
𝐴 −𝑗𝑘𝜔0 𝑡
𝐴
= 𝑒 ] = (𝑒 −𝑗𝑘𝜔0 𝑇0 /4 − 𝑒 𝑗𝑘𝜔0 𝑇0 /4 )
−𝑗𝑘𝜔0 𝑇0 −𝑇 /4
−𝑗𝑘𝜔 0 𝑇0
0
𝐴 𝐴 𝑘𝜋
= (𝑒 −𝑗𝑘𝜋/2 − 𝑒 𝑗𝑘𝜋/2 ) = sin ( )
−𝑗𝑘2𝜋 𝑘𝜋 2
Ainsi,
𝑐𝑘 = 0 𝑘 = 2𝑚 ≠ 0
𝐴
𝑐𝑘 = (−1)𝑚 𝑘 = 2𝑚 + 1
𝑘𝜋
1 𝑇0 1 𝑇0 /2 𝐴
𝑐0 = ∫ 𝑥(𝑡)𝑑𝑡 = ∫ 𝐴 𝑑𝑡 =
𝑇0 0 𝑇0 0 2
Ensuite,
𝐴 𝐴
𝑐0 = 𝑐2𝑚 = 0 𝑐2𝑚+1 = (−1)𝑚
2 (2𝑚 + 1)𝜋
Et on obtient
∞
𝐴 𝐴 (−1)𝑚 𝑗(2𝑚+1)𝜔 𝑡
𝑥(𝑡) = + ∑ 𝑒 0
2 𝜋 2𝑚 + 1
𝑚=−∞
Exercice 4
Réponse :
𝑥(𝑡) = 𝑥1 (𝑡) − 𝐴
Ainsi,
∞
4𝐴 1
𝑥(𝑡) = ∑ sin[(2𝑚 + 1)𝜔0 𝑡]
𝜋 2𝑚 + 1
𝑚=0
4𝐴 1 1
= (sin(𝜔0 𝑡) + sin(3𝜔0 𝑡) + sin(5𝜔0 𝑡) + ⋯ )
𝜋 3 5
Notons que 𝑥(𝑡) est impair ; alors, 𝑥(𝑡) ne contient que des termes
en sinus.
Exercice 5
Réponse :
a. Soit
∞
2𝜋
𝜓 𝑇0 (𝑡) = ∑ 𝑐𝑘 𝑒 𝑗𝑘𝜔0 𝑡 𝜔0 =
𝑇0
𝑘=−∞
Ensuite, on a
∞ ∞
1 2𝜋
𝜓 𝑇0 (𝑡) = ∑ 𝛿(𝑡 − 𝑘𝑇0 ) = ∑ 𝑒 𝑗𝑘𝜔0 𝑡 𝜔0 =
𝑇0 𝑇0
𝑘=−∞ 𝑘=−∞
b. Considérons la SF de 𝜓 𝑇0 (𝑡)
+∞
𝑎0 2𝜋
𝜓 𝑇0 (𝑡) = + ∑(𝑎𝑘 cos(𝑘𝜔0 𝑡) + 𝑏𝑘 sin(𝑘𝜔0 𝑡) 𝜔0 =
2 𝑇0
𝑘=1
2 𝑇0 /2 2
𝑎𝑘 = ∫ 𝛿(𝑡) cos(𝑘𝜔0 𝑡) 𝑑𝑡 =
𝑇0 −𝑇0 /2 𝑇0
Ainsi, on a
+∞
1 2 2𝜋
𝜓 𝑇0 (𝑡) = + ∑(cos(𝑘𝜔0 𝑡)) 𝜔0 =
𝑇0 𝑇0 𝑇0
𝑘=1
Exercice 6
a. Soit
∞
2𝜋
𝑥(𝑡) = ∑ 𝑐𝑘 𝑒 𝑗𝑘𝜔0 𝑡 𝜔0 =
𝑇0
𝑘=−∞
En dérivant cette relation, on obtient
∞
1 𝑇0 𝐴
𝑐0 = ∫ 𝑥(𝑡)𝑑𝑡 =
𝑇0 0 2
En resolvant
∞ ∞
′ (𝑡) 𝑗𝑘𝜔0 𝑡
4𝐴 1
𝑥 = ∑ 𝑗𝑘𝜔0 𝑐𝑘 𝑒 = ∑ 𝑒 𝑗(2𝑚+1)𝜔0 𝑡
𝑗𝜋𝑇0 2𝑚 + 1
𝑘=−∞ 𝑚=−∞
on a
𝑐𝑘 = 0 𝑘 = 2𝑚 ≠ 0
4𝐴 2𝐴
𝑗𝑘𝜔0 𝑐𝑘 = 𝑜𝑢 𝑐𝑘 = − 2 2 𝑘 = 2𝑚 + 1
𝑗𝜋𝑘𝑇0 𝜋 𝑘
Réponse :
∞
′ (𝑡)
2𝐴 2𝜋
𝑥 = ∑ cos(𝑘𝜔0 𝑡) 𝜔0 =
𝑇0 𝑇0
𝑘=−∞
𝑎0 1 𝑇0 𝐴
= ∫ 𝑥(𝑡)𝑑𝑡 =
2 𝑇0 0 2
Exercice 8
Réponse :
𝐴
= 𝑒 −𝑗𝑘𝜔0 𝑑/2 (𝑒 𝑗𝑘𝜔0 𝑑/2 − 𝑒 −𝑗𝑘𝜔0 𝑑/2 )
𝑗𝑘𝜔0 𝑇0
𝑘𝜔0 𝑑
𝑑 sin( 2 ) −𝑗𝑘𝜔 𝑑/2
=𝐴 𝑒 0
𝑇0 𝑘𝜔0 𝑑/2
𝑘𝜔0 𝑑
Notons que 𝑐𝑘 = 0 whenever 2
= 𝑚𝜋 ; c'est-à-dire
𝑚2𝜋
𝑛𝜔0 = 𝑚 = 0, ±1, ±2, …
𝑑
𝑇0 𝑘𝜔0 𝑑 𝑘𝜋𝑑
(a) 𝑑 = 4
, 2 = 𝑇0
= 𝑘𝜋/4,
𝑘𝜋
𝐴 sin( 4 )
|𝑐𝑘 | = | |
4 𝑘𝜋/4
Exercice 9
Réponse :
On sait que
1 𝑇0 /2 1 𝑇0 /2
𝑐𝑘 = ∫ 𝑥(𝑡)𝑒 −𝑗𝑘𝜔0 𝑡 𝑑𝑡 = ∫ 𝑥 (𝑡)𝑥2 (𝑡)𝑒 −𝑗𝑘𝜔0 𝑡 𝑑𝑡
𝑇0 −𝑇0 /2 𝑇0 −𝑇0 /2 1
∞
1 𝑇0 /2
= ∫ ( ∑ 𝑑𝑘 𝑒 𝑗𝑚𝜔0 𝑡 ) 𝑥2 (𝑡)𝑒 −𝑗𝑘𝜔0 𝑡 𝑑𝑡
𝑇0 −𝑇0 /2
𝑚=−∞
∞ 𝑇0 /2 ∞
1
= ∑ 𝑑𝑚 [ ∫ 𝑥(𝑡)𝑒 −𝑗(𝑘−𝑚)𝜔0 𝑡 𝑑𝑡] = ∑ 𝑑𝑚 𝑒𝑘−𝑚
𝑇
⏟ 0 −𝑇0 /2
𝑚=−∞ 𝑚=−∞
𝑒𝑘−𝑚
1 𝑇 /2
Avec 𝑒𝑘 = 𝑇 ∫−𝑇0 /2 𝑥2 (𝑡)𝑒 −𝑗𝑘𝜔0 𝑡 𝑑𝑡
0 0
Exercice 10
Réponse :
Si
∞
𝑥(𝑡) = ∑ 𝑐𝑘 𝑒 𝑗𝑘𝜔0 𝑡
𝑘=−∞
Alors
∞ ∗ ∞ ∞
𝑥 ∗ (𝑡)
= ( ∑ 𝑐𝑘 𝑒 𝑗𝑘𝜔0 𝑡
) = ∑ 𝑐𝑘∗ 𝑒 −𝑗𝑘𝜔0 𝑡 ∗
= ∑ 𝑐−𝑘 𝑒 𝑗𝑘𝜔0 𝑡
𝑘=−∞ 𝑘=−∞ 𝑘=−∞
B. Exercices supplémentaires
Exercice 11
Exercice 12
Exercice 13
𝜋
𝑥(𝑡) = (1 + 𝑐𝑜𝑠 (2𝜋𝑓0 𝑡 + )) . 𝑐𝑜𝑠(10𝜋𝑓0 𝑡)
6
Exercice 15
Exercice 16
Problèmes
Problème 1
Problème 3
Soit la fonction f périodique de période 2π, définie sur [0; 2π] par :
𝑓(0) = 0
{ 𝑓(𝑥) = 2(𝑥 − 𝜋) ; 𝑥 ∈ ]0; 𝜋]
𝑓(𝑥) = 2(𝑥 + 𝜋) ; 𝑥 ∈ ]𝜋; 2𝜋]
1. Représenter graphiquement f sur l'intervalle [−3𝜋; 3𝜋].
2. Le signal f vérifie-t-il les conditions de Dirichlet? Justifier votre
réponse.
3. Montrer que f est impair.
4. Déterminer la série de Fourier associée à f.
5. Etudier la convergence de la série numérique de terme général :
(−1)𝑝
𝑈𝑝 =
2𝑝 + 1
(−1)𝑝
6. Calculer ∑+∞
𝑝=0 et en utilisant la formule de Perceval
2𝑝+1
1
calculer : ∑+∞
𝑛=1 𝑛2
Problème 4
On considère la fonction numérique f définie sur ℝ, paire,
𝜋 𝜋
périodique de période 𝜋, telle que 𝑓(𝑡) = 2 𝑡 si 𝑡 ∈ [0; 2 ]
1. Tracer la représentation de f sur l’intervalle [−𝜋; 𝜋]
2. Déterminer les coefficients de Fourier réels associés à la
fonction f. On précisera la valeur de 𝑎𝑛 suivant la parité de l’entier
non nul n
3.
Montrer que la fonction vérifie les conditions de Dirichlet
𝜋2 1
Soit la série de Fourier : 𝑠(𝑡) = 8
− ∑+∞
𝑝=0 (2𝑝+1) cos(2(2𝑝 +
1)𝑡)
Donner en la justifiant la valeur de 𝑠(𝑡) sur les intervalles
𝜋 𝜋
[0; 2 ] 𝑒𝑡 [ 2 ; 𝜋]
3. Soit les séries numériques convergentes de terme général :
1 1
.𝑈𝑝 = (2𝑝+1)2 𝑒𝑡 𝑉𝑝 = (2𝑝+1)4
En utilisant le développement en série de Fourier,
déterminer la somme :
+∞
1
𝑆𝑢 = ∑
(2𝑝 + 1)2
𝑝=0
1 𝑎+𝑇 2
On rappelle la formule de Perceval : ∫
𝑇 𝑎
𝑓 (𝑡)𝑑𝑡 = 𝑎02 +
1 +∞
∑ (𝑎2 + 𝑏𝑛2 )
2 𝑛=0 𝑛
En utilisant cette formule, calculer la somme : 𝑆𝑣 =
1
∑+∞
𝑝=0 (2𝑝+1)4
Problème 5
On considère le signal défini par la fonction périodique f de
période𝑝 = 2𝜋, définie par
𝑒 𝑡 +𝑒 −𝑡
∀𝑡 ∈ [−𝜋; 𝜋] 𝑓(𝑡) = 𝑐ℎ(𝑡) = ,
2
1. Le plan étant muni d’un repère orthonormé (O, I, J) où l’unité
graphique est 2cm, représenter graphiquement f sur l’intervalle
[−2𝜋; 2𝜋]
𝜋
2. Soit 𝐼𝑛 = ∫0 2𝑐ℎ(𝑡)cos(𝑛𝑡)𝑑𝑡
A l’aide d’une double intégration par parties, montrer que :
(−1)𝑛 𝜋
𝐼𝑛 = 2 (𝑒 − 𝑒 −𝜋 )
𝑛 +1
3. La fonction f vérifie-t-elle les conditions de Dirichlet ? Justifier la
réponse
4.
Calculer les coefficients de Fourier associés à f.
Ecrire la somme de la série de Fourier associée à f
5. On considère la série de terme général :
(−1)𝑛
𝑈𝑛 = 2 𝑎𝑣𝑒𝑐 𝑛 ∈ ℕ
𝑛 +1
Etudier la nature de cette série
(−1)𝑛
Calculer ∑+∞
𝑛=0 𝑛2 +1
Chapitre 5
ANALYSE SPECTRALE
DES SIGNAUX NON PERIODIQUES
I. DEFINITION DE LA TRANSFORMATION DE
FOURIER
1. Passage de la série a la transformation
de Fourier
Le passage d’un signal périodique à un signal apériodique
peut se faire en considérant que la période T devient de plus en
plus grande pour finalement tendre vers l’infini. On constate alors
1
que les raies spectrales, distantes de 𝑓0 = , se rapprochent pour
𝑇
peu à peu se transformer en spectre continu. Mais en même
temps, l’amplitude de celui-ci diminue pour tendre zéro.
Il est important de noter que les unités de 𝑋 (𝑗𝑓) ne sont pas les
mêmes que celles du signal original 𝑥(𝑡). Dans le cas où 𝑥(𝑡) est
une tension électrique, sa transformée 𝑋 (𝑗 · 𝑓 ) s’exprime en
V/Hz
2. Définition
Les deux relations que nous venons de démontrer
constituent les transformations de Fourier directe et inverse. On
constate que les descriptions temporelle et spectrale sont
parfaitement symétriques
+∞
𝑋𝑖 (𝑓)
arg(𝑋(𝑓)) = 𝛼(𝑓) = 𝑎𝑟𝑐𝑡𝑎𝑛 ( )
𝑋𝑟 (𝑓)
1. Linéarité
La propriété de linéarité dit que si 𝑓1 (𝑡), 𝑓2 (𝑡), … , 𝑓𝑛 (𝑡) ont
respectivement pour transformée de Fourier
4. Translation fréquentielle
La propriété de décalage fréquentielle dit qu’un
amortissement exponentiel dans le domaine temporel correspond
à une translation dans le domaine fréquentiel.
On obtient
1
𝑥(𝑡) cos(𝜔0 𝑡) ⟺ (𝑿(𝑗𝜔 − 𝒋𝝎𝟎 ) + 𝑿(𝑗𝜔 + 𝒋𝝎𝟎 ))
2
1
𝑥(𝑡) sin(𝜔0 𝑡) ⟺ (𝑿(𝑗𝜔 − 𝒋𝝎𝟎 ) − 𝑿(𝑗𝜔 + 𝒋𝝎𝟎 ))
2𝑗
5. Dérivation temporelle
Cette propriété indique qu’une dérivation temporelle
correspond à une multiplication par 𝑗𝜔 moins la valeur à l’origine
de x(t).
𝒅𝒏
𝒙(𝒕) ⟺ (𝒋𝝎)𝒏 𝑿(𝝎)
𝒅𝒕𝟐
Démonstration :
+∞ +∞
𝑑𝑛 𝑑𝑛 1 𝑗𝜔𝑡
1 𝑑𝑛 𝑗𝜔𝑡
𝑥(𝑡) = 𝑛 ( ∫ 𝑋(𝜔)𝑒 𝑑𝜔) = ∫ 𝑋(𝜔) 𝑛 𝑒 𝑑𝜔
𝑑𝑡 𝑛 𝑑𝑡 2𝜋 2𝜋 𝑑𝑡
−∞ −∞
+∞ +∞
1 1
= ∫ 𝑋(𝜔)(𝑗𝜔)𝑛 𝑒 𝑗𝜔𝑡 𝑑𝜔 = (𝑗𝜔)𝑛 ( ∫ 𝑋(𝜔)𝑒 𝑗𝜔𝑡 𝑑𝜔)
2𝜋 2𝜋
−∞ −∞
6. Dérivation fréquentielle
Cette propriété dit que la dérivation dans le domaine
fréquentiel complexe correspond à la multiplication par la variable
temporelle 𝑡 dans le domaine temporel.
𝒅𝒏
(−𝒋𝒕)𝒏 𝒙(𝒕) ⟺ 𝑿(𝝎)
𝒅𝝎𝒏
Démonstration :
En utilisant la transformée de Fourier, on obtient
+∞ +∞
𝑑𝑛 𝑑𝑛 −𝑗𝜔𝑡
𝑑 𝑛 −𝑗𝜔𝑡
𝑋(𝜔) = ( ∫ 𝑥(𝑡)𝑒 𝑑𝑡 ) = ∫ 𝑥(𝑡) 𝑒 𝑑𝑡
𝑑𝑡 𝑛 𝑑𝑡 𝑛 𝑑𝑡 𝑛
−∞ −∞
+∞ +∞
7. Intégration temporelle
Cette propriété établit que l’intégration dans le domaine
temporel correspond dans le domaine fréquentiel à une division de
la transformée 𝑋(𝑗𝜔) par la variable complexe 𝑗𝜔.
𝒕
𝑿(𝒋𝝎)
∫ 𝒙(𝜽)𝒅𝜽 ⟺ + 𝝅𝑿(𝟎)𝜹(𝝎)
𝒋𝝎
−∞
𝑿(𝟎) = ∫ 𝒙(𝒕)𝒅𝒕
−∞
Démonstration :
Démonstration :
Démonstration :
∞ ∞ ∞
𝒙∗ (𝒕) ⟺ 𝑿∗ (−𝒋𝝎)
Démonstration :
Soit 𝑥(𝑡) = 𝑥𝑟 (𝑡) + 𝑗𝑥𝑖 (𝑡) 𝑒𝑡 𝑥 ∗ (𝑡) = 𝑥𝑟 (𝑡) − 𝑗𝑥𝑖 (𝑡) sont signal
conjugué
+∞ +∞
−𝑗𝜔𝑡
𝑋(𝑗𝜔) = ∫ 𝑥(𝑡)𝑒 𝑑𝑡 = ∫ [𝑥𝑟 (𝑡) + 𝑗𝑥𝑖 (𝑡)]𝑒 −𝑗𝜔𝑡 𝑑𝑡
−∞ −∞
+∞ +∞
Démonstration :
Et comme
𝑥(𝑡)𝑥 ∗ (𝑡) = |𝑥(𝑡)|2 𝑒𝑡 𝑋(𝑗𝜔)𝑋 ∗ (𝑗𝜔) = |𝑋(𝑗𝜔)|2
−∞ −∞
= 𝑿(𝒋𝝎)𝒀∗ (𝒋𝝎)
Ce type d’operation est tres utilise dans les systemes de
RaDAR (Radio Detection And Ranging) et SONAR (SOund
NAvigation and Ranging). En effet, l’intercorrélation permet alors
de comparer une onde émise à son écho reçu après réflexion sur
un objet, que l’on peut considérer comme une version atténuée et
retardée du signal.
III. TRANSFORMEE DE FOURIER DES
SIGNAUX USUELS
1. Transformée de Fourier d’une impulsion de
Dirac
𝜹(𝒕) ⟺ 𝟏
Démonstration :
On sait que
+∞
∫ 𝑥(𝑡)𝛿(𝑡)𝑑𝑡 = 𝑥(0)
−∞
Avec la définition de la transformée de Fourier
+∞
𝜹(𝒕) ⟺ 𝒆−𝒋𝝎𝒂
𝑨 ⟺ 𝟐𝑨𝝅𝜹(𝒋𝝎)
Démonstration :
+∞ +∞
−1 {2𝐴𝜋𝛿(𝑗𝜔)}
1
𝐹 = ∫ 2𝐴𝜋𝛿(𝑗𝜔)𝑒 𝑗𝜔𝑡 𝑑𝜔 = 𝐴 ∫ 𝛿(𝑗𝜔)𝑒 𝑗𝜔𝑡 𝑑𝜔
2𝜋
−∞ −∞
= 𝐴𝑒 𝑗𝜔𝑡 |𝜔=0 = 𝐴
Démonstration :
Alors,
0 +∞
(𝑎−𝑗𝜔)𝑡
= lim [ ∫ −𝑒 𝑑𝑡 + ∫ 𝑒 −(𝑎+𝑗𝜔)𝑡 𝑑𝑡]
𝑎→0
−∞ 0
−1 1 −1 1 2
= lim [ + ]= + =
𝑎→0 𝑎 − 𝑗𝜔 𝑎 + 𝑗𝜔 −𝑗𝜔 𝑗𝜔 𝑗𝜔
𝑠𝑔𝑛(𝑡) = 2𝑢(𝑡) − 1
1 1 1
On réécrit cela 𝑢(𝑡) = 2 [1 + 𝑠𝑔𝑛(𝑡)] = 2 + 2 𝑠𝑔𝑛(𝑡) et comme on
sait que
2
1 ⟺ 2𝜋𝛿(𝑗𝜔) 𝑒𝑡 𝑠𝑔𝑛(𝑡) ⟺ , ce qui nous donne :
𝑗𝜔
𝟏
𝒖(𝒕) ⟺ 𝝅𝜹(𝒋𝝎) +
𝒋𝝎
7. Transformée de Fourier de signaux causals
𝒆−𝒋𝝎𝒕 𝒖(𝒕)
1
De la TF de l’échelon unité 𝑢(𝑡) ⟺ 𝜋𝛿(𝑗𝜔) + 𝑗𝜔 et la propriété de
décalage fréquentiel 𝑒 𝑗𝜔0 𝑡 𝑥(𝑡) ⟺ 𝑋(𝜔 − 𝜔0 ) on obtient :
𝟏
𝒆−𝒋𝝎𝟎𝒕 𝒖(𝒕) ⟺ 𝝅𝜹(𝝎 − 𝝎𝟎 ) +
𝒋(𝝎 − 𝝎𝟎 )
𝐬𝐢𝐧(𝝎𝒕)𝒖(𝒕)
1
On a vu plus haut que 𝑒 −𝑗𝜔0 𝑡 𝑢(𝑡) ⟺ 𝜋𝛿(𝜔 − 𝜔0 ) + 𝑗(𝜔−𝜔 ) , or on
0
𝟏
sait que 𝐬𝐢𝐧(𝝎𝒕) = 𝟐𝒋
(𝒆𝒋𝝎𝒕 −𝒆 −𝒋𝝎𝒕
)alors
1
(𝐹{𝑒 𝑗𝜔𝑡 𝑢(𝑡)} − 𝐹{𝑒 −𝑗𝜔𝑡 𝑢(𝑡)})
𝐹{sin(𝜔𝑡) 𝑢(𝑡)} =
2𝑗
1 1 1
= (𝜋𝛿(𝜔 + 𝜔0 ) + − 𝜋𝛿(𝜔 − 𝜔0 ) + )
2𝑗 𝑗(𝜔 + 𝜔0 ) 𝑗(𝜔 − 𝜔0 )
𝝅 𝝎
𝑭{𝐬𝐢𝐧(𝝎𝒕) 𝒖(𝒕)} = [𝜹(𝝎 + 𝝎𝟎 ) − 𝜹(𝝎 − 𝝎𝟎 )] + 𝟐
𝟐𝒋 𝝎𝟎 − 𝝎𝟐
Ainsi
𝝅 𝝎
𝐬𝐢𝐧(𝛚𝐭)𝒖(𝒕) ⟺ [𝜹(𝝎 + 𝝎𝟎 ) − 𝜹(𝝎 − 𝝎𝟎 )] + 𝟐
𝟐𝒋 𝝎 𝟎 − 𝝎𝟐
𝐜𝐨𝐬(𝝎𝒕) 𝒖(𝒕)
1
On a vu plus haut que 𝑒 −𝑗𝜔0 𝑡 𝑢(𝑡) ⟺ 𝜋𝛿(𝜔 − 𝜔0 ) + 𝑗(𝜔−𝜔 or on
0)
1
sait que cos(𝜔0 𝑡) = 2 (𝑒 𝑗𝜔0 𝑡 + 𝑒 −𝑗𝜔0 𝑡 )alors
1
𝐹{cos(𝜔0 𝑡) 𝑢(𝑡)} = (𝐹{𝑒 𝑗𝜔0 𝑡 𝑢(𝑡)} + 𝐹{𝑒 −𝑗𝜔0 𝑡 𝑢(𝑡)})
2
1 1 1
= (𝜋𝛿(𝜔 + 𝜔0 ) + + 𝜋𝛿(𝜔 − 𝜔0 ) + )
2 𝑗(𝜔 + 𝜔0 ) 𝑗(𝜔 − 𝜔0 )
𝝅 𝒋𝝎
𝑭{𝐜𝐨𝐬(𝜔0 𝒕) 𝒖(𝒕)} = [𝜹(𝝎 + 𝝎𝟎 ) + 𝜹(𝝎 − 𝝎𝟎 )] + 𝟐
𝟐 𝝎𝟎 − 𝝎𝟐
Ainsi
𝝅 𝒋𝝎
𝐜𝐨𝐬(𝛚𝐭)𝒖(𝒕) ⟺ [𝜹(𝝎 + 𝝎𝟎 ) + 𝜹(𝝎 − 𝝎𝟎 )] + 𝟐
𝟐 𝝎𝟎 − 𝝎𝟐
En utilisant la définition de la Tf on a
+∞ +2𝑇 2𝑇 0
−𝑗𝜔𝑡 −𝑗𝜔𝑡
𝐴𝑒 −𝑗𝜔𝑡 𝐴𝑒 −𝑗𝜔𝑡
𝐹(𝑗𝜔) = ∫ 𝑓(𝑡)𝑒 𝑑𝑡 = ∫ 𝐴𝑒 𝑑𝑡 = | = |
−𝑗𝜔 0 𝑗𝜔 2𝑇
−∞ 0
𝐴(1 − 𝑒 −𝑗𝜔𝑇 )
=
𝑗𝜔
et avec la substitution
1 = 𝑒 𝑗𝜔𝑇 . 𝑒 −𝑗𝜔𝑇
𝑒 −𝑗𝜔2𝑇 = 𝑒 −𝑗𝜔𝑇 . 𝑒 −𝑗𝜔𝑇
Nous obtenons
𝐴𝑒 −𝑗𝜔𝑇 𝑒 𝑗𝜔𝑇 − 𝑒 −𝑗𝜔𝑇 sin(𝜔𝑇)
𝐹(𝑗𝜔) = ( ) = 2𝐴𝑒 −𝑗𝜔𝑇 ( )
𝜔 𝑗 𝜔
sin(𝜔𝑇)
= 2𝐴𝑇𝑒 −𝑗𝜔𝑇 ( )
𝜔𝑇
sin(𝜔𝑇)
= 2𝐴𝑇(1 − 𝑒 −𝑗𝜔𝑇 ) ( )
𝜔𝑇
𝑗𝜔𝑇 𝑗𝜔𝑇 sin(𝜔𝑇)
= 2𝐴𝑇𝑒 −𝑗𝜔𝑇/2 (𝑒 2 − 𝑒− 2 )( )
𝜔𝑇
𝜔𝑇 sin(𝜔𝑇)
= 4𝐴𝑇𝑒 −𝑗𝜔𝑇/2 𝑐𝑜𝑠 ( )
2 𝜔𝑇
𝝎𝑻 𝐬𝐢𝐧(𝝎𝑻)
𝑭(𝒋𝝎) = 𝟒𝑨𝑻𝒆−𝒋𝝎𝑻/𝟐 𝒄𝒐𝒔 ( )
𝟐 𝝎𝑻
4. Transformée de Fourier de
𝒇(𝒕) = 𝑨𝒄𝒐𝒔(𝝎𝟎 𝒕)[𝒖(𝒕 + 𝑻) − 𝒖(𝒕 − 𝑻)]
La transformée de Fourier de cette onde peut être obtenue de
𝐹(𝜔 − 𝜔0 ) + 𝐹(𝜔 + 𝜔0 )
𝑓(𝑡)𝑐𝑜𝑠(𝜔0 𝑡) ⟺
2
Et de
sin(𝜔𝑇)
𝐴[𝑢(𝑡 + 𝑇) − 𝑢(𝑡 − 𝑇)] ⟺ 2𝐴𝑇
𝜔𝑇
Alors,
Alors
∫ |𝑥(𝑡)|𝑑𝑡 < ∞
−∞
Exemple 1
1
Sachant que 𝑇𝐿{𝑒 −𝑎𝑡 𝑢(𝑡)} = calculer 𝑇𝐹{𝑒 −𝑎𝑡 𝑢(𝑡)}
𝑠+𝑎
Solution :
1 1
𝑇𝐹{𝑒 −𝑎𝑡 𝑢(𝑡)} = 𝑇𝐿{𝑒 −𝑎𝑡 𝑢(𝑡)}|𝑠=𝑗𝜔 = | =
𝑠 + 𝑎 𝑠=𝑗𝜔 𝑗𝜔 + 𝑎
Exemple 2
𝑠+𝑎
Sachant que 𝑇𝐿{𝑒 −𝑎𝑡 cos(𝜔0 𝑡)𝑢(𝑡)} = (𝑠+𝑎)2 , calculer
+𝜔02
𝑇𝐹{𝑒 −𝑎𝑡 cos(𝜔0 𝑡)𝑢(𝑡)}
Solution :
𝑗𝜔 + 𝑎
𝑇𝐹{𝑒 −𝑎𝑡 cos(𝜔0 𝑡)𝑢(𝑡)} =
(𝑗𝜔 + 𝑎)2 + 𝜔02
Remarque :
𝑻𝑭{𝒙(𝒕)} = 𝑻𝑳[𝒙(−𝒕)]|𝒔=−𝒋𝝎
Exemple 3
a. En utilisant la définition de la TF
b. Par une substitution dans la TL correspondante
Solution :
1 1 2
= + = 2
𝑎 − 𝑗𝜔 𝑎 + 𝑗𝜔 𝜔 + 𝑎2
2
Donc 𝑇𝐹{𝑒 −𝑎|𝑡| } = 𝜔2 +𝑎2
1 1 2
+ = 2
𝑗𝜔 + 𝑎 −𝑗𝜔 + 𝑎 𝜔 + 𝑎2
A travers cet exemple on voit aussi que si 𝑥(𝑡) est réel et pair alors
𝑋(𝑗𝜔) est aussi réel et pair.
𝑊𝑥 = ∫ |𝑥(𝑡)|2 𝑑𝑡 < ∞
−∞
Exemple 1
1 2𝜋𝑓
|𝑋(𝑓)| = 𝑒𝑡 𝛼𝑥 (𝑓) = −𝑎𝑟𝑐𝑡𝑎𝑛 ( )
√𝑎2 + (2𝜋𝑓)2 𝑎
Fig.5.2
Fig.5.3
Exemple 2
Soit (Fig.5.4) le produit 𝑧(𝑡) = 𝑥(𝑡). 𝑦(𝑡) ou 𝑥(𝑡) est le signal de
l’exemple 1 et 𝒚(𝒕) = 𝒄𝒐𝒔(𝟐𝝅𝒇𝟎 𝒕) = 𝟏𝟐[𝒆𝒋𝟐𝝅𝒇𝟎𝒕 +𝒆−𝒋𝟐𝝅𝒇𝟎𝒕 ]
Fig.5.4
En utilisant la propriété d’amortissement exponentiel, on obtient
1 1
𝑍(𝑓) = 𝑋(𝑓 − 𝑓0 ) + 𝑋(𝑓 + 𝑓0 ) ou 𝑋(𝑓) est donné dans l’exemple
2 2
1.
Fig.5.5
Fig.5.6
𝑡
𝑥(𝑡) = 𝐴. 𝑟𝑒𝑐𝑡 ( ) = 𝐴. 𝑟𝑒𝑐𝑡𝑇 (𝑡)
𝑇
A pour transformée de Fourier (fig.5.7)
Fig.5.7
Fig.5.8
𝑥(𝑡) = 𝐴 𝑡𝑟𝑖(𝑡/𝑇)
Fig.5.11
Fig.5.12
2. Fonction d’intercorrélation
Le produit scalaire
+∞
−∞
3. Fonction d’autocorrélation
En posant dans l’intercorrélation 𝑦(𝑡 + 𝜏) = 𝑥(𝑡 + 𝜏), on obtient
la fonction d'autocorrélation du signal à énergie finie𝑥(𝑡)
+∞
∗
Avec, par symétrie hermitienne : 𝑟𝑥𝑦 (𝜏) = 𝑟𝑦𝑥 (−𝜏). Cette
symétrie entraîne que la partie réelle de la fonction
d'autocorrélation est une fonction paire et que la partie
imaginaire est une fonction impaire.
4. Propriétés
A. Autocorrélation
𝑟𝑥 (0) = ∫ 𝑥 2 (𝑡)𝑑𝑡 = 𝑊𝑥
−∞
Comme la correspondance entre les 2 signaux ne peut pas
être aussi forte que lorsque les signaux se superposent
exactement cela entraîne que la fac est maximum pour un
décalage nul. On a donc :
𝑟𝑥 (0) ≥ 𝑟𝑥 (𝜏)
𝑟𝑥 (𝜏) = 𝑟𝑥 (−𝜏)
𝑟𝑥 (𝜏) = 𝜎 2 . 𝛿(𝑡)
Ou 𝜎 2 est la variance du signal aléatoire ; c’est également,
comme on le verra plus tard, la puissance du signal aléatoire.
B. Intercorrélation
= ∫ 𝑥 ∗ (−𝑡′)𝑦(𝜏 − 𝑡′)𝑑𝑡′
−∞
= 𝑥 ∗ (−𝜏) ∗ 𝑦(𝜏)
𝑟𝑥 = 𝑥 ∗ (−𝜏) ∗ 𝑥(𝜏)
𝑟𝑥 = 𝑥(−𝜏) ∗ 𝑥(𝜏)
7. Propriétés de la DSE
De ce qui précède, on déduit que la densité spectrale
d'énergie 𝑅𝑥 (𝑓) est
𝑅𝑥 (𝑓) ≥ 0
𝑅𝑥 (𝑓) = 𝑅𝑥 (−𝑓)
Exemple 6
Exemple 7
𝑟𝑥 (𝜏) = 𝐴2 𝑇 𝑡𝑟𝑖(𝜏/𝑇)
Exemple 8
𝑓𝑇
= 𝑗𝐴𝐵(𝑇 2 /2) [𝑠𝑖𝑛𝑐 ( ) sin(𝜋𝑓𝑇)]
2
Le lecteur pourra vérifier ce résultat à titre d'exercice soit en
utilisant le résultat 𝑅𝑥𝑦 (𝑓) = 𝐹{𝑟𝑥𝑦 (𝜏)} = 𝑋 ∗ (𝑓) 𝑌(𝑓), soit en
calculant directement la transformée de Fourier de 𝑟𝑥𝑦 (𝜏). Il
observera que la formule de conservation de l’énergie donne ici un
résultat nul, indiquant que les signaux sont orthogonaux.
Fig.5.17
VII. CAS DES SIGNAUX A PUISSANCE
MOYENNE FINIE
𝛿(𝑡) ← −→ 1
1 ← −→ 𝛿(𝑓)
𝛿(𝑡 − 𝑡0 ) ← −→ 𝑒 −𝑗2𝜋𝑓𝑡0
et
𝑒 −𝑗2𝜋𝑓0 𝑡 ← −→ 𝛿(𝑓 − 𝑓0 )
Fig.5.18
On peut étendre, par analogie, ce résultat à la valeur moyenne
d'un signal
𝑇/2
1
𝑥̅ = lim ∫ 𝑥(𝑡)𝑑𝑡
𝑇→∞ 𝑇
−𝑇/2
𝑥̅ ← −→ 𝑥̅ 𝛿(𝑓)
𝑥(𝑡) = 𝑥̅ + 𝑥0 (𝑡)
avec ̅̅̅(𝑡)
𝑥0 = ̅̅̅̅̅̅̅̅̅̅̅
𝑥(𝑡) − 𝑥̅ = 0
vaut
1
𝑍(𝑓) = (𝑗2𝜋𝑓)−1 𝑌(𝑓) + 𝑌(0)𝛿(𝑓)
2
Exemple 10 : signal signe
𝑅𝑥 (𝑓) ≥ 0
Dans le cas d'un signal 𝑥(𝑡)réel, 𝑟𝑥 (𝜏) est une fonction réelle et
paire et la densité spectrale de puissance est aussi une fonction
réelle paire:
𝑅𝑥 (𝑓) = 𝑅𝑥 (−𝑓)
Exemple 11
et
𝑥(𝑡) = 𝐶 ← −→ 𝑋(𝑓) = 𝐶 𝛿(𝑓)
les densités spectrales de puissance correspondantes sont
1
respectivement égales â 𝛿(𝑓) et2 𝛿(𝑓). Ces résultats ne peuvent
pas se déduire des exemples 9 ou 10.
Réponse :
Exercice 2
Déterminer la TF d’un peigne de Dirac
+∞
Réponse :
Ou bien encore
+∞ +∞
Montrer que
1 1
𝑥(𝑡) cos(𝜔0 𝑡) ↔ 𝑋(𝜔 − 𝜔0 ) + 𝑋(𝜔 + 𝜔0 )
2 2
1 1
𝑥(𝑡) sin(𝜔0 𝑡) ↔ 𝑗 [ 𝑋(𝜔 − 𝜔0 ) − 𝑋(𝜔 + 𝜔0 )]
2 2
Réponse :
De la formule d’Euler on a
1
cos(𝜔0 𝑡) = (𝑒 𝑗𝜔0 𝑡 + 𝑒 −𝑗𝜔0 𝑡 )
2
Ensuite, en utilisant la propriété de linéarité et celle de
l’amortissement exponentiel, on obtient
1 1
ℱ[𝑥(𝑡) cos(𝜔0 𝑡)] = ℱ [ 𝑥(𝑡)𝑒 𝑗𝜔0 𝑡 + 𝑥(𝑡)𝑒 −𝑗𝜔0 𝑡 ]
2 2
1 1
= 𝑋(𝜔 − 𝜔0 ) + 𝑋(𝜔 + 𝜔0 )
2 2
Ainsi,
1 1
𝑥(𝑡) cos(𝜔0 𝑡) ↔ 𝑋(𝜔 − 𝜔0 ) + 𝑋(𝜔 + 𝜔0 )
2 2
De façon similaire on a
1 𝑗𝜔 𝑡
sin(𝜔0 𝑡) = (𝑒 0 − 𝑒 −𝑗𝜔0 𝑡 )
2𝑗
Ainsi,
1 1
𝑥(𝑡) sin(𝜔0 𝑡) ↔ 𝑋(𝜔 − 𝜔0 ) − 𝑋(𝜔 + 𝜔0 )
2𝑗 2𝑗
Exercice 4
𝑠𝑔𝑛(𝑡) = 2𝑢(𝑡) − 1
𝑠𝑔𝑛(𝑡) ↔ 𝑋(𝜔)
Donc,
2
𝑠𝑔𝑛(𝑡) ↔
𝑗𝜔
Exercice 5
Réponse :
On sait que
1
𝑒 −𝑎𝑡 𝑢(𝑡) ↔
𝑎 + 𝑗𝜔
Maintenant comme
1 1 1
𝑋(𝜔) = 2
=( )( )
(𝑎 + 𝑗𝜔) 𝑎 + 𝑗𝜔 𝑎 + 𝑗𝜔
Ensuite, en utilisant le théorème de convolution temporel on a
Donc,
1
𝑡𝑒 −𝑎𝑡 𝑢(𝑡) ↔
(𝑎 + 𝑗𝜔)2
Exercice 6
Réponse :
En prenant la TF de l’équation on a
Et en factorisant
Ensuite en posant
𝑌(𝜔) 1 + 𝑗𝜔 2 + 𝑗𝜔 − 1 1
𝐻(𝜔) = = = =1−
𝑋(𝜔) 2 + 𝑗𝜔 2 + 𝑗𝜔 2 + 𝑗𝜔
En utilisant la transformée inverse de Laplace de 𝐻(𝜔), la
réponse impulsionnelle ℎ(𝑡) est
Exercice 7
a. 𝑥(𝑡) = 𝑒 −𝑡 𝑢(𝑡)
b. 𝑥(𝑡) = 𝑢(𝑡)
Réponse :
Ensuite,
𝑌(𝜔) 1
𝐻(𝜔) = =
𝑋(𝜔) 2 + 𝑗𝜔
Et
1 1 1
𝑌(𝜔) = 𝑋(𝜔)𝐻(𝜔) = = −
(1 + 𝑗𝜔)(2 + 𝑗𝜔) 1 + 𝑗𝜔 2 + 𝑗𝜔
En prenant la TF inverse on a
𝜋 1 1 1 1
= 𝛿(𝜔) + −
2 2 𝑗𝜔 2 2 + 𝑗𝜔
1 1 1 1
= [𝜋𝛿(𝜔) + ] −
2 𝑗𝜔 2 2 + 𝑗𝜔
Réponse :
𝑥(𝑡) = ∑ 𝑐𝑘 𝑒 𝑗𝑘𝜔0 𝑡
𝑘=−∞
Soit
+∞
𝑦(𝑡) = ∑ 𝑑𝑘 𝑒 𝑗𝑘𝜔0 𝑡
𝑘=−∞
𝑦(𝑡) = 𝐷0 + ∑ 𝐷𝑘 cos(𝑘𝜔0 𝑡 − 𝜑𝑘 )
𝑘=−∞
𝐷𝑘 = 2|𝑑𝑘 |
B. Exercices supplémentaires
Exercice 9 :
Exercice 10 :
Exercice 12
1. le signal x(t) ;
𝑋(0) = ∫ 𝑥(𝑡)𝑑𝑡
−∞
+∞
𝑥(0) = ∫ 𝑋(𝑡)𝑑𝑓
−∞
Exercice 14
2. la valeur de 𝑋(𝑓 = 0) ;
+∞
3. la valeur de ∫−∞ 𝑋(𝑗𝑓)𝑑𝑓
+∞
4. la valeur de∫−∞ |𝑋(𝑗𝑓)|2 𝑑𝑓
Exercice 15
Exercice 16
Soit le signal :
𝑈 . cos(2𝜋𝑓0 𝑡) 𝑠𝑖 |𝑡| ≤ 𝑡0
𝑥(𝑡) = { 0
0 𝑠𝑖 |𝑡| > 𝑡0
1. esquissez 𝑥(𝑡) ;
2. calculez sa TF 𝑋(𝑗𝑓) ;
Soit le signal :
1 𝑇
[1 − cos(2𝜋𝑓0 𝑡)] 𝑠𝑖 |𝑡| ≤
𝑥(𝑡) = {2 2
𝑇
0 𝑠𝑖 |𝑡| >
2
1. esquissez 𝑥(𝑡) ;
2. calculez sa TF 𝑋(𝑗𝑓) ;
3. esquissez |𝑋(𝑗𝑓)|et la TF d’une impulsion rectangulaire de
même durée
4. observez les différences
Exercice 18
2. calculez sa 𝑥(𝑡) ;
Exercice 19
Exercice 21
Démontrer que
+∞
3
∫ 𝑠𝑖𝑛𝑐 3 (𝑓)𝑑𝑓 =
4
−∞
+∞
2
∫ 𝑠𝑖𝑛𝑐 4 (𝑓)𝑑𝑓 =
3
−∞
Exercice 22