TransmissionNumerique PDF
TransmissionNumerique PDF
TransmissionNumerique PDF
1 Introduction 1
1.1 Intérêts de la transmission numérique . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.2 Intérêts . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.3 Exemples de systèmes de transmission numérique . . . . . . . . . . . . . . . . 2
1.2 Numérisation des signaux analogiques . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2.1 L’échantillonnage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2.2 La quantification . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 La chaı̂ne de transmission numérique . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
A Corrigé du TD 1 57
B Corrigé du TD 2 63
C Corrigé du TD 3 69
Bibliographie 75
Table des figures
4.1 Spectre d’un bruit blanc à bande étroite et de ses composantes en phase et en quadrature. 40
4.2 Démodulation cohérente de la MDP-2. . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.3 Démodulation cohérente de la MDP-4. . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.4 Démodulation cohérente de la MAQ-16. . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.5 Démodulation non cohérente de la MDP-2 différentielle . . . . . . . . . . . . . . . . . . 46
4.6 Détection de deux symboles. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.7 Illustration graphique de la borne de l’union. . . . . . . . . . . . . . . . . . . . . . . . . 48
4.8 Probabilité d’erreur binaire théorique de la modulation MDA. . . . . . . . . . . . . . . . 49
4.9 Probabilité d’erreur binaire théorique de la modulation MDP. . . . . . . . . . . . . . . . 50
4.10 Probabilité d’erreur binaire théorique de la modulation MAQ. . . . . . . . . . . . . . . . 51
4.11 Schéma principe du démodulateur non cohérent de la MDP différentielle. . . . . . . . . 53
Introduction
1.1.1 Définition
1.1.2 Intérêts
- Le théorème de Shannon montre qu’il y a équivalence du point de vue information entre les signaux
échantillonnés et analogiques. Le signal analogique est donc redondant.
- Le codage de source ou encore la compression : Il consiste à exploiter les statistiques de la source afin
de la comprimer. Le codeur optimal est celui de Huffman. Le codage de source sera traité dans le module
théorie de l’information et codage correcteur d’erreurs.
- Le codage canal ou encore le codage correcteur et/ou détecteur d’erreurs : Il consiste à rajouter de la
redondance permettant la détection et la correction des éventuelles erreurs de transmission. Le codage
canal sera traité dans le module théorie de l’information et codage correcteur d’erreurs.
- Le cryptage : Il consiste à coder l’information par une clé secrète de sorte qu’elle ne soit déchiffrable
que par les détenteurs de la clé.
- Traitement équivalent de toute nature d’information.
- Facilité de stockage et de traitement sur ordinateur.
Les systèmes de transmission numérique les plus utilisés sont : GSM (Global System for Mobile
communications), HSCSD (High Speed Circuit Switched Data), GPRS (General Packet Radio Service),
EDGE (Enhanced Data Rates for GSM Evolution), UMTS (Universal Mobile Telecommunication Sys-
tem), DECT (Digital Enhanced Cordless telephone), DAB (Digital Audio Broadcast), DVB (Digital Vi-
deo Broadcast), DAB (Digital Audio Broadcast), les systèmes XDSL (Digital Subscriber Lines), les
réseaux informatiques : LAN (Local Area Network), WPAN (Wireless Personal Area Network) : Blue-
tooth (IEEE 802.15.1), WLAN (Wireless LAN) : WIFI (WIreless FIdelity), HIPERLAN2 (HIgh PER-
formance radio LAN 2.0), MAN (Metropoiltan Area Network) et WAN (Wide Area Network).
1.2.1 L’échantillonnage
Tel qu’illustré dans la figure 1.1, il consiste à prélever périodiquement des échantillons du signal
analogique :
X
xe (t) = x(nTe ) Æ (t nTe) ; (1.1)
n
où Te est la période d’échantillonnage et Æ (t) est le signal dirac défini par
1.2 Numérisation des signaux analogiques 3
Æ ( t) =
< 1 si t = 0 :
: 0 sinon
Le signal échantillonné s’écrit encore
X
xe (t) = x(t) Æ (t nTe ) : (1.2)
n
1 X n
Xe (f ) = X f : (1.3)
Ten Te
Ainsi si fe 2 fmax , il n’y a pas de repliement de spectre et on peut déduire X (f ) à partir de Xe (f )
(voir la figure 1.2)
f
X (f ) = Te Xe (f ) ; (1.4)
fe
où (f ) est le signal porte défini par
8
(f ) = : 1 si jf j 2
< 1
:
0 sinon
On en déduit
x(t) = Te fe xe (t)
sinc(fet)
X
= x(nTe)sinc ((t nTe ) =Te ) : (1.5)
n
Ce résultat porte le nom de théorème de Shannon : la fréquence d’échantillonnage doit être supérieure à
deux fois la fréquence maximale du signal traité. Sous cette condition, on peut retrouver exactement le
signal analogique à partir de ses échantillons grâce à (1.5).
4 Introduction
1.2.2 La quantification
D = E (x xb)2 : (1.6)
Les paramètres du quantificateur sont donc choisi de sorte que la distorsion D soit minimale. Bien
évidemment, plus N est grand plus la distorsion D est faible. Par contre, plus N augmente plus on uti-
lise de bits pour coder la source. On cherche donc la plus petite valeur de N qui assure les performances
requises.
8
< xi+1 xi = 2XNmax
(1.7)
: xbi = xi +2xi+1
En développant les calculs, on obtient
D=
N Z xi+1
X
(x xbi )2 pX (x)dx =
1 Xmax 2 :
i=1 xi
3 N (1.8)
On montrera dans la section suivante que le quantificateur uniforme est le quantificateur optimal pour
une source uniforme.
Afin de minimiser D , il faut faire de petites partitions dans les régions où la source X prend souvent
ses valeurs :
@D
@xi
= 0 () xi = xbi 12+ xbi : (1.9)
R xi+1
@D x pX (x) dx
@ xbi
= 0 () xbi = Rxixi+1
pX (x) dx
= E (X = xi X xi+1) : (1.10)
xi
Cette dernière équation montre que x
bi optimal est le centroı̈de de la région [xi xi+1] :
La résolution de (1.9) et (1.10) se fait grâce à l’algorithme de Lloyd Max :
1) Commencer avec une partition quelconque.
2) En déduire les valeurs quantifiées grâce à (1.10).
3) Mettre à jour les partitions grâce à (1.9).
4) Revenir à l’étape 2) tant qu’il n’y a pas eu convergence des partitions et des valeurs quantifiées.
6 Introduction
Elle est composée des éléments suivants : Source analogique, échantillonnage, quantification, codage
de source, codage canal, modulation, canal de transmission, démodulation, décodage canal, décodage
source. On obtient ainsi la source numérique reconstituée. Dans le cas d’un signal numérique provenant
de la numérisation d’un signal analogique, on peut reconstituer le signal analogique original en inversant
le codage binaire effectué par le quantificateur puis en filtrant par un filtre passe bas. La structure de la
chaı̂ne de transmission numérique est illustrée dans la figure 1.4.
Le codage de source a pour rôle de comprimer la source numérique c’est à dire de la représenter sur
moins de bits. On distingue deux catégories de codeurs de sources : Les codeurs entropiques basés sur la
connaissance des statistiques de la source. Ils consistent à associer aux mots de source les plus probables
les étiquettes les plus courtes. Les codeurs exploitant la corrélation temporelle ou spatiale de la source.
Le codage de canal a pour but de rajouter de la redondance intelligente permettant la détection et la
correction des erreurs de transmission. Les codeurs canal les plus utilisés sont : les codes en blocs, les
codes cycliques (Reed- Solomon, BCH), les codes convolutifs et les turbo codes.
1.3 La chaı̂ne de transmission numérique 7
La modulation consiste à changer les paramètres d’une onde sinusoı̈dale appelée porteuse en fonction
de l’information à émettre. Elle sera traitée dans les chapitres 2 à 4.
Le canal de transmission est souvent modélisé par un filtre linéaire dont les coefficients peuvent va-
rier dans le temps suivi du rajout d’un bruit souvent supposé blanc et gaussien. Ce bruit modélise la
somme des interférence des signaux des autres utilisateurs ainsi que le bruit thermique ce qui explique
qu’on l’approxime par un bruit gaussien grâce au théorème de limite centrale. On utilise également le
modèle de canal CBS (Canal Binaire Symétrique) dont le schéma principe est donné dans la figure 1.5.
C’est un canal sans mémoire, à entrée et sortie binaire qui permet de modéliser l’ensemble “modu-
lation+canal+démodulateur”. Il est souvent utilisé pour étudier les performances des codes correcteur
d’erreurs.
2.1 Introduction
Pour pouvoir être transmis, un signal doit être conforme aux caractéristiques du canal de transmis-
sion. Les signaux numériques sont à temps discret alors que les canaux de transmission sont à temps
continu. La modulation est une opération qui consiste à associer à une suite binaire finie un signal analo-
gique :
(a1 aN ) ! s(t; a1 aN ):
2
On doit donc prévoir N signaux différents pour coder les différents N -uplets binaires. Il est évident que
cette approche doit être simplifiée pour être utilisable en pratique.
2.2.1 Définition
Elle consiste à transmettre une somme d’impulsions décalées dans le temps dont l’amplitude dépend
de la suite binaire à transmettre :
X
s(t) = dk g(t kTs ); (2.1)
k
où fdk g est la suite de symboles à transmettre, dk dépend du k -ème N -uplet binaire émis akN +1 a(k+1)N ,
g(t) est le filtre de mise en forme et Ts est la période symbole. Les symboles dk appartiennent donc à un
alphabet A de cardinal jAj = 2N .
On appelle constellation le lieu géométrique des symboles. On place prés de chaque point de la constel-
lation l’étiquette binaire correspondante. Etant donné que les erreurs les plus fréquentes se produisent
10 Les codes en ligne
entre les symboles voisins, on leur alloue des étiquettes qui ne diffèrent que par un seul bit. Ce codage
porte le nom de codage de Gray, il permet de minimiser la probabilité d’erreur binaire. En effet, si on
utilise un codage de Gray, une erreur entre deux symboles voisins entraı̂ne un seul bit faux sur N . Ainsi
à fort Rapport Signal à Bruit (RSB), on a
Pes
Peb : (2.2)
N
2.2.2 Paramètres
Le débit symbole qu’on appelle aussi rapidité de la modulation s’exprime en bauds. Il est donné par
Ds =
1: (2.3)
Ts
Chaque symbole émis correspond à N bits, ainsi
Ts
Tb = :
log2 (jAj)
(2.4)
Db =
1 = log2 (jAj) Ds: (2.5)
b T
On définit également l’énergie moyenne transmise par symbole comme suit
Z
Es = E jdk j2 g(t)2 dt = P Ts ; (2.6)
Es
Eb = :
log2 (jAj)
(2.7)
2.3.1 Définition
Les codes en ligne sont des MIA particulières. En général, ils sont choisis afin de vérifier certaines
propriétés tel que :
- Synchronisation simple du récepteur.
- Densité Spectrale de Puissance (DSP) nulle à f = 0 : permet d’éviter les interférences avec l’alimenta-
tion.
2.3 Les codes en ligne 11
Ss (f ) = T F (Rs ( ))
2
= jG(Tf )j
2 X 2X
2jkTs f + jmd j
k
( Tk ) ; (2.8)
Rd (k) jmd j2 e Æ f G
s k
Ts2 k
Ts
s
où md = E (dk ) et Rd (k) = E dn dn k :
- Le calcul de Rd (k ) s’obtient à partir de la loi conjointe p (dn ; dn k ) :
XX
Rd (k) = x y p (dn = x; dn k = y) (2.9)
x y
X
= z p dn dn k = z :
z
- On remarque que la DSP de s(t) est composée d’un spectre continu Sc (f ) et d’un spectre de raies
Sr (f ). Le spectre de raies permet de récupérer l’horloge c’est à dire les instants de transmission des
symboles.
= 0.
- Le spectre de raies est nulle si md
- Si les dk sont indépendants alors Rd (k ) = E dn dn k = jmdj2 8k 6= 0 et le spectre continu se
simplifie en
Sc(f ) = V ar(dk )
jG(f )j2 : (2.10)
Ts
Dans ce cours, on supposera que les ak sont indépendants. Les dk seront donc indépendants sauf si le
procédé de codage des bits en symboles entraı̂ne la dépendance des dk .
- La puissance de transmission peut être déduite de la DSP. On aura donc la somme de la puissance du
spectre continu, Pc , et celle du spectre de raies Pr :
Z
P = Ss (f )df = Pc + Pr : (2.11)
- On peut donc modifier le spectre par le choix de la mise en forme ou en introduisant volontairement de
la corrélation entre les symboles dk :
12 Les codes en ligne
p
jG(f )j2 = Tssinc (Tsf )2 ;
où
sin (x)
sinc(x) =
x :
En utilisant la formule de Benett, on obtient
A2 A2
Ss (f ) = sinc (Ts f )2 +
4 4Ts Æ (f ) :
On en déduit
A2
Pc = Pr =
4Ts :
2
P = 2ATs :
A2
Es = Eb =
2:
Ce dernier résultat peut être aussi obtenu grâce à (2.6). La DSP d’un signal NRZ est illustrée dans la
figure 2.1.
Ss (f ) = A2 sin c (Ts f )2 :
2.3 Les codes en ligne 13
On en déduit que
2
P = Pc = ATs :
Es = Eb = A2 :
La DSP d’un signal NRZ symétrique est illustrée dans la figure 2.2.
A2
Ss(f)
0
−2/T −1/T 1/T 2/T f
s s s s
2.3.3.3 Le code RZ
g(t) =
r
2 2t 1 = < 2
Ts si t 2 [0 Ts=2] :
Ts Ts 2 : 0 sinon
En utilisant la formule de Benett, on obtient
2
Ss (f ) =
A2 Ts
+ 2A2 Ts (2k +1 1)2 Æ f
2 X 2k + 1 + A2 Æ(f ):
8 sinc 2 f k
Ts 8Ts
On en déduit que
A2
Pc =
4Ts :
Pr =
A2
+ A2 X 1
8Ts 2 Ts k (2k + 1)2
2
En utilisant
X 1 = 2 ;
k0
k2 6
On en déduit que
X 1 = 2 :
k (2k + 1)2 4
d’où
A2
Pr =
4Ts :
A2
Es = Eb =
2:
La DSP d’un signal RZ est illustrée dans la figure 2.3.
2.4 TD 1 : La formule de Benett 15
Problème
= ak + wk0 où wk0 est une solution particulière. Déterminer la valeur de la constante sachant
s’écrit wk
que u0 = v0 = 1=2:
4. Calculer Rd (0) = E (d2k )
5. Dresser le tableau de transition donnant p(dk ; dk 1 ) et en déduire Rd (1).
6. Donner l’équation reliant dk , dk 1 et bk = 1 2ak :
7. Exprimer le produit dk dk 1 en fonction de bk puis déduire Rd (1) = E (dk dk 1 ).
8. En suivant la même démarche déterminer Rd (m) = E (dk dk m ):
9. En déduire la DSP du signal émis par un codeur en ligne différentiel. On rappelle la formule de Benett :
jG(f )j2 X R (k) jm j2 e 2X k k 2
Ss(f ) =
T d d
2jkTsf + jmdj Æ(f
Ts2
) G( ) :
Ts Ts
(2.14)
s k k
18 Les codes en ligne
Chapitre 3
3.1 Introduction
Dans ce chapitre, on établit la structure du récepteur optimal pour une transmission en bande de
base. Le canal est supposé à bande illimitée cela veut dire qu’il n’introduit aucun filtrage sur le signal
émis. Cette condition est satisfaite si la bande passante du canal est très supérieure au débit symbole
Ds . En effet, d’après la formule de Benett, la bande du signal émis est proportionnelle à Ds . Bien que
le canal n’effectue aucun filtrage, les autres signaux émis sur le même canal perturbent le signal utile.
Cette interférence est souvent modélisée par un bruit gaussien grâce au théorème de limite centrale. On
suppose également que ce bruit est stationnaire, blanc et centré. Le signal reçu s’écrit alors
(t) est dit Bruit Blanc Additif et Gaussien (BBAG) (Additive White Gaussian Noise (AWGN)).
où b
La DSP du bruit b(t) est notée
N
Sb (f ) = 0 ; 8f:
2 (3.2)
On rappelle que la densité de probabilité (ddp) d’une variable aléaoire (v. a.) X gaussienne est donnée
par
" #
fX (x) = q
1 exp (x mX )2 ;
2X2 2X2 (3.3)
où
20 Transmission en bande de base sur un canal à bande illimitée
mX = E (X ) ;
et
X2 = E (X mX )2 :
Tel qu’illustré dans la figure 3.1, le récepteur est composé d’un filtre de réception gr (t) suivi d’un
échantillonneur à t0 + nTs puis d’un comparateur à seuil.
1
On considère la transmission d’un seul symbole d0 valant . Si on utilise une MIA, le signal reçu
s’écrit alors
z (t) = (r
gr )(t) = d0 p(t) + B (t); (3.5)
où p = g
gr et B = b
gr :
Il est à noter que B (t) est un bruit gaussien car obtenu par filtrage d’un bruit gaussien. Il est aussi
stationnaire et centré :
Z
E (B (t)) = E (b(t)) gr (t)dt = 0:
3.2 Réception optimale 21
N
SB (f ) = 0 jGr (f )j2 :
2
On en déduit sa variance :
Z
N0
2
B = 2 jGr (f )j2 df: (3.6)
Le seuil de décision ne se situe pas toujours au milieu des symboles de la constellation. Il est
déterminé en minimisant la probabilité d’erreur donnée par
Pe = P = 1; d0 = 1 + P = 1; d0 = 1 ;
db0 db0 (3.7)
= P 1 P d
b0 = 1=d 0 = 1 + P1 P d
b 0 = 1 =d 0 = 1 :
P db0 = 1=d0 = 1 = P ( p(t0 ) + B (t0 ) > s)
=
Z +1
q
1 e (x+p(t0 ))2
2 2
B dx:
s 2B2
En introduisant la fonction de Marcum définie par
2
Q(x) =
Z +1 1 u
p exp 2 du:
x 2
On obtient
= Q s +p(t0) :
P db0 = 1=d0 = 1 (3.8)
B
En suivant la même démarche, on obtient
= 1=d0 = 1 = Q s + p(t0 ) :
P db0 (3.9)
B
Nous allons à présent rechercher le seuil optimal en minimisant Pe :
22 Transmission en bande de base sur un canal à bande illimitée
" ! !#
dPe
ds
=q1 2 P 1 exp
(s + p(t0))2 + P1 exp
2B2
( s + p(t0))2
2B2 =0
2B
On déduit le seuil optimal
B2 P 1
sopt =
2p(t0 ) P1 :
ln (3.10)
On vérifie aisément que l’optimum trouvé correspond à un minimum c’est à dire que ddsP2e s=s > 0:
2
opt
Ainsi le seuil optimal se trouve au milieu des symboles de la constellation sssi ils sont équiprobables. En
1
outre, on vérifie que si P 1 ! alors sopt ! 1 c’est à dire qu’on décide toujours 1. Enfin, si PP11
6 et que le rapport signal à bruit p(tB0 ) diminue, alors le seuil s’éloigne du milieu ce qui fait qu’on
=1 =
utilise plus l’a priori qu’on a sur la probabilité d’occurrence des symboles que le signal reçu.
Enfin, en utilisant (3.7)-(3.10), on obtient
k k
Pe = P 1 Q + + P1 Q ; (3.11)
où k = 12 ln P 1
P1 :
! !
dPe
= pP 1 k 1 + k 2 P1
1 + k2 exp
1 k 2
2 1 exp
2 p 2
d 2 2
2 !
= pP 1 exp 1 + k 1 k
+ PP11 1 + k2 exp(2k)
2 2 2
!
= 2pP 1 exp 1 + k 2 < 0
2 2
Ainsi, pour minimiser Pe , il suffit de maximiser le rapport signal à bruit . En utilisant l’inégalité de
Schwartz,
Z 2 Z Z
fg jf j2 jgj2 ;
on obtient
R
gr (u)g(t0 u)du 2
N2 2Eb :
Z
2 = N0 R g (u)2 du g(t0 u)2 du = (3.12)
2 r 0 N0
3.2 Réception optimale 23
où est une constante. Le filtre de réception définit par (3.13) est appelé filtre adapté.
Si les symboles sont équiprobables, on en déduit
r ! r !
Pe = Q
2Eb = 1 erfc Eb
;
N0 2 N0
(3.14)
p2 exp u2 du:
Z +1
erfc(x) =
x (3.15)
1 x
Q(x) = erfc p :
2 2 (3.16)
Eb en dB. La modulation
La figure 3.2 illustre l’évolution de la probabilité d’erreur en fonction de N 0
−2
10
−3
10
Pe
−4
10
−5
10
−6
10
0 1 2 3 4 5 6 7 8 9 10
Eb/N0 (dB)
Dans ce qui suit, il s’agit d’établir la condition que doit vérifier le filtre de mise en forme pour ne pas
avoir de l’Interférence Entre Symboles (IES) (InterSymbol Interference ISI). L’IES est la contribution
24 Transmission en bande de base sur un canal à bande illimitée
X
z (t0 + nTs ) = dk p (t0 + (n k)Ts ) + B (t0 + nTs);
k
X
= dn p(t0 ) + dn k p (t0 + kTs ) + B (t0 + nTs ): (3.17)
k6=0
X
p(t0 + kTs ) = 0 8k 6= 0 () p(t0 + kTs )Æ(t kTs ) = p(t0 )Æ(t):
k
On pose p1 (t) = p(t0 + t), on en déduit
X k
P1 (f ) = Ts p(t0):
k
Ts
En utilisant (3.13) pour = 1; on obtient
P1 (f ) = jG(f )j2 :
Ainsi pour ne pas avoir de l’IES, le filtre de mise en forme doit vérifier le critère de Nyquist :
X k 2
G
(f ) = Ts p(t0):
Ts
(3.18)
k
On en déduit que la transmission à un débit Ds = T1s nécessite au moins une bande égale Ds. Le filtre
qui vérifie le critère de Nyquist et qui possède la plus petite bande passante est un filtre rectangulaire de
support [ 2Ts 2Ts ]:
1 1
En pratique, il faut utiliser des filtres réalisables tel que le filtre en cosinus surélevé défini par :
8
>
>
>
<
Ts p(t0 ) hsi jf j 12Ts i
P1 (f ) = jG(f )j2 = Ts p(t ) 1 sin Ts jf j
2 0
1
2Ts si 12Ts jf j 1+
2Ts : (3.19)
>
>
>
: 0 sinon
On donne également sa réponse impulsionnelle
cos Tt
t
p1 (t) = p1 (0) s
sinc ;
1 422t2 (3.20)
Ts
Ts
où est appelé roll-off ou encore coefficient de retombée.
3.3 Le diagramme d’oeil 25
Il est à noter que plus est petit plus le support fréquentiel du filtre g(t) est petit et plus son support
temporel est grand.
Le diagramme d’oeil permet de caractériser l’IES à chaque instant. L’allure générale de ce dia-
gramme a la forme d’un ou de plusieurs yeux (voir les figures 3.3 et 3.4). Il est défini comme l’ensemble
des trajectoires possibles du signal non bruité à la sortie du filtre adapté. Il est obtenu en superposant
toutes les trajectoires possibles du signal z (t) non bruité :
X
z (t) = dk p(t kTs ): (3.23)
k
()
Si le support temporel de p t est égal à LTs et que les dk appartiennent à une constellation de cardinal
M , alors il faut générer M L trajectoires. Tel qu’illustré dans les figures 3.3 et 3.4, toutes les trajectoires
passent par un point unique à l’instant d’échantillonnage ceci permet de vérifier l’absence d’IES à cet
instant. Enfin, nous remarquons que plus est petit (resp. grand) plus le diagramme d’oeil est fermé
(resp. ouvert). Lorsque le diagramme d’oeil est ouvert, on est moins sensible à des erreurs d’estimation
de l’instant d’échantillonnage.
26 Transmission en bande de base sur un canal à bande illimitée
Exercice :
Pour effectuer une transmission sans Interférence Entre Symboles (IES), le filtre global (convolution
du filtre d’émission et de réception) doit vérifier le critère de Nyquist. Préciser pour chacun des filtres
ci-dessous s’ils permettent une transmission sans IES et à quel débit symbole ?
Problème 1 :
Pour transmettre une suite d’éléments binaires indépendants, prenant les valeurs 0 et 1 avec la même
probabilité, on utilise deux signaux s0 (t) et s1(t) de durée Ts. Ainsi, pendant l’intervalle [kTs (k +1)Ts ],
on émet s0 (t kTs) ou s1(t kTs) selon la valeur de l’élément binaire à transmettre. On s’intéresse à
l’intervalle [0 Ts ] et on suppose que le récepteur est composé d’un filtre Gr (f ) de réponse impulsionnelle
gr (t), suivi d’un échantillonneur à l’instant t0 et d’un comparateur à seuil.
Pendant l’intervalle [0 Ts ], le signal r (t) à l’entrée du récepteur s’écrit
où b(t) est un bruit blanc, gaussien, centré, indépendant du signal utile et de densité spectrale de puissance
égale à N0 =2.
28 Transmission en bande de base sur un canal à bande illimitée
On considère une chaı̂ne de communication en bande de base utilisant une Modulation à Déplacement
d’Amplitude (MDA) à 4 états. On désigne par Ts la période symbole. On suppose que les symboles émis
prennent, de manière équiprobable, leurs valeurs dans l’alphabet
= f 3d; d; d; 3dg. Le symbole ak ,
émis à l’instant kTs , permet de transmettre deux éléments binaires, 2k et 2k+1 , selon le codage de
Gray suivant :
ak 2k 2k+1
3d 00
d 01
d 11
3d 10
Après filtrage de mise en forme à l’émission, transmission sur un canal idéal rajoutant un bruit réel blanc
gaussien, filtrage adapté en réception et échantillonnage aux instants kTs , on obtient des échantillons de
la forme :
3.4 TD 2 : Transmission en bande de base sur un canal à bande illimitée 29
yk = ak + bk ;
où bk est un bruit réel gaussien centré (de moyenne nulle) et de variance 2 .
1) a) Donner, sans justification, les 3 seuils optimums de décision, s s0 s1, sur les symboles ak .
b) Représenter sur un axe, les 4 régions de décision des valeurs 3d; d; d et 3d prises par le symbole
ak .
c) Représenter sur le même axe les régions de décisions correspondant aux valeurs 0 et 1 prises par les
éléments binaires 2k et 2k+1 (à noter que les régions de décision de 2k et de 2k+1 sont différentes).
On suppose dans toute la suite que le canal introduit une modification de l’amplitude du signal reçu de
telle sorte que les échantillons obtenus s’écrivent
yk = ak + bk ;
où est un facteur multiplicatif réel strictement positif. Quand est inférieur (respectivement, supérieur)
à 1, le canal introduit une atténuation (respectivement, amplification) du signal utile. On suppose que
le récepteur n’a aucune connaissance de la valeur de et qu’il continue donc à utiliser les régions de
décisions déterminées précédemment en 1Æ ) b) et 1Æ ) c).
2) Pour une valeur arbitraire de , représenter les densités de probabilité, p (yk =ak ), de l’échantillon
yk reçu à l’instant kTs conditionnellement à chacune des valeurs prises par ak dans l’alphabet
. On
représentera yk en abscisse et p (yk =ak ) en ordonnée pour chaque valeur de ak .
3) Déterminer les valeurs minimale, min , et maximale, max , entre lesquelles doit strictement prendre
ses valeurs afin que la probabilité d’erreur symbole (mais aussi binaire) puissent tendre vers 0 quand le
rapport signal sur bruit d2 = 2 tend vers l’infini.
On suppose dans toute la suite que vérifie
min max :
4) a) Exprimer la probabilité d’erreur symbole, Pes=ak , pour chacune des valeurs 3d; d; d et 3d de
ak , en fonction des paramètres , et d et de la fonction erfc(:).
Rappel : Si X est une variable aléatoire réelle gaussienne de moyenne m et de variance 2 , et si c est un
réel quelconque, alors
" #
p1 exp (x 2m )2 1
Z +1 c m
P (X c) = dx = erfc( p ):
c 2 2 2 2
b) En déduire la probabilité d’erreur symbole moyenne Pes .
30 Transmission en bande de base sur un canal à bande illimitée
La modulation de porteuse consiste à faire varier l’amplitude, la phase ou la fréquence d’une onde
sinusoı̈dale, appelée onde porteuse, en fonction du signal d’information, appelé modulant. Parmi les
objectifs de l’opération de modulation, on peut citer le multiplexage fréquentiel et l’adaptation à la bande
passante du canal de transmission.
Pour les modulations numériques, le message numérique est d’abord fragmenté en mots de codes
composés de N éléments binaires. Chacun des M =2
N mots de codes ainsi obtenus est associé à un
état parmi M de la grandeur à moduler. Le récepteur utilise le signal reçu afin d’estimer le mot de code
émis.
En anglais, cette modulation s’appelle ASK (Amplitude Shift Keying). Le signal modulé s’écrit
comme suit
où
X
a(t) = (
ak [0 Ts ] t kTs ; )
k
ak est le k-ème symbole M -aire à transmettre, f0 et 0 sont respectivement la fréquence et la phase de
la porteuse.
32 Transmission sur onde porteuse sur un canal à bande illimitée
Un exemple de modulation MDA est la modulation tout ou rien (OOK : On Off Keying) où ak 2 f0; 1g.
Afin de minimiser la probabilité d’erreur, les symboles de la constellation sont uniformément espacés.
Ainsi, pour une MDA-M, la constellation est de la forme :
f (M 1) A; (M 3)A; ; A; A; ; (M 1)Ag :
4.1.2 La modulation à déplacement de phase (MDP)
En anglais, cette modulation s’appelle PSK (Phase Shift Keying). Le signal modulé est donné par
où
X
(t) = ak [0 Ts ] (t kTs ) :
k
u(t) s’écrit encore
X
u(t) = B cos (2f0 t + ak ) [0 Ts ] (t kTs ) :
k
Lorsque les états de la phase sont uniformément répartis, on obtient la constellation suivante
0 + (2k + 1)
:
M k=0M 1
Pour M = 4 et 0 = 0 , la modulation obtenue s’appelle QPSK (Quadrature Phase Shift Keying).
Le signal MDP s’écrit encore :
X
u(t) = B [ (2 ) ( ) (2 ) ( )]
cos f0 t cos ak sin f0 t sin ak [0 Ts ] t kTs : ( )(4.3)
k
Ainsi, le signal MDP est la somme de deux porteuses en quadrature modulées en amplitude. Il y a donc
une forte similarité entre la MDP et la MDA. Par exemple, MDP2 avec ak 2 f0; g équivaut à une
MDA2 avec ak 2 f1; 1g :
En anglais, cette modulation s’appelle QAM (Quadrature Amplitude Modulation). Le signal modulé
est donné par :
où
X
uc (t) = ak [0 Ts ] (t kTs ) ;
k
X
us(t) = bk [0 Ts ] (t kTs ) ;
k
p
fak g et fbk g sont deux suites de symboles M -aires. On obtient ainsi une modulation à M états.
Le signal MAQ s’écrit encore :
X
u(t) = Ak cos(2f0 t + k )[0 Ts ] (t kTs ) ; (4.5)
k
où
q
Ak = a2k + b2k ;
et
k = arctan abk :
k
Ainsi, la MAQ est à la fois une modulation de phase et d’amplitude. En général les ak et bk sont
indépendants et prennent leurs valeurs dans un même alphabet de la forme :
n p p p o
M 1 A; ( M 3)A; ; A; A; ; ( M 1)A :
Par exemple, si ak et bk 2 fA; 3Ag, on obtient une MAQ-16. La modulation MAQ-16 a été largement
utilisée pour les faisceaux hertéziens à grande capacité au courant des années 1980.
On peut aussi utiliser des modulations MAQ d’ordre L où L n’est pas un carré parfait. Cette modu-
lation est construite à partir de la constellation d’ordre N2 ; où N 2 est le carré immédiatement supérieur
à L; en interdisant N 2 L points. Afin d’optimiser les performances du système de transmission, ces
points sont choisis afin de minimiser l’énergie moyenne dépensée par symbole. Par exemple, la MAQ 32
est déduite de la MAQ 36 en enlevant les 4 symboles extrêmes.
En anglais, cette modulation s’appelle FSK (Frequency Shift Keying). Elle est moins utilisée que
MDA, MDP et MAQ. Elle est souvent utilisée dans les systèmes optiques car il est plus facile de
démoduler des sources optiques en fréquence qu’en phase ou amplitude.
34 Transmission sur onde porteuse sur un canal à bande illimitée
Pour cette modulation, la fréquence instantanée de la porteuse prend un certain nombre de valeurs
discrètes associés aux états possibles de l’information à transmettre. Par exemple, pour une MDF bi-
naire, on aura deux fréquences f1 et f2 associées aux deux valeurs binaires. On note f0 = (f1 + f2) =2
et f = jf1 f2 j l’excursion maximale de fréquence. L’indice de modulation est alors donné par
=
f = Tsf , (4.6)
fmax
où fmax est la fréquence maximale du modulant.
La fréquence instantanée de la porteuse pour une MDF-2 est alors donnée par
f (t) = f0 +
f X a (t kTs ) ;
2 k k [0 Ts ] (4.7)
où ak 2 f 1; 1g.
On en déduit la phase instantanée
On distingue deux types de MDF à savoir la MDF à phase continue et la MDF à phase discontinue. Dans
le cas d’une MDF à phase continue, on a
k = k 1 + ak 1 ; 8k: (4.9)
4.2.1 Introduction
L’enveloppe complexe ue (t) d’un signal u(t) peut être définie par
n o
u(t) = Re ue (t)e2jf0 t : (4.10)
X
u(t) = ak [0 Ts ](t kTs )cos (2f0 t + 0 )
k
X
ue (t) = ak ej 0 [0 Ts ] (t kTs ) :
k
- MDP :
4.2 Enveloppe complexe 35
X
u(t) = B [0 Ts ] (t kTs )cos (2f0 t + ak )
k
X
ue (t) = B ejak [0 Ts ] (t kTs ) :
k
- MAQ :
X X
u(t) = ak [0 Ts ](t kTs )cos (2f0 t) bk [0 Ts ] (t kTs )sin(2f0 t)
k k
X
ue (t) = (ak + jbk ) [0 Ts ] (t kTs ) = uc(t) + j us (t):
k
On constate que l’enveloppe complexe possède la même expression que celle d’un signal NRZ. En
général, l’enveloppe complexe n’a pas de réalité physique puisque c’est un signal complexe. Cependant,
cette représentation est très commode puisqu’elle permet de traiter des systèmes de transmission utilisant
une modulation exactement comme des systèmes en bande de base, la seule différence c’est que les
signaux sont complexes.
On notera que (4.10) ne définit pas de façon unique l’enveloppe complexe car ue (t) + u0e(t) est aussi
l’enveloppe de u (t) à condition que
n 0 o
Re ue (t) e2jf0 t = 0:
L’enveloppe complexe d’un signal u (t) est définie de manière rigoureuse par
ub(t) = u(t)
1;
t (4.12)
Ub (f ) = j sgn(f ) U (f ): (4.13)
Ua (f ) =
< 2 U (f ) si f > 0 (4.14)
: 0 sinon
En introduisant
36 Transmission sur onde porteuse sur un canal à bande illimitée
8
< U (f ) si f > 0
U + (f ) = ; (4.15)
: 0 sinon
on obtient
Ue (f ) = Ua (f + f0 ) = 2 U + (f + f0): (4.16)
Montrons maintenant que l’enveloppe complexe ainsi définie vérifie bien la définition initiale (4.10)
dans le domaine fréquentiel. La vérification dans le domaine temporel est immédiate.
Soit y (t) le signal défini par
y(t) = ue (t)e2jf0 t ;
où ue (t) est donné par (4.11). Alors
Y (f ) = Ue (f f0 ) = Ua (f ):
Or
Y (f ) + Y ( f )
Ua (f ) + Ua ( f )
T F (Re fy(t)g) = = = U (f ) cqfd:
2 2
Dans la dernière égalité, on a utilisé le fait que u(t) est un signal réel : U ( f ) = U (f ):
C’est une classe importante des signaux déterministes. Un signal à bande étroite est un signal dont la
transformée de Fourier est nulle sur une bande de fréquences [ B B ] où B > 0 :
8
>
>
<
X + (f ) si f B
X (f ) = X (f ) si f B :
>
>
:
0 sinon
Un signal de la forme m (t) cos (2f0 t) est à bande étroite si le spectre d’amplitude de m(t) est limité
à [ b b] avec b < f0 . Si b est proche de f0 , théoriquement c’est un signal à bande étroite mais en
électronique on le qualifiera de signal large bande. Ainsi les signaux issus des modulateurs numériques
sont à bande étroite si la fréquence de la porteuse est très supérieure au débit symbole.
On montre que tout signal à bande étroite peut être décomposé selon deux ondes porteuses en quadrature :
Alors
Xc (f + f0 ) + Xc (f f0 ) Xs (f f0 ) Xs (f + f0 )
X (f ) = :
2 2j
On en déduit
X + (f ) =
1 [Xc(f f0 ) + jXs (f f0 )] :
2
L’enveloppe complexe est donc donnée par
Xe (f ) = 2 X + (f + f0)
= Xc(f ) + jXs (f ): (4.18)
Ainsi, les composantes en phase et en quadrature sont respectivement les parties réelle et imaginaire de
l’enveloppe complexe.
Propriété : Si X (f ) vérifie la condition de symétrie hermitienne autour de f0 alors Xs(f ) = 0.
Preuve :
xe (t) xe (t)
xs (t) = :
2j
d’où
Xe (f ) Xe ( f )
Xs (f ) = :
2j
Or
Xe (f ) = 2 X + (f + f0 ) ;
d’où
X + (f + f0 ) X + (f0 f )
Xs (f ) = = 0:
j
4.3.3.1 Définition
La définition de l’enveloppe complexe qu’on vient de voir s’applique aux signaux déterministes or
le signal d’information, le bruit et les interférences sont des signaux aléatoires. Un signal B (t) aléatoire
stationnaire au second ordre est à bande étroite si sa DSP est à bande étroite :
38 Transmission sur onde porteuse sur un canal à bande illimitée
B (f )= T F (RB ( )) = 0 8f 2 [ b b] ; (4.19)
RB ( ) = E (B (t)B (t ) ) :
(t) et Bs(t) sont des signaux aléatoires stationnaires au second ordre. Ce sont les composantes en
où Bc
phase et en quadrature de B (t). Cette représentation porte le nom de décomposition de Rayleigh.
L’enveloppe complexe de B (t) est définie par
Si B (t) est gaussien alors Bc (t) et Bs(t) sont aussi gaussiens car ils sont obtenus par transformation
linéaire et Be (t) est appelé bruit gaussien complexe. On montre que la DSP de Be (t) est donnée par
Be (f ) = 4 B+ (f + f0 ): (4.22)
On notera la similarité de ce résultat avec celui des signaux déterministes (4.16) hormis le coefficient 4
au lieu de 2. On montre également que l’enveloppe complexe vérifie la propriété suivante :
Propriétés :
Bc (f ) =
Bs (f ) =
1 [
B (f ) +
B ( f )] ;
4 e e (4.24)
Bcs (f ) =
1
Bsc (f ) = [
Be ( f )
Be (f )] :
4j (4.25)
Preuve :
On a
Bc (t) =
1 [B (t) + B (t)] :
2 e e
RBc ( ) =
1 RB ( ) + R ( ) :
4 e Be
4.2 Enveloppe complexe 39
RBc ( ) = RBs ( ) :
Par transformée de Fourier, on obtient (4.24).
De même, un simple calcul donne
RBcs ( ) = E (Bc(t)Bs (t )) ;
= 41j [RBe ( ) RBe ( )] :
et
RBsc ( ) = RBcs ( ) :
On en déduit (4.25). Ainsi, les composantes en phase et en quadrature sont décorrélées lorsque
Be est
paire c’est à dire si
B est symétrique autour de f0 . En outre, les composantes en phase en quadrature
sont décorrélées si elles sont prises au même instant :
RBcs (0) =
1 Z
4j [
Be ( f )
Be (f )] df = 0:
4.3.3.2 Bruit blanc à bande étroite
Précisons d’abord qu’un bruit blanc n’est pas à bande étroite puisque sa DSP est une constante
indépendamment de la fréquence. Etant donné que le signal émis est à bande étroite, on peut considérer
qu’il y a à l’entrée du récepteur un filtre de gain unité dans la bande passante du signal et nul ailleurs.
Ainsi, le bruit blanc filtré aura la DSP suivante :
8
B (f ) =
< N0 si f
2 2 [f0 B=2 f0 + B=2] S [ f0 B=2 f0 + B=2] ; (4.26)
: 0 ailleurs
où B est la bande passante du signal utile.
Le bruit filtré ainsi obtenu est dit blanc à bande étroite.
Etant donné que
B est symétrique autour de f0 , les composantes en phase et en quadrature sont décorrélées.
En outre, en utilisant (4.22), on obtient
8
Be (f ) =
< 2N0 si jf j B=2 : (4.27)
: 0 ailleurs
1
Bs (f ) =
Bc (f ) =
Be (f ):
2 (4.28)
La figure 4.1 illustre les spectres du bruit B (t), de la composante en phase Bc(t) et en quadrature Bs(t).
F IG . 4.1 – Spectre d’un bruit blanc à bande étroite et de ses composantes en phase et en quadrature.
Nous cherchons l’équivalent de l’opération de filtrage en bande de base. Soit x (t) un signal à bande
étroite d’enveloppe complexe xe (t) et soit y (t) la convolution de x(t) par h(t). y (t) est aussi un signal à
bande étroite, le signal analytique correspondant est donné par
Ya (f ) = 2Y + (f ) = Xa (f ) H + (f ): (4.29)
On en déduit
Ye (f ) = Ya (f + f0 ) = Xe (f )Hb (f ); (4.30)
Hb (f ) =
1 [H (f ) + jH (f )] :
2 c s (4.31)
Ainsi, l’équivalent en bande de base d’un filtre est en général complexe sauf si H (f ) vérifie la condition
de symétrie hermitienne autour de f0 :
H + (f + f0 ) = H + (f0 f ):
On notera enfin que l’équivalent en bande de base d’un filtre est la moitié de son enveloppe complexe.
Dans le domaine temporel la relation de filtrage en bande de base s’écrit comme suit
8
< yc(t) = 21 (hc
xc )(t) 12 (hs
xs )(t)
: (4.32)
: ys(t) = 21 (hc
xs )(t) + 21 (hs
xc )(t)
Le filtrage des signaux modulés peut être effectué en filtrant l’enveloppe complexe par l’équivalent en
bande de base du filtre. Ceci permet donc de faciliter l’étude et la simulation de systèmes de transmission
en remplaçant des signaux réels à bande étroite par des signaux complexes en bande de base.
Concernant l’équivalent en bande de base du bruit filtré, on l’obtient en filtrant l’enveloppe complexe
Hb(f ). Si on considère un bruit blanc à bande étroite (4.26), la DSP de
du bruit à l’entrée du filtre par
l’équivalent en bande de base du bruit filtré vaut 2N0 jHb (f )j2 . On en déduit la DSP des composantes
en phase et en quadrature du bruit filtré
N h i
Bc (f ) =
Bs (f ) = 0 jHb (f )j2 + jHb ( f )j2 ;
2
ainsi que la DSP de leur intercorrélation
N h i
Bcs (f ) =
Bsc (f ) = 0 jHb ( f )j2 jHb(f )j2 :
2j
On en déduit que les composantes en phase et en quadrature sont décorrélées si elles sont prises au même
instant. Leurs variances vaut
Z
2 = N0 jHb(f )j2 df:
42 Transmission sur onde porteuse sur un canal à bande illimitée
4.3 Démodulation
Nous consacrons cette partie à l’étude des divers schémas de démodulation pour un canal gaussien.
Nous commençons d’abord par décrire les démodulateurs cohérents c’est à dire ceux qui ont besoin de
connaı̂tre la porteuse. Puis, on présentera quelques exemples de démodulateurs non cohérents.
X
u(t) = A [0 Ts ] (t kTs )cos (2f0 t + k ) ; (4.33)
k
où
8
k = : 0 si ak = 1 :
<
0 + si ak = 0
Le signal reçu est donné par
A0 A X
r(t)A0 cos (2f0 t + 0 ) = [0 Ts ] (t kTs )[cos (k 0 ) + cos (4f0 t + k + 0 )]
2 k
+ A20 bc(t) + A20 bc(t)cos (4f0 t + 20) A0
2 bs(t)sin (4f0t + 20 ) :
Or 1=Ts << f0, ainsi après filtrage passe bas on obtient
A AX A
y(t) = 0 ak [0 Ts ](t kTs ) + 0 bc(t):
2k
2 (4.34)
On obtient ainsi un signal en bande de base donc le reste du démodulateur est composé d’un filtre adapté
suivi d’un échantillonneur puis un comparateur à seuil (voir la figure 4.2). On notera que le filtre adapté
4.3 Démodulation 43
joue aussi le rôle de filtre passe bas permettant d’enlever les composantes autour de 2f0: Ce type de
démodulateur est dit cohérent car il nécessite la connaissance de la fréquence et de la phase de la porteuse
utilisée à l’émission.
La similarité de ces deux modulations a été déjà démontrée (voir l’équation (4.3)). Dans les deux cas,
le signal reçu peut s’écrire comme suit
X X
r(t) = A ak [0 Ts ] (t kTs ) cos(2f0 t + 0 ) A bk [0 Ts ] (t kTs ) sin(2f0 t + 0 )+ b(t);
k k
(4.35)
où ak et bk sont respectivement cos (k ) et sin (k ) pour une modulation MDP dont les états de la phase
sont k .
Le démodulateur comporte deux étages composés chacun d’une multiplication par la porteuse en phase,
A0 cos(2f0 t + 0 ), ou en quadrature, A0 sin(2f0 t + 0 ). La sortie du filtre adapté de l’étage de la
porteuse en phase est donné par
A AX A b (t)
yc(t) = 0 ak [0 Ts ] (t kTs ) + 0 c :
2 k
2 (4.36)
A AX A b (t)
ys(t) = 0 bk [0 Ts ] (t kTs ) + 0 s :
2 k
2 (4.37)
On obtient ainsi un signal en bande de base et il suffit d’effectuer un filtrage adapté à (t), un échantillonnage
puis une comparaison à seuil pour obtenir sur chacun des deux étages une estimation des ak et bk . Les
figures 4.3 et 4.4 montrent respectivement le schéma principe du démodulateur cohérent de la MDP4 et
de la MAQ 16.
44 Transmission sur onde porteuse sur un canal à bande illimitée
Le signal reçu pour une modulation tout ou rien est donné par
X
r(t) = A ak [0 Ts ] (t kTs ) cos(2f0 t + 0 ) + b(t); (4.38)
k
où ak 2 f0; 1g.
Il est possible de démoduler ce signal par un simple détecteur d’enveloppe :
X
r2 (t) = A2 a2k [0 Ts ] (t kTs ) cos2 (2f0 t + 0 ) + n(t);
k
où n(t) est un terme dû au bruit.
Après filtrage passe bas, on obtient
A2 X
y(t) = ak [0 Ts ] (t kTs ) + n0 (t):
k
2
Le reste de ce démodulateur est donc composé d’un filtre adapté, d’un échantillonneur et d’un compara-
teur à seuil.
Dans ce type de modulation, l’information à transmettre est associée non plus à la valeur de la phase
mais plutôt à sa variation. Pour une MDP-2 différentielle, on peut par exemple utiliser le codage suivant
4.3 Démodulation 45
8
< k = k 1 si ak = 1 : (4.39)
: =
k k 1 + si ak = 1
On en déduit
X
S (t) = (
[0 Ts ] t kTs ) cos(2f0 t + 0 + k )cos(2f0 (t Ts ) + 0 + k 1 ):
k
Après filtrage adapté, on aura
s(t) =
1 X p(t kTs ) cos(2f0 Ts + k k 1);
2 k
où p =
:
Ainsi si f0 Ts est entier, alors
s(t) =
1 X p(t kTs ) ak :
2 k
Le démodulateur proposé permet donc de se ramener en bande sans avoir besoin de régénérer la porteuse.
46 Transmission sur onde porteuse sur un canal à bande illimitée
On veut déterminer la probabilité d’erreur entre deux symboles. D’après la section précédente, la
variable de décision peut s’écrire comme suit
z = si + b; i = 1 ou 2:
où b= br + jbi est un bruit gaussien complexe de variance N0 ; br et bi sont respectivement les compo-
santes de b selon l’axe (s1 s2 ) et l’axe qui lui est orthogonal.
La figure 4.6 donne une illustration graphique du problème. Si les deux symboles sont équiprobables, la
décision se fait grâce à la médiatrice du segment s1 s2 : Ainsi, on a
où d = ks1!
s2 k.
4.4.2 Méthodologie
Il s’agit de déterminer l’expression théorique des probabilités d’erreurs symbole Pes et bit Peb des
différentes modulations numériques. On commence par déterminer Pes puis on en déduira Peb . En notant
sb la décision du récepteur, la probabilité d’erreur symbole est donnée par
4.4 Performances des modulations numériques 47
M
X
Pes = P (sb 6= sj = sj émis) p(sj ): (4.42)
j =1
On utilise ensuite la borne de l’union :
X
P (sb 6= sj = sj émis) P (sb = si = sj émis) :
i6=j
La figure 4.7 donne une illustration graphique de la borne de l’union. La probabilité d’erreur est la
probabilité que l’échantillon reçu se trouve à l’extérieur du losange défini par les 4 médiatrices. Alors
que la probabilité d’erreur par couple est la probabilité que l’échantillon reçu se trouve de l’autre coté de
la médiatrice. En faisant la somme des régions des symboles s1 à s4 , on constate qu’il y a des régions
qu’on comptabilise deux fois. Il est à noter enfin que la borne d’union est fine à fort RSB (Rapport Signal
à Bruit).
Si on comptabilise uniquement les erreurs entre symboles voisins, on obtient
M X
X
Pes P (sb = si = sj émis) p(sj ); (4.43)
j =1 i2V (j )
où V (j ) est le voisinage immédiat de sj . Il est à noter que la borne (4.43) est fine à fort RSB. On dit que
(4.43) donne le comportement asymptotique de Pes .
En général, les symboles de la constellation sont équiprobables et uniformément espacés d’une distance
euclidienne d. On en déduit
0s 1
Pes
1 M
X
N (j )Q @
d2 A;
M j =1 2N0 (4.44)
Si on utilise un codage de Gray, les étiquettes binaires des symboles immédiatement voisins de la constel-
lation ne diffèrent que par un seul bit. Ainsi, à fort Rapport Signal à Bruit (RSB), lorsque les erreurs les
plus fréquentes se produisent entre les symboles immédiatement voisins, une erreur symbole entraı̂ne un
seul bit faux sur log2 (M ) d’où
Pes
Peb :
log2 (M )
(4.45)
f (M 1) A; (M 3)A; ; A; A; ; (M 1)Ag :
On a d = 2A et (4.44) donne
0s 1
2(M 2) + 2 Q @ 2A A :
2
Pes
M N0
On doit maintenant exprimer ce résultat en fonction de Eb :
Si le filtre de mise en forme possède une énergie égale à 1, l’énergie moyenne dépensée par symbole vaut
M=2 1
Es = E a2k =
2 X
A2 (2i + 1)2 :
M i=0
4.4 Performances des modulations numériques 49
En utilisant
M
X
i2 =
1 M 3 + 3 M 2 + M ;
i=0
3 2 2
On obtient
Es =
A2 M 2 1 ;
3 (4.46)
d’où
A2 M 2 1
Eb =
3log2 (M ) :
Enfin, on aboutit à
0s 1
Pes
2(M 1) Q @ 2Eb 3 log2(M ) A :
N0 M 2 1
(4.47)
M
Pour M = 2, on retrouve le résultat du chapitre 3 (3.14). Lorsque M augmente; logM (M1) diminue et 2
2
Pes augmente. Ainsi, augmenter la taille de la constellation permet d’augmenter le débit binaire (2.5)
mais la probabilité d’erreur augmente car les symboles de la constellation sont plus proches. Le terme
10 M2 1
log10 3 log 2 (M )
donne la perte asymptotique en dB d’une modulation MDA-M par rapport à la
MDA-2. Cette perte vaut 0, 3.98, 8.45 et 13.25 dB respectivement pour M ; ; 8 et 16. La figure 4.8 =2 4
montre l’évolution de la probabilité d’erreur binaire des modulations MDA-2, 4, 8 et 16 en fonction de
Eb =N0 .
0
10
−1
10
−2
10
MDA−2
MDA−4
MDA−8
MDA−16
Peb
−3
10
−4
10
−5
10
−6
10
0 1 2 3 4 5 6 7 8 9 10
E /N (dB)
b 0
d2 = 4A2 sin2
:
M
L’énergie moyenne dépensée par bit vaut
A2
Eb =
log2 (M )
En remarquant que chaque symbole possède deux voisins pour M > 2 et en utilisant (4.44), on obtient
s !
Pes 2Q
2Eb log2(M )sin2 ; 8M > 2: (4.48)
N0 M
La perte en dB d’une MDP-M par rapport à une MDA-2 vaut donc 10log10 log2 (M )sin2 M . Elle
vaut 0, 0, 3.57 et 8.17 dB respectivement pour M = 2; 4; 8 et 16. La figure 4.9 montre l’évolution de la
probabilité d’erreur binaire des modulations MDP-2, 4, 8 et 16 en fonction de Eb =N0 .
0
10
MDP−4
MDP−8
MDP−16
−1
10
−2
10
Peb
−3
10
−4
10
−5
10
−6
10
0 1 2 3 4 5 6 7 8 9 10
Eb/N0 (dB)
Es =
2A2 (M 1) :
3 (4.49)
4.4 Performances des modulations numériques 51
s !
Pes 4 1 p1 Q
2Eb 3 log2 (M ) :
N0 2(M 1)
(4.50)
M
La perte en dB d’une MAQ-M par rapport à une MDA-2 vaut donc 10log10 32(log M 1) . Elle vaut 0,
(M ) 2
3.98, 8.45 et 13.27 dB respectivement pour M = 4; 16, 64 et 256. La figure 4.10 illustre l’évolution de
la probabilité d’erreur binaire des modulations MAQ-4, 16 et 256 en fonction de Eb =N0 .
On peut retrouver (4.50) d’une autre manière en utilisant les résultats de la MDA-M . Un symbole
MAQ est correctement reçu si sa partie réelle et imaginaire sont correctes. Ainsi
p p
1 PesMAQ M = 1 PesMDA M 2 t 1 2PesMDA M:
d’où
p
PesMAQ M t 2 PesMDA M:
−1
10
−2
10
Peb
−3 MAQ−4
10
MAQ−16
MAQ−64
MAQ−256
−4
10
−5
10
−6
10
0 1 2 3 4 5 6 7 8 9 10
Eb/N0 (dB)
où B (t) est un bruit blanc à bande étroite dont la densité spectrale de puissance est égale à N2 0
sur une
bande fréquentielle finie autour de f0 et f0 et nulle ailleurs.
2. Dessiner sur un même graphique la constellation, les régions de décision et les étiquettes binaires
des symboles selon le codage de Gray.
où X
uc (t) = ak h (t kT ) (4.54)
k
f0 et 0 désignent respectivement la fréquence porteuse et la phase de la porteuse, les fak g désignent une
suite de symboles binaires prenant de manière équiprobable leurs valeurs dans l’alphabet f d; +dg et
h(t) représente, dans toute la suite, un filtre en racine de Nyquist à bande limitée pour le rythme symbole
R = T1 .
Le signal reçu se met sous la forme :
(t) est un “bruit blanc à bande étroite” dont la densité spectrale de puissance est égale N2 sur une
où B 0
bande de largeur finie autour des fréquences f0 et f0 et nulle ailleurs. Le bruit B (t) se décompose sous
la forme :
Les composantes en phase Bc (t) et en quadrature Bs (t) sont supposées gaussiennes, décorrélées et de
densité spectrale de puissance commune N0 .
La structure du récepteur pour la MDP2 est représentée dans la figure suivante
A0 cos (2f0 t + 0 )
On suppose que le récepteur possède une estimation erronée 0 de la phase initiale 0 de la porteuse.
Le signal reçu x(t) est alors multiplié par une onde porteuse sinusoı̈dale A0 cos (2f0t + 0 ) issue d’un
oscillateur local. Dans toute la suite, '0 = 0 0 représente l’erreur d’estimation de phase au niveau
du récepteur.
4.5 TD 3 : Schémas de démodulation 55
1. (a) Expliciter le signal !(t), produit du signal reçu x(t) et de la porteuse A0 cos (2f0 t + 0 ),
sous la forme :
(t) et !2(t) sont des signaux à bande limitée dont les spectres sont localisés respecti-
où !1
vement autour de 0 et de 2f0 .
2. On suppose qu’un filtrage passe-bas supprime pratiquement !2 (t) et n’altère pas !1 (t).
A
!1 (t) = 0 (uc (t) + Bc (t) +
Bs (t))
2 (4.58)
(b) Donner les expressions explicites des facteurs multiplicatifs , et
en fonction de l’erreur
de phase '0 .
3. Montrer que le terme de bruit b(t) = Bc(t) +
Bs(t) possède une DSP égale à N0 dans une
bande finie autour de f = 0.
4. Avec le signal filtré !1 (t) on se ramène à un signal modulé numériquement en bande de base en
présence d’un bruit blanc gaussien. On a vu que le récepteur qui minimise la probabilité d’erreur
(
est constitué par le filtre h t0 t) adapté au signal h(t), suivi d’un comparateur à seuil.
(a) Exprimer la probabilité d’erreur binaire (identique à la probabilité d’erreur sur les symboles
pour une modulation MDP-2) sous la forme :
r !
1
Pe = erfc
P
2 N0 D
(4.59)
où P est la puissance reçue utile (puissance du signal utile u (t)) et D = R = T1 est le débit
binaire. Indication : s’inspirer de l’expression de la probabilité d’erreur en l’absence d’erreur
de phase au niveau du récepteur.
(b) Donner la valeur explicite de la dégradation 10log10 occasionnée par une erreur sur la
phase initiale par rapport à une démodulation parfaite (sans erreur sur la phase initiale) en
fonction de l’erreur de phase '0 .
(c) Déterminer l’erreur de phase correspondant à la probabilité d’erreur maximale de 0.5 et in-
terpréter.
56 Transmission sur onde porteuse sur un canal à bande illimitée
Annexe A
Corrigé du TD 1
On a
= p1T p1T
Z Ts =2 Z Ts
G(f ) e 2jft dt e 2jft dt
s 0 s Ts =2
p Ts Ts
= Ts je jTs f sinc f
2 sin f
2 :
En outre, on a E (dk ) = 0 et Var(dk ) = A2 : Etant donné que le codage des bits ak en symboles dk
n’introduit pas de mémoire, les dk sont i.i.d. Ainsi la formule de Benett se simplifie comme suit :
Ss (f ) = V ar(dk )
jG(f )j2
Ts
T T
= A2 sinc2 f s sin2 f s :
2 2
On remarque que la DSP est nulle en f = 0: La puissance de transmission est donnée par :
Z 2
P = Ss(f )df = ATs :
L’énergie moyenne transmise par symbole vaut
Es = P Ts = A2 :
On peut vérifier ce résultat en raisonnant dans le domaine temporel :
Z
Es = E d2k jg(t)j2 dt = A2 :
58 Corrigé du TD 1
1. On a
2. On a
3. On a
P (dk = A) = P (dk = A; dk 1 = A) + P dk = A; dk 1 = 0
= P (dk = A=dk 1 = A) P (dk 1 = A) + P dk = A=dk 1 = 0 P dk 1 = 0
= P (ak = 1)P (dk 1 = A) + P (ak = 0)P dk 1 = 0
= 21 P (dk 1 = A) + 12 P dk 1 = 0 : (A.3)
1
P (dk = 0+ ) = P dk 1 = 0+
+ 12 P (dk 1 = A) :
2 (A.4)
5. Par hypothèse, la relation est vérifiée pour k = 0. Si la relation est vraie pour k; alors on montre
+ 1 en utilisant (A.1)-(A.4).
aisément qu’elle est vrai pour k
On en déduit que md = 0 et Rd (0) = A2 :
2
6. On a
A2
Rd (1) = E (dk dd 1 ) =
4:
8. Démontrons que
59
dk 1 ndk A 0 0+ A
A 0 1
8 0 1
8
0 0 1
8 0 1
8
0+ 1
8 0 1
8 0
A 1
8 0 1
8 0
TAB . A.1 – Tableau de transition d’un codeur Bipolaire.
P (dk ; dk i ) = 161 8i 2:
Lorsque dk i est fixé, dk i+1 peut prendre deux valeurs possibles qu’on note xk i+1 et yk i+1 d’où
Ainsi
i
P (dk ; dk )=2 i 2 1 1= 1:
i
2 4 16
D’où
2
Ss(f ) = A2 sinc(Tsf )2 [1 cos (2Ts f )]
= A2 sinc(Tsf )2sin(Tsf )2
On a
E (dk ) = 0;
et
V ar(dk ) = A2 :
Lorsque dk i est fixé, dk i+1 peut prendre deux valeurs notées xk i+1 et yk i+1 . Ainsi, on a
P (dk ; dk i ) = 41 8i 1:
On en déduit que
Ss(f ) = A2 sinc(Ts f )2 :
Corrigé du problème
1. On a
uk (1 2p)uk 1 = p: (A.5)
2. On a
Ainsi
vk (1 2p)vk 1 = p: (A.6)
3. Une solution particulière de (A.5) et (A.6) est donnée par u0k = vk0 = 1=2: Ainsi les solutions de (A.5)
et (A.6) sont données par
uk = (1 2p)k + 12 :
2p)k + 21 :
vk = (1
Or u0 = v0 = 1=2 d’où = = 0 et donc P (dk = A) = P (dk = A) = 1=2: On en déduit que
md = E (dk ) = 0.
4. Rd (0) = E (d2k ) = A2 :
5. Les probabilités de transition sont données par
P (dk = A; dk 1 = A) = P (dk = A; dk 1 = A) =
1 p
;
2
62 Corrigé du TD 1
p
P (dk = A; dk 1 = A) = P (dk = A; dk 1 = A) = :
2
On en déduit
XX
Rd (1) = xyP (dk = x; dk 1 = y) = A2 (1 2p):
x y
6. On a
dk = dk 1 bk :
On en déduit
k
Y
Rd (m) = E (dk dk m ) = A2 E ( bl ) = A2 (1 2p)m 8m 0:
l=k m+1
8. Un simple calcul donne :
X
Ss(f ) = sinc(Ts f )2 Rd (k)e 2jkTs f
k
2 3
X X
= A2 sinc(Ts f )2 4 1 + (1 2p)k e 2jkTs f + (1 2p) k e 2jkTs f 5
k0 k0
= A2 sinc(Ts f )2
1 1
1 + 1 (1 2p)e 2jTsf + 1 (1 2p)e2jTs f
= 1 + (1 4A2psinc (Tsf )2p(1 p)
2
) 2(1 2p)cos(2Ts f ) :
2
Annexe B
Corrigé du TD 2
Corrigé de l’exercice :
On vérifie graphiquement que le filtre 1 permet une transmission sans IES à Ds = fmax. Le filtre 2
permet une transmission sans IES à Ds = 4fmax=3. Le filtre 3 permet une transmission sans IES à
Ds = 2fmax =3.
Corrigé du problème 1 :
Z
u0 = s0 (t)gr (t0 t)dt;
Z
= S0 (f )Gr (f )e2jft0 dt:
De même
Z
u1 = S1 (f )Gr (f )e2jft0 df:
2. On appelle z (t) le signal obtenu à la sortie du filtre gr (t); la probabilité d’erreur est donnée par
Pe = 1 P (z(t ) > s=s (t) émis) + 1 P (z(t ) < s=s (t) émis)
2 0 0 2 0 1
= 1 P (B (t0) > s-u0 ) + 1 P (B (t0) < s-u1)
2 2
= 1 Q( s u 0 ) + 1 Q ( u 1 s )
2 B 2 B
64 Corrigé du TD 2
Pour trouver le seuil optimal, il suffit d’annuler la dérivée partielle de Pe par rapport à s :
@Pe
= 2 2 1p exp
(s u0 )2
+ exp (u1 s)2 = 0:
@s B 2B 2B
En développant les calculs, on obtient
u +u
sopt = 0 1 :
2
3. La probabilité d’erreur correspondante devient
u u
Pe = Q ( 1 0 ) = Q
2B 2 :
où
Z
N
B2 = 0 jGr (f )j2 df:
2
4. En utilisant l’inégalité de Schwartz, on a
S0 (f )) Gr (f )e2jft0 df 2
R
2 =
(S1 (f ) N2
Z
jS1(f ) S0(f )j2 df = 2
2
:
N0 R jG (f )j2 df 0 N
0
2 r
Le rapport est maximal pour
Gr (f )e 2jft0 = [S1 (f ) S0 (f )]
C’est à dire lorsque gr est adapté à s1 (t) s0 (t) :
Pe = Q @
2 A :
2N0
6. Pour le code NRZ symétrique, la distance euclidienne vaut
0
Pour le code RZ, on a
2 = 2 Z Ts =2
A2 dt = 2Eb :
Ts 0
La probabilité d’erreur binaire du code NRZ symétrique est donnée par
65
r !
Pe = Q
2Eb :
N0
Corrigé du problème 2 :
1) a) Puisque les symboles émis prennent de manière équiprobable leurs valeurs dans l’alphabet
, les
seuils optimums de décision se trouvent au milieu des différents symboles : s = 2d; s0 = 0 et
s+ = 2d.
1) b) et c) et 2)
Pes=ak = 3d = Pes=ak =3d = P ( 3d + bk > s ) = 12 erfc (3p22)d
et
4 2 4 2 4 2
5) a) Pour des raisons de symétrie, on a Peb= k =0 = Peb= k =1 : Par ailleurs,
2 2
1 1
Peb=2k =0 = Peb=2k =0;2k+1 =0 + Peb=2k =0;2k+1 =1 :
2 2
Lorsque 2k = 0; 2k+1 = 0, ak = 3d et la probabilité de décider en faveur de 2k = 1 est
1 3d
Peb=2k =0;2k+1 =0 = P ( 3d + bk > s0 ) = 2 erfc p :
2
Lorsque 2k = 0; 2k+1 = 1, ak = d et la probabilité de décider en faveur de 2k = 1 est
1 d
Peb=2k =0;2k+1 =1 = P ( d + bk > s0 ) = 2 erfc p :
2
On en déduit
1 d 1 3
Peb= k = erfc p + erfc p :
d
2
4 2 4 2
67
5) b) On commence par déterminer la probabilité d’erreur binaire lorsque 2k+1 = 0: Pour des raisons
de symétrie, on a
On s’intéresse maintenant au calcul de la probabilité d’erreur binaire lorsque 2k+1 = 1: Pour des raisons
de symétrie, on a
Peb=2k+1
1 (2 ) d
= 4 erfc p2 + 4 erfc p21 (2 + ) d
1 (3
+ 4 erfc p2 2)d 1 (3 + 2)d
p
4 erfc 2
5) c)
Peb
1 (2 )d 1 (2 + )d
= 8 erfc p2 + 8 erfc p2 + 8 erfc p2 1 (3 2)d
8 2 8 2
68 Corrigé du TD 2
Annexe C
Corrigé du TD 3
Corrigé du problème 1 :
2. En développant les calculs et en éliminant les composantes hautes fréquences (autour de 2f0), on
obtient
zc (t) =
1 X (t kTs )cos(k + 0 1 ) +
Bc (t)
;
2 k 2 (C.2)
et
zs (t) =
1 X (t kTs )sin(k + 0 1 ) +
Bs (t)
;
2 k 2 (C.3)
8
1 Tts si t 2 [0 Ts]
>
>
<
(
)(t) = > 1 + Tts si t 2 [ Ts 0] : (C.4)
>
:
0 ailleurs
Ainsi, le filtre global vérifie le critère de Nyquist puisqu’il s’annule en kTs 8k 6= 0.
4. Il n’y a pas d’IES, donc
Bc0 (nTs )
ac (n) = cos(n + 0 1 ) + ;
2 (C.5)
70 Corrigé du TD 3
Bs0 (nTs )
as (n) = sin(n + 0 1 ) + ;
2 (C.6)
où
0
Bc (t) = (Bc
)(t);
et
0
Bs (t) = (Bs
)(t):
5. Il suffit de calculer
bs (n)
si bc (n) > 0 alors n n 1 = arctan :
bc (n)
bs (n)
si bc (n) < 0 alors n n 1 = + arctan :
bc (n)
On place ensuite un comparateur à seuil pour effectuer la prise de décision et on déduit enfin sn grâce à
f 1.
6. L’intérêt de ce démodulateur c’est qu’on n’a pas besoin d’estimer la phase de la porteuse utilisée à
l’émission.
Corrigé du problème 2 :
X X
s(t) = cos (2f0 t + 0 ) ak g(t kTs ) sin (2f0 t + 0 ) bk g(t kTs ):
k k
On en déduit l’expression de l’enveloppe complexe de s (t) :
71
X
se (t) = (ak + jbk ) g(t kTs )::
k
2)
Z
Es = E jdk j2 g(t)2 dt
Z
= 2E jak j2 g(t)2 dt
A2 + 9A2
Z
= 2 2 g(t)2 dt = 10A2 :
On en déduit l’énergie moyenne transmise par bit
Es
Eb =
4 = 2:5A :
2
4) En comptabilisant uniquement les erreurs entre les symboles immédiatement voisins de la constel-
lation, nous avons établi en cours l’expression de la probabilité d’erreur symbole pour une modulation
MAQ-M :
72 Corrigé du TD 3
s !
Pes = 4 1 p1 Q
2Eb 3log2 (M ) :
M N0 2(M 1)
Ainsi, pour une MAQ-16, on a
r !
Pes = 3Q
2Eb 2 :
N0 5
5) Si on utilise un codage de Gray, la probabilité d’erreur binaire est donnée par
r !
Peb =
Pes
log2 (M )
= 34 Q 2Eb 2
N0 5
:
6) L’expression de Pes est valable à fort Rapport Signal à Bruit (RSB) c’est à dire lorsque les erreurs se
produisent uniquement entre les symboles immédiatement voisins dans la constellation. L’expression de
Peb est également valable à fort RSB et si on utilise un codage de Gray.
7) En cours, nous avons montré que la probabilité d’erreur binaire d’une MDP-4 est donnée par
r !
Peb = Q
2Eb :
N0
Ainsi la modulation MAQ-16 possède de moins bonnes performances en terme de probabilité d’erreur
par rapport à la MDP-4. La perte en dB de la MAQ-16 par rapport à la MDP-4 vaut
Corrigé du problème 3 :
1) a) et 1) b) On a
où
A A0
w1 (t) = 0 cos ('0 ) [uc (t) + Bc (t)]
2 2 sin ('0) Bs(t);
A A0
w2 (t) = 0 cos (4f0 t + 0 + 0 ) [uc (t) + Bc (t)]
2 2 sin (4f0t + 0 + 0) Bs(t):
Bc (t) et Bc (t) étant des bruits blancs de DSP égale à N0 sur une bande fréquentielle finie autour de 0,
w1 (t) et w2 (t) sont des signaux à bande limitée respectivement autour de 0 et 2f0 .
2) a) et 2) b)
Clairement
= = cos ('0 ) ;
et
= sin ('0 ) :
3) L’étude de la décomposition de Rayleigh effectuée en cours a permis de montrer que Bc (t) et Bs(t)
sont décorrélés et centrés. Calculons la fonction d’autocorrélation de b(t)
Rb ( ) = E (b(t)b(t ))
= 2 RBc ( ) +
2 RBs ( ) +
RBc Bs ( ) +
RBs Bc ( )
= 2 RBc ( ) +
2 RBs ( ) :
Sb (f ) = 2 SBc (f ) +
2 SBs (f )
= N0 sur une bande étroite autour de 0.
0s 1
[1] J.G. Proakis, Digital communications, M.C. Graw-Hill, Third edition, 1995.
[3] J.C. Bic, D. Duponteil, J.C. Imbeaux, Eléments de communications numériques : transmission sur
fréquence porteuse, tome 1, Collections techniques et scientifiques des télécommunications, Dunod,
1986.
[4] H.P. Hsu, Communications analogiques et numériques, Série Schaum, M.C. Graw-Hill, 1993.
[5] H. Jamali, Y. Coutu, Communication numérique et réseaux, Reynal Goulet inc, M.C. Graw-Hill,
1998.