Youssef

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 50

TRANSMISSION DE L'INFORMATION

SUPPORT DE COURS
E3i, 2001-2002
Universit de Tours







Michel Crucianu






Ecole d'Ingnieurs en Informatique pour l'Industrie (E3I)
64, avenue Jean Portalis
37200 TOURS

Table des matires
1. Transmission de l'information : problmes rsoudre....................................................................... 1
2. Elments de thorie de l'information.................................................................................................... 1
2.1. Aspects qualitatifs et quantitatifs de l'information ................................................................. 1
2.2. Self-information, entropie de la source .................................................................................. 2
2.3. Canal de transmission idalis ............................................................................................... 3
2.4. Canal de transmission rel...................................................................................................... 5
3. Codage des informations ....................................................................................................................... 7
3.1. Types de codage..................................................................................................................... 7
3.2. Dtection et correction des erreurs......................................................................................... 8
3.2.1. Quelques dfinitions gnrales...................................................................................... 8
3.2.2. Codes en blocs .............................................................................................................. 9
3.2.2.1. Codes linaires ..................................................................................................... 10
3.2.2.2. Codes cycliques.................................................................................................... 13
3.2.3. Codes continus .............................................................................................................. 14
3.2.4. Correction par retransmission ....................................................................................... 15
4. Compression des informations .............................................................................................................. 16
4.1. Problmes et classifications ................................................................................................... 16
4.2. Proprits gnrales des compacteurs .................................................................................... 17
4.3. Quelques techniques primitives.............................................................................................. 17
4.3.1. Codage des rptitions .................................................................................................. 17
4.3.2. Codage topologique ...................................................................................................... 17
4.3.3. Codage relatif................................................................................................................ 17
4.4. Algorithmes statistiques ......................................................................................................... 18
4.4.1. Algorithme de Huffman ................................................................................................ 18
4.4.2. Algorithmes dynamiques............................................................................................... 19
4.4.2.1. Algorithme sans en-tte........................................................................................ 20
4.4.2.2. Algorithme avec en-tte ....................................................................................... 20
4.4.3. Algorithmes d'ordre suprieur 0 ................................................................................. 20
4.5. Algorithmes de type dictionnaire ........................................................................................... 21
4.5.1. Algorithme LZW (Lempel et Ziv 1977, Welch 1984) .................................................. 21
4.5.2. Algorithme de Storer et Szymanski............................................................................... 22
4.6. Algorithmes mixtes ................................................................................................................ 22
4.7. Compression avec perte d'informations.................................................................................. 22
4.7.1. Compression des images ............................................................................................... 23
4.7.1.1. Mthode JPEG..................................................................................................... 23
4.7.2. Compression des sons ................................................................................................... 24
4.7.2.1. Mthode PASC .................................................................................................... 24
5. Cryptage des informations .................................................................................................................... 25
5.1. Problmes et classification..................................................................................................... 25
5.2. Systme DES.......................................................................................................................... 25
5.3. Systme RSA (Rivest, Shamir, Adleman) .............................................................................. 26
5.3.1. Authentification............................................................................................................. 27
5.3.2. Distribution de cl publique .......................................................................................... 27
5.4. Key Escrow ............................................................................................................................ 28
6. Supports de transmission....................................................................................................................... 29
6.1. Canal de transmission............................................................................................................. 29
6.1.1. Caractristiques du signal.............................................................................................. 29
6.1.2. Caractristiques du canal............................................................................................... 30
6.1.3. Bande passante, rapidit de modulation et capacit de transmission............................. 31
6.2. Transmission sur supports filaires en cuivre .......................................................................... 31
6.2.1. Supports bifilaires (symtriques)................................................................................... 31
6.2.2. Support coaxial ............................................................................................................. 32
6.3. Transmission par fibre optique............................................................................................... 32
6.3.1. Wavelength Division Multiplexing................................................................................ 33
6.4. Les ondes en transmission vue directe................................................................................. 33
6.4.1. Transmissions par rayons laser...................................................................................... 33
6.4.2. Transmissions par faisceaux hertziens .......................................................................... 33
6.5. Transmissions par satellite ..................................................................................................... 33
7. Types de transmission............................................................................................................................ 34
7.1. Bande de base ou transposition de frquence......................................................................... 34
7.1.1. Transmission en bande de base. Codage du signal........................................................ 34
7.1.1.1. Spectre de frquences d'un signal binaire............................................................. 35
7.1.1.2. Codages NRZ et NRZI......................................................................................... 35
7.1.1.3. Codage Manchester.............................................................................................. 36
7.1.1.4. Codage Manchester diffrentiel ........................................................................... 36
7.1.1.5. Codage de Miller.................................................................................................. 36
7.1.1.6. Codages bipolaires ............................................................................................... 36
7.1.2. Transmission par transposition de frquence ................................................................ 37
7.1.2.1. Modulation d'amplitude ....................................................................................... 38
7.1.2.2. Modulation de frquence...................................................................................... 38
7.1.2.3. Modulation de phase ............................................................................................ 39
7.1.2.4. Modulations combines d'amplitude et de phase ................................................. 39
7.1.2.5. Principaux avis du CCITT (actuel UIT-T) concernant les modems..................... 39
7.1.3. Modulation par impulsion et codage (MIC).................................................................. 40
7.2. Multiplexage en frquence ou multiplexage temporel............................................................ 41
7.3. Parallle ou srie .................................................................................................................... 42
7.4. Synchrone ou asynchrone....................................................................................................... 42
7.5. Point point ou multipoint..................................................................................................... 43
7.6. Simplex, semi-duplex ou duplex ............................................................................................ 43
7.7. Commutation de circuits, de messages ou de paquets ............................................................ 44
7.8. Types de procdures de communication ................................................................................ 45
Bibliographie ................................................................................................................................................... 46


E3i, 2001 Transmission de l'information 1
1. Transmission de l'information : problmes rsoudre
La fiabilit des transmissions : protection contre les erreurs (dtection/correction, fiabilit des supports).
L'utilisation efficace du rseau : dbit de transmission, compression.
La confidentialit des transmissions : cryptage.
Les contraintes temporelles : dbits, dlais, synchronisation.
L'interoprabilit : faire cooprer des quipements/protocoles htrognes.
2. Elments de thorie de l'information
2.1. Aspects qualitatifs et quantitatifs de l'information
La quantit d'information qu'amne la connaissance d'un vnement (l'indtermination que lve un message) est
d'autant plus grande que l'vnement en question est peu probable. Quand l'vnement est certain, la quantit
d'information qu'amne le message est bien entendu nulle. Exprime en bits, la quantit d'information au sens de
Shannon est :
), 1 ( log
2
= p p Q
p tant la probabilit de ralisation de
l'vnement.
1 p
0
lo g p
2

Un systme de communication peut tre reprsent de la faon suivante :
Source Canal Utilisateur

Le canal (ou voie) transporte l'information entre une source (ou metteur) et un utilisateur (ou rcepteur). La
source slectionne et transmet des squences x
i
de messages (par exemple, des lettres) d'un alphabet X donn,
M lments ; pour le rcepteur, cette slection s'effectue au hasard, en respectant toutefois une certaine
distribution de probabilit (si le message n'tait pas alatoire du point de vue du rcepteur, la communication
serait inutile car le rcepteur pourrait prdire le message transmettre). Le rcepteur peut recevoir un alphabet Y
form de N messages possibles y
i
. Le canal est perturb par un bruit qui affecte l'information transmise sur le
canal. Pour le rcepteur, l'action du bruit est alatoire, sinon le bruit pourrait tre entirement prdit et donc
limin. Le codeur et le dcodeur permettent d'adapter la source et le rcepteur aux caractristiques du canal.
Au dpart, l'utilisateur connat les probabilits ( )
k
x p pour les messages que la source peut mettre,
appeles probabilits a priori, et les probabilits conditionnelles ( )
i k
y x p . Une fois reu le message y
i
,
l'utilisateur a appris quelque chose de plus sur la source ; il peut utiliser ( )
i k
y x p au lieu de ( )
k
x p . La figure
suivante montre un exemple d'volution ( ) ( )
i k k
y x p x p grce la rception de
i
y :
x
p ( x )
p ( x \ y )

2 Transmission de l'information E3i, 2001
Nous dfinissons l'information mutuelle entre les messages
k
x et
i
y comme
( )
( )
( )
( ) [ ] ( ) [ ]
( ) ( )
( ) ( )

> <
< >
= =
i k k
i k k
i k k
k
i k
i k
y x p x p
y x p x p
y x p x p
x p
y x p
y x I
si 0
si 0
, log log log ;
2 2 2
.
L'information mutuelle est une mesure du transfert d'information. En effet, avant la rception de
i
y l'utilisateur
connat seulement la probabilit a priori ( )
k
x p , alors qu'aprs la rception de
i
y ( ( ) 1 =
i
y p ) l'utilisateur
connat ( ) ( ) ( ) ( )
i k i k i i k
y x p y x p y p y x p = = , (probabilit a posteriori). On peut montrer facilement que
l'information mutuelle est symtrique, ( ) ( )
k i i k
x y I y x I ; ; = . On observe que ( ) 0 ; >
i k
y x I pour
( ) ( )
k i k
x p y x p > et ( ) 0 ; <
i k
y x I pour ( ) ( )
k i k
x p y x p < . Cas particuliers pour ( )
k
x p donne :
1 Recevoir y
i
informe avec certitude l'utilisateur que le message x
k
a t mis
( ) ( ) ( )
k i k i k
x p y x I y x p
2
log ; 1 = = , l'information mutuelle est maximale.
2 y
i
est statistiquement indpendant des x
k

( ) ( ) ( ) 0 ; =
i k k i k
y x I x p y x p , l'arrive de y
i
ne nous apprend rien sur x
k
.
2.2. Self-information, entropie de la source
Supposons que le fait de recevoir y
i
informe avec certitude l'utilisateur que le message x
k
a t mis,
( ) 1 =
i k
y x p , alors ( ) ( )
( )
( )
k
k
k i k
x p
x p
x I y x I
2 2
log
1
log ; = = = , que nous appelons self-information
fournie par x
k
. La self-information reprsente donc la quantit d'information contenue dans x
k
. Nous pouvons
vrifier que ( ) ( )
k i k
x I y x I ; .
La valeur moyenne de la self-information contenue dans la source d'alphabet X sera alors
( ) ( ) ( ) ( ) ( )

= =
= =
M
k
k k
M
k
k k
x I x p x p x p X H
1 1
2
log ,
(par convention, si ( ) 0 = x p alors ( ) ( ) 0 log
2
= x p x p )
appele entropie de la source. On peut montrer que si la source peut mettre M messages, alors
( ) M X H
2
log , l'galit tant obtenue pour ( ) k M x p
k
= , 1 . Le maximum de ( ) X H est donc obtenu
lorsque tous les messages que la source peut mettre sont quiprobables.
Valeurs moyennes de l'information mutuelle :
1 Moyenne sur X :
( ) ( ) ( )

=
=
M
k
i k i k i
y x I y x p y X I
1
; ; .
On peut montrer que ( ) 0 ;
i
y X I (mme si, pour certains k, ( ) 0 ; <
i k
y x I ), l'galit se produisant
lorsque y
i
est statistiquement indpendant des x
k
( ( ) ( )
k i k
x p y x p , l'arrive de y
i
ne nous apprend
rien sur les x
k
). On peut dfinir aussi l'entropie conditionnelle de la source :
( ) ( ) ( )

=
=
M
k
i k i k i
y x p y x p y X H
1
2
log
et on peut montrer que ( ) ( ) ( ) X H y X H y p
i i
, donc une fois y
i
reu ( ( ) 1 =
i
y p ), l'entropie de
la source vue par l'utilisateur ne peut que diminuer.

E3i, 2001 Transmission de l'information 3
2 Moyenne sur X et Y :
( ) ( ) ( )

= =
=
N
i
M
k
i k i k
y x I y x p Y X I
1 1
; , ; ,
( ) ( ) ( )

= =
=
N
i
M
k
i k i k
y x p y x p Y X H
1 1
2
log , .
On peut montrer que ( ) 0 ; Y X I , ( ) ( ) X H Y X H , ( ) ( ) ( ) Y X H X H Y X I = ; et donc
( ) ( ) X H Y X I < ; 0 . ( ) X H est la quantit moyenne d'information contenue dans la source,
( ) Y X I ; est la quantit moyenne d'information transmise travers le canal et ( ) Y X H (appele
quivocation) est la quantit moyenne d'information encore contenue dans la source aprs rception du
message.
Cas extrmes :
1 La transmission est (presque) sans erreur ( ( ) 1 , ,
i k
y x p k i ) : ( ) ( ) X H Y X I ; .
2 Les messages reus sont indpendants des messages envoys ( ( ) ( )
k i k
x p y x p i k , , ) :
( ) 0 ; = Y X I .
Proprits utiles de l'entropie :
1 L'entropie dpend du niveau d'analyse du systme : si un des messages est dcompos en deux messages
(analyse plus fine) l'entropie augmente :
( ) ( ) ( ) ( ) ( ) ( ) ( )

=
j k
k k j j j j
x p x p x p x p x p x p X H
2 2 2 2 1 2 1
log log log , avec
( ) ( ) ( )
2 1 j j j
x p x p x p + = , et alors
( ) ( ) ( ) ( ) ( ) ( ) ( ) ( )
( )
( )
( )
( )
( )
( )
. 0 log log
log log log
2
2 2
1
2 1
2 2 2 2 1 2 1
> + =
= + =
j
j
j
j
j
j
j j j j j j
x p
x p
x p
x p
x p
x p
x p x p x p x p x p x p X H X H

2 L'entropie de la runion de deux sources est suprieure la somme pondre des entropies des sources.
2.3. Canal de transmission idalis
Un canal est discret si les deux alphabets X et Y sont discrets ce sera le cas dans ce qui suit. Nous avons
considr jusqu'ici que le canal pouvait transmettre tous les M symboles de l'alphabet X de la source, ce qui en
gnral n'est pas le cas. Supposons que l'alphabet du canal, not Z, est compos de D symboles, avec D < M. Il
faut alors intercaler un codeur entre la source et le canal, codeur qui fera correspondre de faon biunivoque
chaque message x
k
mis par la source une squence z
k
de longueur n
k
de symboles appartenant Z :
Source codeur Canal dcodeur Utilisateur

Nous avons ainsi adapt la source au canal. Soit n la longueur moyenne des squences :
( )

=
=
M
k
k k
x p n n
1
.
4 Transmission de l'information E3i, 2001
Dans le cas d'un canal idal, nous dsirons trouver un codeur qui assure une valeur minimale pour n .
L'entropie de la source est ( ) X H , qui sera aussi l'entropie du codeur par messages ; l'entropie du codeur par
symboles sera alors
( )
n
X H
. L'entropie maximale du codeur est D
2
log , donc l'efficacit du codeur est :
( )
D
n
X H
E
2
log
= ; 1 < E dans tous les cas utiles (voir plus loin), donc
( )
D
X H
n
2
log
.
Le plus simple est d'effectuer le codage par des blocs de longueur fixe n . Il faut que le nombre de codes
distincts soit suffisant, c'est dire M D
n
, d'o
D
M
n
2
2
log
log
. Dans le cas particulier o tous les messages
sont quiprobables, ( ) M X H
2
log = , ce qui nous mne la mme ingalit
( )
D
X H
n
2
log
. Le signe gal est
obtenu quand
n
D M = , et dans ce cas l'efficacit est de 1.
Le codage doit donc compte de la distribution de probabilit des messages : plus un message est
probable, plus le code associ doit tre court. Avec les codes de longueur variable se pose le problme de
dterminer le dbut d'un mot de code. Les codes permettant une dmarcation sans ambigut s'appellent codes
sparables. Il a t montr que pour un code sparable optimal les ingalits suivantes sont vrifies (attention,
n n'est pas un entier) :
( ) ( )
1
log log
2 2
+ <
D
X H
n
D
X H
.
La borne infrieure est valable pour tout code sparable (si le code n'est pas sparable, n peut tre infrieur la
limite indique, et donc l'efficacit suprieure 1 !), la borne suprieure est valable uniquement pour des codes
judicieusement choisis (nous verrons un exemple dans le chapitre "Compression des informations").
Dfinissons une extension d'ordre n de la source initiale. Supposons que nous avons transmettre n
messages de X ; si au lieu de transmettre les messages au fur et mesure de leur arrive nous les emmagasinons
dans un codeur, nous aurons alors transmettre M
n
messages u possibles (nous dsignerons par
n
X U = cet
ensemble), chaque message tant constitu d'une squence de n symboles appartenant X. Le rsultat est une
extension d'ordre n de la source. Le rcepteur reoit des messages v correspondants (nous noterons par
n
Y V =
cet ensemble).
Dans l'hypothse o les messages x mis par la source sont statistiquement indpendants, avec une
distribution de probabilit ( ) x p stationnaire (qui ne change pas dans le temps), la borne infrieure indique peut
tre atteinte en limite. Shannon a montr, en effet, en partant des ingalits prcdentes et en utilisant des
extensions d'ordre n de la source, qu'on peut obtenir (pour des codes bien choisis) :
( )
D
X H
n
n
2
log
lim =

,
n tant la longueur moyenne de la squence par message de la source. Ce rsultat est appel le premier
thorme fondamental de Shannon et indique qu'il est effectivement possible de trouver un code sparable
d'efficacit 1 (c'est un rsultat en limite, qui suppose que le nombre de messages groups avant codage tend vers
l'infini).

E3i, 2001 Transmission de l'information 5
2.4. Canal de transmission rel
Contrairement au canal idalis, un canal rel est affect par le bruit. Le canal est caractris par une matrice de
transition P (appele aussi matrice stochastique) :
( ) ( )
( ) ( )

=
M N M
N
x y p x y p
x y p x y p
P

1
1 1 1
(rappel : ( )
( ) ( )
( ) x p
y p y x p
x y p

= ).
Le canal est constant (par opposition un canal mmoire) si sa matrice de transition est constante dans le
temps (ne change pas d'un message au suivant). Nous considrerons ici uniquement des canaux constants.
Cas extrmes :
1 Le canal n'est pas perturb par le bruit. Dans ce cas, M = N et P I
N
modulo une renumrotation des
y ou des x (matrice identit d'ordre N).
2 Il n'y a aucune corrlation entre les messages d'entre et les messages de sortie, cest dire
( ) ( )
i k i
y p x y p = . Dans ce cas, toutes les lignes de la matrice sont identiques.
Nous avons remarqu que pour un canal ( ) ( ) X H Y X I < ; 0 , les cas extrmes tant celui d'un canal
(presque) sans bruit ( ( ) ( ) X H Y X I ; ) et celui d'un canal qui ne transmet pas l'information ( ( ) 0 ; = Y X I ).
Pour un cas intermdiaire, la matrice de transition P tant donne, il serait utile de dterminer le maximum de
( ) Y X I ; par rapport aux distributions de probabilits possibles pour les messages de la source ( ( ) x p ). Afin
d'amliorer la transmission, nous essayerons de privilgier ( ( ) x p lev) les messages de la source qui ne
sont pas affects par les perturbations spcifiques au canal (telles qu'elles sont indiques par P), et
d'utiliser le moins possible les autres messages ( ( ) 0 x p ).
Le problme peut tre formul de faon plus gnrale en faisant appel aux extensions d'ordre n de la
source (et du rcepteur). Le codeur transmet les M
n
messages u possibles, chaque message tant constitu d'une
squence de n symboles appartenant X. Le rcepteur reoit des messages v correspondants. Les distributions
( ) u p , ( ) v p et ( ) u v p peuvent tre facilement obtenues si les distributions ( ) x p , ( ) y p et ( ) x y p sont
connues et les symboles successifs sont indpendants :
( ) ( )

=
=
n
i
i
x p u p
1
, ( ) ( )

=
=
n
i
i i
x y p u v p
1
, ( ) ( ) ( )

=
U u
u v p u p v p .
Nous pouvons alors dfinir l'information mutuelle moyenne entre U X
n
= et V Y
n
= :
( ) ( )
( )
( )

=
n n
X Y
n n
v p
u v p
v u p Y X I
2
log , ; .
( )
n n
Y X I ; reprsente la quantit d'information fournie en moyenne par la squence reue v sur la squence
envoye u. Alors
( )
n
Y X I
n n
;
reprsente la quantit d'information fournie, en moyenne, par un symbole de
sortie y sur un symbole d'entre x. La capacit d'un canal discret et constant est :
( )
( )
n
Y X I
C
n n
n u p
;
max
,
.
On peut montrer que ( ) ( )

n
i
i i
n n
Y X I Y X I
1
; ; , o ( )
i i
Y X I ; est l'information mutuelle moyenne associe
aux symboles occupant la i-me position des squences u et v. L'galit a lieu lorsque les symboles de la
squence d'entre sont statistiquement indpendants les uns des autres (cas utile), ainsi que lorsque les symboles
de la squence de sortie sont statistiquement indpendants des symboles de la squence d'entre (cas sans intrt).
6 Transmission de l'information E3i, 2001
( )
n n
Y X I ; sera donc maximum lorsque les x
i
successifs (et par consquence les y
i
successifs) seront
statistiquement indpendants. Dans ce cas, maximiser ( )
n n
Y X I ; revient maximiser les diffrents
( )
i i
Y X I ; , donc choisir la distribution optimale ( ) ( ) x p x p
i
= , quel que soit le rang du symbole d'entre.
Alors ( ) ( ) Y X I Y X I
i i
; ; = , et donc
( )
( ) Y X I
n
Y X I
n n
;
;
= quel que soit n, cest dire
( )
( ) Y X I C
x p
; max .
Premier cas particulier : canal (presque) non bruit ; alors ( ) ( ) X H Y X I ; , et comme ( ) X H est
maximal lorsque les messages sont quiprobables, ( ) x p recherche est la distribution quiprobable.
Nous appellerons un canal discret et constant uniforme l'entre lorsque les lignes de la matrice de
transition sont des permutations d'un mme ensemble de valeurs. Pour un tel canal, la transmission est perturbe
de la mme manire quel que soit le symbole inject l'entre. Pour un tel canal la matrice de transition (et
donc l'quivocation) tant donne la capacit est maximale lorsque l'entropie du rcepteur est maximale, c'est
dire lorsque la probabilit des symboles d'entre t choisie de telle sorte que les symboles de sortie sont
quiprobables. Un canal discret et constant est uniforme la sortie lorsque les colonnes de la matrice de
transition sont des permutations d'un mme ensemble de valeurs. Pour un tel canal, des symboles d'entre
quiprobables entranent des symboles de sortie quiprobables.
Deuxime cas particulier : canal uniforme l'entre et la sortie. Pour un tel canal la capacit est donc
maximale lorsque les symboles d'entre sont quiprobables (et donc les symboles de sortie, voir plus haut). Cette
capacit maximale sera :
( ) N p p N C
N
j
j j 2
1
2 2
log log log + =

=
, p
j
tant les lments d'une ligne de la matrice P.
Pour une source X nous pouvons dfinir le taux (ou dbit d'informations)
( )
S
T
T
X H
R = , T
S
tant l'intervalle
entre deux missions de la source. Pour un canal qui reoit les messages de X et dlivre les messages de Y, canal
caractris par sa matrice de transition P et sa capacit C, nous pouvons dfinir la capacit par unit de temps
C
T
T
C
C = , T
C
tant l'intervalle entre deux missions sur le canal. Le taux et la capacit par unit de temps sont
mesurs en bits/seconde. Les rsultats suivants ont t dmontrs :
1 La probabilit moyenne d'erreur par symbole mis par la source, p
e
, satisfait l'ingalit
( ) ( ) ( ) 1 log
2
+ M p p H T C R
e e S T T
,
( ) ( ) ( )
e e e e e
p p p p p H = 1 log 1 log
2 2
tant l'entropie d'erreur. Si
T T
C R > (taux
source suprieur la capacit par unit de temps du canal) alors pour p
e
il existe une borne infrieure
strictement positive (thorme rciproque du codage). Lorsqu'on met une squence de symboles, la
probabilit d'erreur sur la squence tend donc vers 1 lorsque la longueur de la squence augmente.
2 Lorsque
T T
C R < , en utilisant une procdure adquate pour le codage et le dcodage, le rcepteur
peut rcuprer les messages mis par la source avec une probabilit d'erreur arbitrairement petite
(second thorme fondamental de Shannon). Explication : la probabilit d'erreur par symbole du
canal est borne, mais un codage redondant permet de rduire la probabilit d'erreur par symbole de la
source (au prix d'une diminution de l'efficacit du codage...). Avant ce rsultat on considrait que le bruit
d'un canal introduisait une borne sur la probabilit d'erreur d'une transmission, quel que soit le taux de la
source. Grce ce rsultat nous savons que la seule borne est sur le taux de la source, la qualit de la
restauration du message par le rcepteur pouvant tre arbitrairement leve.

E3i, 2001 Transmission de l'information 7
3. Codage des informations
3.1. Types de codage
Code binaire = correspondance entre un ensemble d'informations lmentaires (l'alphabet) et un ensemble de
configurations binaires (les mots de code, de longueur fixe pour la plupart des codes employs). Dans la mesure
o les donnes reprsenter peuvent tre mises sous la forme d'un texte, les informations lmentaires sont
constitues par les 10 chiffres, les 26 lettres de l'alphabet, les signes graphiques et quelques caractres de
contrle. Le CCITT (Comit Consultatif International de Tlgraphie et Tlphonie, actuel UIT-T) a normalis
plusieurs codes, parmi lesquels le code CCITT n 2 5 bits, driv du code Baudot et utilis sur le rseau Tlex
et le code CCITT n 5 7 bits, connu aussi comme ASCII 7 (American Standard Code for Information
Interchange). D'autres codes, non normaliss par le CCITT, peuvent tre utiliss par diffrents constructeurs
informatiques sur leurs quipements, notamment EBCDIC (8 bits) par IBM.
Code CCITT n 5 :
b b b
6 5 4

b b b b
3 2 1 0

000 001 010 011 100 101 110 111
0000 NUL DLE SP 0 () P \ () p
0001 SOH DC1 ! 1 A Q a q
0010 STX DC2 " 2 B R b r
0011 ETX DC3 # () 3 C S c s
0100 EOT DC4 $ () 4 D T d t
0101 ENQ NAK % 5 E U e u
0110 ACK SYN & 6 F V f v
0111 BEL ETB ' 7 G W g w
1000 BS CAN ( 8 H X h x
1001 HT EM ) 9 I Y i y
1010 LF SUB * : J Z j z
1011 VT ESC + ; K () k ()
1100 FF FS , < L () l ()
1101 CR GS = M () m ()
1110 SO RS . > N ^ () n ~ ()
1111 SI US / ? O _ () o DEL
() Caractres usage national, ici franais.
La signification des caractres spciaux est donne dans le tableau suivant :
Fonctions de mise en page
BS Backspace (retour en arrire)
HT Horizontal Tabulation
LF Line Feed (nouvelle ligne)
VT Vertical Tabulation
FF Form Feed (nouvelle page)
CR Carriage Return (retour chariot)
Fonctions de contrle de la transmission
SOH Start Of Heading (dbut d'en-tte)
STX Start of Text (dbut de texte)
ETX End of Text
EOT End Of Transmission
ENQ Enquiry (demande)
ACK Acknowledge (Acquittement)
DLE Data Link Escape (echappement liaison de donnes)
NAK Negative Acknowledge (acquittement ngatif)
SYN Synchronous Idle (caractre de synchronisation)
ETB End of Transmission Block (fin de bloc)
8 Transmission de l'information E3i, 2001
Fonctions de commande des priphriques
DC1 X-on (mise en route)
DC2
DC3 X-off (arrt)
DC4
Fonctions de sparation dans les fichiers
US Unit Separator (sparateur de sous-articles)
RS Record Separator (sparateur d'article)
GS Group Separator (sparateur de groupes)
FS File Separator (sparateur de fichiers)
Autres caractres
NUL caractre vide (sans aucun effet)
BEL Bell (sonnerie)
SO Shift Out (hors code)
SI Shift In (retour en code)
CAN Cancel (annulation)
EM End of Medium (fin de support)
SUB Substitution
ESC Escape (echappement)
DEL Delete
Deux techniques permettent de donner un ou plusieurs caractres une autre signification dans l'application qui
reoit un message les contenant :
1 S'il s'agit d'un seul caractre, en le faisant prcder par le caractre ESC.
2 En insrant la suite de caractres entre deux caractres de contrle SO et SI.
3.2. Dtection et correction des erreurs
Quelle que soit la qualit d'une ligne de transmission, la probabilit d'apparition d'erreurs est non nulle (ne serait-
ce qu' cause du bruit thermique). Pour certains types de transmissions des erreurs groupes peuvent apparatre
par exemple cause de parasites lectromagntiques pour les transmissions sur paires torsades non blindes
ou de conditions atmosphriques pour les transmissions par satellite. Si pour certaines donnes, comme par
exemple le texte d'un tlgramme, les erreurs ponctuelles ne sont pas trs gnantes (le texte reste
comprhensible), pour d'autres, comme les transactions financires, elles sont inacceptables. Les erreurs groupes
sont inacceptables quel que soit le type de donnes. La dtection et la correction des erreurs est donc
indispensable pour la transmission de donnes informatiques.
La dtection et la correction des erreurs est fonde sur l'utilisation d'une information redondante
transmise avec l'information utile. L'ajout de cette information redondante est obtenu par un recodage. Selon le
degr de redondance des codes employs, un degr de dtection et/ou de correction peut tre atteint. Pour la
correction, deux possibilits se prsentent : les codes sont suffisamment redondants pour corriger, ou les codes
permettent uniquement la dtection et les informations errones sont retransmises.
Remarque importante : on ne peut pas tre sr qu'un message reu est correct quel que soit le code
employ, il ne peut pas dtecter toutes les erreurs possibles. Par consquence, les codes choisis dans une situation
particulire sont ceux qui dtectent le mieux et ventuellement corrigent les erreurs les plus frquentes dans la
situation en question.
Types de codes :
1 Codes en blocs. Si les informations utiles transmettre sont dcoupes en blocs et chaque bloc on
associe (cest dire on transmet la place du bloc) un mot de code qui ne dpend que du bloc en
question, le code est appel code en blocs.
2 Codes continus. Si l'information expdier n'est pas divisible en blocs et la redondance est introduite de
faon continue dans l'information utile, le code est appel code continu (aussi convolutionnel ou
rcurrent).
3.2.1. Quelques dfinitions gnrales
Pour un code dtecteur d'erreurs, l'efficacit de dtection e ( ne pas confondre avec lefficacit dfinie au
chapitre prcdent) est le rapport moyen entre le nombre de messages errons reconnus comme tels et le nombre
total de messages errons. La proportion 1 e de messages sont donc errons et reconnus comme corrects.
L'efficacit e peut tre dfinie par rapport une classe d'erreurs (par exemple erreurs isoles, erreurs groupes).

E3i, 2001 Transmission de l'information 9
Le taux d'erreurs brut est la proportion moyenne de messages errons reus (dtects ou non
comme tels). Le taux d'erreurs brut dpend du taux d'erreurs par bit ; si la longueur moyenne des messages est de
n bits et les erreurs sont indpendantes, avec une probabilit p par bit, alors ( )
n
p = 1 1
Le taux d'erreurs rsiduel q est la proportion des messages qui restent errons (aprs dtection et
correction des erreurs, par codes ou par retransmission). Pour qu'un message erron soit reconnu comme correct,
il est ncessaire : 1 qu'il soit erron (probabilit ) et 2 qu'il n'ait pas t dtect comme tel par le code
(probabilit 1 e) ou qu'erron une premire fois et dtect comme tel (probabilit e ) il soit erron une
seconde fois (erreur diffrente) et non dtect comme tel (probabilit ( ) e e 1
2
), etc. Par consquence
( ) ( ) + + = e e e q 1 1
2

Si e est proche de 1 et est trs rduit, nous pouvons effectuer l'approximation ( ) e q = 1 . Connaissant
donc la qualit de la voie physique ( ), et la qualit exige pour la transmission (q) nous pouvons dterminer
l'exigence sur le code (e) en fonction de la classe des erreurs les plus frquentes.
Le rendement de la transmission est le rapport entre le nombre de bits d'information utile
correctement reus (sauf erreurs rsiduelles) et le nombre total de bits envoys. Considrons le cas de la dtection
par code et correction par retransmission, pour des messages de n bits contenant m bits d'information utile. Pour
obtenir l'information utile, il faut que le message reu soit correct (probabilit 1 ), ou erron, dtect comme
tel (probabilit e ), retransmis et correctement reu, ou... En ngligeant les autres cas, le nombre moyen de
bits ncessaires pour transmettre correctement les m bits d'information utile d'un message sera
( ) ( ) ( ) + + = 1 1 2 1 n n n n e , (hypothses : e 1 et 0
2
)
et donc le rendement sera
( )

1 n
m
.
3.2.2. Codes en blocs
Considrons un code en blocs not C(n,m) qui associe des blocs de m bits (ensemble U) des mots de code de
n bits (ensemble B), avec n > m ; n est la longueur du code et m est la dimension du code. Un message (ou
mot de code) sera not X
i
, une erreur (considre comme un message) e
j
et une configuration d'erreur E
ij

(erreur e
j
applique au message X
i
).
Proprits des configurations d'erreurs :
1 Le nombre de configurations d'erreurs dtectes par le code C(n,m) est constant et ne dpend pas de la
nature du code.
Quel que soit le code, une configuration d'erreur est dtecte si et seulement si le message qu'elle
produit ne fait pas partie du code. Le nombre d'erreurs possibles est
n
N 2 = et le nombre de
messages auxquels ces erreurs peuvent tre appliques est
m
M 2 = . Il y a alors M N
configurations d'erreurs possibles (un mme message sera produit par M configurations d'erreur
diffrentes une par mot de code) ; parmi celles-ci, ( ) M M N produisent des messages qui
n'appartiennent pas au code et sont donc dtects comme errons ; M
2
produisent des messages qui
appartiennent au code et qui ne peuvent donc pas tre dtects comme errons (pour chaque mot de
code, il existe une configuration derreur et une seule permettant dobtenir nimporte quel autre mot
de code). Le nombre de configurations d'erreurs dtectes est donc constant et dpend uniquement de
m et n. La proportion de configurations d'erreurs dtectes est alors
N
M
1 , quel que soit le code
en blocs choisi.
Illustration avec 00 0000, 01 0101, 10 1010, 11 1111. Note : ce code dtecte les erreurs
individuelles et les erreurs sur 2 bits conscutifs.
2 Le nombre de configurations d'erreur corriges par le code C(n,m) est constant et ne dpend pas de la
nature du code.
Ces proprits indiquent que si toutes les erreurs possibles sont quiprobables alors tous les codes en blocs se
valent ; dans un cas concret, cependant, certaines erreurs sont sensiblement plus probables que d'autres et il faut
10 Transmission de l'information E3i, 2001
donc choisir les codes en blocs les plus adapts. Dans ce qui suit nous tudierons des mthodes qui permettent de
faire ce choix pour les classes d'erreurs les plus courantes.
Le poids de Hamming d'une configuration binaire est le nombre d'lments "1" qu'elle contient. La
distance de Hamming entre deux messages de mme longueur est le poids de Hamming du message somme
modulo 2 bit par bit. Cette notion de distance est trs importante pour les codes en blocs : supposons que les M
mots de code sont choisis de faon ce que la distance minimale entre 2 mots soit 2d+1, avec d entier (n > m,
donc N > M) ; un tel code permettra de dtecter toutes les erreurs d'ordre 2d (plus prcisment, dtecter comme
errons tous les messages se trouvant une distance infrieure 2d et suprieure 0 d'un mot de code), et de
corriger toutes les erreurs d'ordre infrieur ou gal d (qui mettent le message reu une distance infrieure ou
gale d du mot de code mis) :
d d
mot de
code
hypersphres
de correction

Si la distance minimale entre deux mots de code est 2d, alors le code dtecte toutes les erreurs d'ordre 2d1 et
corrige toutes les erreurs d'ordre d1.
Un code en blocs est appel systmatique (ou parfois sparable) si les m bits de chaque bloc
d'information utile sont aussi les m premiers bits du mot de code (de longueur n > m) associ.
3.2.2.1. Codes linaires
Comment construire des codes qui respectent une distance minimale entre les mots de code ? Comment effectuer
la dtection et ventuellement la correction des erreurs ?
Un code en blocs est dit de groupe si l'ensemble des mots de code est ferm par rapport la somme
modulo 2 bit par bit (par consquence 00 est un mot de code). Nous pouvons alors constater qu'un code de
groupe dtecte toutes les erreurs (considres comme des messages) n'appartenant pas au code et ne dtecte
aucune erreur appartenant au code.
Il est facile montrer que l'ensemble U des M blocs d'information utile, de longueur m, forment un
groupe avec la somme modulo 2 bit par bit (que nous noterons par "+"). Si les mots de code (ensemble B) sont
choisis de la faon suivante :
si



B U
B U
2 2
1 1
X Y
X Y
alors ( ) ( ) B U + +
2 1 2 1
X X Y Y ,
le code est appel linaire (la correspondance entre les blocs d'information utile et les mots de code est une
fonction linaire).
Proprits des codes linaires :
1 Un code de groupe pour lequel la correspondance entre les blocs d'information utile et les mots de code
(donns) t convenablement choisie est linaire ; un code linaire convenablement ordonn c'est
dire pour lequel l'ordre des bits dans les mots de code et la correspondance entre les blocs d'information
utile et les mots de code ont t convenablement choisies est systmatique (sparable).

E3i, 2001 Transmission de l'information 11
La premire affirmation est une consquence immdiate de la dfinition des codes linaires. La
deuxime affirmation peut tre vrifie de la faon suivante : chaque mot de code X peut tre crit
comme le produit entre la matrice T associe la transformation linaire qui dfinit le code et le bloc
d'information utile Y
Y X
nm n
mm m
m

1
1
1
1
1
1
]
1

1
1
1 11
.
Si Y ne contient qu'un seul 1, alors X est gal une colonne de la matrice, donc toutes les colonnes
de la matrice sont des mots de code. Ces colonnes sont aussi des vecteurs linairement indpendants,
sinon la transformation ne serait pas injective. Une sous-matrice carre mm de rang M peut alors
tre trouve. Cette matrice peut tre amene une forme diagonale (qui sera la matrice identit
d'ordre m) en modifiant la transformation (donc la correspondance entre blocs d'information utile et
mots de code) mais en laissant inchang l'espace linaire image (l'ensemble B des mots de code).
Dans les mots de code ainsi obtenus, on peut alors ordonner les bits de faon que les m premiers
soient ceux du bloc d'information utile et les n m suivants des bits de contrle.
2 La distance minimum d'un code linaire est gale au poids minimum des mots de code non nuls.
La distance entre deux mots de code est le poids de leur somme qui, pour les codes linaires, est aussi
un mot de code. La distance minimale correspond donc au mot de code non nul de poids minimal (le
mot de code nul ne peut tre que la somme entre un mot de code et lui-mme chaque mot de code
est son propre inverse).
3 La dtection des erreurs consiste en une multiplication entre le message reu et une matrice de
vrification (matrice qui n'est pas unique). Le rsultat de la multiplication est un vecteur appel
syndrome de l'erreur ; un syndrome d'erreur nul signifie l'absence d'erreurs dtectables par le code.
Une matrice de vrification pour un code linaire ( ) m n C , a k n m lignes et n colonnes. Les
lignes sont des vecteurs linairement indpendants. Les lignes de la matrice forment une base dans le
sous-espace linaire de dimension k orthogonal au sous-espace linaire engendr par les vecteurs de
code (de cette faon, un syndrome d'erreur nul signifie l'absence d'erreurs dtectables par le code).
Cette condition d'orthogonalit permet d'obtenir une matrice de vrification associe un code,
comme dans l'exemple suivant :
Considrons le code linaire C(5,3) dfini par la matrice
1
1
1
]
1

0 1 0 1 1
1 0 1 1 0
1 1 0 0 0
T
T .
Une matrice de vrification aura 2 lignes et 5 colonnes. Considrons une ligne
[ ]
5 4 3 2 1
u u u u u de la matrice de vrification, cette ligne doit tre orthogonale chaque
ligne de T
T
, ce qui donne 3 quations 5 inconnues (la matrice de vrification n'est pas unique).
Nous pouvons obtenir deux lignes linairement indpendantes, par exemple :
1
]
1

0 0 1 1 1
1 1 0 1 0
H .
Les composantes x
i
de tout vecteur de code doivent donc satisfaire les relations :

'



0
0
5 4 2
3 2 1
x x x
x x x

12 Transmission de l'information E3i, 2001
On peut constater qu'une erreur sur x
2
fait chouer les deux contrles et, dans l'hypothse que seules
les erreurs qui portent sur 1 bit sont possibles, l'erreur sur x
2
est (la seule) corrigible.
Considrons un code linaire ( ) m n C , , l'ensemble ( ) ( ) { } m n C X X Z Z C , , + = est appel classe du
mot Z. Chaque classe contient 2
m
vecteurs (vecteur = configuration binaire). Pour un code linaire, deux classes
quelconques sont soit disjointes soit identiques ; tous les mots de code appartiennent une mme classe,
( ) m n C , . Le vecteur de poids minimum d'une classe est appel reprsentant de la classe. Si le codeur de la
source met X et le dcodeur du rcepteur reoit Z, l'erreur est X Z X Z e + = = et appartient donc la
mme classe que Z. Le dcodeur choisira alors le vecteur e de poids minimum dans la classe de Z, c'est dire le
reprsentant de la classe. Afin de simplifier le dcodage, on peut construire un tableau de codage complet
(appel aussi tableau standard) pour le code : la premire ligne contient tous les mots de code en commenant
par le mot nul ; chaque ligne qui suit contient une autre classe et commence par le reprsentant de la classe.
Exemple :
Considrons le code linaire C(4,2) dfini par la matrice

=
1 0 1 0
1 1 0 1
T
T .
Le tableau standard sera (les blocs de donnes utiles ont t ajouts sur la premire ligne)
Bloc donnes utiles 00 10 01 11
Mots de code 0000 1011 0101 1110
Classe 1 1000 0011 1101 0110
Classe 2 0100 1111 0001 1010
Classe 3 0010 1001 0111 1100

Quand le dcodeur reoit par exemple 1111 qui fait partie de la classe n2, il dcide que l'erreur
correspond au reprsentant de la classe, 0100, et donc que le mot de code mis est 1011. On peut
remarquer que pour la deuxime classe deux mots de poids minimal existent, le choix du premier
comme reprsentant est arbitraire !
La probabilit d'erreur au dcodage est la probabilit pour que le vecteur d'erreur ne soit pas un reprsentant de
classe. Si
i
est la proportion de reprsentants de classe parmi les vecteurs de poids i et p est la probabilit
d'erreur sur 1 bit, alors la probabilit pour que l'erreur soit un reprsentant de classe de poids i est
( )
i n i
i i
p p P

= 1 (ici, ( )
i n i
p p

1 est la probabilit pour que i bits soient errons et les autres
n i corrects), n tant le nombre de bits d'un mot de code. La probabilit d'erreur au dcodage sera alors :
( )

=
n
i
i n i
i ed
p p P
1
1 1 .
Remarque : si la distance d'un code linaire est 2d+1 ou 2d+2, alors le code peut corriger d erreurs et donc tout
vecteur de poids infrieur ou gal d est le reprsentant (unique) dune classe distincte. Un code est parfait si
d i
i
> = , 0 , et presque parfait si 1 , 0 + > = d i
i
.
Quelques exemples de codes linaires :
1 Le contrle de parit simple : dans ce cas 1 + = m n , on ajoute un seul bit au bloc d'information utile
afin d'obtenir le mot de code, et ce bit doit satisfaire l'quation 0
1
=
=
j
n
j
b (parit paire) ou 1
1
=
=
j
n
j
b
(parit impaire). On peut facilement montrer qu'un tel code est linaire. Ce code (parit paire ou impaire)
dtecte toutes (et uniquement) les erreurs qui portent sur un nombre impair de bits et ne peut en
corriger aucune.
2 Les codes de Hamming : la matrice de vrification d'un code de Hamming est compose de k lignes et de
1 2
k
colonnes, les colonnes tant tous les vecteurs possibles k lments sauf le vecteur nul. Pour le
code correspondant nous avons donc 1 2 =
k
n et k m
k
= 1 2 . Ce code est de distance minimale
3, capable donc de dtecter toutes les erreurs de poids 1 et 2 et de corriger les erreurs isoles (poids 1).
En effet, soit X un mot de code, nous savons que 0 = X H ; le poids de X ne peut pas tre 1 car cela

E3i, 2001 Transmission de l'information 13
signifierait qu'une colonne de H serait 0 ; le poids de X ne peut pas tre 2 car cela signifierait que deux
colonnes de H sont identiques. Le poids minimal d'un mot de code non nul est donc suprieur ou gal
3, et le code tant linaire cela est aussi valable pour la distance minimale entre deux mots de code. Si
une seule erreur est prsente, son identit est facile trouver :
j
c e H e X H = = + ) ( , c
j
tant une
colonne de H, alors l'erreur s'est produite pour le bit j.
Un code linaire peut tre regard comme un contrle de parit gnralis. En effet, si on considre que le code
est systmatique, le bit de contrle d'ordre m j est

=
+ +
=
m
k
j k j m j m
y x
1
,
et contrle donc, dans le bloc
d'information utile Y, la parit des cases pour lesquelles le coefficient n'est pas nul.
3.2.2.2. Codes cycliques
Un code cyclique est un code linaire ferm par rapport aux permutations circulaires (toute permutation
circulaire de tout mot de code est un mot de code). Ils sont appels aussi CRC (Cyclic Redundancy Check). Les
codes cycliques sont bien adapts la dtection des erreurs groupes (auxquelles nous ne nous tions pas encore
intresss) et sont faciles implmenter, ce qui explique leur large utilisation. Proprits des codes cycliques :
1 Les codes cycliques sont des codes linaires et hritent donc toutes leurs proprits.
2 Proprit fondamentale : les polynmes associs aux mots de code sont tous des multiples d'un
polynme gnrateur not ( ) x g ; rciproquement, tout polynme (de degr infrieur n) multiple de
( ) x g correspond un mot de code.
A un mot binaire quelconque nous associons un polynme coefficients dans { } 1 , 0 . Par exemple
0 1 1
a a a
m

(m bits) nous associons ( )


0 1
2
2
1
1
a x a x a x a x q
m
m
+ + + + =

(de degr
maximum ( ) 1 m ). L'opration employe pour les coefficients est le OU-exclusif. Soit le code cyclique
( ) m n C , , alors son polynme gnrateur est de degr m n k = .
C (comme ensemble de polynmes associs aux mots de code) comporte un lment de degr minimal
k non nul, que nous noterons ( ) x g ; cet lment est unique (sinon on pourrait trouver un lment de
degr infrieur). On peut montrer que les k n m = lments
( ) ( ) ( ) ( ) x g x x g x x xg x g
m 1 2
, , , ,

sont linairement indpendants et forment une base du code
(linaire) C. Tout mot de code est une combinaison linaire des vecteurs de la base et donc divisible
par ( ) x g . Rciproquement, si ( ) x f est un multiple de ( ) x g alors ( ) ( ) ( ) x g x q x f = , ce qui
signifie que ( ) x f est une combinaison linaire des vecteurs de la base et donc fait partie du code.
3 Le polynme gnrateur divise ( ) 1 +
n
x ; ceci implique que le terme de degr 0 a le coefficient 1.
Pour le polynme associ, l'opration de permutation circulaire d'ordre p d'un mot de code
correspond une multiplication par
p
x modulo ( ) 1 +
n
x . Ainsi, la permutation circulaire de
( ) C x f
1
donne ( ) C x f
2
, avec ( ) ( ) ( ) ( ) x f x q x x f x
n p
2 1
1 + + = . Si ( ) x f
1
est de degr
1 n et 1 = p , alors ( ) ( ) x f x x f x
n
2 1
1+ + = . Comme ( ) x g divise ( ) x f
1
et ( ) x f
2
, ( ) x g
sera obligatoirement un diviseur de ( ) 1 +
n
x . Comme ( ) 1 +
n
x n'est pas divisible par 0 , >

x , le
terme de degr 0 du polynme gnrateur ne peut pas tre 0.
4 Proprit importante : tout code cyclique gnr partir d'un polynme ( ) x g de degr k dtecte tout
paquet comprenant jusqu' k erreurs.
En effet, le polynme associ un paquet de k erreurs contient au maximum k termes et peut toujours
tre mis sous la forme ( ) 0 ,

x e x o ( ) x e est de degr ( ) 1 k , donc indivisible par ( ) x g .


D'autre part, 0 , >

x , et ( ) x g ne peuvent avoir aucun diviseur commun, car le terme de degr 0


de ( ) x g a le coefficient 1. Le polynme associ un paquet de k erreurs ne peut donc pas tre
divisible par ( ) x g .
14 Transmission de l'information E3i, 2001
Considrons un code ( ) m n C , gnr par le polynme ( ) x g de degr m n k = . En choisissant
convenablement la correspondance entre les blocs d'information utile et les mots de code nous pouvons sparer
les m bits d'information utile des k bits de redondance : soit ( ) x u le bloc d'information utile coder, on forme
d'abord ( ) x u x
k
et ensuite on divise ( ) x u x
k
par ( ) x g , ( ) ( ) ( ) ( ) x r x q x g x u x
k
+ = . Le mot de code
correspondant est ( ) ( ) x r x u x
k
+ qui appartient bien au code puisque divisible par ( ) x g (en effet,
l'opration entre les coefficients tant le OU-exclusif, ( ) ( ) ( ) ( ) ( ) ( ) x q x g x r x u x x r x u x
k k
= = + ).
A la rception on divise le message reu par ( ) x g et on dtecte des erreurs si le reste n'est pas nul.
Exemple :
Considrons le code ( ) 2 , 3 C gnr par le polynme ( ) 1 + = x x g , diviseur de 1
3
+ x . Les blocs
d'information utile peuvent tre 00, 01, 10 et 11. Les mots de code correspondants seront :
( ) ( ) ( ) 000 0 0 0 00 code de mot x r x u x x u = = = ,
( ) ( ) ( ) 011 1 1 01 code de mot x r x x u x x u = = = ,
( ) ( ) ( ) 101 1 10
2
code de mot x r x x u x x x u = = = ,
( ) ( ) ( ) 110 0 1 11
2
code de mot x r x x x u x x x u = + = + = .
L'lment essentiel la fois pour l'mission et la rception est donc le diviseur par ( ) x g , qui possde le schma
de principe suivant :
+ + + +
Entre
b b b
1
2
k-2
k-1 1
k-1
k
Registre dcalage et circuits OU-exclusif

avec ( )
0 1
1
1
b x b x b x x g
k
k
k
+ + + + =

(b
0
doit tre 1 pour que ( ) x g soit diviseur de ( ) 1 +
n
x ).
L'interrupteur i est ferm si et seulement si b
i
= 1. Les cellules du registre sont initialises 0. Le dividende
( ( ) x u x
k
ou le mot reu, selon qu'il s'agit de l'mission ou de la rception) est ensuite prsent l'entre, poids
fort en tte, et est charg (partiellement) dans le registre dcalage pendant k pas. La division commence au pas
suivant et aprs k n m = pas le reste de la division est contenu dans le registre.
Les codes cycliques les plus employs sont gnrs par les polynmes suivants :
Code 16 bits de redondance par bloc, normalis par le CCITT dans V41 (avec n = 260, 500, 980, 3860) :
( ) 1
5 12 16
+ + + = x x x x g .
Code employ par l'ARPA, 24 bits de redondance par bloc :
( ) 1
3 5 8 9 10 11 12 13 15 16 17 23 24
+ + + + + + + + + + + + + = x x x x x x x x x x x x x x g .
Les codes polynomiaux sont une gnralisation des codes cycliques : le polynme gnrateur n'est plus un
diviseur de ( ) 1 +
n
x .
3.2.3. Codes continus
Si l'information expdier n'est pas divisible en blocs et la redondance est introduite de faon continue dans
l'information utile, le code est appel code continu (aussi convolutionnel ou rcurrent). Quand sur n bits
envoys on compte m bits d'information utile et m n k = bits de redondance, le code est dit m n . Les bits de
redondance peuvent tre identifiables ou non, donc les codes sont sparables ou non. Les codes continus sont
particulirement adapts aux erreurs en paquets spars par des squences correctes.
Les codes de Hagelbarger sont des codes continus sparables. Pour le plus simple, qui est un code 2/1,
chaque bit d'information utile est suivi par un bit de redondance. Soit
k
u u u
2 1
la suite de bits

E3i, 2001 Transmission de l'information 15
d'information utile et
k
r r r
2 1
les bits de redondance, la suite mise sera
k k
r u r u r u
2 2 1 1
, la relation
de rcurrence qui produit les bits de redondance tant
4 2
=
k k k
u u r (d'autres relations de rcurrence
peuvent aussi tre employes). A la rception, les erreurs sont dtectes en vrifiant la relation de rcurrence.
Pour ce code, un paquet de 4 erreurs peut tre corrig s'il est suivi par au minimum 13 bits corrects. De faon
gnrale, en choisissant correctement le nombre de bits (2 seulement dans notre exemple) qui sparent les bits de
redondance des bits d'information utile correspondants, un code 2/1 peut corriger tout paquet de e erreurs
condition que les paquets soient spars par des squences correctes de longueur minimale de 1 3 + e .
Selon une technique similaire, nous pouvons construire un code continu ( ) 1 n n avec 3 > n capable
de corriger un paquet de e erreurs si ce paquet est suivi par ( ) 1 1 n n e bits corrects.
3.2.4. Correction par retransmission
Dans le cas o les erreurs peuvent tre dtectes mais ne peuvent pas tre corriges par la technique de codage, la
retransmission devient imprative. Les types de retransmission sont :
1 Retransmission avec arrt et attente : l'metteur transmet le bloc j et attend un accus de rception. Si
celui-ci est ngatif il met le bloc nouveau, sinon il continue avec le bloc j+1. Si aucun accus de
rception n'arrive avant expiration d'un certain dlai, le bloc j est mis nouveau.
Le temps total T ncessaire pour la transmission d'un bloc sera
( )
r p
t t
D
nar nc ni
T + +
+ +
= 2 ,
o ni est le nombre de bits d'information du bloc, nc le nombre de bits de contrle et nar le nombre de
bits de l'accus de rception, D le dbit binaire de la ligne (bits/s), t
p
le temps de propagation sur la
ligne et t
r
le temps de retournement (pour une liaison smi-duplex).
bloc bloc j +1 j
accus de rception
j
t
p r
t t t
p r
T
bloc

Si p est le taux d'erreur sur un bit et si les erreurs sont indpendantes, la probabilit qu'un bloc soit
transmis correctement est ( )
nc ni
c
p P
+
= 1 . Si toutes les erreurs sont dtectes, la dure moyenne de
transmission d'un bloc, en considrant les retransmissions ventuelles, sera
( )

= =
1
1
1
i
c
i
c c
P
T
P P T i T .
Le dbit efficace sera dfini comme
T
ni
D
ef
= , et donc ( )
nc ni
ef
p
T
ni
D
+
= 1 . Ce dbit passe par
un maximum lorsque la longueur des blocs varie ; plus le taux d'erreurs p est rduit, plus la valeur du
maximum est leve. Par exemple, pour D = 10 Mbits/s, ni nar nc ni + + , 0
r
t , s 100 =
p
t
et
5
10

= p on obtient le dbit maximum


ef
D = 7,54 Mbits/s pour ni = 10000 bits, donc un rendement
maximum de transmission
D
D
ef
= 75,4 %. Ce rendement descend 30,65 % pour
4
10

= p !
2 Retransmission continue : l'metteur transmet des blocs successifs sans attendre aprs chaque bloc un
accus de rception. Les accuss de rception arrivent sur une voie de retour. Quand l'metteur reoit un
accus de rception ngatif, le bloc erron est retransmis, ainsi que tous les blocs qui le suivent.
16 Transmission de l'information E3i, 2001
Supposons que l'metteur peut transmettre k blocs sans avoir d'accus de rception. La dure de
transmission d'un bloc est
D
nc ni +
et l'acquittement doit normalement arriver au bout de
p
t
D
nar
2 +
(nous avons suppos que la liaison tait duplex et donc le temps de retournement nul). Si
( )
D
nc ni
k t
D
nar
p
+
+ 1 2 et le taux d'erreurs est nul alors il n'y a aucune attente, les blocs sont
mis sans interruption. Considrons k choisi de telle sorte que l'metteur reoit l'accus de rception
pour le bloc j + 1 pendant la transmission du bloc j + k ; si l'accus de rception est ngatif, tous les k
blocs (de j + 1 j + k) seront retransmis. La dure moyenne de transmission d'un bloc sera alors :
( ) ( )


+
+
=
+
+ =

=
c
c
i
i
c c
P
P
k
D
nc ni
P P
D
nc ni
k i T
1
1 1 1
0
,
et le dbit effectif
1
1
1


+
+

=
c
c
ef
P
P
k
nc ni
ni D
D .
3 Retransmission slective : la transmission est continue, comme dans le cas prcdent, mais uniquement
les blocs errons (pour lesquels un accus de rception ngatif a t reu) sont retransmis.
Avec k choisi de telle sorte que l'metteur reoive l'accus de rception pour le bloc j + 1 pendant la
transmission du bloc j + k, comme dans le cas prcdent, nous obtenons :
( ) ( )
c
i
i
c c
P D
nc ni
P P
D
nc ni
i T

+
=
+
+ =

=0
1 1 et
( )
nc ni
ef
p
nc ni
ni D
D
+

+

= 1 .
Cette technique est la plus complexe mettre en uvre mais la plus performante et permet d'atteindre un
rendement de 86% sur des liaisons satellite (temps de propagation de 300 ms et
4
10

= p ).
4. Compression des informations
4.1. Problmes et classifications
La compression a pour but la rduction du volume des informations ; cette rduction peut tre effectue :
1 sans perte d'informations (rduction de la redondance), permettant de reconstituer de faon exacte le
fichier original. Dans certains cas la redondance est trs rduite ; de faon gnrale, l'valuation de la
redondance est trs difficile et dpend du contexte. Aussi, la rpartition de la redondance n'est pas
uniforme dans un fichier ; la compression limine cette redondance non uniforme et l'utilisation
ultrieure d'un codage dtecteur/correcteur d'erreurs ajoute une information redondante uniforme.
2 avec perte d'informations, utilise principalement pour les images et les sons, permettant de reconstituer
de faon approximative le fichier original. En tirant profit des imperfections des organes sensoriels
humains, des taux de compression levs peuvent tre obtenus sans une dtrioration sensible du rsultat
de la reconstitution.
L'algorithme de compression peut avoir la base :
1 une analyse statistique gnrale, applicable tout type de fichier et permettant d'valuer thoriquement
l'efficacit d'un algorithme (algorithme de Huffman, de Shannon-Fano). La complexit d'une analyse
statistique d'ordre lev limite l'efficacit de ces algorithmes.
2 des heuristiques spcifiques aux diffrents types de fichiers (algorithme relativement gnral LZW,
mthode TCD pour les images, mthode PASC pour les sons). Les connaissances priori sur le type
d'informations que contient un fichier permettent l'utilisation d'heuristiques qui assurent une efficacit
leve mais pour un domaine en gnral restreint.
Le fichier compress peut tre :
1 dcompactable par un programme externe.

E3i, 2001 Transmission de l'information 17
2 autodcompactable (le programme de dcompression fait partie du fichier). La taille du programme
s'ajoute la taille du fichier donc perte en efficacit, mais l'algorithme de dcompression peut tre
ddi au fichier et donc permettre un gain en efficacit.
4.2. Proprits gnrales des compacteurs
Tout compacteur doit possder un dcompacteur associ. Quand la compression se fait sans perte d'informations
le compacteur correspond une fonction bijective dont l'inverse doit tre calculable. Si la compression a lieu
avec perte d'informations, la fonction dfinie par le compacteur n'est pas bijective et donc n'admet pas d'inverse ;
partir d'un fichier comprim, le dcompacteur permet de retrouver non pas le fichier original mais un fichier
prototype pour un ensemble de fichiers non comprims.
Pour tout compacteur il existe au moins un fichier non compactable. En effet, s'il existait un compacteur
C pour lequel tout fichier tait compactable, alors il suffirait d'itrer un nombre suffisant de fois l'algorithme C
pour obtenir 1 bit, quel que soit le fichier de dpart, ce qui est absurde.
Existe-t-il un compacteur C
O
qui est meilleur que tout autre compacteur C sur tous les fichiers F, c'est
dire tel que ( ) ( ) F C F C C F
O
, , ( symbolise la taille du fichier) ? Non, car pour tout fichier F il
existe le compacteur C
F
associ la fonction de caractrisation de F et pour lequel ( ) 1 = F C
F
, compacteur
dfini par :
( )

=
=
sinon 0
si 1
f
F f
f C
F
,
tant le symbole de concatnation. Il faut toutefois remarquer que le compacteur C
F
ne prsente aucun intrt :
non seulement il n'a aucun effet sur les autres fichiers, mais sa description est quivalente celle de F. Il faut
donc faire intervenir dans la notion de compactage optimal non seulement la spcification du fichier, mais aussi
la spcification de l'algorithme de compression ! Plus un domaine est restreint, plus les compacteurs dvelopps
partir de la connaissance du domaine (compacteurs heuristiques) sont efficaces dans ce domaine et inefficaces
dans d'autres ; ces compacteurs incorporent une partie de la description du domaine que les fichiers comprims
n'ont donc plus vhiculer.
4.3. Quelques techniques primitives
Ces techniques ont t les premires dveloppes et sont encore utilises (en conjonction avec d'autres
techniques) dans des cas trs particuliers.
4.3.1. Codage des rptitions
Certains fichiers (tableaux en mode texte, images) prsentent des successions d'octets identiques. Nous pouvons
choisir un caractre de contrle # et coder une suite de k octets identiques par # octet k. Par exemple, la chane de
caractres "_19_ _ _ _ _ _ __ _ _ _ _" (17 octets) devient "_19#_7#_5" (11 octets). Ce codage n'est utile
donc qu' partir de 4 rptitions. Si on ne peut pas trouver un caractre de contrle non employ dans le fichier
on peut en choisir un qui est peu prsent et chaque fois qu'on le rencontre on crit un de plus.
4.3.2. Codage topologique
Ce codage est appliqu en gnral dans les fichiers o un octet O (ou autre groupe de bits) est sensiblement
dominant. On lit le fichier par blocs de n octets et on utilise un octet (octet topologique) dans lequel les bits 1
dsignent les positions de O. Par exemple, la chane "_19_ _ _ _ _ _ __ _ _ _" (16 octets) devient :
"(01001111)19(11101111)" (6 octets), les bits des octets topologiques tant crits entre parenthses. Ce
codage amne une rduction de la taille ds que la frquence de l'octet O dans le fichier est suprieure 1/8. La
taille du fichier comprim est ( ) 8 1 1 + = f T T , f tant la frquence de O.
4.3.3. Codage relatif
Ce codage est employ quand les valeurs des codes (octets ou groupes d'octets) successifs sont comprises dans un
intervalle de faible amplitude par rapport la valeur moyenne. Par exemple, la suite d'octets "10101101
10101000 10101110 10101001" (32 bits) peut tre crite comme "5 10101 4 101 000 110 001" (28 bits), 5 (cod
sur 3 bits) tant la longueur en bits du champ fixe (les 5 bits de poids fort) et 4 (cod sur un octet) le nombre de
codes successifs. Une suite de rsultats de mesures ou de paramtres de contrle permet l'utilisation efficace d'un
tel codage.
Une variante du codage relatif correspond au cas o les diffrences entre deux valeurs successives sont
rduites (en valeur absolue) par rapport ces valeurs. Il est alors utile de coder la valeur de dpart et ensuite
18 Transmission de l'information E3i, 2001
uniquement les diffrences, sur un nombre de bits rduit. Par exemple, la squence de 4 octets antrieure devient
avec un tel codage "10101101 1011 0001 1100" (20 bits), les valeurs des diffrences tant reprsentes par
complment 2.
4.4. Algorithmes statistiques
L'ide de dpart des algorithmes statistiques est de rduire le nombre de bits ncessaires la reprsentation des
symboles les plus frquents dans un fichier (voir aussi Canaux de transmission).
4.4.1. Algorithme de Huffman
L'algorithme de Huffman (1952), sans perte d'informations, a comme point de dpart une analyse statistique
d'ordre 0 (calcul des frquences des symboles) d'un fichier. Le nombre de bits utilis pour le codage d'un
symbole est d'autant plus rduit que le symbole est frquent dans le fichier. L'algorithme :
1 Evaluer les frquences d'occurrence des symboles du fichier.
2 Classer les symboles en ordre dcroissant des frquences d'apparition.
3 Regrouper de faon squentielle les paires de symboles de plus faible probabilit, en reclassant
symboles et groupes si ncessaire.
4 Calculer les codes avec retour en arrire en ajoutant, dans chaque point de regroupement, un 0
une branche et un 1 l'autre branche.
Exemple :
Chane comprimer : "ABCFGABDDACEACG" (45 bits), reprsente avec 3 bits/lettre.
Classement des symboles :
Symbole Frquence
A
C
B
D
G
E
F
4
3
2
2
2
1
1
Regroupement squentiel avec reclassement :
A
C
B
D
G
E
F
4
3
2
1
1
2
2
4
3
2
2
2
4
4
3
2
2
2
4
4
4
3
7
4
4
8
7

Codage avec retour en arrire :
A
C
B
D
G
E
F
4
3
2
1
1
2
2
4
3
2
2
2
4
4
3
2
2
2
4
4
4
3
7
4
4
8
7
0
1
0
1
0
1
0
1
0
1
1
0
00
11
100
101
010
0110
0111

Taille des donnes compactes : 40 bits.
Les codes binaires obtenus par l'algorithme sont sparables : il y a une seule faon de lire les codes dans une
suite binaire. Les codes employs doivent en revanche tre connus par le dcompacteur, donc une table de
correspondances ou une table de frquences (permettant au dcompacteur de retrouver les codes) doit tre

E3i, 2001 Transmission de l'information 19
sauvegarde dans l'en-tte du fichier comprim. Pour qu'il occupe un minimum de place, diffrentes techniques
peuvent tre employs pour le codages de l'en-tte :
1 Une taille T unique suffisante pour la frquence la plus leve est employe pour coder les
frquences et un codage topologique indique quelles sont les frquences non nulles (bit i 1 signifie
frquence i non nulle). L'en-tte a donc la forme suivante :
256 bits topologiques
p
i i i
f f f T
2 1
, p tant le nombre de frquences non nulles.
Un codage relatif peut ventuellement tre employ ensuite pour ces frquences non nulles.
2 Si les frquences sont leves, il est plus efficace de stocker dans l'en-tte directement les codes. Pour
chaque code on indique d'abord sa taille, sur un nombre de bits fix. Un codage topologique peut tre
employ, comme pour les frquences, afin de n'inclure que les codes correspondant des octets prsents.
L'entropie telle que nous l'avons dfinie (entropie d'ordre 0) permet d'valuer le taux de compression pour une
classe donne de fichiers avec l'algorithme de Huffman. Si les symboles sont reprsents par des octets, l'entropie
correspondant un fichier est

=
=
256
1
2 0
log
i
i i
p p E , avec

=
256
1 = i
1
i
p , p
j
tant la probabilit de prsence de l'octet j.
L'entropie est maximale (et gale 8) si et seulement si les octets de 0 255 sont tous prsents et quiprobables.
L'entropie est nulle si et seulement si un seul octet se rpte dans tout le fichier.
A partir de l'entropie d'ordre 0 nous dfinissons la redondance entropique d'ordre 0 par symbole, qui
est la diffrence entre la valeur maximale de l'entropie et sa valeur relle :
0 2 0
log E N R = , N tant le
nombre maximal de symboles utilisables (en gnral 256, correspondant aux 8 bits du code ASCII 8). Par
exemple, comme dans la plupart des textes le nombre de symboles ne dpasse pas 64, nous obtenons :
2 6 8
64
1
log
64
1
8
63
0
2 0
= = +

= k
R bits de redondance par symbole.
Nous avons galit si tous les 64 symboles sont quiprobables (entropie maximale), ce qui n'est pratiquement
jamais le cas ; l'entropie d'un fichier est en gnral infrieure, et donc la redondance suprieure. Il faut remarquer
qu'une redondance d'ordre 0 presque nulle ne signifie pas que le fichier ne peut plus tre comprim par une
mthode diffrente de celle de Huffman ( partir d'une analyse statistique d'ordre suprieur ou d'une heuristique).
En considrant comme symboles codants des groupes de k bits, avec k > 8, l'entropie maximale
augmente en gnral beaucoup plus vite (~
k
2 ) que l'entropie relle. La redondance et donc le taux de
compression possible seront alors plus levs. L'entropie d'ordre 0 pour les symboles k bits est :

=
=
k
i
i i
k
p p E
2
1
2 0
log , avec

=
k
i
p
2
1 = i
1, p
j
tant la probabilit de prsence du symbole codant j.
Une recherche peut tre faite par l'algorithme de compression afin de trouver une valeur optimale pour k (en
gnral entre 4 et 16, par multiples de 4) pour un fichier donn. Malheureusement, la taille de l'en-tte augmente
en gnral de faon exponentielle avec la taille des symboles codants considrs.
Le codage de Huffman est optimal au sens suivant : quels que soient les lments binaires sparables
eb
i
associs aux probabilits p
i
, l'ingalit suivante est vrifie


i
i i
i
i i
h p eb p ,
h
i
tant le code de Huffman associ la probabilit p
i
.
4.4.2. Algorithmes dynamiques
Un dsavantage de l'algorithme de base est qu'il faut ajouter au fichier comprim un en-tte dcrivant les codes.
Un autre dsavantage est qu'il faut lire deux fois le fichier comprimer : une premire fois pour faire les
statistiques permettant de construire les codes et une deuxime fois pour remplacer les symboles par leurs codes.
Enfin, un dsavantage est que le codage prend en compte les statistiques sur le fichier entier, qui peut ne pas tre
homogne.
Afin de tenter de rsoudre les deux premiers problmes, nous pouvons effectuer l'avance des
statistiques sur diffrents types de fichiers et construire des codes spcifiques pour chaque type. Chaque nouveau
20 Transmission de l'information E3i, 2001
fichier sera ensuite comprim avec une seule lecture en utilisant ces codes dfinis au pralable, connus la fois
par le compacteur et le dcompacteur les en-ttes ne sont plus ncessaires. Bien sr, le codage ne sera pas
optimal (au sens mentionn plus haut) sur chacun des fichiers nouveaux, mais le rsultat sera le plus souvent de
bonne qualit.
Une autre possibilit est d'employer des algorithmes dynamiques, qui modifient le codage au cours du
traitement afin de mieux l'adapter aux caractristiques statistiques locales du fichier.
4.4.2.1. Algorithme sans en-tte
La table des frquences n'est pas construite lors d'une premire lecture du fichier mais est vide au dpart et
actualise aprs la lecture de chaque symbole. Le code mis pour un mme symbole dpendra donc des octets lus
auparavant et ne sera pas le mme au cours de la compression. Au dpart, les codes proviennent d'une table de
rfrence obtenue par des statistiques pralables sur d'autres fichiers de mme type et connue la fois par le
compacteur et le dcompacteur. Aprs la lecture d'un symbole du fichier, le code correspondant est mis et
ensuite sa frquence est augmente de 1 ; le classement est alors mis jour (le symbole est plac
immdiatement aprs les autres symboles ayant la mme frquence) ; enfin, les codes sont attribus nouveau
(au lieu d'tre calculs nouveau) selon ce nouveau classement. A la dcompression on procde de la mme
faon : la table des frquences et la table des codes associe sont ractualises aprs la lecture de chaque code
(nous avons remarqu que les codes taient sparables), permettant de rcuprer correctement les symboles de
dpart.
4.4.2.2. Algorithme avec en-tte
Cet algorithme utilise une seule lecture du fichier, et la table des frquences mais aussi la table des codes sont au
dpart vides. Comme pour l'algorithme prcdent, la table des frquences est mise jour aprs la lecture de
chaque symbole ( frquence gale, les symboles sont classs toujours en ordre lexicographique) ; les codes
sont en revanche calculs nouveau au lieu d'tre attribus nouveau, comme auparavant. La table de codes
attache au fichier comprim est la dernire table de codes (correspondant la distribution des frquences aprs
la lecture du dernier symbole). Pour rcuprer le fichier initial, il faudra donc commencer par la fin du fichier
comprim. Dans ces conditions, pour que les codes restent sparables il faudra les crire l'envers.
Pour les fichiers qui sont loin d'tre homognes, l'algorithme fournit de meilleurs rsultats que
l'algorithme de Huffman de base.
4.4.3. Algorithmes d'ordre suprieur 0
Pour l'analyse statistique d'ordre 0, les symboles sont considrs indpendamment les uns des autres et seules les
frquences d'apparition des symboles individuels sont calcules. Il est vident toutefois que la redondance se
manifeste non seulement au niveau des symboles individuels mais aussi au niveau des squences de symboles.
Les mthodes d'ordre k tiennent compte des k antcdents d'un symbole afin de calculer un code plus
efficace. Pour k = 1, c'est la probabilit conditionnelle d'occurrence d'un symbole en connaissant le symbole
prcdent qui est utilise. L'entropie d'ordre 1 est :

=
j i
j i ij
p p E
,
2 1
log
p
ij
tant la probabilit d'apparition de la squence ji et p
i j
la probabilit conditionnelle.
L'algorithme de codage est similaire l'algorithme de Huffman : aprs une premire lecture du fichier,
une table de frquences
j i
f est remplie et une table de codes de Huffman est cre pour chaque antcdent ; le
fichier comprim est obtenu aprs une deuxime lecture du fichier initial.
Par exemple, considrons la chane comprimer suivante : "ACABBDDBAAA". Les frquences
conditionnelles et les codes seront alors :

E3i, 2001 Transmission de l'information 21
Antcdent f
i j
Code
sachant A f(A) = 2
f(B) = 1
f(C) = 1
0
10
11
sachant B f(A) = 1
f(B) = 1
f(D) = 1
1
00
01
sachant C f(A) = 1 0
sachant D f(B) = 1
f(D) = 1
0
1
En codant le premier caractre du fichier, A, sur 2 bits, la taille de la chane compacte est de 16 bits, par rapport
20 bits par algorithme de Huffman de base.
Malheureusement, plus l'ordre de l'algorithme augmente, plus les en-ttes sont de taille importante :
( )
( )
n k
O
+1
2 (n est le nombre de bits utiliss pour les symboles dans le fichier initial et k est l'ordre de
l'algorithme). Pour cette raison, ainsi que pour maintenir la rapidit des calculs dans des limites acceptables, k ne
dpassera pas 2.
Enfin, des variantes dynamiques similaires existent pour les algorithmes d'ordre suprieur 0.
4.5. Algorithmes de type dictionnaire
L'ide de dpart est de construire une liste (dictionnaire) des squences redondantes du fichier comprimer et de
remplacer chaque squence par son adresse dans la liste.
4.5.1. Algorithme LZW (Lempel et Ziv 1977, Welch 1984)
Le dictionnaire est un tableau dans lequel sont ranges des squences de symboles de taille variable. Ce tableau
est construit au cours du traitement du fichier et permet de remplacer toute squence qui s'y trouve par son
adresse lors d'une occurrence ultrieure. Le dictionnaire n'est pas sauvegard avec le fichier comprim car il peut
tre reconstruit par le dcompacteur.
L'algorithme de compression :
1 lire le premier octet c du fichier comprimer ;
2 tant que non EOF
s := octet suivant ;
seq := c | s ;
si seq est dans le dictionnaire, alors faire c := seq ;
sinon
crire adresse(c) ;
ajouter seq dans le dictionnaire ;
c := s ;
3 crire adresse(c).
On considre que tout octet est identique son adresse, donc dans le dictionnaire nous crivons uniquement les
squences d'au minimum 2 octets.
22 Transmission de l'information E3i, 2001
Le nombre de bits utiliss pour coder une adresse dans la table ne sera pas constant mais augmentera au
cours du traitement (avec la taille de la table). Chaque fois qu'une augmentation est ncessaire, elle est signale
au dcompacteur en crivant un indicateur (par exemple, pour passer de n n+1 bits, le code 1 2
n
) dans le
fichier comprim. Un problme se manifeste pour n = 8 : la premire apparition d'une adresse 255 qui ne joue
par le rle d'indicateur il faut augmenter d'abord la taille des adresses 9 bits (criture de 11111111) et ensuite
seulement crire l'adresse 255, sur 9 bits. De faon similaire, un certain nombre d'adresses (de prfrence
suprieures 255) peuvent ainsi tre rserves la communication entre le compacteur et le dcompacteur. Le
dcompacteur reconstruit le dictionnaire au cours du traitement, mais doit connatre d'avance les adresses
rserves. L'algorithme de dcompression (en faisant l'hypothse que le fichier trait a t comprim en utilisant
l'algorithme LZW) est :
1 lire le premier code c du fichier dcomprimer ;
2 seqp := squence(c) ;
3 crire seqp ;
4 tant que non EOF
s := code suivant ;
seqc := squence(s) ;
crire seqc ;
tmp := premier octet de seqc ;
ajouter seqp | tmp dans le dictionnaire ;
seqp := seqc ;
Le changement de taille des adresses (codes) n'est pas explicit dans cette prsentation de l'algorithme.
Exemple : Montrer le fonctionnement sur la chane "L'algorithme LZW et l'algorithme de ..."
4.5.2. Algorithme de Storer et Szymanski
Cet algorithme est une version de l'algorithme LZW qui utilise un tampon de taille fixe la place du dictionnaire.
Les octets du fichier comprimer sont lus un un dans le tampon ; tant qu'il n'y a pas de rptition de squence
d'octets, chaque octet est crit dans le fichier comprim avec un bit 1 comme en-tte ; ds qu'une squence qui se
rpte est trouve, la squence maximale est recherche et ensuite crite dans le fichier comprim comme un
couple (position dans le tampon, longueur squence) avec un bit 0 comme en-tte. Quand le tampon est plein, son
contenu est dcal d'une position vers la gauche chaque fois qu'un nouvel octet est introduit l'extrmit
droite ; tant que le caractre ou la squence courante se rpte, le contenu du tampon est dcal d'une position
vers la gauche.
Cette version dtecte plus rapidement les squences rptitives maximales que l'algorithme LZW. Le
nombre de bits utiliss pour reprsenter la position dans le tampon dpendra bien sr de la taille du tampon (par
exemple, 13 bits pour 8 Ko) mais on peut le faire varier selon la position en utilisant une technique simple. La
longueur des squences dpendra souvent du type de fichier et sera code sur le nombre de bits correspondant ;
sachant qu'une compression effective peut tre obtenue partir de squences rptitives de 3 octets, le code 0
peut reprsenter dj 3.
Exemple : Montrer le fonctionnement sur la chane "L'algorithme LZW et l'algorithme de ..."
Les algorithmes de type dictionnaire sont un moyen simple du point de vue de la complexit des calculs de
prendre en compte des statistiques d'ordre plus lev que l'algorithme de Huffman.
4.6. Algorithmes mixtes
Les techniques mixtes utilisent conjointement des algorithmes statistiques (en gnral des versions dynamiques
de Huffman) et des algorithmes de type dictionnaire. Deux solutions sont les plus utilises :
1 Appliquer LZW sur un fichier dj comprim par un algorithme de Huffman. En effet, l'algorithme de
Huffman prend en compte les frquences relatives occurrence des symboles individuels, alors que LZW
prend en compte la rptition de squences de symboles.
2 Appliquer l'algorithme de Huffman sur une partie des adresses obtenues aprs une compression par LZW
(ou sur une partie des codes de position obtenus par la version de Storer et Szymanski). Les parties de
poids faible des adresses peuvent tre difficilement comprimes (car en gnral assez alatoires). En
revanche, les parties de poids fort permettent en gnral une compression assez importante.
4.7. Compression avec perte d'informations
Les techniques de compression prsentes jusqu'ici permettent de rcuprer la forme originale des fichiers traits.
Si les fichiers excutables ou les fichiers de donnes informatiques exigent de telles techniques, les fichiers
d'images ou de sons admettent souvent une lgre perte d'informations. Cette perte d'informations est le prix
payer pour obtenir des taux de compression trs importants, exigs par la transmission (ex. vidoconfrence) ou

E3i, 2001 Transmission de l'information 23
le stockage (ex. mini-disques, DCC) de quantits importantes de donnes. Heureusement, les systmes sensoriels
humains sont insensibles la disparition de certaines informations dans le signal d'entre.
4.7.1. Compression des images
Une image est reprsente par une collection (matrice 2D) de pixels, chaque pixel tant dcrit par un entier
unique (plages de gris, ou adresse dans une table de slection de couleurs) ou par plusieurs entiers (composantes
RVB, ou luminance et chrominances).
Quelques caractristiques des images et de la vision humaine (connaissance du domaine) : l'il humain
ne peroit pas les 16 millions de nuances permises par le codage usuel des couleurs sur 24 bits ; plus encore, les
variations fines et denses de nuance l'intrieur d'une rgion de la mme couleur ne sont pas perues ; enfin, un
lger lissage des contours dans l'image amliore le confort visuel. Ces constatations permettent d'liminer une
partie des informations prsentes dans l'image initiale en gardant son intelligibilit et mme en amliorant le
confort de celui qui la regarde.
La rduction du contenu informationnel se fait par un filtrage de l'image, filtrage qui limine du spectre
les frquences trop hautes ou faible amplitude. Ce filtrage peut s'effectuer directement sur l'image, en utilisant
la transformation de Walsh-Hadamard (lissage direct), ou sur le spectre de l'image obtenu par une transformation
de Fourrier ou transformation cosinus discrte.
La transformation de Walsh-Hadamard utilise les matrices d'Hadamard engendres par la relation de
rcurrence suivante :
1
]
1


n n
n n
n
H H
H H
H
2
1
2
avec la condition initiale
1
]
1


1 1
1 1
2
1
2
H .
La transformation d'un vecteur V
k
de taille 2
k
consiste en une multiplication avec la matrice Hadamard
correspondante : ( )
k k
V H V Wh
k

2
. Etant donne une image de taille
k k
2 2 , la transformation est calcule
d'abord sur les lignes et ensuite sur les colonnes de la nouvelle matrice. La transformation limine les hautes
frquences de l'image (lissage direct) et donc augmente la redondance, amliorant ainsi de faon significative le
taux de compression qui peut tre obtenu par une technique classique.
Pour une image de taille
n n
2 2 et de pixels ( ) k j f , , la transforme de Fourrier discrte est :
( ) ( )
( )


1 2
0
1 2
0
2
2
,
2
1
,
n n
n
j k
k v j u i
n
e k j f v u F , avec
n
v u 2 , 0 < .
et la transforme cosinus discrte (TCD) :
( ) ( )
1
]
1

1
]
1

+ +

1 2
2
cos
1 2
2
cos ,
1 2
4
,
1
1 2
0
1 2
0
1 1 n
j k
n n
vk
uj
k j f v u F
n n

,
avec ( )
( )
( )
( )

'

0 si , 25 , 0
, 0 ou 0 si , 5 , 0
0 si ,
,
k j k j f
k j k j k j f
k j k j f
k j f

.
Seuls sont retenus les coefficients dont l'amplitude dpasse un certain seuil.
4.7.1.1. Mthode JPEG
La norme JPEG (Joint Photographic Expert Group) a t adopte en 1992 et utilise trois tapes dans la
compression :
1 Une transformation cosinus discrte applique sur des blocs de 88 pixels sur chaque composante de
l'image (luminance Y, chrominance U, chrominance V) et donne 64 coefficients de frquence par
composante.
2 Les coefficients TCD sont diviss par des valeurs prsentes dans une table de quantification et les
valeurs sont arrondies des entiers. C'est dans cette tape que certaines informations sont limines.
3 Les coefficients obtenus l'tape antrieure sont comprims par un algorithme de Huffman dynamique
(adaptatif) partir de tables de codes connues (afin d'viter le stockage d'un en-tte pour chaque bloc).
Les taux de compression varient entre 20% et 2400% (en gnral 1000% 1600%).
24 Transmission de l'information E3i, 2001
Pour des squences d'images animes, une premire technique consiste comprimer avec JPEG chaque
image de la squence (M-JPEG). Des techniques plus volues ont t dfinies dans le cadre de MPEG ;
quelques images de la squence sont codes avec JPEG, pour les autres images on trouve les zones modifies par
rapport la dernire image code JPEG et les corrlations de mouvement entre ces zones ; des compressions de
15 20 fois sont obtenues.
4.7.2. Compression des sons
Les sons sont reprsents par une suite d'chantillons obtenus une certaine cadence (par exemple, pour les CD
audio la frquence d'chantillonnage est de 44 KHz et les chantillons sont cods sur 16 bits). Le systme auditif
humain est en gnral trs sensible aux distorsions du signal sonore, mais sa courbe de sensibilit est proche de
celle d'un filtre passe-bande :
Niveau
audible [dB]
Frquence [KHz]
0
20
40
60
80
3 5 10 20

De plus, si deux sons de frquences relativement proches sont mis simultanment, nous n'entendons que le plus
fort des deux sons. Cela correspond un ajustement dynamique de la courbe de sensibilit, comme dans
l'exemple :
Niveau
audible [dB]
Frquence [KHz]
0
20
40
60
80
3 5 10 20

4.7.2.1. Mthode PASC
Cette mthode (Precision Adaptive Sub-band Coding), employe pour les DCC, utilise les observations que nous
avons faites. La compression se droule selon les tapes suivantes :
1 Le signal subit une division spectrale sur 32 bandes de 750 Hz de largeur et sur chacune on calcule le
niveau moyen.
2 En utilisant les connaissances sur les courbes dynamiques d'audibilit, on dtermine dans quelles bandes
le signal peut tre limin.
3 Dans chaque bande retenue, le signal est cod en utilisant un nombre variable de bits rpartis entre les
sous-bandes selon la diffrence entre le niveau de la sous-bande et le niveau moyen dans la bande.
Le taux de compression est de 3 4 fois.

E3i, 2001 Transmission de l'information 25
5. Cryptage des informations
5.1. Problmes et classification
Diffrentes raisons rendent aujourd'hui incontournable le cryptage des informations stockes ou transmises : la
facilit avec laquelle on peut accder des donnes travers les rseaux, l'interception des communications, la
ncessit de pouvoir authentifier les documents lectroniques dans les transactions d'affaires.
Deux grandes familles de cryptosystmes :
1 Cryptosystmes conventionnels. Les deux interlocuteurs doivent connatre la cl permettant de crypter et
de dcrypter les messages changs travers un canal de communication non secret (rseau de
transmission). Cette cl doit tre change travers un canal de communication secret (comme un
porteur priv), ce qui pose le plus souvent des problmes de cot et de dlai de transmission.
cl K
cryptage
C = S (M)
K K
Message
en clair M
Message crypt C
dcryptage
M = S (C)
-1
canal secret
canal non secret
M

Diffrentes techniques, rsistant plus ou moins bien la cryptanalyse, peuvent tre employes afin de
coder un message partir de la cl. Le cryptosystme conventionnel le plus utilis actuellement, rput
sr, est DES (Data Encryption Standard dvelopp par IBM il y a 20 ans). DES est employ entre autres
dans le systme d'exploitation UNIX pour la protection des mots de passe.
2 Cryptosystmes cl publique. Le cryptage et le dcryptage utilisent deux cls distinctes ; la cl de
cryptage est publie, en revanche la cl de dcryptage est connue uniquement par le destinataire du
message. La cl de dcryptage ne peut pas tre calcule, du moins en l'tat actuel des connaissances
mathmatiques, partir de la cl de cryptage en un temps raisonnable.
cl K1
cryptage
C = E (M)
K1 K2
Message
en clair M
Message crypt C
dcryptage
M = D (C)
canal non secret
M
cl K2 K1 est publique !

En employant des techniques similaires, les cryptosystmes distribution de cl publique laissent deux
interlocuteurs aboutir une cl commune (utilisable par la suite dans un cryptosystme conventionnel),
tout en changeant sur un canal non secret des informations ne permettant pas une tierce personne de
retrouver la cl. Les cryptosystmes cl publique permettent aussi de mettre en uvre facilement des
systmes d'authentification. Les cryptosystmes cl publique les plus utiliss actuellement sont RSA
(Rivest, Shamir, Adleman) et Diffie-Hellman.
La sret d'un systme de cryptage repose sur :
1 La qualit du brouillage opr par le cryptage. Si le brouillage est trop faible, des techniques de
cryptanalyse (parfois mme une simple analyse en frquence) permettent de reconstituer le message en
clair, sans connatre la cl ou l'algorithme de cryptage. Le cryptage opre de prfrence sur des blocs de
taille diffrente de l'octet et fait appel des transformations fortement non linaires.
2 Le nombre de solutions possibles. Si la cryptanalyse est impuissante mais l'algorithme de cryptage est
connu, il ne reste que le choix entre essayer toutes les solutions possibles (cryptosystmes
conventionnels) ou tenter de calculer la cl de dcryptage partir de la cl de cryptage (cryptosystmes
cl publique). Ces calculs doivent donc tre suffisamment complexes pour que le temps de calcul soit
prohibitif, mme avec la puissance de calcul maximale disponible.
5.2. Systme DES
DES utilise transpositions, oprations OU-exclusif et substitutions afin de produire un cryptage qui rsiste la
cryptanalyse. DES traite des blocs de 64 bits (8 octets) et emploie actuellement des cls de 64 ou 128 bits. Le
26 Transmission de l'information E3i, 2001
fichier traiter est dcoup en blocs de 64 bits, chaque bloc est crypt et les blocs obtenus sont runis pour
obtenir le fichier crypt. Algorithme de cryptage d'un bloc (voir [Marsault, 1992] pour implmentation en C) :
1 La permutation suivante est applique aux bits du bloc :
( ) ( ) , , , , , , , , ,
8 42 50 58 64 2 1

k k
b b b b b b b b .
Le bloc est ensuite dcoup en 2 sous-blocs de 32 bits chacun, G
1
et D
1
; i: = 1.
Les oprations 2 6 sont itres 16 fois ( 16 1 = i ).
bloc de 64 bits
transposition initiale
itration i
transposition finale
bloc crypt
32 bits de
gauche G droite D
32 bits de
f (K , D )
32 bits
32 bits de 32 bits de
gauche G droite D
cl K
i = 1 16
i
i+1
+
i
i i
i+1
i

2 Les 32 bits de D
i
sont mlangs et rpts pour obtenir 48 bits :
( ) ( ) , , , , , , , , , , , , , , , , ,
9 8 9 8 7 6 5 4 5 4 3 2 1 32 32 2 1
b b b b b b b b b b b b b b b b b .
3 La cl K
i
est calcule partir de la cl d'origine K et un OU-exclusif est effectu avec les 48 bits
obtenus l'tape prcdente.
4 Le bloc 48 bits rsultant est dcoup en 8 sous-blocs de 6 bits chacun. Chaque sous-bloc de 6 bits permet
de calculer une adresse dans une table de substitution (les 2 bits de poids fort indiquent le numro de
ligne et les 4 bits de poids faible le numro de colonne) et est remplac par les 4 bits se trouvant cette
adresse dans la table. On obtient donc 32 bits.
5 Le rsultat de l'tape prcdente subit une permutation :
( ) ( )
25 , 4 , 11 , 22 , 6 , 30 , 13 , 19 , 9 , 3 , 27 , 32 , 14 , 24 , 8 , 2 , 10 , 31 , 18 , 5 , 26 , 23 , 15 , 1 , 17 , 28 , 12 , 29 , 21 , 20 , 7 , 16 32 2 1
, , , b b b b .
6 ( )
i i
G D =
+
5 tape rsultat :
1


i i
D G =
+
:
1
.
7 Le rsultat de la dernire itration subit la permutation inverse la permutation initiale.
L'algorithme de dcryptage est identique l'algorithme de cryptage et utilise les mmes cls, mais en partant de
K
16
. Une technique de cryptanalyse rcente, la cryptanalyse diffrentielle dveloppe par Biham et Shamir, a
montr certaines limites de DES et a invalid plusieurs algorithmes inspirs par DES (comme FEAL-4, NewDES,
GDES). La cryptanalyse diffrentielle part de deux hypothses : 1 l'analyste peut avoir accs un nombre lev
de textes en clair et aux textes crypts correspondants, 2 la table de substitution employe pour l'tape 4 de
l'algorithme est connue. Augmenter la longueur de la cl ne rsout pas ncessairement le problme : il a t ainsi
montr qu'une cl de longueur infrieure ou gale 768 bits ne rsiste pas la cryptanalyse diffrentielle. Afin de
faire face cette technique, DES est actuellement employ en 3 passes successives, avec des cls de 112 ou 168
bits. D'autres versions de DES (comme Khufu, Blowfish), faisant appel des tables de substitution multiples
dfinies partir de la cl, ont t dveloppes dernirement et sont censes rsister aussi la cryptanalyse
diffrentielle.
5.3. Systme RSA (Rivest, Shamir, Adleman)
Ce systme est fond sur le problme NP-complet de la dcomposition en facteurs premiers d'un nombre. Si le
nombre en question est choisi de taille importante (plusieurs centaines de chiffres), le temps de calcul est
prohibitif. Afin de construire la cl publique et la cl secrte, le destinataire choisit au hasard deux grands
nombres premiers distincts, p et q, de tailles sensiblement diffrentes et ayant la forme (2x + 1), avec x premier et
tel que x-1 possde de grands facteurs premiers. Le destinataire calcule n = pq ; le nombre d'entiers infrieurs n
et premiers avec lui, not ( ) n , sera alors gal (p-1)(q-1). Il choisit ensuite un grand nombre E premier avec

E3i, 2001 Transmission de l'information 27
( ) n . Il calcule D, l'inverse modulo ( ) n de E et vrifie que D >> n
2
log et que D et n sont premiers entre
eux. La cl publique permettant le cryptage sera la paire (E, n) et la cl secrte du destinataire
permettant le dcryptage sera D (p et q sont aussi gards secrets par le destinataire). Pour qui ne connat pas p
et q, le calcul de la cl secrte partir de la cl publique ncessite une dcomposition de n en facteurs premiers,
ce qui demande un temps de calcul prohibitif.
Afin de crypter le message, celui-ci est dcompos en blocs Bi sur m bits, tel que chaque nombre Bi soit
dans l'intervalle [ ] 1 , 0 n et 1 2
1
2 > >
+ m
n
m
. Chaque Bi est crypt par l'opration suivante : Ci =
n Bi
E
mod ; chaque Ci est reprsent sur m+1 bits. La suite des Ci est transmise sur le canal non secret. Pour
dcrypter le message reu, le destinataire applique sur chaque bloc Ci l'opration inverse, qui est Bi =
n Ci
D
mod (le destinataire est le seul connatre D, la cl de dcryptage).
Exemple simple (les valeurs utilises ici sont trop petites pour assurer la protection !) :
Message en clair : 10001010111101001001011110100010
Cl publique : E = 11, n = 11023.
Cl destinataire (secrte) : D = 5891 (p = 73, q = 151).
Taille des blocs : 13 bits car 1
13
2 11023
14
2 > > .
Le premier bloc de 13 bits est B1 = 1000101011110 = 4446, donc le bloc crypt est C1 =
n B1
E
mod = 9121 ( reprsenter sur 14 bits !)
Le bloc dcrypt par le destinataire est n C1
D
mod = 4446 = B1.
A partir de p, q, E et n, le calcul de D a t effectu de la faon suivante : n = pq,
( ) ( ) ( ) 10800 1 q 1 p n = = , 10800 11 D
1
mod

= = 5891 (10800 6 + 1 = 64801 = 11


5891).
Remarques importantes :
1 Les nombres premiers connus n'tant pas trs nombreux, il est important de ne pas utiliser trop souvent
la mme cl afin de dcourager la cryptanalyse.
2 Si un algorithme rapide de factorisation tait dcouvert, RSA serait dfinitivement abandonn.
Le dveloppement rcent des techniques de factorisation, des circuits spcialiss et du piratage du temps de
calcul font que la longueur conseille pour la cl de dcryptage soit suprieure 1000 bits pour 1995 et 1500
bits l'horizon 2000. Par exemple, la version actuelle du logiciel du domaine public PGP (Pretty Good Privacy)
peut employer des cls de longueur maximale de 1280 bits.
5.3.1. Authentification
Un document lectronique est jug authentique si sa signature et son intgrit peuvent tre vrifies. Ces
vrifications sont possibles grce des techniques de cryptage, notamment RSA qui est particulirement adapte.
Afin de permettre la vrification de l'intgrit d'un document, son crateur calcule partir du document un code
redondant (dtection des erreurs) de longueur suffisante. Il indique ensuite son identit l'aide d'un code
d'identification et crypte l'aide de sa cl secrte D (qu'il est le seul connatre) le code redondant et son code
d'identification. Ce cryptage tient lieu de signature : en effet, tous ceux qui sont en possession de la cl publique
(E, n) correspondante peuvent vrifier que le document est intgre et qu'il a bien t cr par le propritaire de la
cl et du code d'identification.
Pour que le document soit en plus confidentiel il faudra employer sur tout le document et en utilisant
la cl publique du destinataire un cryptage pralable ou ultrieur au cryptage d'authentification.
5.3.2. Distribution de cl publique
La complexit algorithmique de la dcomposition en facteurs premiers fournit un moyen pour gnrer une cl
commune deux utilisateurs ( utiliser avec des cryptosystmes conventionnels, comme DES) en vhiculant
entre les deux utilisateurs uniquement des informations non confidentielles, sur un canal non secret.
Pour cela, les deux utilisateurs choisissent un grand nombre premier p et un entier a < p qu'ils changent
publiquement. Ensuite, chaque utilisateur choisit un entier X appartenant [1, p-1] et calcule Y = p a
X
mod .
Les valeurs Y1 et Y2, calcules par les deux utilisateurs, sont ensuite changes publiquement. Chaque utilisateur
peut alors calculer la cl commune p a c
X X
mod
2 1
= car :
p Y p Y c
X X
mod 2 mod 1
1 2
= = .
28 Transmission de l'information E3i, 2001
Une tierce personne connaissant uniquement p, a, Y1 et Y2 doit calculer un logarithme modulo p afin de retrouver
un X et donc la cl, ce qui est prohibitif en termes de temps de calcul (tant donnes les hypothses sur p).
5.4. Key Escrow
L'utilisation du cryptage pour la transmission et la sauvegarde d'informations peut poser diffrents problmes,
notamment :
1 En cas de perte de sa cl, le destinataire ou le propritaire ne dispose plus d'aucun moyen d'accs aux
informations.
2 L'accs aux informations par un tiers autoris est impossible sans l'accord du destinataire/propritaire des
informations. Le tiers autoris peut tre la direction de la socit dans laquelle travaille le
destinataire/propritaire (en cas d'absence ou de mauvaise volont) ou l'autorit judiciaire (en cas
d'enqute).
La solution est d'associer chaque systme de cryptage une facilit de dcryptage utilisable uniquement par des
personnes ou organisations autorises. Des solutions en nombre trs important ont t proposes, mais elles
respectent toutes le schma suivant :
cryptage
donnes
cl k
dcryptage
donnes
cl k
donnes cryptes
en clair en clair
dterminer
la cl k
dcryptage
donnes
en clair
cls de
recouvrement
Utilisateur 1 Utilisateur 2 (ou 1)
Unit de recouvrement
Units de garde
(key escrow)
+ CRD

Un Champ de Recouvrement des Donnes (CRD) est transmis ou stock avec les donnes cryptes. Ce champ
contient des informations suffisantes pour le dcryptage par un agent autoris (l'Unit de recouvrement), comme
par exemple la cl k crypte l'aide de la cl publique (E, n) qui correspond une cl secrte D de l'Unit de
garde.
Diffrentes prcautions peuvent tre prises afin d'amliorer la protection des utilisateurs face aux
ventuels abus des Units de garde ou des Units de recouvrement, notamment :
1 Units de garde multiples et indpendantes. Chaque unit dtient un seul fragment de la cl et ne peut la
communiquer qu' l'unit de recouvrement (l'agent autoris).
2 Grain fin pour les cls : le cryptage n'est pas effectu avec des cls longue dure de vie, mais avec des
cls de session. Les cls longue dure de vie restent connues uniquement aux utilisateurs, les units de
garde permettent uniquement de rcuprer les cls de session.
Le systme key escrow le plus connu est celui propos par l'administration des Etats Unis sous le nom de Escrow
Encryption Standard, qui fait appel un algorithme de cryptage confidentiel (Skipjack) implment dans des
circuits intgrs spcialiss, inviolables (Clipper/Capstone). Il est toutefois peu probable que ce systme puisse
s'imposer car il tient compte uniquement des intrts de l'administration...
Remarque : rien ne peut garantir que les informations transmises ou stockes l'aide d'un systme key
escrow ne sont pas cryptes au pralable avec des cls connues uniquement aux utilisateurs !
Pour plus de dtails voir (entre autres) les articles publis ce sujet dans [CACM 3/39, 1996] ainsi que
le document http://www.cosc.georgetown.edu/ndenning/crypto/appendix.html.

E3i, 2001 Transmission de l'information 29
6. Supports de transmission
6.1. Canal de transmission
6.1.1. Caractristiques du signal
Les informations transmises sont reprsentes par des signaux. Afin de comprendre les limitations que des
phnomnes physiques imposent sur la transmission des signaux, il est ncessaire de connatre, par une analyse
mathmatique, les caractristiques des signaux.
Une fonction priodique quelconque ( ) t g peut tre crite comme une somme de fonctions priodiques
sinusodales (srie de Fourrier), appeles composantes harmoniques :
( ) ( ) ( )

+ +
1 1
2 cos 2 sin
2
1
n
n
n
n
nft b nft a c t g
o T f 1 reprsente la frquence fondamentale du signal ( ) t g et a
n
et b
n
sont les amplitudes des
composantes harmoniques d'ordre n. La frquence d'une harmonique est donc un multiple de la frquence
fondamentale. Un signal de dure T finie peut tre analys comme un signal priodique (de priode T) en
considrant que le signal reproduit priodiquement (T-2T, 2T-3T,...) la forme qu'il a dans l'intervalle 0-T.
Les amplitudes des composantes harmoniques peuvent tre calcules selon :
( ) ( )


T
n
dt nft t g
T
a
0
2 sin
2
,
( ) ( )


T
n
dt nft t g
T
b
0
2 cos
2
,
( )

T
dt t g
T
c
0
2

(en effet, ( ) ( )

'

n k T
n k
dt nft kft
T
si 2
si 0
2 sin 2 sin
0
, etc.).
La suite des amplitudes des composantes harmoniques forme le spectre du signal. En gnral, c'est le
spectre de puissance qui est employ : ses composantes sont
2 2
n n n
b a c + et leur carr est proportionnel aux
quantits d'nergie transmises par les signaux aux frquences correspondantes.
Par exemple, l'analyse du signal qui reprsente la squence binaire 0110 0010 (code ASCII 8 bits du
caractre b) donne les coefficients suivants :
1
]
1

,
_

,
_

,
_

,
_

4
7
cos
4
6
cos
4
3
cos
4
cos
1 n n n n
n
a
n
,
1
]
1

,
_

,
_

,
_

,
_

4
7
sin
4
6
sin
4
3
sin
4
sin
1 n n n n
n
b
n
,
4
3
c .
Les valeurs correspondantes pour c
n
sont indiques dans la figure suivante :
signal
temps 0 T
0 1 0 0 0 1 1 0
amplitude
n 1 2 3 4 5 6 7 8 9 10 11 0

30 Transmission de l'information E3i, 2001
6.1.2. Caractristiques du canal
Pour un canal qui transmet des signaux lectriques, une caractristique importante est l'impdance
caractristique de la ligne. En effet, la ligne peut tre modlise comme une suite de cellules lmentaires (une
cellule par unit de longueur), chaque cellule correspondant un circuit quivalent :
ligne = suite de cellules lmentaires
Z
c
Z
c
Z
c
Z
c
Z
c
Z
c
Z
c
Z
c

L R
1
R C
2 c
Z
Cellule lmentaire - circuit quivalent :

La rsistance R
1
de la ligne est proportionnelle la longueur et la rsistivit du matriel conducteur utilis, et
inversement proportionnelle sa section. L'inductance L est proportionnelle la longueur et dpend du diamtre
des conducteurs, de leur espacement et de leur configuration. La capacit C de la ligne est proportionnelle sa
longueur et la permittivit du milieu isolant et inversement proportionnelle l'espacement entre les
conducteurs. La perditance R
2
est due l'imperfection du milieu isolant et est inversement proportionnelle la
longueur de la ligne ; la perditance est en partie dpendante de la frquence du signal vhicul.
Une ligne doit tre referme sur son impdance caractristique et ne pas subir de variation locale
d'impdance. Dans le cas contraire, des ondes rflchies apparaissent, produisant une instabilit des signaux et
une pollution lectromagntique de l'environnement.
Ce modle de ligne permet de comprendre pourquoi tout signal transmis subit deux types de
modifications qui dpendent de la longueur de la ligne et de la frquence du signal :
1 un affaiblissement ;
2 un dphasage.
L'affaiblissement linique (dfini donc pour une certaine frquence) est mesur en dcibels/unit de longueur
(dB/km) :
(km) longueur de unit une aprs signal du nergie
initial signal du nergie
log 10
10
=
l
A .
Pour faire face ce problme, dans le cas d'une transmission analogique le signal est amplifi et dans le cas d'une
transmission numrique le signal est rgnr.
Une autre caractristique importante du canal est la vitesse de propagation du signal (peut dpendre de
la frquence du signal). La vitesse de propagation usuelle des signaux lectriques sur cble bifilaire ou coaxial est
de 150 000 220 000 km/s.
Enfin, la sensibilit aux parasites impose des contraintes fortes sur la longueur d'une ligne de
transmission et sur l'environnement dans lequel celle-ci peut tre employe. Types de parasites : le bruit blanc,
d l'agitation thermique, peu gnant pour la transmission de donnes (permanent mais de faible amplitude, de
moyenne nulle et de densit spectrale constante) ; bruits impulsifs, dus des phnomnes de diaphonie,
dcharges lectriques, commutation mcanique, etc., provoquent souvent des erreurs de transmission (forte
intensit et dure brve, mais suffisante pour couvrir un long segment de donnes sur une ligne haut dbit). La
sensibilit aux parasites lectromagntiques (bruits impulsifs) est importante pour un cble bifilaire sans
blindage, se rduit sensiblement par l'utilisation d'un blindage ou d'un cble coaxial et est pratiquement nulle pour
la fibre optique.

E3i, 2001 Transmission de l'information 31
6.1.3. Bande passante, rapidit de modulation et capacit de transmission
L'affaiblissement du signal sur une ligne est en gnral considr ngligeable pour les frquences comprises entre
deux frquences-limite dfinissant la bande passante H = F2 F1, mesure en Hz, de la ligne et augmente
rapidement en dehors de ces limites :
frquence signal
F1 F2
affaiblissement
0 bande passante
n dB

La bande passante se dfinit par rapport un affaiblissement admissible, souvent A = 3dB (ceci correspond
donc une baisse admissible de 2 fois de l'nergie du signal, donc une baisse de 1,4 fois de son amplitude).
Toutes les composantes harmoniques d'un signal ne subissent ni le mme affaiblissement, ni le mme
dphasage, donc le signal reconstruit l'arrive n'a pas la mme forme que le signal mis. La valeur de la bande
passante H de la ligne impose donc une limite sur la rapidit laquelle sont effectus les changements d'tat
significatifs du signal appele rapidit de modulation (R) ou vitesse de signalisation et mesure en bauds
reprsentant l'information transmettre (plus ces changements sont rapides, plus la bande passante exige du
canal pour que le signal mis puisse tre reconstitu la rception est large). Relation de Nyquist :
H R 2 = .
Souvent, le nombre d'tats significatifs du signal (appel aussi valence) est 2 > V ; dans ce cas, le dbit binaire
(en bit/s) de la ligne est donn par :
V H D
2 max
log 2 = .
La quantit de bruit prsent sur une ligne de transmission peut tre quantifie en utilisant le rapport entre
l'nergie utile du signal et l'nergie du bruit, S/B (rapport exprim en gnral comme B S
10
log 10 , en dB).
Pour une ligne de transmission sensible au bruit, Shannon montre que la valence maximale utilisable dpend du
rapport signal/bruit selon :
B
S
V + = 1 ,
et donc le dbit rsultant, appel capacit de transmission (C, en bit/s), est :

+ =
B
S
H C 1 log
2
.
Par exemple, pour le rseau tlphonique commut (RTC), la bande passante 3 dB est de 3,1 kHz (300 Hz
3400 Hz) et le rapport signal/bruit de 30 dB (donc S/B = 1000) ; la capacit de transmission est alors ~ 28 000
bit/s.
Il faut remarquer que le rapport signal/bruit, la bande passante et par consquence la capacit de
transmission dpendent de la longueur de la ligne.
6.2. Transmission sur supports filaires en cuivre
Les supports en cuivre employs sont la paire torsade et le cble coaxial.
6.2.1. Supports bifilaires (symtriques)
La paire torsade est le support de transmission le plus ancien et encore le plus largement utilis, principalement
pour les services tlphoniques. La paire torsade est compose de deux conducteurs en cuivre, isols l'un de
32 Transmission de l'information E3i, 2001
l'autre, et enrouls de faon hlicodale autour de l'axe longitudinale. L'affaiblissement croit rapidement avec la
longueur du support.
Le dbit binaire accessible dpend de la qualit du cble et de sa longueur ; il peut varier entre quelques
dizaines de Kbit/s sur quelques dizains de km, quelques Mbit/s sur quelques km et plusieurs centaines de Mbit/s
pour quelques centaines de mtres. La sensibilit aux parasites d'origine lectromagntique est relativement
importante mais peut tre rduite si le cble est blind. Enfin, le taux d'erreur est de l'ordre de
5
10

. Le
rayonnement lectromagntique d'un cble non blind permet l'coute de la communication.
L'importance de l'infrastructure en paire torsade au niveau de la boucle locale des rseaux de
tlcommunication et du cblage des immeubles, ainsi que l'volution des techniques de transmission sur des
paires torsades (ADSL, Gigabit Ethernet), font que son remplacement gnralis, par d'autres supports, ne soit
pas envisag court terme.
6.2.2. Support coaxial
Plus cher que la paire torsade, le cble coaxial est encore largement utilis pour des artres moyen dbit des
rseaux de transport, ainsi que pour les rseaux de tldiffusion. Deux types de cbles sont les plus utiliss, le
cble impdance caractristique de 50 ohms (notamment pour les rseaux locaux) et le cble impdance de 75
ohms (tldiffusion, artres internes aux rseaux tlphoniques interurbains et internationaux).
La bande passante peut atteindre 400 MHz sur plusieurs dizaines de km. Le dbit binaire typiquement
employ est de 10 Mbit/s (rseaux Ethernet) sur des distances infrieures 1km et peut monter jusqu' plusieurs
centaines de Mbit/s sur des distances trs courtes.
La sensibilit aux parasites ainsi que l'affaiblissement sont rduits par rapport la paire torsade (mais le
prix est significativement plus lev). Le taux d'erreur est de l'ordre de
7
10

. Le cble coaxial est


progressivement remplac par la fibre optique.
6.3. Transmission par fibre optique
Les signaux binaires sont transmis sous la forme d'impulsions lumineuses, travers un guide d'onde en fibre de
verre. Afin de maintenir les rayons lumineux l'intrieur du fibre optique, le phnomne de rflexion totale est
employ :
angle
critique
(rflexion interne totale)
n
1
2
n
gaine optique (~ 100 microns = 100 000 nm)
coeur (~ 30 microns = 30 000 nm)

L'indice de rfraction de la gaine (n
1
) doit tre infrieur celui du cur (
2
n ). L'angle critique est donn par la
formule
2
1
arcsin
n
n
c
=
(dans l'quation de la rfraction
2 2 1 1
sin sin = n n ,
c
=
2
quand = 90
1
).
Afin de subir uniquement des rflexions totales dans la fibre, un rayon lumineux en provenance d'une
source (diode lectroluminescente pour des longueurs d'onde 800900 nm, diode laser pour 8001300 nm) doit
atteindre le bout de la fibre sous un angle d'incidence infrieur
0
2
1
2
2
arcsin
n
n n
A

= , n
0
tant l'indice de rfraction de l'air.
Tous les rayons qui dpassent l'angle critique subissent une rflexion totale ; ce sont donc en gnral plusieurs
rayons, correspondant au mme signal, qui se propagent l'intrieur de la fibre optique fibre multimode saut
d'indice (dessins prcdents) ou gradient d'indice. Quand le diamtre du cur de la fibre est tellement rduit
(comparable la longueur d'onde de la lumire utilise) qu'un seul rayon peut se propager, la fibre est appele
monomode.

E3i, 2001 Transmission de l'information 33
Exercice : calculer la rapidit de modulation maximale admise pour la transmission sur une fibre
optique multimode saut d'indice sachant que la longueur du cble est de 1000 m, la vitesse de
propagation de la lumire dans la fibre est de 200 000 km/s et le rapport entre indices de rfraction
est de 1,02.
Les dbits binaires varient entre plusieurs centaines de Mbit/s (fibre multimode, plusieurs km) et environ 10
Gbit/s (fibre monomode, jusqu 100 km). L' affaiblissement est trs rduit, 0,2 -0,8 dB/km, donc les transmissions
sans rpteurs sur des distances de 100 200 km sont courantes. L' tude de l' affaiblissement dans une fibre de
silice fait apparatre 3 minima : 1dB/km pour une longueur d' onde de 850 nm, 0,35 dB/km pour 1300 nm et 0,2
dB/km pour 1550 nm.
La fibre optique est insensible aux parasites d' origine lectromagntique et assure un taux d' erreur trs
bas, de l' ordre de
12
10

. Aussi, la fibre optique ne produit pas de rayonnement lectromagntique, ce qui


contribue la confidentialit des transmissions.
Grce ses avantages, la fibre optique non seulement remplace le cble coaxial sur les artres
(backbones) des rseaux de tlcommunication, mais s' impose aussi pour l' infrastructure des rseaux locaux
haut dbit (Gigabit Ethernet) et est parfois employe pour la boucle locale (FTTO, Fiber To The Office). Le
cble en fibre optique reste en revanche plus cher que le cble coaxial et son installation pose des difficults
supplmentaires. Aprs avoir t largement employes il y a quelques annes, les fibres multimode sont en cours
de remplacement aujourd' hui par des fibres monomode.
6.3.1. Wavelength Division Multiplexing
La capacit de transmission des fibres optiques peut tre sensiblement augmente en utilisant le multiplexage de
longueurs d' onde, ou Wavelength Division Multiplexing, WDM. A l' mission on fait correspondre chaque flot
d' informations une longueu r d' onde diffrente. Les rayons lumineux n' interagissent pas dans la fibre, et la
longueur d' onde d' un des rayons n' volue pas. En consquence, la rception on peut extraire chaque flot
d' informations par un simple dmultiplexage optique. Un multiplexagede 8 longueurs d' onde (8 lambdas) est
couramment employ, et des exprimentations sont en cours avec 160 longueurs d' onde diffrentes ( DWDM,
Dense WDM, ou HDWDM, High Density WDM). Cela permet donc d' atteindre des dbits binaires allant de 20
Gbit/s 400 Gbit/s par fibre. Voir aussi http://www.techguide.com/comm/dwave.shtml.
6.4. Les ondes en transmission vue directe
6.4.1. Transmissions par rayons laser
Des faisceaux laser trs directifs peuvent tre employs comme support pour des transmissions de donnes entre
immeubles proches. Les dbits peuvent tre trs importants (comme pour la fibre optique) et l' absence de support
installer prsente l' avantage d' un cot nettement moins lev. En revan che, les conditions mtorologiques
peuvent affecter dans des cas extrmes la qualit des communications.
6.4.2. Transmissions par faisceaux hertziens
Pour des distances plus importantes, mais toujours vue directe (dizaines de km, en fonction de la hauteur des
antennes), des faisceaux dirigs d' ondes radio peuvent tre employs et prsentent le mme avantage de cot
d' installation rduit. Les transmissions sont transposition de frquence, la plage de frquences employ pour la
porteuse tant de 2 40 GHz. Il faut noter que l' attnuation du signal mis augmente fortement avec la frquence
de la porteuse. Les metteurs utiliss pour les tlcommunications sont de faible puissance (1 W).
La dispersion des faisceaux tant relativement importante, des techniques de cryptage doivent tre
employes afin de maintenir la confidentialit des communications.
6.5. Transmissions par satellite
Les transmissions par satellite emploient les satellites gostationnaires, qui se trouvent sur une orbite 36000 km
altitude au-dessus de l' quateur. Les bandes de frquences attribues aux rseaux de communications par satellite
sont 3,7-4,2 GHz, 5,925-6,425 GHz, 12-14 GHz et 20-30GHz. Dans les deux premires bandes, l' cart de
position entre deux satellites doit tre suprieur 4 (ou 8 pour les satellites de tldiffusion, de puissance plus
leve) afin d' assurer une bonne slectivit (viter les interfrences). Les satellites de tlcommunication
possdent des metteurs de faible puissance (< 10 W) par rapport aux satellites de tldiffusion (> 500 W). Dans
la troisime bande, les carts angulaires peuvent tre de seulement 1 mais l' attnuation dans l' atmosphre des
signaux est beaucoup plus forte (surtout dans les particules d' eau). De faon gnrale, les conditions
atmosphriques au sol ou en altitude peuvent affecter temporairement la qualit des communications. La
quatrime bande commence seulement tre utilise.
Les dbits accessibles aux utilisateurs peuvent aller jusqu' plusieurs Mbit/s.
34 Transmission de l'information E3i, 2001
Les dlais de transmission sont relativement importants (250-300 milisecondes) et doivent tre pris en
compte dans la conception des protocoles de communication (notamment pour la correction des erreurs par
retransmission).
La dispersion des faisceaux au sol tant importante, des techniques de cryptage sont indispensables pour
maintenir la confidentialit des communications.
7. Types de transmission
7.1. Bande de base ou transposition de frquence
Dans ce qui suit nous appellerons frquence de bit (note b) la frquence laquelle les bits successifs sont
transmis.
Les informations transmettre sont reprsentes par une suite de symboles binaires. Un codeur
transforme cette suite en une autre, binaire ou non, en employant un codage spcifique au canal. La suite code
nouveau peut soit correspondre directement au signal qui circule sur le canal de communication transmission
en bande de base soit tre employe pour modifier (moduler) un signal (porteuse) de frquence suprieure
la frquence de bit transmission par transposition de frquence ou modulation.
7.1.1. Transmission en bande de base. Codage du signal
Considrons d'abord un exemple o les informations sont transmises par un signal binaire correspondant au
codage source (sans codage canal) :
1 0 0 0 0 0 1 1 1 1 1 0 0 t
U
10V
0V

Problmes qui se posent (exemple considr) :
1 Une composante continue de 5 Volts est prsente dans le signal, donc la moiti de l'nergie transmise est
inutile.
2 La prsence d'un nombre important de 0 successifs (ou de 1 successifs) dans le signal peut nuire la
synchronisation entre l'metteur et le rcepteur.
3 La prsence possible la fois de squences de type 10101010... (alternantes) et de squences de type
100000..001.. (constantes) fait que le spectre du signal et donc la bande passante exige au canal
soit trs large.
Le codage canal essaye de rsoudre ou d'attnuer ces problmes par :
1 une meilleure adaptation aux caractristiques physiques du canal de transmission.
2 une meilleure synchronisation entre l'metteur et le rcepteur.
3 la rduction de la bande passante exige.

E3i, 2001 Transmission de l'information 35
7.1.1.1. Spectre de frquences d'un signal binaire
Train priodique d'impulsions (D = k T, k entier) : le spectre est un spectre de raies espaces de 1/D, l'amplitude
des composantes du spectre est nulle pour f = n/T, n entier :
0
T
D t
1 2 0 f 1
T D D
2
T
signal
spectre
3
T
. . .
. . .
U
densit
spectrale

Impulsion unique : le spectre correspond l'enveloppe du spectre prcdent.
0 T/2 t
0 f 2 1
T T
signal
spectre
. . .
. . .
3
T
U
densit
spectrale

Suite alatoire d'impulsions : reprsente le mieux la ralit pour une transmission de donnes ; le spectre de la
suite alatoire correspond, une constante prs, au spectre d'une impulsion unique. Il suffit de transmettre une
bande de frquences comprenant le premier zro de ce spectre pour que la quantit d'nergie transfre soit
suffisante.
7.1.1.2. Codages NRZ et NRZI
Ce codage est similaire au codage binaire, sauf pour les niveaux de tension symtriques employs afin de rduire
la composante continue du signal transmis :
NRZ (No Return to Zero) : chaque information binaire "1" est code par un niveau +a, les informations "0"
par un niveau a (voir la figure suivante).
NRZI (No Return to Zero, Invert on one) : chaque bit "1" produit une inversion (+a a, a +a), les
bits "0" laissent le signal inchang.
Malheureusement, les problmes 2 et 3 sont toujours prsents. Le spectre de puissance du signal NRZ est :
( )
( )
2
sin



=
f
b f a
b f .
36 Transmission de l'information E3i, 2001
7.1.1.3. Codage Manchester
Ce codage prend en compte les problmes 1 et 2 mentionns. D'abord, des niveaux de tension symtriques sont
employs afin de rduire la composante continue du signal transmis. Ensuite, une transition est prsente au milieu
du temps-bit pour chaque bit transmis (codage biphase) afin d'amliorer la synchronisation (transition-horloge) ;
si le bit est "1" la transition est ascendante, si le bit est "0" la transition est descendante (voir la figure suivante).
Le spectre de puissance d'un signal Manchester est :
( )

,
_

1
]
1



b
f
f
a
b f
2
sin
2
4
2
.
7.1.1.4. Codage Manchester diffrentiel
Les transitions au milieu du temps-bit codent maintenant la diffrence entre deux bits successifs : la transition est
ascendante lorsque les deux bits sont identiques et descendante dans le cas contraire (voir la figure suivante). Le
spectre de puissance est le mme que pour le codage Manchester.
L'absence de transitions-horloge peut tre employe pour la signalisation au cours de la transmission
(par exemple marqueurs de dbut ou de fin sur les rseaux circulation de jeton Token Ring, recommandation
IEEE 802.5).
7.1.1.5. Codage de Miller
Des niveaux de tension symtriques sont employs afin de rduire la composante continue du signal transmis. Le
codage de Miller consiste mettre une transition au milieu du temps-bit si le bit est "1", la transition suivante
ayant lieu aprs le temps-bit suivant si celui-ci correspond un "0" suivi par un deuxime "0" ou au milieu du
temps-bit suivant si celui-ci correspond "1" (voir la figure suivante). Ce codage peut tre obtenu partir du
codage Manchester en supprimant une transition sur deux ; le spectre de frquence est beaucoup plus troit que
pour le codage Manchester.
7.1.1.6. Codages bipolaires
Ces codages utilisent trois tats (niveaux de tension lectrique) pour le signal. En codage bipolaire simple les bits
"1" sont mis alternativement l'tat positif ou ngatif et les bits "0" l'tat zro (voir la figure suivante). Le
spectre de puissance est :
( )

,
_

1
]
1



b
f
f
a
b f
4
2
sin ,
donc deux fois plus troit que pour le codage Manchester. Lors d'une longue srie de "0", ce codage pose des
problmes de synchronisation (absence de transitions). Les codes bipolaires haute densit d'ordre n (ou HDBn)
corrigent cela en codant le (n+1)-me bit "0" par un tat (positif ou ngatif) identique au dernier bit "1". Pour
HDB3 (voir la figure suivante), par exemple, une squence de 4 bits "0" est code par la squence "B00V" ; V
est le bit dit de viol, dont l'tat est identique l'tat du dernier bit "1" si B est zro, ou au bit B sinon ; B est un bit
dit de bourrage, dont l'tat positif, ngatif ou zro est choisi de faon ramener la composante continue
une valeur nulle. Le spectre utilise la mme bande de frquences que le code bipolaire simple.

E3i, 2001 Transmission de l'information 37
1 0 0 0 0 0 1 1 1 1 1 0 0 t
NRZ
bipolaire
simple
HDB3
1 0 0 0 0 0 1 1 1 1 1 0 0 t
1 0 0 0 0 0 1 1 1 1 1 0 0 t
1 0 0 0 0 0 1 1 1 1 1 0 0 t
Manchester
1 0 0 0 0 0 1 1 1 1 1 0 0 t
Manchester
diffrentiel
1 0 0 0 0 0 1 1 1 1 1 0 0 t
V B
binaire
a
-a
Miller
1 0 0 0 0 0 1 1 1 1 1 0 0 t
NRZI
1 0 0 0 0 0 1 1 1 1 1 0 0 t
-a
a

Le choix entre les diffrents codages est effectu en fonction des caractristiques du canal, du type de
transmission et du dbit binaire exig. Le seul codage non redondant est NRZ/NRZI, mais il pose d'importants
problmes de synchronisation. Le codage Manchester, le codage de Miller et le codage bipolaire sont plus
sensibles au bruit (pour Manchester, le spectre est deux fois plus large ; pour Miller, l'annulation de la
composante continue n'est pas totale ; pour les codes bipolaires trois niveaux de tension sont employs). Les plus
utiliss pour des transmissions synchrones sont les codages Manchester diffrentiel, Miller et HDBn.
La transmission en bande de base prsente l'avantage de la simplicit et donc du cot rduit des
quipements. Elle exige en revanche des supports n'introduisant pas de dcalage en frquence (transmission sur
cble).
7.1.2. Transmission par transposition de frquence
La transposition de frquence est un ensemble de procds par lesquels la bande de frquence d'un signal est
dcale dans le domaine frquence. La transmission par transposition de frquence assure en gnral une
meilleure protection contre le bruit et permet le multiplexage en frquence (voir plus loin). La transposition de
frquence devient indispensable quand le signal transmettre n'est pas dans un domaine de frquence
correspondant au support.
Considrons le signal modulant ( ) t s (en gnral un signal en bande de base) bande limite
[ ]
s s
B B + , , caractris par la densit spectrale de puissance ( ) f
s
, et une onde porteuse sinusodale
( ) ( )
p p p
t A t p + = cos
d'amplitude
p
A , frquence

=
2
p
p
f et phase
p
. Le signal modul sera
( ) ( ) ( ) x t a t x = cos .
La modulation est d'amplitude si le signal modulant entre dans ( ) t a , angulaire s'il entre dans ( ) t et combine
s'il est prsent dans les deux. Pour une modulation angulaire, la phase se dcompose
38 Transmission de l'information E3i, 2001
( ) ( ) t t t
p p
+ + = ; pour une modulation de phase ( ) ( ) t s m t = alors que pour une modulation de
frquence ( ) ( )

=
t
d s m t
0
, m tant une constante.
7.1.2.1. Modulation d'amplitude
L'amplitude instantane du signal modul prsente une dpendance affine du signal de donnes modulant :
( ) ( ) [ ] ( )
p p p
t t s m K A t x + + = cos , avec ( ) K t s m ,
m tant le taux de modulation. Le spectre de puissance contient une raie correspondant la porteuse laquelle
s'ajoute le spectre dcal du signal modulant :
signal de donnes
signal modul
f
f

s
x
f
p
porteuse

Cette modulation est appele double bande car son occupation spectrale est double par rapport celle du signal
modulant. Afin de rduire la largeur de bande occupe sur le canal de transmission, diffrentes techniques
peuvent tre employes pour liminer la moiti infrieure, redondante, du spectre (par exemple un filtre passe-
bande) et obtenir une modulation bande latrale unique (BLU).
La modulation d'amplitude est utilise pour la radiodiffusion, le signal multiplex tlphonique des
groupes primaires (signaux modulants analogiques) et la transmission de signaux numriques (codage
Manchester pralable) sur des faisceaux hertziens locaux 2 GHz.
7.1.2.2. Modulation de frquence
La frquence du signal modul dpend du signal de donnes modulant :
( ) ( )

+ + =

t
p p p
d s f t A t x
0
2 cos ,
f tant l'excursion en frquence. Le calcul du spectre du signal modul est complexe ; pour un signal modulant
sinusodal de frquence f
s
, le spectre contient une infinit de raies aux frquences
s p
f k f . Les amplitudes
des bandes latrales convergent rapidement vers 0, mais la largeur de bande exige est toutefois plus importante
que pour une modulation en amplitude.
Avantages de la modulation de frquence : limitation du bruit de souffle (environ 1000 fois plus rduit
qu'en modulation d'amplitude), distorsion infrieure 1%. Dsavantages : spectre de frquences occup
beaucoup plus large qu'en modulation d'amplitude (environ 1 fois), d'o la ncessit d'utiliser des porteuses
frquence leve, ce qui implique une transmission quasi-optique des ondes (donc nombreux relais de
transmission ncessaires), quipements coteux.
La modulation de frquence est employe principalement pour des signaux modulants analogiques
(radiodiffusion, tldiffusion, multiplex tlphoniques). En raison de la largeur de bande exige, la modulation de
frquence est limite des dbits faibles pour la transmission de signaux modulants numriques.

E3i, 2001 Transmission de l'information 39
7.1.2.3. Modulation de phase
La phase du signal modul dpend du signal de donnes modulant :
( ) ( ) [ ] t s m t A t x
p p p
+ + = 2 cos .
Pour un signal modulant numrique on utilise 2, 4 ou 8 tats de phase uniformment rpartis dans l'intervalle
0 2 , . Afin de minimiser la probabilit d'erreur par lment binaire, la relation entre les tats de phase et les
suites binaires doit correspondre un code de Gray (un seul bit change entre deux codes voisins), par exemple,
pour 8 tats de phase :
000
001 011
010
110
111 101
100

Lorsque le rapport entre la frquence de la porteuse f
p
et celle du signal modulant est grand, le spectre est
concentr autour de f
p
.
La modulation de phase est couramment employe (seule ou en conjonction avec la modulation
d'amplitude, voir le paragraphe suivant) pour la transmission des signaux numriques sur lignes tlphoniques,
pour les faisceaux hertziens 2 GHz, pour les transmissions par satellite (modulation de phase 4 tats, qui
prsente un bon compromis puissance efficacit spectrale).
7.1.2.4. Modulations combines d'amplitude et de phase
Les tats du signal numrique peuvent tre associs plusieurs caractristiques du signal modul ; l'utilisation
conjointe de l'amplitude et de la phase a t retenue. Sur un intervalle de modulation T (intervalle durant lequel
les caractristiques du signal modul ne changent pas), le signal modul sera
( ) ( )
i p i
t A t x + = cos sur l'intervalle ( ) [ ] T i iT 1 , +
o A
i
et
i
dpendent d'une squence d'tats du signal numrique (une suite de bits transmettre).
Pour l'avis V29 du CCITT qu'utilisent certains modems sur le rseau tlphonique commut, la rapidit
de modulation est de 2400 bauds et le dbit binaire de 9600 bits/s ; ce qui signifie que chaque intervalle de
modulation code 4 bits conscutifs (16 combinaisons possibles). Ceci est possible grce l'emploi d'une
modulation combine d'amplitude et de phase, pour laquelle le diagramme suivant a t retenu :
3
3
2
2
5

La modulation combine d'amplitude et de phase prsente une bonne efficacit spectrale pour un rapport
signal/bruit donn.
7.1.2.5. Principaux avis du CCITT (actuel UIT-T) concernant les modems
V21 : modem pour utilisation sur le rseau tlphonique commut (RTC) 300 bits/s (ou bps).
V22 : modem 1200 bps duplex intgral bifilaire pour RTC.
V22 bis : 2400 bps duplex intgral bifilaire sur RTC.
V23 : modem RTC, 600 ou 1200 bps smi-duplex ou 1200/75 bps duplex (employ pour Tltel).
V25, V25 bis : composition automatique du numro et/ou rponse automatique un appel sur RTC.
V26 : modem 2400 bps duplex pour circuits quadrifilaires point point.
40 Transmission de l'information E3i, 2001
V26 bis : modem 2400 bps (1200 en repli) duplex pour RTC.
V27 : modem 4800 bps pour lignes spcialises.
V27 bis : modem 4800 bps (2400 en repli) pour transmissions synchrones ; galiseur adaptatif automatique ;
duplex symtrique sur ligne spcialise quadrifilaire ou smi-duplex dissymtrique voie de retour 75
bps sur ligne spcialise bifilaire.
V27 ter : identique au prcdent, mais pour RTC.
V29 : modem 9600 bps pour lignes spcialises.
V32 : modem 9600 bps (4800 en repli) duplex sur ligne bifilaire RTC.
V32 bis : modem 14400 bps duplex pour ligne bifilaire ; vitesses de repli 12000, 9600, 7200 et 4800 bps ;
intgre une fonction d'auto-adaptation permanente du dbit aux conditions de la ligne, par ngociation
entre deux modems V32 bis.
V42 : protocole de correction d'erreurs pour le transfert de donnes asynchrones.
V42 bis : algorithme normalis de compression de donnes.
V34 (Vfast) : modem 28800 bps, les autres caractristiques tant celles du V32 bis.
V54 : normalisation des boucles de test.
7.1.3. Modulation par impulsion et codage (MIC)
La transmission numrique de signaux analogiques fait appel une technique appele modulation par impulsion
et codage (MIC) qui consiste en trois tapes successives : chantillonnage, quantification et codage.
Le signal analogique ( ) t x est chantillonn une frquence T f
e
1 = , ce qui correspond la
transformation de ( ) t x en ( ) ( ) ( ) t t x t x
T
=
~
. ( ) t
T
est la fonction Delta priodique ("peigne") de priode T,
( ) ( )

=
k
T
T k t t , tant la distribution de Dirac. En srie de Fourrier complexe, ( ) t
T
peut s'crire
( )


=
k
T kt j
T
e
T
t
2
1
.
Le spectre de ( ) t x
~
est donn par
( ) ( ) ( ) ( )

+


+


= = dt e t t x dt e t x f X
ft j
T
ft j 2 2 ~
~
,
soit en remplaant ( ) t
T

( ) ( )


=
k
t
T
k
f j
dt e t x
T
f X
2
1 ~
.
Si ( ) f X est la transforme de Fourrier de ( ) t x , alors ( ) f X
~
peut s'crire
( )

=
k
T
k
f X
T
f X
1 ~
,
cest dire ( ) f X
~
est une somme infinie de la densit spectrale ( ) f X dcale toutes les frquences multiples
de 1 T . Si le spectre de ( ) t x est born ( ( ) ( ) 0 ,
max
= > f X f f et les "morceaux" ( ) f X qui constituent le
spectre ( ) f X
~
ne se recouvrent pas, cest dire
max
2
1
f
T
f
e
= (critre de Shannon ou thorme
d'chantillonnage), alors ( ) t x peut tre facilement reconstitu partir de ( ) t x
~
par le filtrage d'une bande de
( ) f X
~
et la multiplication par T.
Chaque chantillon du signal est ensuite quantifi selon une chelle 2
n
niveaux (correspondant n
bits) appels niveaux de quantification. Les erreurs de quantification dterminent un bruit de quantification. Si
les chantillons, cods chacun sur n bits, sont ensuite transmis tels quels, le dbit binaire exig est
n f D =
max
2 bits/s.

E3i, 2001 Transmission de l'information 41
000
001
010
011
100
101
110
001 011 011 000 100 100 100 000
signal analogique
signal chantillonn
quantifi
signal binaire

Exemple : pour le rseau tlphonique commut, f
max
= 4kHz, f
e
= 8kHz (chantillonnage toutes les 1/125
secondes). 256 niveaux (8 bits) sont employs pour la quantification, le dbit binaire ncessaire est donc de 64
kbits/s.
Afin d'obtenir une mme erreur relative quel que soit le niveau du signal, l'chelle de quantification n'est
pas linaire. Les lois non linaires employes sont la loi aux Etats-Unis et la loi A en Europe (loi normalise
par le CCITT). Les circuits qui implmentent ces lois sont appels companders, le circuits qui ralisent
l'ensemble des oprations, de l'chantillonnage/interpolation au codage/dcodage sont appels codecs.
Dans certains cas particuliers le dbit binaire exig peut tre rduit en utilisant un codage plus
conomique. Ainsi, pour un signal de parole on constate que les variations de niveau entre deux chantillons
successifs sont presque toujours de 1 ; au lieu de coder le niveau de chaque chantillon individuel, nous
prfrerons coder (en utilisant par exemple "1" pour +1 et "0" pour 1) la diffrence par rapport l'chantillon
prcdent. On obtient ainsi ce qu'on appelle modulation Delta. Les distorsions introduites (surtout aux niveaux
bas) sont relativement importantes et les variations rapides du signal sont limines. La modulation Delta
adaptative consiste utiliser une chelle non-linaire et coder plusieurs valeurs de la pente d'volution du
signal. Enfin, la modulation MIC diffrentielle adaptative avec prdiction long terme ne transmet pas la valeur
absolue de l'chantillon mesur, mais la diffrence code sur 4 bits entre la valeur de l'chantillon et celle
prdite par un filtre adaptatif ; le dbit binaire exig est rduit 24 ou 32 kbits/s.
7.2. Multiplexage en frquence ou multiplexage temporel
Le multiplexage permet de transmettre n canaux de communication de dbit d sur un support qui accepte le dbit
D = nd. Le multiplexage en frquence consiste appliquer une transposition de frquence diffrente au signal sur
chaque canal, afin d'occuper uniformment la bande disponible sur le support large bande (voir la figure
suivante) ; les signaux moduls sont alors mis simultanment. Des filtres passe-bande sont employs l'arrive
afin de choisir un canal.
spectre du signal transmettre
transposition de frquence et multiplexage en frquence
sur un support large bande
canal 1 canal 2 canal 3 canal 4 . . .
. . .

42 Transmission de l'information E3i, 2001
Le multiplexage temporel consiste dcouper les messages sur chaque canal en tranches de longueur en gnral
fixe et transmettre ces tranches successivement dans des intervalles temporels au dbit lev permis par le
support.
. . . . . . . . . . . .
canal 1 canal n canal 1 canal n
IT 1 IT n IT 1 IT n
tranche i tranche j tranche i+1 tranche j+1

Plusieurs politiques diffrentes peuvent tre employes afin d'associer des intervalles temporels (IT) aux
diffrents canaux :
1 Les IT allous chaque canal sont bien dfinis. Cela permet de rduire la quantit d'informations de
signalisation faire circuler, mais rduit l'efficacit du multiplexage : quand plusieurs canaux sont
inactifs, leurs IT restent inutiliss.
2 L'allocation des IT est dynamique : tous les IT sont allous aux seuls canaux actifs et l'identification du
canal est ajoute chaque tranche d'informations. Dans ce cas, le dbit permis par le support peut tre
infrieur la somme des dbits des canaux individuels (D < nd).
7.3. Parallle ou srie
Les octets qui composent un message sont presque exclusivement transmis les uns aprs les autres. En revanche,
les bits qui composent un octet peuvent tre transmis soit successivement transmission srie soit
simultanment transmission parallle.
Pour une transmission parallle le support s'appelle bus et doit comporter 8 canaux lmentaires (1 bit).
Le cot du support de communication est donc beaucoup plus lev que pour une transmission srie et des
interfrences apparaissent facilement, ce qui fait que les liaisons parallles sont rserves aux transmissions sur
des courtes distances et qui ncessitent des dbits maximaux. C'est le cas par exemple pour les communications
l'intrieur d'un ordinateur, entre l'ordinateur et une unit de disque, une imprimante ou des quipements de
mesure (IEEE488-HPIB).
0 1 1 0 1 0 1 0
0
1
1
0
1
0
1
0

Les communications distance plus leve sont presque exclusivement de type srie.
0 1 1 0 1 0 1 0
0 1 1 0 1 0 1 0

Les interfaces srie les plus utilises sont RS232C (dbit maximum de 9600 bit/s pour une distance d'environ 20
m) et RS422 (distance d'environ 1km).
7.4. Synchrone ou asynchrone
Le mode de transmission est synchrone lorsque tous les instants significatifs dans la squence de donnes sont
spars par des multiples d'un intervalle de temps T (la priode d'un horloge). Le signal d'horloge est continu et il
n'y a pas de sparation entre des caractres (ou octets) successifs. Comme le signal d'horloge la rception est
refait partir du signal de donnes, les transitions de ce dernier doivent tre suffisamment nombreuses pour
viter la perte de la synchronisation. Ce mode de transmission est le plus efficace et est donc employ sur toutes
les liaisons dbit lev.
1 0 0 0 0 0 1 1 1 1 1
signal synchrone
signal d'horloge


E3i, 2001 Transmission de l'information 43
En mode de transmission asynchrone, les caractres successifs sont transmis indpendamment les uns des autres ;
chaque caractre est encadr par un bit de Start et 1, 1,5 ou 2 bits de Stop, destins assurer le dmarrage et
l'arrt correct de l'horloge du rcepteur. L'horloge rgit uniquement l'mission et la rception des bits d'un mme
caractre. Entre deux caractres successifs, la ligne peut tre inactive pendant une dure quelconque. Ce mode de
transmission est employ pour la communication avec des priphriques asynchrones (clavier par exemple).
1 0 0 0 0 0 1 1 1 1 1
signal asynchrone
signal d'horloge
dmarrage arrt arrt dmarrage
Start Stop Start Stop 1

7.5. Point point ou multipoint
Les liaisons point point permettent la communication directe entre deux correspondants seulement. Dans un
rseau compos de liaisons point point, un message doit parcourir un certain nombre de liaisons et de nuds
intermdiaires pour arriver destination.

Les liaisons multipoint permettent la connexion de plusieurs correspondants une mme ligne. Des
communications de type broadcast (un metteur et plusieurs rcepteurs) peuvent tre facilement assures.

7.6. Simplex, semi-duplex ou duplex
Le transfert d'informations entre deux quipements peut s'effectuer de 3 faons distinctes :
1 En mode simplex, le transfert des informations peut s'effectuer en un seul sens. Une voie dite de retour,
de dbit beaucoup plus bas que la voie principale, peut exister afin de permettre l'envoi d'informations de
signalisation. Deux voies unidirectionnelles sont en gnral utilises : voie principale, voie de retour.
2 En mode semi-duplex (half-duplex), le transfert des informations peut s'effectuer dans les deux sens au
mme dbit, mais pas simultanment. A chacune instant, le rle d'metteur revient un quipement et
celui de rcepteur l'autre quipement. Deux voies unidirectionnelles alternativement voies
principales et voies de retour sont en gnral utilises.
3 En mode duplex (full-duplex), le transfert d'informations peut s'effectuer simultanment dans les deux
sens, au mme dbit. Chaque quipement est en mme temps metteur et rcepteur. En gnral, quatre
voies unidirectionnelles sont utilises : deux voies principales, deux voies de retour. Certains
quipements utilisent seulement deux voies unidirectionnelles, le mode duplex tant virtuel.
44 Transmission de l'information E3i, 2001
7.7. Commutation de circuits, de messages ou de paquets
Trois familles de techniques peuvent tre employes afin de faire communiquer deux quipements connects par
un rseau complexe :
1 Afin de faire communiquer deux quipements distants, travers un rseau complexe, la premire
technique utilise a t celle de la commutation de circuits (mise en uvre, par exemple, sur le rseau
tlphonique analogique, RTC, et sur le rseau numrique intgration de services, Numris/RNIS).
Aux dbuts de la tlphonie, louverture dun circuit de communication entre deux quipements
correspondait la cration d' une liaison physique temporaire. Aujourdhui, il s' agit plutt de
ltablissement travers un rseau complexe d' un canal synchrone entre les quipements terminaux. Les
nuds du rseau sont des commutateurs qui contribuent l' tablissement du canal synchrone:
Commutateur

Cette technique permet le transfert d' informations quelconques (mme voix, images, pour lesquelles le
temps de rponse est critique) mais est peu rentable en mode conversationnel, quand le rapport entre le
volume d' informations changer et la dure de la communication est rduit. La tarification est en
gnral proportionnelle la dure de connexion, au dbit de la ligne et la distance entre les sites qui
communiquent.
2 La commutation de messages est utile pour les cas o le temps de rponse est peu important et c' est le
rendement du rseau qui est le paramtre principal. Chaque nud du rseau a une capacit importante de
stockage (en gnral stockage magntique) et chaque message (de plusieurs koct, de longueur variable)
est stock dans un nud avant d' tre relay vers le nud suivant (qui l' approche de la destination).
3 La commutation par paquets, mise en uvre en gnral sur les rseaux de transmission de donnes, est
une volution de la commutation de messages : les messages sont dcoups en tranches de taille rduite
(ex. 100 octets) et en gnral fixe et le stockage dans chaque nud du rseau utilise des mmoires
lectroniques. Cela permet une rduction considrable du temps de rponse (qui ne peut toutefois pas
tre garanti 100%) tout en assurant un bon rendement du rseau.
Commutateur

Les rseaux haut dbit utilisent principalement deux volutions rcentes des techniques de
commutation de paquets : le relais de trames et l' ATM. Le relais de trame utilise des paquets de taille
variable mais, en simplifiant le contrle de flux et des erreurs (grce l' augmentation de lafiabilit des
liaisons point point, ces contrles peuvent tre effectus uniquement aux extrmits) permet une
acclration de la communication. L' ATM ( Asynchronous Transfer Mode) emploie des paquets de taille
fixe et rduite (53 octets) et simplifie, comme le relais de trame, le contrle de flux et des erreurs. La
tarification est en gnral proportionnelle au volume de donnes transmis, au dbit de la ligne et la
distance entre les sites qui communiquent.

E3i, 2001 Transmission de l'information 45
7.8. Types de procdures de communication
Problmes auxquels une transmission doit faire face :
1 il n'existe en gnral qu'une seule voie physique (par sens de communication) entre les quipements,
pour transmettre aussi bien des donnes que des informations de contrle ;
2 la communication n'est pas fiable les donnes ou les informations de contrle peuvent tre errones
la rception.
Une procdure de communication est constitue d'un ensemble de rgles de reconnaissance des messages valides,
de reprise sur erreur et de rinitialisation permettant de faire communiquer deux quipements. Une procdure
doit se charger de :
1 transfrer l'information utile entre une source et une destination qui doit tre identifie par une adresse ;
2 structurer les messages en incluant les informations transfrer et les squences de commande et de
contrle ;
3 superviser la liaison, en enchanant les commandes, les rponses, les accuss de rception, etc. ;
4 reprendre le transfert en cas d'erreur, soit partir du dernier tat considr valide par les deux
interlocuteurs, soit depuis le dbut ; des temporisations qui dpendent du temps de propagation et du
dbit binaire sont implmentes afin d'viter le blocage des transferts ;
5 grer les quipements qui interviennent.
Un processus de communication est en gnral dcompos en plusieurs niveaux et une procdure particulire
gre chacun des niveaux.
En fonction de leur gnralit, les procdures peuvent tre minimales (communication trs contrainte
avec un type bien dtermin d'quipement), intermdiaires ou universelles (communication gnrale entre
quipements htrognes).
Selon que la communication est effectue sous le contrle exclusif d'un et mme quipement ou que les
rles des deux quipements qui communiquent peuvent tre symtriques, la procdure est hirarchise ou
quilibre.
46 Transmission de l'information E3i, 2001
Bibliographie
CACM 3/39 (1996) Communications of the ACM, no. 3, vol. 39, mars 1996 (en bibliothque).
Clavier, J., Niquil, M., Coffinet, G., Behr, F. (1972) Thorie et technique de la transmission des donnes,
Masson et Cie, 1972 (en bibliothque, 628/177).
Prsentation dtaille de techniques de codage et de techniques de modulation. Quelques erreurs
(partie codage surtout). Prsentation des lments essentiels de la thorie de l'information.
Delahousse, A. (1997) Cblage haut dbit : voix, donnes, images, Herms, Paris, 1997 (en bibliothque,
601/7579-0), 160 p.
Prsentation rapide de supports de transmission et de leurs caractristiques, prsentation plus
dtaille de normes de cblage et discussion de la conception ainsi que de la mise en oeuvre du
cblage. Prsentation trs sommaire de quatre tudes de cas.
Maiman, M. (1994) Tlcoms et rseaux, Masson, Paris, 1994.
Tour d'horizon rapide. Trs ingale. Un point fort : des exemples de traces (niveaux OSI 2 5).
Marsault, X. (1992) Compression et cryptage en informatique, Herms, Paris, 1992 (en bibliothque,
628/4679).
Prsentation relativement complte, mais certains dtails manquent (ex. pour DES), la prsentation
est parfois obscure (ex. systmes cls publiques) et parfois il y a des erreurs (ex. algo
dcompression LZW). L'annexe prsente des programmes en C correspondant diffrents
algorithmes de compression et de cryptage (notamment DES).
Pujolle, G., Seret, D., Dromard, D., Horlait, E. (1989) Rseaux et Tlmatique, Tome 1, Eyrolles, Paris, 1989
(en bibliothque, 628/5095-1).
Prsentation relativement dtaille. Quelques erreurs. Assez ingale.
Stinson, D. (1996) Cryptographie : thorie et pratique, International Thomson Publishing, Paris, 1996 (en
bibliothque, 628/7568-0), 394 p.
Livre assez complet. Aprs la discussion de quelques techniques anciennes et la prsentations de
quelques notions thoriques, les principes qui sont la base des deux techniques les plus utilises
actuellement (DES et RSA) sont prsents. Beaucoup de dtails concernant l'authentification et la
distribution de clef (Diffie-Hellman, Kerberos). Manque en revanche une "prise en main" des
techniques ainsi que des dtails concernant la mise en oeuvre des techniques dans les systmes
actuels (scurisation des payements, authentification par tiers de confiance, etc.).

Vous aimerez peut-être aussi