Null 1
Null 1
Null 1
M
Chapitre 2
G
L’information et sa représentation
dans les systèmes de transmission
N
2.1 GÉNÉRALITÉS
O
D
2.1.1 Les flux d’information
L’acheminement, dans un même réseau, d’informations aussi différentes que les données infor-
matiques, la voix ou la vidéo implique que chacune de ces catégories d’information ait une
d
Vidéo Données
multimédia
Voix interactive
on
Sons
Réseau de transport
Afin de qualifier ces différents flux vis-à-vis du système de transmission, nous définirons
succinctement les caractéristiques essentielles d’un réseau de transmission1 . Nous examine-
rons ensuite le mode de représentation des informations. Enfin, nous appliquerons les résultats
1. Ces différentes notions seront revues et appronfondies dans la suite de cet ouvrage.
8 2 • L’information et sa représentation dans les systèmes de transmission
aux données, à la voix et à l’image pour en déduire les contraintes de transfert spécifiques à
chaque type de flux.
O
Notion de débit binaire
Les systèmes de traitement de l’information emploient une logique à deux états ou binaire.
M
L’information traitée par ceux-ci doit être traduite en symboles compréhensibles et mani-
pulables par ces systèmes. L’opération qui consiste à transformer les données en éléments
binaires s’appelle le codage ou numérisation selon le type d’information à transformer.
On appelle débit binaire (D) le nombre d’éléments binaires, ou nombre de bits, émis sur le
G
support de transmission pendant une unité de temps. C’est l’une des caractéristiques essen-
tielles d’un système de transmission. Le débit binaire s’exprime par la relation :
V
N
D=
t
avec D (débit) en bits par seconde (bit/s2 ), V le volume à transmettre exprimé en bits et t la
durée de la transmission en seconde. O
Le débit binaire mesure le nombre d’éléments binaires transitant sur le canal de transmission
pendant l’unité de temps (figure 2.2).
D
Canal de transmission Destination
Source
(Puits)
Les signaux transmis sur un canal peuvent être perturbés par des phénomènes électriques ou
électromagnétiques désignés sous le terme générique de bruit. Le bruit est un phénomène qui
dénature le signal et introduit des erreurs.
Le rapport entre la puissance du signal transmis et celle du signal de bruit qualifie le canal
on
vis-à-vis du bruit. Ce rapport, appelé rapport signal sur bruit (S/N avec N pour Noise), s’ex-
prime en dB (décibel3 ) :
S / Nd B = 10 log10 S / N(en puissance)
Les phénomènes parasites (bruit) perturbent le canal de transmission et peuvent affecter les
informations en modifiant un ou plusieurs bits du message transmis, introduisant ainsi des
2. L’unité officielle de débit est le bit/s (invariable). L’abréviation bps pouvant être confondue avec byte par seconde ne
sera pas utilisée dans cet ouvrage. Rappelons que le terme bit provient de la contraction des termes « binary digit ».
3. Le décibel ou dB (10e du bel) est une unité logarithmique sans dimension. Elle exprime le rapport entre deux gran-
deurs de même nature. Le rapport Signal/Bruit peut aussi s’exprimer par le rapport des tensions, la valeur est alors
S/NdB = 20 log10 S/N(en tension) .
2.2 Représentation de l’information 9
erreurs dans le message. On appelle taux d’erreur binaire (Te ou BER, Bit Error Rate) le
rapport du nombre de bits reçus en erreur au nombre de bits total transmis.
O
Te =
Nombre de bits transmis
M
Le temps de transfert, appelé aussi temps de transit ou temps de latence, mesure le temps entre
l’émission d’un bit, à l’entrée du réseau et sa réception en sortie du réseau. Ce temps prend
en compte le temps de propagation sur le ou les supports et le temps de traitement par les
G
éléments actifs du réseau (nœuds). Le temps de transfert est un paramètre important à prendre
en compte lorsque la source et la destination ont des échanges interactifs.
Pour un réseau donné, le temps de transfert n’est généralement pas une constante, il varie
en fonction de la charge du réseau. Cette variation est appelée gigue ou jitter.
N
Notion de spectre du signal
O
Le mathématicien français Joseph Fourier (1768-1830) a montré que tout signal périodique
de forme quelconque pouvait être décomposé en une somme de signaux élémentaires sinu-
soïdaux (fondamental et harmoniques) autour d’une valeur moyenne (composante continue)
qui pouvait être nulle. L’ensemble de ces composantes forme le spectre du signal ou bande de
D
fréquence occupée par le signal (largeur de bande).
qu’elles représentent et les transformations qu’elles subissent pour être traitées dans les
systèmes informatiques. On distingue :
– Les données discrètes, l’information correspond à l’assemblage d’une suite d’éléments indé-
on
pendants les uns des autres (suite discontinue de valeurs) et dénombrables (ensemble fini).
Par exemple, un texte est une association de mots eux-mêmes composés de lettres (symboles
élémentaires).
c Dunod – La photocopie non autorisée est un délit
– Les données continues ou analogiques (figure 2.3) résultent de la variation continue d’un
phénomène physique : température, voix, image... Un capteur fournit une tension électrique
Lé
Capteur Transducteur
Ligne analogique
O
Figure 2.3 Le signal analogique.
M
Définition
Coder l’information consiste à faire correspondre (bijection) à chaque symbole d’un alphabet
(élément à coder) une représentation binaire (mot code). L’ensemble des mots codes constitue
G
le code (figure 2.4). Ces informations peuvent aussi bien être un ensemble de commandes
d’une machine outil que des caractères alphanumériques... C’est à ces derniers codes que nous
nous intéresserons. Un code alphanumérique peut contenir :
N
– Des chiffres de la numérotation usuelle [0..9] ;
– Des lettres de l’alphabet [a..z, A..Z] ;
– Des symboles nationaux [é, è,...] ;
– Des symboles de ponctuation
– Des symboles semi-graphiques
O [, ; : . ? ! ...] ;
[ ];
D
– Des commandes nécessaires au système [Saut de ligne, Saut de page, etc.].
Codage
d
B
A Symbole
à coder mot code
1000001
1000010
ar
1000011
C
Alphabet Code
on
mière, la plus simple, considère que chacun des états du système est équiprobable. La seconde
prend en compte la fréquence d’apparition d’un état. Cette approche conduit à définir deux
types de code : les codes de longueur fixe et les codes de longueur variable.
➤ Les codes de longueur fixe
Chaque état du système est codé par un certain nombre de bits, appelé longueur du code,
longueur du mot code ou encore code à n moments.
2.2 Représentation de l’information 11
O
D’une manière générale :
– Avec n bits on code 2n états
Le nombre d’états pouvant être codés par un code de n bits s’appelle puissance lexicogra-
M
phique du code que l’on note :
P = 2n
En généralisant, le nombre de bits nécessaires pour coder P états est n, tel que :
G
2(n −1) < P 2n
N
n = log2 P
Ce nombre de bits (n) représente la quantité d’information (Q) apportée par la connaissance
O
d’un état du système. Lorsque dans un système, tous les états sont équiprobables, la quantité
d’information apportée par la connaissance d’un état est la même quel que soit l’état connu.
Si l’information est représentée par deux valeurs équiprobables (0 ou 1, pile ou face...), la
quantité d’information, exprimée en shannon5 ou plus simplement en bit, est :
D
Q = log2 2 = 1 shannon ou 1 bit.
Le bit est la quantité d’information qui correspond au lever de doute entre deux symboles
équiprobables.
d
Lorsque tous les états ne sont pas équiprobables, la quantité d’information est d’autant plus
grande que la probabilité de réalisation de l’état est faible. Si p est la probabilité de réalisation
ar
Q = log2 1/p
on
Application : combien de bits sont nécessaires pour coder toutes les lettres de l’alphabet et
quelle est la quantité d’information transmise par une lettre (en supposant équiprobable l’ap-
c Dunod – La photocopie non autorisée est un délit
si
4. Le logarithme d’un nombre est la valeur par laquelle il faut élever la base pour retrouver ce nombre (n = base log N ).
Le logarithme de 8 à base 2 est 3 car 23 = 8
5. Les premiers travaux sur la théorie de l’information sont dus à Nyquist (1924). La théorie de l’information fut déve-
loppée par Shannon en 1949. Les principes établis à cette époque régissent toujours les systèmes de transmission de
l’information.
12 2 • L’information et sa représentation dans les systèmes de transmission
La quantité d’information, exprimée en shannon ou plus simplement en bits, est donnée par
la relation :
Q = log2 (1/p)
O
où p représente la probabilité d’apparition d’un symbole. Ici, p = 1/26
M
La quantité d’information calculée ici correspond à la valeur optimale de la longueur du code
dans un système de symboles équiprobables. Les codes usuels utilisent 5 éléments (Code Bau-
dot), 7 éléments (Code ASCII appelé aussi CCITT N◦ 5 ou encore IA5) ou 8 éléments (EBC-
G
DIC).
Le code Baudot, code télégraphique à 5 moments ou alphabet international N◦ 2 ou CCITT
◦
N 2, est utilisé dans le réseau Télex. Le code Baudot autorise 25 soit 32 caractères, ce qui
N
est insuffisant pour représenter toutes les lettres de l’alphabet (26), les chiffres (10) et les
commandes (Fin de ligne...). Deux caractères particuliers permettent la sélection de deux pages
de codes soit au total une potentialité de représentation de 60 caractères.
O
Le code ASCII (figure 2.5), American Standard Code for Information Interchange, dont
la première version date de 1963, est le code générique des télécommunications. Code à
7 moments, il autorise 128 caractères (27 ). Les 32 premiers symboles correspondent à des
commandes utilisées dans certains protocoles de transmission pour en contrôler l’exécution.
D
La norme de base prévoit des adaptations aux particularités nationales (adaptation à la langue).
Ce code, étendu à 8 moments, constitue l’alphabet de base des micro-ordinateurs de type PC.
Le code EBCDIC, Extended Binary Coded Decimal Interchange Code, code à 8 moments,
d’origine IBM est utilisé dans les ordinateurs du constructeur. Le code EBCDIC a, aussi, été
d
adopté par d’autres constructeurs pour leurs calculateurs tels que BULL.
ar
Caractères nationaux
0 0 8 BS CAN ) 8
0 1 9 HT EM . 9
1 0 A LF SUB :
Symbole Signification
ACK Acknowledge Accusé de réception
BEL Bell Sonnerie
BS Backspace Retour arrière
O
CAN Cancel Annulation
CR Carriage Return Retour chariot
DC Device control Commande d’appareil auxiliaire
DEL Delete Oblitération
M
DLE Data Link Escape Caractère d’échappement
EM End Medium Fin de support
ENQ Enquiry Demande
EOT End Of Transmission Fin de communication
G
ESC Escape Echappement
ETB End of Transmission Block Fin de bloc de transmission
ETX End Of Text Fin de texte
FE Format Effector Commande de mise en page
N
FF Form Feed Présentation de formule
FS File Separator Séparateur de fichiers
GS Group Separator Séparateur de groupes
HT Horizontal Tabulation Tabulation horizontale
LF
NAK
NUL
RS
Line Feed
Null
O
Negative Acknowledge
Record Separator
Interligne
Accusé de réception négatif
Nul
Séparateur d’articles
D
SI Shift IN En code
SO Shift Out Hors code
SOH Start Of Heading Début d’en-tête
SP Space Espace
STX Start Of Text Début d’en-tête
d
Lorsque les états du système ne sont pas équiprobables, la quantité d’information apportée par
c Dunod – La photocopie non autorisée est un délit
la connaissance d’un état est d’autant plus grande que cet état a une faible probabilité de se
réaliser. La quantité moyenne d’information apportée par la connaissance d’un état, appelée
entropie, est donnée par la relation :
Lé
i =n
1
H= pi log2
pi
i =1
État Probabilité
E 0,48
A 0,21
S 0.12
O
T 0.08
U 0.06
Y 0.05
M
La longueur optimale du mot code :
H = −(0,48 log2 0,48 + 0,21 log2 0,21 + 0,12 log2 0,12 + 0,08 log2 0,08
G
+ 0,06 log2 0,06 + 0,05 log2 0,05)
H = −3,32[(0,48 log10 0,48 + 0,21 log10 0,21 + 0,12 log10 0,12 + 0,08 log10 0,08
N
+ 0,06 log10 0,06 + 0,05 log10 0,05)]
H = 1, 92
O
Le code optimal utile est de 1,92 bit, alors que l’utilisation d’un code à longueur fixe nécessite
3 bits pour coder les 6 états de ce système (22 < 6 23 ).
D
Il n’existe pas de code qui permette d’atteindre cette limite théorique. Cependant, Huffman
introduit en 1952 une méthode de codage qui prend en compte la fréquence d’occurrence des
états et qui se rapproche de cette limite théorique.
Construction du code de Huffman (figure 2.6) :
d
Le codage de Huffman permet de réduire le nombre de bits utilisés pour coder l’information.
Dépendant du contexte, il impose, avant la transmission, d’établir une convention (Huffman
modifié utilisé en télécopie groupe 3) ou de transmettre, avant les données, le contenu de la
table construite par l’émetteur.
2.2 Représentation de l’information 15
O
Occurrence Code
T8 11 1 S12 0 E 0
A 10
U6 1 T8 0 S 110
M
Y5 0 T 1110
U 11111
Y 11110
G
Figure 2.6 Arbre d’Huffman.
D’ASCII à l’Unicode
N
Le codage ASCII (7 bits) ou ISO-646 ne permet de coder que 127 caractères, il réserve 12
codes pour prendre en compte les particularités nationales. L’internationalisation des commu-
O
nications, notamment avec Internet, a mis au premier plan les problèmes de codage des textes.
Une première extension a été réalisée par la norme ISO-8859-x (8 bits). ISO-8859-x utilise
les 128 premiers caractères du code ASCII, le symbole x renvoie vers des tables qui com-
plètent le jeu originel de 96 caractères autorisant ainsi les écritures à base de caractères latins,
D
cyrilliques, arabes, grecs et hébraïques. Le codage ISO-8859-x doit être préféré, sur Internet,
à tout autre code chaque fois que cela est possible.
Le décodage d’un texte nécessite qu’il identifie le code utilisé et que le destinataire puisse
interpréter ce code, ceci a conduit à définir un code unique sur 16 ou 32 bits permettant la repré-
d
sentation de toutes les langues du monde : l’Unicode (16 bits) qui reprend les spécifications du
code ISO 10646 UCS-2 (Universal Character Set).
ar
Numériser une grandeur analogique consiste à transformer la suite continue de valeurs en une
suite discrète et finie. À cet effet, on prélève, à des instants significatifs, un échantillon du
c Dunod – La photocopie non autorisée est un délit
signal et on exprime son amplitude par rapport à une échelle finie (quantification).
Le récepteur, à partir des valeurs transmises, reconstitue le signal d’origine. Une restitution
fidèle du signal nécessite que soient définis :
Lé
– l’intervalle d’échantillonnage qui doit être une constante du système (fréquence d’échan-
tillonnage) ;
– l’amplitude de l’échelle de quantification, celle-ci doit être suffisante pour reproduire la
dynamique du signal (différence d’amplitude entre la valeur la plus faible et la valeur la
plus forte) ;
– que chaque valeur obtenue soit codée.
16 2 • L’information et sa représentation dans les systèmes de transmission
O
Signal à numériser
M
Instants d’échantillonnage
t
G
12
11
Echantillons 9
8 8
N
6 Echelle de
Quantification 4 quantification
Codage et transmission
O8 9 6 4 8 12
Pour reproduire correctement le signal à l’arrivée, le récepteur doit disposer d’un minimum
d’échantillons. Il existe donc une relation étroite entre la fréquence maximale des variations
du signal à discrétiser et le nombre d’échantillons à prélever.
ar
Soit un signal dont le spectre est limité et dont la borne supérieure vaut Fmax , Shannon a
montré que si Fe est la fréquence d’échantillonnage, le spectre du signal échantillonné est le
double de Fmax et est centré autour de Fe , 2Fe ... nFe . Par conséquent, pour éviter tout recouvre-
ment de spectre, le signal à échantillonner doit être borné (filtre) à une fréquence supérieure
on
telle que Fmax soit inférieure à la moitié de l’intervalle d’écartement des spectres (Fe). La
figure 2.8 illustre cette relation appelée relation de Shannon.
Spectre du signal échantillonné
Spectre du Fe 2Fe
signal origine
Lé
Fréquences
+Fmax -Fmax +Fmax -Fmax +Fmax
Figure 2.8 Spectre d’échantillonnage.
Filtre ...0101
Signal Echantillonneur Quantificateur Signal
analogique Fmax numérique
O
Figure 2.9 Structure élémentaire d’un convertisseur analogique/numérique.
M
Application à la voix
Un canal téléphonique utilise une plage de fréquence ou Bande Passante (BP) allant de 300 Hz
à 3 400 Hz. Si on prend 4 000 Hz comme fréquence maximale à reproduire, la fréquence
G
d’échantillonnage minimale est de :
N
Soit 8 000 échantillons par seconde, ce qui correspond, pour chaque échantillon à une durée
de 125 ms (1/8 000). Pour une restitution correcte (dynamique6 et rapport signal à bruit), la
voix devrait être quantifiée sur 12 bits (4 096 niveaux). Les contraintes de transmission en
O
rapport avec le débit conduisent à réduire cette bande. L’utilisation d’une loi quantification
logarithmique permet de ramener la représentation numérique de la voix à 8 bits (7 bits pour
l’amplitude et un bit de signe), tout en conservant une qualité de reproduction similaire à celle
D
obtenue avec une quantification linéaire sur 12 bits. Cette opération dite de compression est
différente en Europe (loi A) et en Amérique du Nord (loi m). En codant chaque échantillon sur
8 bits, il est nécessaire d’écouler :
Ce qui correspond à un débit de 64 000 bit/s. Ce choix correspond à celui du RNIS (Réseau
ar
Numérique à Intégration de Service ou ISDN, Integrated Service Digital Network) qui utilise
des voies à 64 kbit/s.
La voix est un phénomène vibratoire, l’oreille perçoit des variations de pression successives
qu’elle interprète. L’image est interprétée globalement par l’œil alors qu’elle ne peut être
c Dunod – La photocopie non autorisée est un délit
Rouge
O
Magenta Jaune
Blanc
M
Bleu Vert
Cyan
G
b = 0,436m v = 0,546m
r = 0,700m
B V
N
R
7. Pour augmenter la fréquence de rafraîchissement de l’image, sans augmenter la bande passante nécéssaire, l’analyse et
la reproduction se font par demi-image. La première demi-image analyse les lignes impaires, la seconde les lignes paires.
L’image est donc reproduite à raison de 50 demi-images par seconde.
2.2 Représentation de l’information 19
– le nombre de lignes a été fixé pour qu’à une distance de vision normale deux lignes consé-
cutives ne soient pas distinguées (les deux lignes doivent être vues sous un angle de moins
d’une minute) ;
– le nombre de points par ligne défini pour que la définition horizontale soit identique à la
O
définition verticale.
Le standard d’une image de télévision numérique au format européen (625 lignes, 25 Hz)
est caractérisé par :
M
– le nombre de lignes utiles par image fixé à 576 ;
– le nombre de points par ligne défini à 7208 .
– le nombre d’images par seconde déterminé à 25 images (25 Hz).
G
Seuls sont transmis : la luminance (Y), pour la compatibilité avec les récepteurs mono-
chromes, et les signaux de chrominance B (Bleu) et R (Rouge)9 . La connaissance de ces trois
grandeurs est nécessaire et suffisante pour reconstituer la quatrième : V (Vert). L’œil ne perce-
N
vant pas la couleur dans les détails, on se satisfait d’une définition moindre pour l’information
couleur que pour l’information monochrome (noir et blanc).
Ainsi, on transmet :
– 720 points par ligne pour le signal Y ;
– 360 points pour chacune des couleurs B et R ;
O
D
Au total 1 440 points élémentaires par ligne sont analysés. En se contentant d’une quantifi-
cation sur 255 niveaux (8 bits, soit 16 millions de couleurs), le nombre de bits nécessaires à la
reconstitution de l’image (576 lignes) est donc de :
À raison de 25 images par seconde (50 demi-images), il faut, pour transmettre une image
ar
Ce débit est actuellement difficilement réalisable sur les supports de transmission courants.
Pour effectuer correctement une transmission d’images animées numérisées, on utilise des
c Dunod – La photocopie non autorisée est un délit
d’images vidéo.
8. À titre de comparaison : le magnétoscope VHS 250 points/ligne, le magnétoscope SVHS 400 points/ligne,
le DVD vidéo 500 points/ligne.
9. On ne transmet pas directement les informations de chrominance, mais les signaux dits de différence de couleur Dr
= R – Y, Db = B – Y, Dv = V – Y. Dans ces conditions, l’amplitude du signal V étant la plus importante, la valeur Dv est la
plus faible, donc la plus sensible aux bruits de transmission. C’est cette analyse qui a conduit au choix de Dr et Db comme
signaux à transmettre.