Null 1

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 13

O

M
Chapitre 2

G
L’information et sa représentation
dans les systèmes de transmission

N
2.1 GÉNÉRALITÉS
O
D
2.1.1 Les flux d’information
L’acheminement, dans un même réseau, d’informations aussi différentes que les données infor-
matiques, la voix ou la vidéo implique que chacune de ces catégories d’information ait une
d

représentation identique vis-à-vis du système de transmission et que le réseau puisse prendre


en compte les contraintes spécifiques à chaque type de flux d’information (figure 2.1).
ar

Vidéo Données
multimédia

Voix interactive
on

Sons
Réseau de transport

Données Poste de travail


multimédia

Figure 2.1 Le réseau et les différents flux d’information.

Afin de qualifier ces différents flux vis-à-vis du système de transmission, nous définirons
succinctement les caractéristiques essentielles d’un réseau de transmission1 . Nous examine-
rons ensuite le mode de représentation des informations. Enfin, nous appliquerons les résultats

1. Ces différentes notions seront revues et appronfondies dans la suite de cet ouvrage.
8 2 • L’information et sa représentation dans les systèmes de transmission

aux données, à la voix et à l’image pour en déduire les contraintes de transfert spécifiques à
chaque type de flux.

2.1.2 Caractéristiques des réseaux de transmission

O
Notion de débit binaire
Les systèmes de traitement de l’information emploient une logique à deux états ou binaire.

M
L’information traitée par ceux-ci doit être traduite en symboles compréhensibles et mani-
pulables par ces systèmes. L’opération qui consiste à transformer les données en éléments
binaires s’appelle le codage ou numérisation selon le type d’information à transformer.
On appelle débit binaire (D) le nombre d’éléments binaires, ou nombre de bits, émis sur le

G
support de transmission pendant une unité de temps. C’est l’une des caractéristiques essen-
tielles d’un système de transmission. Le débit binaire s’exprime par la relation :
V

N
D=
t
avec D (débit) en bits par seconde (bit/s2 ), V le volume à transmettre exprimé en bits et t la
durée de la transmission en seconde. O
Le débit binaire mesure le nombre d’éléments binaires transitant sur le canal de transmission
pendant l’unité de temps (figure 2.2).
D
Canal de transmission Destination
Source
(Puits)

Figure 2.2 Schématisation d’un système de transmission.


d

Notion de rapport signal sur bruit


ar

Les signaux transmis sur un canal peuvent être perturbés par des phénomènes électriques ou
électromagnétiques désignés sous le terme générique de bruit. Le bruit est un phénomène qui
dénature le signal et introduit des erreurs.
Le rapport entre la puissance du signal transmis et celle du signal de bruit qualifie le canal
on

vis-à-vis du bruit. Ce rapport, appelé rapport signal sur bruit (S/N avec N pour Noise), s’ex-
prime en dB (décibel3 ) :
S / Nd B = 10 log10 S / N(en puissance)

Notion de taux d’erreur


Les phénomènes parasites (bruit) perturbent le canal de transmission et peuvent affecter les
informations en modifiant un ou plusieurs bits du message transmis, introduisant ainsi des

2. L’unité officielle de débit est le bit/s (invariable). L’abréviation bps pouvant être confondue avec byte par seconde ne
sera pas utilisée dans cet ouvrage. Rappelons que le terme bit provient de la contraction des termes « binary digit ».
3. Le décibel ou dB (10e du bel) est une unité logarithmique sans dimension. Elle exprime le rapport entre deux gran-
deurs de même nature. Le rapport Signal/Bruit peut aussi s’exprimer par le rapport des tensions, la valeur est alors
S/NdB = 20 log10 S/N(en tension) .
2.2 Représentation de l’information 9

erreurs dans le message. On appelle taux d’erreur binaire (Te ou BER, Bit Error Rate) le
rapport du nombre de bits reçus en erreur au nombre de bits total transmis.

Nombre de bits en erreur

O
Te =
Nombre de bits transmis

Notion de temps de transfert

M
Le temps de transfert, appelé aussi temps de transit ou temps de latence, mesure le temps entre
l’émission d’un bit, à l’entrée du réseau et sa réception en sortie du réseau. Ce temps prend
en compte le temps de propagation sur le ou les supports et le temps de traitement par les

G
éléments actifs du réseau (nœuds). Le temps de transfert est un paramètre important à prendre
en compte lorsque la source et la destination ont des échanges interactifs.
Pour un réseau donné, le temps de transfert n’est généralement pas une constante, il varie
en fonction de la charge du réseau. Cette variation est appelée gigue ou jitter.

N
Notion de spectre du signal

O
Le mathématicien français Joseph Fourier (1768-1830) a montré que tout signal périodique
de forme quelconque pouvait être décomposé en une somme de signaux élémentaires sinu-
soïdaux (fondamental et harmoniques) autour d’une valeur moyenne (composante continue)
qui pouvait être nulle. L’ensemble de ces composantes forme le spectre du signal ou bande de
D
fréquence occupée par le signal (largeur de bande).

2.2 REPRÉSENTATION DE L’INFORMATION


d

2.2.1 Les différents types d’information


Les informations transmises peuvent être réparties en deux grandes catégories selon ce
ar

qu’elles représentent et les transformations qu’elles subissent pour être traitées dans les
systèmes informatiques. On distingue :
– Les données discrètes, l’information correspond à l’assemblage d’une suite d’éléments indé-
on

pendants les uns des autres (suite discontinue de valeurs) et dénombrables (ensemble fini).
Par exemple, un texte est une association de mots eux-mêmes composés de lettres (symboles
élémentaires).
c Dunod – La photocopie non autorisée est un délit

– Les données continues ou analogiques (figure 2.3) résultent de la variation continue d’un
phénomène physique : température, voix, image... Un capteur fournit une tension électrique

proportionnelle à l’amplitude du phénomène physique analysé : signal analogique (signal


qui varie de manière analogue au phénomène physique). Un signal analogique peut prendre
une infinité de valeurs dans un intervalle déterminé (bornes).
Pour traiter ces informations par des équipements informatiques il est nécessaire de sub-
stituer à chaque élément d’information une valeur binaire représentative de l’amplitude de
celui-ci. Cette opération porte le nom de codage de l’information (codage à la source) pour les
informations discrètes et numérisation de l’information pour les informations analogiques.

10 2 • L’information et sa représentation dans les systèmes de transmission

Capteur Transducteur
Ligne analogique

O
Figure 2.3 Le signal analogique.

2.2.2 Codage des informations

M
Définition
Coder l’information consiste à faire correspondre (bijection) à chaque symbole d’un alphabet
(élément à coder) une représentation binaire (mot code). L’ensemble des mots codes constitue

G
le code (figure 2.4). Ces informations peuvent aussi bien être un ensemble de commandes
d’une machine outil que des caractères alphanumériques... C’est à ces derniers codes que nous
nous intéresserons. Un code alphanumérique peut contenir :

N
– Des chiffres de la numérotation usuelle [0..9] ;
– Des lettres de l’alphabet [a..z, A..Z] ;
– Des symboles nationaux [é, è,...] ;
– Des symboles de ponctuation
– Des symboles semi-graphiques
O [, ; : . ? ! ...] ;
[ ];
D
– Des commandes nécessaires au système [Saut de ligne, Saut de page, etc.].

Codage
d

B
A Symbole
à coder mot code
1000001
1000010
ar

1000011
C

Alphabet Code
on

Figure 2.4 Principe du codage des données.

Les différents types de code


Le codage des différents états d’un système peut s’envisager selon deux approches. La pre-

mière, la plus simple, considère que chacun des états du système est équiprobable. La seconde
prend en compte la fréquence d’apparition d’un état. Cette approche conduit à définir deux
types de code : les codes de longueur fixe et les codes de longueur variable.
➤ Les codes de longueur fixe
Chaque état du système est codé par un certain nombre de bits, appelé longueur du code,
longueur du mot code ou encore code à n moments.
2.2 Représentation de l’information 11

– Avec 1 bit on peut coder 2 états (0,1)


– Avec 2 bits on peut coder 4 états (00, 01, 10, 11)
– Avec 3 bits on peut coder 8 états (000, 001, 010, 011, 100, 101, 110, 111)

O
D’une manière générale :
– Avec n bits on code 2n états
Le nombre d’états pouvant être codés par un code de n bits s’appelle puissance lexicogra-

M
phique du code que l’on note :
P = 2n
En généralisant, le nombre de bits nécessaires pour coder P états est n, tel que :

G
2(n −1) < P  2n

Le nombre de bits pour coder P symboles est donc4

N
n = log2 P

Ce nombre de bits (n) représente la quantité d’information (Q) apportée par la connaissance
O
d’un état du système. Lorsque dans un système, tous les états sont équiprobables, la quantité
d’information apportée par la connaissance d’un état est la même quel que soit l’état connu.
Si l’information est représentée par deux valeurs équiprobables (0 ou 1, pile ou face...), la
quantité d’information, exprimée en shannon5 ou plus simplement en bit, est :
D
Q = log2 2 = 1 shannon ou 1 bit.

Le bit est la quantité d’information qui correspond au lever de doute entre deux symboles
équiprobables.
d

Lorsque tous les états ne sont pas équiprobables, la quantité d’information est d’autant plus
grande que la probabilité de réalisation de l’état est faible. Si p est la probabilité de réalisation
ar

de l’état P, la quantité d’information apportée par la connaissance de P est :

Q = log2 1/p
on

Application : combien de bits sont nécessaires pour coder toutes les lettres de l’alphabet et
quelle est la quantité d’information transmise par une lettre (en supposant équiprobable l’ap-
c Dunod – La photocopie non autorisée est un délit

parition de chaque lettre) ?


Le nombre de bits nécessaires, pour coder P valeurs, est donné par la relation :

2(n −1) < P  2n P = 26 on a 24 < 26  25


si

soit 5 bits pour coder les 26 éléments.

4. Le logarithme d’un nombre est la valeur par laquelle il faut élever la base pour retrouver ce nombre (n = base log N ).
Le logarithme de 8 à base 2 est 3 car 23 = 8
5. Les premiers travaux sur la théorie de l’information sont dus à Nyquist (1924). La théorie de l’information fut déve-
loppée par Shannon en 1949. Les principes établis à cette époque régissent toujours les systèmes de transmission de
l’information.

12 2 • L’information et sa représentation dans les systèmes de transmission

La quantité d’information, exprimée en shannon ou plus simplement en bits, est donnée par
la relation :
Q = log2 (1/p)

O
où p représente la probabilité d’apparition d’un symbole. Ici, p = 1/26

Q = log2 (26) = 3, 32 log10 (26) = 3, 32 · 1, 4149 = 4, 66 shannon ou bits

M
La quantité d’information calculée ici correspond à la valeur optimale de la longueur du code
dans un système de symboles équiprobables. Les codes usuels utilisent 5 éléments (Code Bau-
dot), 7 éléments (Code ASCII appelé aussi CCITT N◦ 5 ou encore IA5) ou 8 éléments (EBC-

G
DIC).
Le code Baudot, code télégraphique à 5 moments ou alphabet international N◦ 2 ou CCITT

N 2, est utilisé dans le réseau Télex. Le code Baudot autorise 25 soit 32 caractères, ce qui

N
est insuffisant pour représenter toutes les lettres de l’alphabet (26), les chiffres (10) et les
commandes (Fin de ligne...). Deux caractères particuliers permettent la sélection de deux pages
de codes soit au total une potentialité de représentation de 60 caractères.
O
Le code ASCII (figure 2.5), American Standard Code for Information Interchange, dont
la première version date de 1963, est le code générique des télécommunications. Code à
7 moments, il autorise 128 caractères (27 ). Les 32 premiers symboles correspondent à des
commandes utilisées dans certains protocoles de transmission pour en contrôler l’exécution.
D
La norme de base prévoit des adaptations aux particularités nationales (adaptation à la langue).
Ce code, étendu à 8 moments, constitue l’alphabet de base des micro-ordinateurs de type PC.
Le code EBCDIC, Extended Binary Coded Decimal Interchange Code, code à 8 moments,
d’origine IBM est utilisé dans les ordinateurs du constructeur. Le code EBCDIC a, aussi, été
d

adopté par d’autres constructeurs pour leurs calculateurs tels que BULL.
ar

Caractères nationaux

Jeu de commandes 1 SOH DC1 ! 1


on

1 0 2 STX DC2 " 2


1 1 3 ETX DC3 £ 3
0 0 4 EOT DC4 $ 4
0 1 5 ENQ NAK % 5
1 0 6 ACK SYN ' 6
1 1 7 BEL ETB ( 7

0 0 8 BS CAN ) 8
0 1 9 HT EM . 9
1 0 A LF SUB :

Signification des caractères de commande


2.2 Représentation de l’information 13

Symbole Signification
ACK Acknowledge Accusé de réception
BEL Bell Sonnerie
BS Backspace Retour arrière

O
CAN Cancel Annulation
CR Carriage Return Retour chariot
DC Device control Commande d’appareil auxiliaire
DEL Delete Oblitération

M
DLE Data Link Escape Caractère d’échappement
EM End Medium Fin de support
ENQ Enquiry Demande
EOT End Of Transmission Fin de communication

G
ESC Escape Echappement
ETB End of Transmission Block Fin de bloc de transmission
ETX End Of Text Fin de texte
FE Format Effector Commande de mise en page

N
FF Form Feed Présentation de formule
FS File Separator Séparateur de fichiers
GS Group Separator Séparateur de groupes
HT Horizontal Tabulation Tabulation horizontale
LF
NAK
NUL
RS
Line Feed

Null
O
Negative Acknowledge

Record Separator
Interligne
Accusé de réception négatif
Nul
Séparateur d’articles
D
SI Shift IN En code
SO Shift Out Hors code
SOH Start Of Heading Début d’en-tête
SP Space Espace
STX Start Of Text Début d’en-tête
d

SYN Synchronous idle Synchronisation


TC Transmission Control Commande de transmission
US Unit Separator Séparateur de sous-article
ar

VT Vertical Tabulation Tabulation verticale


Figure 2.5 Le code ASCII.

➤ Les codes de longueur variable


on

Lorsque les états du système ne sont pas équiprobables, la quantité d’information apportée par
c Dunod – La photocopie non autorisée est un délit

la connaissance d’un état est d’autant plus grande que cet état a une faible probabilité de se
réaliser. La quantité moyenne d’information apportée par la connaissance d’un état, appelée
entropie, est donnée par la relation :


i =n
1
H= pi log2
pi
i =1

où pi représente la probabilité d’apparition du symbole de rang i.


L’entropie représente la longueur optimale du codage des symboles du système. Détermi-
nons la longueur optimale du code (entropie) pour le système décrit par le tableau ci-dessous.
À des fins de simplicité, chaque état est identifié par une lettre.

14 2 • L’information et sa représentation dans les systèmes de transmission

État Probabilité
E 0,48
A 0,21
S 0.12

O
T 0.08
U 0.06
Y 0.05

M
La longueur optimale du mot code :

H = −(0,48 log2 0,48 + 0,21 log2 0,21 + 0,12 log2 0,12 + 0,08 log2 0,08

G
+ 0,06 log2 0,06 + 0,05 log2 0,05)

H = −3,32[(0,48 log10 0,48 + 0,21 log10 0,21 + 0,12 log10 0,12 + 0,08 log10 0,08

N
+ 0,06 log10 0,06 + 0,05 log10 0,05)]

H = 1, 92
O
Le code optimal utile est de 1,92 bit, alors que l’utilisation d’un code à longueur fixe nécessite
3 bits pour coder les 6 états de ce système (22 < 6  23 ).
D
Il n’existe pas de code qui permette d’atteindre cette limite théorique. Cependant, Huffman
introduit en 1952 une méthode de codage qui prend en compte la fréquence d’occurrence des
états et qui se rapproche de cette limite théorique.
Construction du code de Huffman (figure 2.6) :
d

1. lecture complète du fichier et création de la table des symboles ;


2. classement des symboles par ordre des fréquences décroissantes (occurrence) ;
ar

3. réductions successives en rassemblant en une nouvelle occurrence les deux occurrences de


plus petite fréquence ;
4. l’occurrence obtenue est insérée dans la table et celle-ci est à nouveau triée par ordre décrois-
sant ;
on

5. les réductions se poursuivent jusqu’à ce qu’il n’y ait plus d’élément ;


6. construire l’arbre binaire en reliant chaque occurrence à la racine ;
7. le codage consiste à lire l’arbre du sommet aux feuilles en attribuant par exemple la valeur
0 aux branches basses et 1 aux branches hautes.

La longueur moyenne (Lmoy) du code (figure 2.6) est de :

Lmoy = 0,48 · 1 + 0,21 · 2 + 0,12 · 3 + 0,08 · 4 + 0,06 · 5 + 0,05 · 5 = 2,13

Le codage de Huffman permet de réduire le nombre de bits utilisés pour coder l’information.
Dépendant du contexte, il impose, avant la transmission, d’établir une convention (Huffman
modifié utilisé en télécopie groupe 3) ou de transmettre, avant les données, le contenu de la
table construite par l’émetteur.
2.2 Représentation de l’information 15

E48 E48 E48 E 48 52 1 100


A21 A21 A21 31 1 48 0
S12 S12 19 1 A21 0

O
Occurrence Code

T8 11 1 S12 0 E 0
A 10
U6 1 T8 0 S 110

M
Y5 0 T 1110
U 11111
Y 11110

G
Figure 2.6 Arbre d’Huffman.

D’ASCII à l’Unicode

N
Le codage ASCII (7 bits) ou ISO-646 ne permet de coder que 127 caractères, il réserve 12
codes pour prendre en compte les particularités nationales. L’internationalisation des commu-
O
nications, notamment avec Internet, a mis au premier plan les problèmes de codage des textes.
Une première extension a été réalisée par la norme ISO-8859-x (8 bits). ISO-8859-x utilise
les 128 premiers caractères du code ASCII, le symbole x renvoie vers des tables qui com-
plètent le jeu originel de 96 caractères autorisant ainsi les écritures à base de caractères latins,
D
cyrilliques, arabes, grecs et hébraïques. Le codage ISO-8859-x doit être préféré, sur Internet,
à tout autre code chaque fois que cela est possible.
Le décodage d’un texte nécessite qu’il identifie le code utilisé et que le destinataire puisse
interpréter ce code, ceci a conduit à définir un code unique sur 16 ou 32 bits permettant la repré-
d

sentation de toutes les langues du monde : l’Unicode (16 bits) qui reprend les spécifications du
code ISO 10646 UCS-2 (Universal Character Set).
ar

2.2.3 Numérisation des informations


Principe
on

Numériser une grandeur analogique consiste à transformer la suite continue de valeurs en une
suite discrète et finie. À cet effet, on prélève, à des instants significatifs, un échantillon du
c Dunod – La photocopie non autorisée est un délit

signal et on exprime son amplitude par rapport à une échelle finie (quantification).
Le récepteur, à partir des valeurs transmises, reconstitue le signal d’origine. Une restitution
fidèle du signal nécessite que soient définis :

– l’intervalle d’échantillonnage qui doit être une constante du système (fréquence d’échan-
tillonnage) ;
– l’amplitude de l’échelle de quantification, celle-ci doit être suffisante pour reproduire la
dynamique du signal (différence d’amplitude entre la valeur la plus faible et la valeur la
plus forte) ;
– que chaque valeur obtenue soit codée.

16 2 • L’information et sa représentation dans les systèmes de transmission

La figure 2.7 représente les différentes étapes de la numérisation du signal. À intervalle


régulier (période d’échantillonnage), on prélève une fraction du signal (échantillon). Puis,
on fait correspondre à l’amplitude de chaque échantillon une valeur (quantification), cette
valeur est ensuite transformée en valeur binaire (codification).

O
Signal à numériser

M
Instants d’échantillonnage
t

G
12
11
Echantillons 9
8 8

N
6 Echelle de
Quantification 4 quantification

Codage et transmission
O8 9 6 4 8 12

Figure 2.7 Numérisation d’un signal analogique.


11
D
La quantification définit des valeurs en escalier (par bond) alors que le phénomène à quanti-
fier varie de façon continue. Aussi, quel que soit le nombre de niveaux utilisés, une approxima-
tion est nécessaire, celle-ci introduit une erreur dite de quantification ou bruit de quantification
qui est la différence entre la valeur réelle de l’échantillon et la valeur quantifiée.
d

Pour reproduire correctement le signal à l’arrivée, le récepteur doit disposer d’un minimum
d’échantillons. Il existe donc une relation étroite entre la fréquence maximale des variations
du signal à discrétiser et le nombre d’échantillons à prélever.
ar

Soit un signal dont le spectre est limité et dont la borne supérieure vaut Fmax , Shannon a
montré que si Fe est la fréquence d’échantillonnage, le spectre du signal échantillonné est le
double de Fmax et est centré autour de Fe , 2Fe ... nFe . Par conséquent, pour éviter tout recouvre-
ment de spectre, le signal à échantillonner doit être borné (filtre) à une fréquence supérieure
on

telle que Fmax soit inférieure à la moitié de l’intervalle d’écartement des spectres (Fe). La
figure 2.8 illustre cette relation appelée relation de Shannon.
Spectre du signal échantillonné
Spectre du Fe 2Fe
signal origine

Fréquences
+Fmax -Fmax +Fmax -Fmax +Fmax
Figure 2.8 Spectre d’échantillonnage.

On en déduit que la fréquence minimale d’échantillonnage (fréquence de Nyquist) d’un


signal doit être le double de la fréquence maximale du signal à échantillonner :
Féchantillon  2 · Fmax du signal
2.2 Représentation de l’information 17

Filtre ...0101
Signal Echantillonneur Quantificateur Signal
analogique Fmax numérique

O
Figure 2.9 Structure élémentaire d’un convertisseur analogique/numérique.

M
Application à la voix
Un canal téléphonique utilise une plage de fréquence ou Bande Passante (BP) allant de 300 Hz
à 3 400 Hz. Si on prend 4 000 Hz comme fréquence maximale à reproduire, la fréquence

G
d’échantillonnage minimale est de :

Fe  2 · Fmax = 2 · 4 000 = 8 000 Hz

N
Soit 8 000 échantillons par seconde, ce qui correspond, pour chaque échantillon à une durée
de 125 ms (1/8 000). Pour une restitution correcte (dynamique6 et rapport signal à bruit), la
voix devrait être quantifiée sur 12 bits (4 096 niveaux). Les contraintes de transmission en
O
rapport avec le débit conduisent à réduire cette bande. L’utilisation d’une loi quantification
logarithmique permet de ramener la représentation numérique de la voix à 8 bits (7 bits pour
l’amplitude et un bit de signe), tout en conservant une qualité de reproduction similaire à celle
D
obtenue avec une quantification linéaire sur 12 bits. Cette opération dite de compression est
différente en Europe (loi A) et en Amérique du Nord (loi m). En codant chaque échantillon sur
8 bits, il est nécessaire d’écouler :

8 000 · 8 = 64 000 bits par seconde sur le lien


d

Ce qui correspond à un débit de 64 000 bit/s. Ce choix correspond à celui du RNIS (Réseau
ar

Numérique à Intégration de Service ou ISDN, Integrated Service Digital Network) qui utilise
des voies à 64 kbit/s.

Le codage de l’image vidéo


on

La voix est un phénomène vibratoire, l’oreille perçoit des variations de pression successives
qu’elle interprète. L’image est interprétée globalement par l’œil alors qu’elle ne peut être
c Dunod – La photocopie non autorisée est un délit

transmise et reproduite que séquentiellement. La discrétisation de l’image nécessite 2 étapes :


d’abord une transformation espace/temps qui se concrétise par une analyse de celle-ci, ligne
par ligne, puis une décomposition de chaque ligne en points, enfin la quantification de la valeur

lumineuse du point, valeur qui est ensuite transmise.


Une image colorée peut être analysée selon 3 couleurs dites primaires de longueur d’onde
(l) déterminée. Pour reconstituer l’image d’origine, il suffit de superposer les trois images,
c’est la synthèse additive. La figure 2.10 représente le principe de la synthèse additive, le
dosage de chacune des sources lumineuses permet de reproduire toutes les couleurs.

6. La dynamique exprime le rapport entre les puissances maximale et minimale du signal.



18 2 • L’information et sa représentation dans les systèmes de transmission

Rouge

O
Magenta Jaune

Blanc

M
Bleu Vert
Cyan

G
b = 0,436m v = 0,546m
r = 0,700m
B V

N
R

Figure 2.10 La synthèse additive.


O
Chaque point de l’image est représenté par deux grandeurs, la luminance et la chromi-
nance. La chrominance, ou information de couleur, est le résultat de la superposition de
D
trois couleurs dites primaires (figure 2.10). Ces deux grandeurs sont reliées entre elles par la
relation :
Y = 0,3 R + 0,59 V + 0,11 B
où : Y est la luminance (échelle des gris),
d

R l’intensité de la composante de lumière rouge,


V celle de lumière verte,
ar

B celle de lumière bleue.


L’image est dite RVB ou RGB (Red, Green, Blue), du nom des trois couleurs primaires
Rouge, Vert, Bleu. En télévision, pour assurer la compatibilité avec les téléviseurs mono-
chromes, il nous faut transmettre, en plus des informations de chrominance, les informations
on

de luminance (échelle des gris).


Les différentes caractéristiques d’une image vidéo constituent un standard. Les paramètres
de ces standards sont :
– le format de l’image, à l’origine le même format que le cinéma (4/3), aujourd’hui on évolue

vers un format plus large (16/9) ;


– le nombre d’images par seconde déterminé en fonction de la fréquence du réseau élec-
trique pour éviter des effets stroboscopiques, en Europe 25 images/seconde7 , aux USA
30 images/seconde ;

7. Pour augmenter la fréquence de rafraîchissement de l’image, sans augmenter la bande passante nécéssaire, l’analyse et
la reproduction se font par demi-image. La première demi-image analyse les lignes impaires, la seconde les lignes paires.
L’image est donc reproduite à raison de 50 demi-images par seconde.
2.2 Représentation de l’information 19

– le nombre de lignes a été fixé pour qu’à une distance de vision normale deux lignes consé-
cutives ne soient pas distinguées (les deux lignes doivent être vues sous un angle de moins
d’une minute) ;
– le nombre de points par ligne défini pour que la définition horizontale soit identique à la

O
définition verticale.
Le standard d’une image de télévision numérique au format européen (625 lignes, 25 Hz)
est caractérisé par :

M
– le nombre de lignes utiles par image fixé à 576 ;
– le nombre de points par ligne défini à 7208 .
– le nombre d’images par seconde déterminé à 25 images (25 Hz).

G
Seuls sont transmis : la luminance (Y), pour la compatibilité avec les récepteurs mono-
chromes, et les signaux de chrominance B (Bleu) et R (Rouge)9 . La connaissance de ces trois
grandeurs est nécessaire et suffisante pour reconstituer la quatrième : V (Vert). L’œil ne perce-

N
vant pas la couleur dans les détails, on se satisfait d’une définition moindre pour l’information
couleur que pour l’information monochrome (noir et blanc).
Ainsi, on transmet :
– 720 points par ligne pour le signal Y ;
– 360 points pour chacune des couleurs B et R ;
O
D
Au total 1 440 points élémentaires par ligne sont analysés. En se contentant d’une quantifi-
cation sur 255 niveaux (8 bits, soit 16 millions de couleurs), le nombre de bits nécessaires à la
reconstitution de l’image (576 lignes) est donc de :

N (bits) = 1 440 · 8 · 576 = 6 635 520 bits


d

À raison de 25 images par seconde (50 demi-images), il faut, pour transmettre une image
ar

animée, un débit minimal de :

Dmin = 6 635 520 · 25 = 166 Mbit/s.


on

Ce débit est actuellement difficilement réalisable sur les supports de transmission courants.
Pour effectuer correctement une transmission d’images animées numérisées, on utilise des
c Dunod – La photocopie non autorisée est un délit

techniques particulières de quantification et de compression. Un groupe de travail commun


à l’ISO et à la CEI (Commission Électrotechnique Internationale), le Motion Picture Expert
Group (MPEG), est chargé de définir les algorithmes normalisés de compression de son et

d’images vidéo.

8. À titre de comparaison : le magnétoscope VHS 250 points/ligne, le magnétoscope SVHS 400 points/ligne,
le DVD vidéo 500 points/ligne.
9. On ne transmet pas directement les informations de chrominance, mais les signaux dits de différence de couleur Dr
= R – Y, Db = B – Y, Dv = V – Y. Dans ces conditions, l’amplitude du signal V étant la plus importante, la valeur Dv est la
plus faible, donc la plus sensible aux bruits de transmission. C’est cette analyse qui a conduit au choix de Dr et Db comme
signaux à transmettre.


Vous aimerez peut-être aussi