Le Réseau ATM
Le Réseau ATM
Le Réseau ATM
PRENOM :MOHAMMED
Le réseau ATM.
1. Motivations de l'ATM
3. Caractéristiques de l'ATM:
Circuits virtuels,
Cellules (taille fixe et réduite),
Multiplexage statistique,
Intégration de services
Conclusion
Références
1. Motivations de l'’ATM : les communications multimédias.
Les exigences des réseaux actuels impliquent le traitement de plusieurs types de
trafic (voix, vidéo, données). Ces différents types d’information requièrent différentes
qualités de service : chaque trafic a ses caractéristiques individuelles qui rendent leurs
besoins en canaux de communication très différents. Chaque qualité de service (QS)
correspond à un certain débit de donnée ayant une certaine probabilité d’erreur (BER)
et avec un certain retard. Par exemple, pour la voix, sa génération doit pouvoir être
asynchrone si l’interlocuteur veut pouvoir parler quand il veut ; par contre, sa
transmission doit être synchrone (une fois le message commencé, cela doit pouvoir
circuler continuellement quand on parle) comme celle de la vidéo (on ne voudrait pas
voir d’abord une tête, puis un bras, puis le reste…), mais au contraire de la transmission
de données qui peut sans problèmes patienter dans des buffers.
L’'Internet n'’offre aucune qualité de service mais est beaucoup plus flexible et
économique que les réseaux téléphoniques. Les deux innovations clés utilisées sont la
transmission par paquets et le switching store-and-forward.
Chaque paquet, appelé datagramme dans le cadre de l’'Internet, se compose d’un
contenu, le payload, et de l'’information sur le contenu, le header, comportant en outre
l'’adresse de source et de destination ; ainsi, le réseau sait d'’où le paquet provient et où
il va. Ceci permet au réseau de stocker un paquet pendant un temps indéterminé, pour
ensuite le délivrer à destination quand cela convient. Ce principe n’'était pas applicable
dans les réseaux téléphoniques. Ce type de transmission, appelé store-and-forward,
ressemble à la gestion de courier postal où le bureau local ne renvoie les lettres au
bureau central que quelques fois par jour et pas à chaque fois qu’il y a une lettre : un
réseau de transmission par paquet suivant le mode store-and-forward est plus
économique que la transmission immédiate sans buffers (réseaux téléphoniques), de
plus elle peut conserver le message si la ligne est rompue et la renvoyer une fois la
ligne rétablie. Ainsi, le réseau Internet est un réseau sans connection dont le type de
transmission est qualifié de Best effort ("on envoie et on prie"). La philosophie
d'’Internet repose également sur un design de nature décentralisée où les terminaux
ne peuvent pas compter sur le réseau pour un transfert de données fiable. L'’idée est
qu’un transfert de données fiable soit fourni par des protocoles opérant aux extrémités
et pas dans le réseau : contrairement à la philosophie du réseau téléphonique, le
réseau peut être lent et stupide, c'’est l’intelligence des terminaux qui devra le
compenser.
Les réseaux par paquets sont destinés aux services par "à-coups", ils sont efficaces
en cas de débits variables mais ne permettent pas la définition d'’une borne supérieure
du temps de transfert et ne conviennent donc pas pour les services en temps réel.
Malgré qu'’elle soit essentielle à la scalability de l'’Internet, la décentralisation du
contrôle peut vite conduire à l’'anarchie car un service fiable ne peut jamais être
garanti : puisqu'’il n’y a pas de contrôle sur les routeurs du réseau, le moindre paquet
corrompu peut détruire la cohérence des tables de routage et ainsi et ainsi causer
rapidement des problèmes dans tous le réseau.
Les applications Multimédia ont besoin de garanties de performance en temps réel,
ce qui exige au réseau d'’offrir une certaine qualité de service, or il est difficile d’intégrer
cela dans l’'architecture actuelle de l’'Internet : en effet, une transmission du type store-
and-forward avec des buffers partagés entre plusieurs utilisateurs est un système où le
premier venu est le premier servi, ce qui peut créer de grands retards ou pertes aux
utilisateurs. De plus, pour garantir une certaine qualité de service, il faut pouvoir
informer chaque routeur le long du chemin de la QoS demandé par chaque courant de
paquets. Cependant, Internet n’'a pas une simple manière d’'identifier les courants de
paquets et cela requière plus de coopération entre les routeurs.
Les réseaux ATM(Asynchronous Transfer Mode) ont pour but de combiner la
flexibilité de l'’Internet avec les garanties par usager de la QoS des réseaux
téléphoniques. Ils ont l'’intention d’'offrir une certaine gamme de qualités de service à un
coût raisonnable et ont donc le potentiel de remplacer le réseau téléphonique et
l'’Internet, cela créerait une infrastructure unique capable de prendre en charge la
diversité des services futurs, transmettant à la fois voix, vidéo, et données. Les
avantages obtenus si un réseau unique de transfert serait mis en place, remplaçant les
deux techniques de commutation par une seule seraient d’une part une souplesse
d’'adaptation aux changements et aux nouveaux besoins (scalability, manageability),
d’'autre part une meilleure efficacité dans l’'utilisation des ressources disponibles (high
bandwith, end-to-end quality of service) et enfin, un coût plus faible d'’investissement,
de fabrication, d'’opération et de maintenance (cost-effective).Ce sont les grands
objectifs de design des réseaux ATM.
La technique ATM est orienté connection : une cellule ne sera transmise que
lorsqu'’un circuit virtuel aura été ouvert; ce circuit virtuel est tracé à l’'intérieur du réseau
par des marques laissées dans chaque noeud traversé. La correspondance d'’un
identificateur à sa destination doit être établie à chaque commutateur (switch) le long du
chemin avant que la transmission de données ne commence : il y a donc une phase
d'’établissement d’appel (call setup phase) préalable à une phase de transmission de
données.
3. Caractéristiques de l’'ATM.
Les réseaux ATM sont basés sur d'’importants concepts: les circuits virtuels, les
cellules avec leur petite taille fixe, le multiplexage statistique et l'’intégration de services.
Tous ces concepts permettent de construire des réseaux qui peuvent transporter
plusieurs classes de trafic (contrairement aux réseaux téléphoniques) avec des
garanties sur la qualité de service par usager (contrairement à Internet).
A.Circuits virtuels.
Les identificateurs de circuit virtuel prennent moins de place dans l'’entête vu qu'’ils
sont plus petits que les adresses complètes comprises dans les entêtes des
datagrammes. Les circuits virtuels sont donc plus efficaces que les datagrammes dans
leur utilisation de la bande passante. Cependant, une phase préalable d’établissement
d'’appel (call setup phase) est nécessaire avant la transmission des données.
Illustrons ce concept par un exemple simple : prenons deux switch S1 et S2 reliés entre
eux, chacun d’eux étant reliés à plusieurs "terminaux" appelés host (H1,H2,H3,…).
Prenons le cas où H1 envoie un message à H2.
Nous allons maintenant passer en revue certaines caractéristiques des circuits virtuels,
ses avantages et inconvénients par rapport aux datagrammes.
Toutes les cellules envoyées lors de la phase de transmission de données
doivent suivre le même itinéraire car chaque paquet transporte un
identificateur et non pas l'’adresse complète, et cet identificateur est connu
seulement par les noeuds pré-établis lors de setup phase. En cas de "rupture
"d’un noeud, le circuit virtuel est perdu et il faut alors rerouter le circuit virtuel, ce
qui est compliqué et fastidieux. Au contraire, les datagrammes peuvent chacun
choisir le chemin pour atteindre leur destination de manière indépendante. En
cas de rupture d’un switch, les datagrammes qui y sont enregistrés dans le
switch sont perdus, mais il est facile alors de router d’autres datagrammes autour
de la rupture. L'’itinéraire identique suivie par les cellules leur permet d’arriver
dans l'’ordre avec une plus grande probabilité que pour les datagrammes. Un
circuit virtuel ne fournit pas nécessairement de garantie de fiabilité et est
soumis aux mêmes types de "pertes" que les réseaux de datagrammes.
Cependant, un commutateur orienté circuit virtuel peut fournir unequalité de
service par circuit virtuel puisqu’'un tel commutateur peut enregistré un certain
état spécifique à chaque circuit virtuel (per-VC state): par exemple, les entrées-
sorties de la translation table, une priorité relative du circuit virtuel, ou la quantité
de bande passante réservée à ce circuit virtuel. Au contraire, un commutateur
orienté datagramme peut difficilement fournir une qualité de service par
"courant d’information" ( per-stream QoS) car ils ne distinguent pas les
paquets venus de différentes sources et n’enregistrent pas d’informations
spécifiques à chaque courant d’information.
La séparation des procédures de transfert de données et de celles de
contrôle nécessaires pour la phase de pré-établissement (call setup phase)
permet une implémentation plus facile des commutateurs : celle-ci peut sa
faire entièrement en hardware, ce qui facilite le transfert de données qui sera
rapide et bon marché. La séparation data et contrôle permet également des
contrôleurs de switch plus intelligents. Dans les réseaux orientés datagramme, la
réalisation en hardware est très difficile car un switch doit lire l’'adresse complète
et chercher dans la table de routage pour chaque paquet entrant.
La taille réduite des identificateurs de cicuits virtuelspermet d'’avoir une
entête plus petite et donc une meilleure utilisation de la bande passante.
L’’enregistrement de l’'information spécifique à chaque circuit virtuel s'’avère
également plus facile ; ainsi, quand une cellule arrive, le VCI de l’entête peut être
utilisé et directement mis en rapport à une information spécifique au VCI, ce qui
rend l'’implémentation des switch en hardware possible. Toutefois, le transfert
de données sur un circuit virtuel ne peut se faire qu'’une fois la phase de
préparation terminée : cela implique un certain retard, appelé call setup
latency puisque le setup message doit aller de la source vers sa destination et
puis retourner. Il existe plusieurs moyens pour réduire ce retard:
Le Virtual path représente une série de VCIs pré-établis qui
partent d'’une source particulière et vont vers une destination
particulière. Les virtual paths rassemble de l'’information sur
plusieurs circuits virtuels et permettent d'’économiser de la
signalisation et de l'’espace au niveau des tables de switch.
Etablissement de l’appel en parallèle avec le transfert de
données: lors de l'’établissement de l'’appel, on envoie le premier
paquet de données sur un VCI spécial qui n’a pas d'’entrée à la
table de commutation. Le commutateur le stocke ensuite alors dans
un buffer spécial attendant les instructions du switch controller qui
utilise les paquets de supervision pour déterminer la destination du
paquet de données. Malheureusement, l'’implémentation du switch
et de son contrôleur devient beaucoup plus complexe.
B.Les cellules: paquets de taille fixe.
Les principales raisons pour lesquelles les réseaux ATM utilisent des paquets de
taille fixe appelés cellules au lieu de paquets de longueurs variables sont :
Le link scheduler détermine quelle cellule (provenant de H1 ou H3) ira sur la ligne;
cela détermine donc le retard et la bande passante reçues par un circuit virtuel (pour H1
ou H3). Au moyen d’une programmation adéquate du link scheduler, un opérateur de
réseau peut allouer différentes bandes passantes et retards à différents circuits virtuels.
Il est beaucoup plus facile de gérer cette allocation si les paquets sont de taille fixe
puisqu’alors chaque cellule prend une part constante de la bande passante à
transmettre.
3. Traitement parallèle des paquets:
Pour maximiser le parallélisme et donc augmenter la capacité des noeuds, tous les
éléments de commutation (switching) doivent accomplir un transfert partiel des paquets
simultanément. Puisque le temps de transmission des paquets dépend de sa longueur,
le parallélisme maximale est atteint lorsque tous les paquets ont la même taille, sinon il
y aura des gaspillages de temps dû à l'’attente de l’achèvement du processing d'’un
paquet plus long.
La taille fixe des cellules ATM a donc de nombreux avantages: elle augmente la
capacité des noeuds via le traitement parallèle; de plus, elle réduit le temps de
groupage des paquets, le temps de traversée des paquets et la variance du délai
d’'acheminement dans le réseau; enfin, elle permet l'’emploi de mémoires-tampon de
petite taille.
Cependant, la taille fixe a également des désavantages: une source qui envoie des
données dont la taille est plus grande que la taille fixe imposée doit segmenter ses
données pour ensuite les rassembler à l'’arrivée; de même, il y a un gaspillage de
bande passante lors de l’'envoi de cellule plus petite que la taille imposée; en outre,
lorsqu’'on fragmente un long message en plusieurs cellules (taille fixe),la dernière
cellule est rarement remplie et il y a donc également un gaspillage de bande passante.
D. Multiplexage statistique.
Considérons un multiplexeur à répartition de temps qui répartit les cellules ATM depuis
4 sources dans une ligne de sortie partagée.
Si exactement une cellule arrive à chacune des entrées toutes les secondes, le
multiplexeur doit avoir un débit de sortie d’au moins 4 cellules /seconde et chaque
buffer d'’entrée une capacité d’au moins une cellule. Puisqu’'une cellule doit attendre au
moins que les trois autres cellules soient transmises, une source aurait un retard de file
( queuing delay) d’'au moins trois fois temps de service d'’une cellule.
Prenons l’'exemple de cellules arrivant par à-coup de 10 cellules également espacées
d’1 seconde chacune (le débit de pointe est donc d’'1cellule/seconde)et avec un gap
entre deux à-coups de 100 secondes (le débit moyen est donc de 0.09
cellule/seconde puisqu'’il y a 10 cellules toutes les 110 secondes). On peut prendre
différents débits de sortie : pour un débit de sortie de 4 cellules/seconde
correspondant à la somme des débits de crêtes, le multiplexeur ne sera jamais saturé
même si tous les 4 bursts arrivent en même temps. On aura alors un queuing delay
maximum de 0.75 s (3 fois le temps de service d’une cellule à cette vitesse de sortie).
Toutefois, il est probable qu’un seul burst soit présent à un moment donné, on pourrait
alors de manière optimiste estimer le débit de sortie à 1 cellule/seconde, et ceci au
frais des mémoires-tampons dans le cas où la sortie serait occupée. Si on prend un
débit de sortie égale à la somme des débit moyen 0.36 cellule/seconde, alors le
queuing delay est infini puisque la taille des mémoires-tampons d'’entrée augmentera
sans cesse.
Cette figure montre le compromis entre le gain de multiplexage statistique et le
retard de file dans le pire des cas (worst-case queuing delay). Par exemple pour
une vitesse de sortie de 1.25 cellules/seconde, notre gain de multiplexage statistique
qui est le rapport de la somme des débits de pointe à l’entrée et du débit à la sortie,
s’élève à un gain de 4/1.25 = 3.2 puisqu’on opère à la vitesse de pointe de 4
cellules/seconde. Mais le retard sera supérieure à 0.75 seconde. Etant donné que le
buffer d'’entrée doit être suffisamment grand pour traiter le délai maximum en
supposant aucune perte. La courbe mesure donc aussi le compromis entre le gain de
multiplexage statistique et la taille de la mémoire-tampon (sans pertes).
Le commutateur de cellules (cell switch) peut également exploiter le gain de
multiplexage statistique puisque le scheduler de sortie est identique à un multiplexeur à
répartition de temps.Le principe général est le suivant : chaque fois que des débits
moyens à long terme diffèrent des débits de crête, on peut utiliser le multiplexage
statistique pour échanger du débit (de service) contre un certain retard.
E. Intégration de services.
Traditionnellement, on a toujours utilisé trois réseaux différents pour transporter la voix,
la vidéo et les données, et ceci parce que chacun d’eux représente un type de traffic
différent avec différentes exigences de service. L'’unification de ces services est une
grande motivation pour le design des réseaux ATM qui devraient remplacer les
infrastructures des réseaux téléphoniques, ceux de télévision et de données.
Les réseaux ATM peuvent fournir d’'énormes capacités de commutation grâce à la taille
fixe des cellules ATM permettant une implémentation efficace en hardware. Par
exemple un commutateur 8X8 ATM peut avoir une capacité totale de 1 Gbps et cela
pour moins de 100$. En vidéo, un débit de 1,5 Mbps est demandé, et donc ce
commutateur ne pourrait supporter que 666 utilisateurs.
Les réseaux ATM supportent différentes exigences de performance puisqu’ils
permettent aux utilisateurs de spécifier une QoS désirée pendant la phase
d'’établissement et puisqu'’il gèrent leurs ressources de manière à satisfaire ces
exigences. Par example, un utilisateur peut demander un débit de 1.4 Mbps pendant la
phase d'’établissement. Cette demande de ressource est faite à chaque switch
controller le long du chemin. Si un contrôleur n’a pas la capacité de traiter l’'appel, celui-
ci est rejeté. Sinon, le débit de l'’appel est garanti et les commutateurs s’assurent que la
source ne transmet pas plus vite que 1.4 Mbps.
Les réseaux ATM peuvent aussi utiliser d’'intelligentes planifications de lignes (link
scheduling) pour satisfaire les exigences de service. Un appel téléphonique délivre des
données au commutateur de manière périodique et le link scheduler doit permettre à la
voix d’être transmis périodiquement à la ligne de sortie. Contrairement à la voix ou à la
vidéo, les données arrivent sporadiquement et par conséquent les cellules de données
ne seraient programmées seulement quand elles arrivent. L’'intégration de ces services
est possible grâce à la flexibilité de la planification(scheduling)en ATM : les en-têtes des
cellules permettent de postposer les appels non-prioritaires avant les appels urgents.
Les 4 bits de contrôle de flux générique GFC (Generic Flow Control ) de l'’interface
UNI servent au contrôle d’accès et au contrôle de flux sur la partie terminale, entre
l’'utilisateur et le réseau (le champ GFC n’'existe que sur l'’interface UNI et ne peut donc
pas transporter des informations de bout en bout) ainsi qu’au contrôle de qualité de
service dans le réseau de l’utilisateur final. L'’objectif est d'’assurer que la bande
passante, allouée à chaque service, ne soit pas excédée. Ainsi, lorsque plusieurs
utilisateurs veulent entrer dans le réseau ATM par un même point d'’entrée, il faut
ordonner leurs demandes.
La fonction de routage est obtenue par l’identificateur de circuit virtuel qui se comose de
deux parties : l’'identificateur de voie virtuelle (VCI) et l'’identificateur de conduit
virtuel (VPI). Ces deux étiquettes permettent de commuter les cellules.
Le VCI identifie une connexion propre sur l'UNI ou le NNI.Pour chaque connexion, la
valeur du VCI change le long du conduit emprunté par la cellule. Le séquencement des
cellules est conservé sur le VCI. Le VPI se compose d'’un multiplexage de VCI
empruntant le même chemin physique ( conduit virtuel). Aux noeuds intermédiaires du
conduit virtuel,seule la valeur du VPI dans l’en-tête est traitée. Aux noeuds terminaux du
conduit indiqué par la valeur VPI, les terminaux destinataires sont trouvés par la valeur
du VCI. Dans un commutateur ATM, on commute une cellule en utilisant les deux
étiquettes (VCI & VPI) ; dans un brasseur, on ne se sert que d’'une seule étiquette
(VPI). La figure ci-dessous montre un circuit virtuel avec un commutateur ATM et un
brasseur.
Les 3 bits d'’identificateur du type de capacité utile PT (Payload Type) définissent
letype d’'information transporté sur la cellule, c’'est-à-dire si le champ d'’information
de la cellule ATM est du type utilisateur ou signalisation, s'’il y a congestion ou non…
Le bit de priorité de perte de cellule CLP (Cell Loss Priority) indique la priorité de la
cellule, c’est-à-dire si la cellule peut être perdue en cas de congestion (CLP=0) ou si
elle est prioritaire (CLP=1). Le bit CLP va servir dans le contrôle de flux et permettra de
différencier deux classes de cellule d'’une même connection et de disposer de deux
qualités de service en terme de paerte de cellules ou de temps de transfert. Par
example, dans le cas du service vidéo, les cellules de synchronisation peuvent être
prioritaires.
Le champ de Contrôle d’erreur d’en-tête HEC (Header Error Control) sur 8 bits sert à
détecter et à corriger, si possible, les erreurs dans l’'en-tête de la cellule pour se
protéger des erreurs de routage.
6. La couche d'adaptation de l'ATM (AAL)
La couche AAL a été conçue initialement pour pouvoir gérer l’'interface entre une
application et le réseau ATM proprement dit. L'’application s’exécuterait donc
directement au-dessus de l'’AAL. Pour ce faire, cette couche doit fournir tous les
mécanismes nécessaires pour garantir une certaine qualité de service (QoS). Cette
philosophie explique la raison pour laquelle la couche AAL peut paraître si compliquée.
En effet, elle doit incorporer une série de fonctions traitant de la présentation, des
erreurs et du contrôle de flux, qui normalement s'’opèrent à des niveaux supérieurs.
La couche AAL est composée de deux sous-couches : la sous-couche de convergence
(CS : Convergence Sublayer) et la sous-couche de segmentation et de réassemblage
(SAR : Segmentation And Reassembly). La sous-couche CS dépend du service qui doit
être rendu à l’'utilisateur. Elle se trouve au-dessus de la couche SAR et définit le bloc
d’informations qui devra être transporté de bout en bout par la couche ATM, après
fragmentation dans la couche SAR. Quant à la sous-couche SAR, elle permet
essentiellement de segmenter les données des couches supérieures en un ensemble
de segments de données correspondant à la taille des cellules. Au niveau du
destinataire, cette même couche rassemble les cellules pour restituer des données aux
couches supérieures. Elle permet également de compenser le délai variable de la
méthode ATM, de prendre en charge les cellules perdues ou encore de récupérer la
synchronisation horloge.
L'UIT-T classifie les services du réseau ATM en quatre classes. La classification est
basée sur trois paramètres : la relation de temps entre la source et le destinataire, le
débit constant ou variable et le mode de connexion. Nous allons successivement pour
chacune des classes spécifier leurs types d'’application ainsi qu’analyser leurs
protocoles (chaque classe possède son propre protocole).
L’'AAL3/4
Les paquets d’informations de tailles variables sont envoyés vers la couche CS, qui les
entasse dans une unité de données CS-PDU. Ce dernier est alors envoyé vers la
couche SAR, où il est subdivisé en SAR-PDU de 48 octets, qui à son tour est émis vers
la couche ATM.
a. La sous-couche SAR de l’AAL3/4
Le SAR-PDU de cette classe est de nouveau constitué d'’un header et d'’un trailer.
b. La sous-couche CS de l’AAL5
Tout comme dans l'’AAL3/4, le champ d'’information du CS-PDU consiste en un
maximum de 65532 octets. Ce CS-PDU, qui possède un trailer de 8 octets contenant
des informations pour la détection et le traitement d’erreurs, est ajusté par le champ
PAD afin d’obtenir un champ de données d'’une longueur multiple de 48 octets.
On y trouve, outre le champ PAD, CPI, length et CRC déjà vu auparavant, un champ
CPCS-UU (CPCS User-to-User indication) qui permet d'’indiquer les début, continuation
et fin de la CPCS-PDU.
La couche SSCS peut recevoir les fonctionnalités déjà mentionnées dans le paragraphe
sur le niveau CS-4.
7. LES SERVICES ATM
Les services qui pourront être rendus par les réseaux ATM sont nombreux et ils
concernent en tout premier lieu le multimédia. En attendant l'’arrivée massive de ces
applications, les réseaux ATM vont surtout supporter des services déjà développés. Ces
services offrent parfois des protocoles de niveau inférieur, comparables à ceux de
l'’ATM mais qui rendent un service beaucoup moins performant. Un bon exemple
provient de l’'utilisation d'’un réseau ATM pour transporter des paquets IP. En effet, les
protocoles IP et TCP sont en grande partie dupliqués dans les couches ATM et AAL.
Comme le réseau ATM est rapide et peut, de ce fait, assurer un transport performant
des paquets IP, cette solution est largement utilisée.
Cependant, le futur de l'’ATM consistera à travailler en mode natif ATM, c’est-à-dire à
mettre des cartes ATM directement dans les machines à connecter et de travailler en
ATM de bout en bout.
Pour le moment, les principaux services définis consistent à utiliser le réseau ATM
comme un réseau de transport physique. Ainsi, le réseau ATM doit acheminer des
trames Ethernet ou des paquets IP, etc…
Un certain nombre de services ont déjà été définis dans les différents organismes de
normalisation : l'’émulation de réseaux locaux, IP sur ATM, le service de transport
vidéo, le service CLNAP (ConnectionLess Network Access Protocol) de communication
en mode non connecté, etc…
La structure en couches du service CLNAP est rapidement représentée dans la figure
ci-dessous où l'’on constate qu’'une nouvelle couche CLNAP est placée au-dessus de
l’'AAL3/4. Celle-ci réalise le routage, l'’adressage et la sélection de la qualité de service
par des fonctions spécifiques. Ces fonctions sont réalisées avec le même équipement
que la commutation des trames ATM.
Erreur! Nom du fichier non spécifié.
En conclusion, les applications le plus souvent définies au-dessus d'’un réseau ATM
proviennent de services classiques de transport de données. Les applications en mode
natif n’arriveront que petit à petit avec des équipements terminaux qui accepteront des
cartes coupleurs à des prix acceptables.
2. OPERATION ET MAINTENANCE
Pour la gestion du réseau, l'’UIT-T a introduit la recommandation I.610 qui concerne, à
la base, la maintenance de l’interface UNI (User Network Interface) et les accès au
réseau ; son but étant de décrire les fonctions permettant de maintenir le niveau
physique et l’'accès au niveau de l’interface ATM. Cette recommandation privilégie cinq
environnements : la gestion de performance, la détection de pannes, la protection du
système, l'’information sur les pannes et les performances, la localisation des fautes.
Des fonctions spéciales d’opération et de maintenance OAM (Operation And
Maintenance) sont réalisées par l’'intermédiaire de cinq niveaux hiérarchiques :
F1 : niveau section de régénération des signaux ;
F2 : niveau section numérique ;
F3 : niveau de transmission sur le chemin ;
F4 : niveau du conduit virtuel ;
F5 : niveau de la voie virtuelle.
Ces cinq niveaux de contrôle sont représentés dans la figure ci-dessous.
Erreur! Nom du fichier non spécifié.
Cette figure doit être lue comme ceci : une connexion de voie virtuelle peut être vue
dans le haut de l'’illustration. Cette voie se compose de ‘maillons’ de voies virtuelles.
Chaque ‘maillon’ est une connexion de conduits virtuels composés eux-mêmes de
‘maillons’ de conduits virtuels. Chaque maillon de conduit virtuel est un chemin de
transmission. Chaque chemin de transmission consiste en une ou plusieurs sections
numériques. Chaque section numérique se compose d’une ou plusieurs sections de
régénération.
Seuls les deux niveaux les plus hauts concernent la partie ATM, on ne s'’intéressera
qu'’à ceux-là dans la suite.
Des cellules OAM pour les niveaux F4 et F5 sont utilisées pour le contrôle des conduits
virtuels et des voies virtuelles en ce qui concerne les performances et la disponibilité.
Les cellules F4 sont utilisées pour surveiller un VPC (Virtual Path Connection) et les
cellules F5 pour surveiller un VCC (Virtual Channel Connection).
CONCLUSION
Les réseaux ATM essayent de combiner les meilleurs concepts du réseau téléphonique,
tel que le service orienté connexion et la qualité de service bout à bout, et ceux de
l’'Internet tel que la commutation par paquets. Les cinq principaux concepts d’'ATM qui
permettraient une infrastructure unique capable de prendre en charge la diversité des
services futurs, transmettant à la fois voix, vidéo et données sont les circuits virtuels, la
taille fixe et réduite des paquets, le multiplexage statistique et l'’intégration de services.
Bien que les réseaux ATM aient le potentiel de remplacer Internet et le réseau
téléphonique, il reste de nombreux problèmes à résoudre avant une réalisation concrète
de tels réseaux.
L'’Internet, basé sur le protocole IP, représente une infrastructure grandissante non
ATM. Par conséquent, vu les nombreux investissements placés dans la technologie
Internet, les réseaux ATM doivent coopérer avec les réseaux IP. Cette ‘interopérabilité’
des deux réseaux est problématique à cause de leurs philosophies fondamentalement
différentes. D’une part l'’Internet est orienté sans connexion et l’ATM en mode connecté,
d’autre part les réseaux ATM prônent la qualité de service tandis que l'Internet garantit
un service best-effort. Si les réseaux ATM doivent être utilisés par un nombre
continuellement croissant d’abonnés à Internet, ils doivent satisfaire aux souhaits de
ses utilisateurs. Tel est le défi des designers des protocoles ATM.
REFERENCES
G. Pujolle, Les Réseaux, Ed. Eyrolles, 1995.
S. Keshav, An engineering approach to computer networking : ATM network, the
Internet, the telephone network, Addison-Wesley, 1997.
Understanding telecommunications, Volume 2, Ericsson Telecom, Telia and
studentlitteratur , 1998.
http://byerley.cs.waikato.ac.nz/~tonym/articles/atm/node2.html