Apuntes de Jesus de La Cruz Redes Basicas
Apuntes de Jesus de La Cruz Redes Basicas
Apuntes de Jesus de La Cruz Redes Basicas
nstituto
P olitécnico
N acional
Redes Básicas
7°
Semestre
Profesor
INDICE
Introducción 4
INTRODUCCION
Las necesidades del intercambio de diferentes tipos de información (voz, datos, video,
etc.), ya sea en forma local ó a lugares distantes, propició que tanto la tecnología de la
Telecomunicaciones como la de la Computación (hardware y software) crecieran
intempestiva y constantemente. El resultado de lo anterior fue, que de conectar una o
varios equipos terminales a un CPU en forma independiente (en forma local o a distancia
mediante la utilización de Módems), se pasó a la creación de Redes.
En la actualidad las redes están cambiando la forma de vida de las personas y del
comercio en general. Sin embargo, para que se puedan explotar al máximo las facilidades
y “bondades” de las redes, es necesario saber como funcionan, que tipo de tecnología
está disponible y que su diseño se ajuste, a los estándares internacionales y nacionales, y
a cada conjunto de necesidades y requerimientos.
Conocer las posibilidades de las diferentes redes y cuando usar cada tipo de tecnología,
es esencial para establecer el sistema correcto en los entornos de información y
tecnología actuales, mismas que cambian dinámica y constantemente.
TRANSMISIÓN DE DATOS
2.- Exactitud: El Sistema debe entregar los datos con exactitud, ya que éstos se pueden
alteran en la transmisión, y la mayoría de la información no se pueden utilizar datos
incorrectos.
Para que un Sistema cumpla con los tres requerimientos anteriores, éste debe estar
sustentado en diversos aspectos tecnológico-humano. Esto es, que dicho Sistema sea
diseñado de acuerdo a las necesidades del manejo de la información de sus usuarios,
que la tecnología (hardware, software y medios de transmisión) utilizada, y que la
instalación y puesta en operación del mismo estén bajo Normas/Estándares, Nacionales e
Internacionales.
Medio de
Interfaz Física Interfaz Física
Transmisión
RF RF
INTERFAZ= Interfaz Física (Par trenzado, Multipar, Coaxial, Fibra Óptica, Inalámbrico)
El medio más usado para la transmisión de dato, es el cableado que utiliza alambres de
cobre. Dependiendo del tipo de cables, éstos pueden utilizarse para conectar los nodos
de una LAN a los dispositivos intermedios, como Ruteadores o Switches, así como para
conectar dispositivos WAN a un proveedor de servicios de datos, como una compañía
telefónica. Otros usos no menos comunes, son la conexión de DTE’s a la R.P.T.C. – Red
Pública Telefónica Conmutada
Este cable consiste en cuatro pares de alambres codificados por colores, que vienen
trenzados y cubiertos de un revestimiento de plástico. Las características anteriores
cancelan las interferencias externas (electromagnéticas) e internas (crosstalk).
El cable UTP cumple con los estándares especificados por las Asociaciones de las
Industrias de Telecomunicaciones e Industrias Electrónicas (TIA/EIA). Éstas estipulan los
estándares de mayor uso en el entorno del cableado para las instalaciones de redes LAN.
El cable coaxial consiste de un conductor de cobre rodeado de una capa aislante flexible.
Sobre este material aislante hay una malla de cable tejida o una hoja metálica que actúan
como segundo alambre del circuito y como blindaje para el conductor interno.
b) La televisión actual por cable está totalmente compuesta por cable coaxial. No
obstante, que los proveedores de estos servicios están remplazando la red externa, del
cable coaxial por Fibra Óptica (multimodo), la conexión final hacia la ubicación del cliente
y el cableado dentro de sus instalaciones, por el momento aún siguen siendo cable
coaxial. (Fibra Coaxial Híbrida –HFC).
c) Por otra parte, en el pasado el cable coaxial se utilizaba (en muchas redes LAN
Ethernet ya instaladas aún se sigue utilizando), para las instalaciones Ethernet. Hoy en
día, el cable UTP (par trenzado no blindado) ofrece costos mas bajos y un ancho de
banda mayor que el coaxial y tiende a remplazarlo para todas las instalaciones Ethernet,
sin embargo, con una limitación importante, la longitud del cableado.
El cableado de fibra óptica utiliza fibras de plástico o de vidrio para guiar los impulsos de
luz desde el origen hacia el destino. El cableado de fibra óptica puede generar
velocidades muy superiores de ancho de banda para transmitir datos.
Teniendo en cuenta que las fibras utilizadas en los medios de fibra óptica no son
conductores eléctricos, este medio es inmune a las interferencias electromagnéticas.
Las fibras ópticas pueden utilizarse en longitudes mucho mayores que los medios de
cobre sin la necesidad de regenerar la señal, ya que tienen una pérdida de señal
relativamente baja. Este medio alcanza longitudes de hasta varios Kilómetros.
(Actualmente se están realizando estudios con una fibra conocida como Polímero, la que
reducirá considerablemente los costos de fabricación e instalación, siendo uno de los
problemas importantes por resolver, la longitud soportada).
Algunas de las redes inalámbricas más comunes son: WI-FI, WPAN, WI-MAX, Espectro
Disperso y las celulares GSM.
1.3.1.- Simplex: Se dice que el enlace entre DCE’s es simplex cuando hay transmisión
de datos en un solo sentido.
TX RX
Medio de Transmisión
TX RX
RX TX
Medio de Transmisión
DTE DTE
1.3.2.- Half-Duplex: Se dice que el enlace entre DCE’s es Half-Duplex cuando hay
transmisión de datos en ambas direcciones, pero no simultáneamente. En un instante
dado solo hay transmisión en un sentido.
TX RX
RX TX
Medio de Transmisión
DTE DTE
CENTRALES TELEFÓNICAS
c C
C }Cc
DTE
Líneas Conmutadas
DCE DCE
DTE DTE
La conexión entre DTE’s es a través de líneas privadas, cuando dichas líneas se han
rentado a una compañía telefónica para uso exclusivo del usuario. Estas líneas no están
sujetas a las posibles degradaciones de las líneas conmutadas en los centros de
conmutación, de la R.P.T.C., o a la ruta totalmente aleatoria que se realiza cuando se
establece la conexión entre DTE’s, a través de éstas últimas.
Para conectar equipos terminales de datos (DT’S) pueden utilizarse diferentes medios de
comunicación. Todo medio empleado como conexión en una configuración fija de dos
DTE’s se denomina enlace o conexión punto a punto. En las figuras siguientes se
muestran ejemplos de conexiones punto a punto, en las que se emplean respectivamente
un enlace de microondas, líneas privadas y línea conmutada.
LP
DCE DCE
DTE DTE
CENTRALES TELEFÓNICAS
c C
C }Cc
DTE
Líneas Conmutadas
DCE DCE
DTE DTE
La conexión multipunto (en la cual se puede utilizar cable coaxial o líneas privadas), el
medio de comunicación es compartido por más de 2 DTE’s. Encontramos 3 tipos de
conexiones dentro de una configuración multipunto: a) Por agrupamiento, b) Por
derivaciones múltiples y c) Por una combinación de ambos modos de conexión.
a) Por Direccionamiento
Las señales transmitidas por la Estación Principal (situada en el punto A de la figura) son
recibidas por todos los DTE’s conectados a la línea (puntos B, C, y D). No obstante, el
mensaje será dirigido mediante una dirección a un DTE específico, el cual será el único
que podrá enviar y/o recibir información desde y hacia la Estación Principal.
El orden de transmisión de cada DTE, estará definido por una lista de direccionamiento
secuencial, radicada en la Estación Principal o en un Procesador de Comunicaciones.
b) Por Poleo
Existen varias acciones para minimizar o eliminar el problema de las colisiones, el cual es
común en redes de medio compartido, (tales como Ethernet); uno es mediante la
implementación de un “timer” a cada DTE conectado al medio de transmisión. Otras
formas actuales, son la utilización de métodos de acceso, tales como, CSMA/CD, Token
Passing (éste último elimina las Colisiones), o utilizando dispositivos de red tales
CONTROLADOR
DCE DE DTE’s
DERIVACIÓN MÚMTIPLE
DTE’s
AGRUPAMIENTO
Los datos asíncronos son producidos por DTS’s de baja o media velocidad (no es una
generalidad). Este tipo de transmisión es sencilla y de bajo costo.
Éste se realiza caracter por caracter, donde cada uno de éstos va precedido de un bit de
arranque, que le indica al DTE receptor que el transmisor está enviando un caracter de
datos. El receptor detecta el bit de arranque (START) y los bits de datos que forman el
caracter. Al finalizar la transmisión del caracter, la línea se coloca en estado de reposo
mediante 1, 1.5 o 2 bits de parada (STOP), con lo cual se está en condiciones de iniciar la
transmisión del siguiente caracter. Asimismo, como parte del caracter se transmite un bit
de PARIDAD, cuya función es que el receptor pueda detectar si hubo errores en la
transmisión del carácter enviado.
También los bits de arranque y parada permiten que el DTE receptor se “sincronice” con
el transmisor para la recepción de cada caracter. Esta “sincronización” se mantendrá
solamente durante la transmisión del caracter, ya que el receptor tiene la oportunidad de
resincronizarse al inicio de cada nuevo caracter.
TRANSMISIÓN ASÍNCRONA
Por otra parte, la transmisión síncrona requiere una “sincronización” adicional, para que
el receptor pueda determinar dónde es el comienzo y final de cada bloque de datos. Para
tal efecto, a cada bloque le antecede un patrón de bits denominado Preámbulo, y termina
con otro patrón de bits llamado Final. El preámbulo y el final pueden tener nombres
diferentes, (por ejemplo; bandera, delimitador de inicio y delimitador final, etc.), esto
dependerá del Procedimiento de Control de Enlace que se utilice.
Una vez que el equipo receptor detecta uno o más caracteres de sincronización, la
transmisión del bloque de datos se efectúa caracter por caracter sin necesidad de bits de
arranque y parada. El receptor acepta los datos hasta que detecta un caracter de control
de comunicación especial de terminación, lo que le informa que el mensaje ha concluido.
El bloque del mensaje se compone generalmente de uno o más caracteres de
Transmisión Síncrona
El término topología se refiere a la forma en que está diseñada la red. Esto es, dos o más
dispositivos se conectan a un enlace; dos o más enlaces forman una topología.
Entonces, topología se puede definir como la configuración física de los enlaces de
una red.
La topología de una red puede ser vista a nivel físico o nivel lógico.
Una topología lógica es la forma que tiene una red de transferir datos desde un nodo o
dispositivo a otro.
Hay 5 topologías básicas (con sus variantes), estas son: Malla (Malla Completa), Estrella
(Estrella Extendida), Árbol (o Jerárquica), Bus y Anillo (Anillo sencillo o doble Anillo).
1.7.1.-Topología Malla
En una topología malla cada dispositivo o nodo se conecta mediante un enlace punto a
punto y privado con cualquier otro dispositivo o nodo. General, pero no necesariamente,
esta Topología se utiliza en Redes WAN (Redes de Área Amplia).
Ventajas:
Sin embargo, la principal ventaja de una Topología Malla, es que, si un enlace entre dos
nodos falla o éste está congestionado, la información puede ser enviada por trayectorias
alternas (ver figura).
Las principales desventajas son:
Topología Malla
NODO
A
a NODO B NODO E
BBBB
A
NODO I
4 D
G
D
NODO
C
NODO F NODO H
En una topología estrella cada dispositivo tiene un enlace punto a punto y privado con un
único Nodo Central. En una red LAN (Red de Área Local) puede ser un Concentrador
(hub), si el nodo central funciona en modo de difusión, esto es, que la transmisión de una
trama por parte de un DTE se retrasmita sobre todos los puertos de salida del nodo
central. En este caso, aunque la disposición física es una estrella, lógicamente
funciona como un bus, entonces, una transmisión desde cualquier DTE es recibida por
el resto de las estaciones. Por otra parte, si el Nodo Central es un Conmutador de
Tramas (Switch), una trama entrante se almacena temporalmente en el nodo y se
retrasmite sobre un enlace o puerto de salida hacia la estación de destino, utilizando para
esto la dirección Física de destino. Aquí, la Topología Física sigue siendo Estrella y la
Topología Lógica se considera Punto a Punto (o también Estrella).
Ventajas:
c) Si falla un enlace solo éste se verá afectado, todos los demás permanecen activos.
Desventajas:
La topología árbol es una variante de la estrella. Al igual que la estrella, los nodos del
árbol están conectados a un nodo o concentrador central que maneja el tráfico de la red.
Sin embargo, no todos los dispositivos se conectan directamente al nodo central. La
mayoría se conecta a un nodo secundario que a su vez se conecta al nodo central. Las
ventajas y desventajas de la topología árbol son las mismas que las de la topología
estrella. Sin embargo, la inclusión de nodos secundarios tiene principalmente una ventaja
adicional.
Esta topología se puede ejemplificar con la introducción del servicio de Internet desde un
PSI. Este servicio es recibido en un Ruteador (nodo Principal), luego por uno o varios
Switches (Concentradores o nodos Secundarios) y éstos últimos derivan el servicio de
Internet a otro(s) Switch(es), u otro Ruteador, o directamente a los DTE’S. El resultado, en
este caso, es una red con apariencia de Árbol, porque desde el primer Ruteador (Nodo
Centra) que se tiene se ramifica la distribución de Internet, dando lugar a la creación de
otras redes o subredes, tanto internas como externas.
La topología bus es un multipunto. Un cable largo actúa como un enlace, troncal o bus
principal, que conecta todos los dispositivos a la red.
Ventajas:
Sencillez en la instalación.
Desventajas:
La falla del bus o del cable principal interrumpe todas las transmisiones, esto se
debe a que el área dañada refleja las señales a través del bus, creando ruido en
ambas direcciones.
Otras desventajas que son propias de las redes con topología multipunto, son:
colisiones y largos tiempos de espera para los DT’s que no están transmitiendo.
Límite en longitud del Bus o cable principal (Dicha longitud varía según el tipo de
cable o medio de transmisión que se utilice como Bus).
En una topología anillo cada dispositivo tiene una línea de conexión punto a punto,
solamente con los dispositivos que están a sus lados. Una señal pasa a lo largo del anillo
en una dirección, o de dispositivo a dispositivo hasta alcanzar su destino.
Ventajas:
Es económica.
Desventajas:
Una falla del anillo, por ejemplo, una estación inactiva puede inhabilitar toda la red
Entonces, uno de los Anillos se utiliza para la transmisión y el otro actúa como anillo de
reserva. Esto es, si se presenta una falla en el anillo principal, la comunicación se lleva a
través del anillo de respaldo (o secundario).
Las redes FDDI (Interfaz de Datos Distribuida de Fibra) utiliza el método de acceso Token
Passing (Paso de Testigo), en una configuración de doble anillo. En estas redes,
generalmente los anillos son de Fibra Óptica. El tráfico en una red FDDI está formado por
dos flujos similares que circulan en direcciones opuestas alrededor de dos anillos que
giran en sentido contrario. Un anillo se conoce como Anillo Principal y el segundo como
Anillo secundario.
Este método de acceso es conocido como Token Passing o Paso de Testigo y consiste en
que una sola estación puede transmitir en determinado instante y es precisamente la que
posee en ese momento una trama llamada Token, misma que es la encargada de asignar
los permisos para transmitir los datos. El Token se mantiene circulando constantemente a
través de toda la red mientras ninguna estación necesite transmitir.
Cuando algún DTE, desea enviar o solicitar datos hacia la red, debe esperar a que llegue
el Token. Cuando esto sucede, el DTE adjunta los datos o información de control para
formar una trama de datos/comandos y activa una señal indicando que el bus o anillo está
ocupado. El mensaje continúa su recorrido en orden, hasta llegar a la estación destino, la
cual copia la trama para su procesamiento y la libera. Ésta gira alrededor del anillo hasta
llegar a la estación que la transmitió.
Con lo anterior, los demás DTE’s conectados a la red tendrían largos tiempos de espera
para poder transmitir su información a otro DTE., es por esto que las redes de transmisión
de Token son determinísticas. Esto significa que se puede calcular el tiempo máximo
que transcurrirá antes de que cualquier estación pueda realizar una transmisión
(generalmente, el tiempo que una estación, en redes de este tipo, puede retener el
TOKEN son 10 mseg). Además, debido a que una computadora requiere el Token para
enviar información, no hay colisiones.
Token Passing
Arquitectura de red desarrollada por IBM en los años 70’s con topología en anillo y técnica
de acceso de paso de testigo. Token Ring se ubica en el estándar IEEE 802.5.
Características principales:
Utiliza una topología en anillo, aunque por medio de una Unidad de Acceso
Multiestación (MAU) la red puede verse como si fuera una estrella.
Estas redes alcanzan una velocidad máxima de transmisión que oscila entre los 4
y los 6 Mbps. Posteriormente, el High-Speed Token Ring elevó la velocidad a 100
Mbps.
El estándar 802.5 define una red con topología de anillo la cual usa una trama toquen
para transmitir información a otra. En una estación de trabajo la cual envía un mensaje lo
sitúa dentro de un token y lo direcciona específicamente a un destino, la estación destino
copia el mensaje y lo envía a un token de regreso a la estación origen la cual borra el
mensaje y pasa el token a la siguiente estación.
Es un protocolo para redes de área local, pero en vez de estar destinado a topologías en
anillo, está diseñado para topologías en bus. Los nodos están conectados con cable
coaxial y se organizan como un anillo virtual o lógico.
Token Bus
1.9.- MODEMS
Dado que en bastantes de los sistemas de comunicación de datos, la red telefónica aún
constituye el elemento de enlace con los demás componentes del sistema, es necesario
para transmitir información en forma de señales digitales, modular una señal portadora en
frecuencia de voz, y para recuperar la información demodular esa portadora.
Genera una señal de reloj para establecer una base de tiempo de sincronía.
Amplitud (ASK)
Frecuencia (FSK)
Fase (PSK)
Módems de Banda Ancha. Se utilizan velocidades de hasta 256 kbps. Este tipo de
facilidades es proporcionado generalmente por las empresas de telecomunicaciones.
Módems Síncronos. Funcionaban a 2400 y 4800 bps en la línea conmutada y 19.2 Kbps
o más en línea privada.
Módems Asíncronos. Estos funcionaban con velocidad máxima de 1200 bps para línea
conmutada y 2400 bps para líneas privada.
También podemos mencionar los módems multipuerto que generalmente son síncronos y
operan con velocidades altas. Estos módems cuentan con varios puertos; uno de éstos se
dedica para operar a alta velocidades y los demás puertos para enlazar otros módems
que operan a media o baja velocidad.
Por otra parte, con la proliferación de las computadoras personales, se ha hecho común la
utilización de los módems para PC, a través de programas de comunicaciones. Su
característica principal es que su forma de operación puede ser configurada mediante una
serie de comandos desde una PC, a través de este software de comunicaciones. En
particular, hay una clase de estos módems, denominados módems inteligentes, que
contienen el software para proporcionar funciones adicionales tales como la respuesta y
marcado automático.
Módems inalámbricos
Ahora los nuevos usuarios de la tecnología móvil tendrán acceso a redes de transmisión
de datos a través de dispositivos instalados en sus laptops. Estos dispositivos son los
módems PCS los cuales, son desarrollados para que funcionen en un ambiente de redes
móviles.
utilizados actualmente son los basados en los sistemas celulares, los cuales cubren la
mayoría de los centros poblados en las ciudades más importantes a nivel mundial.
Existen otros tipos de módems los cuales están diseñados también para instalarse en una
laptop. Éstos no se conectan a un teléfono celular, sino que se conectan a sistemas de
radiofrecuencias, es decir, se conecta directamente a una red privada a través de los
siguientes componentes: la tarjeta que viene instala en la laptop, la antena de RF y la red
inalámbrica a la cual la persona se suscribe.
Existen, además, módems DSL (Digital Subscriber Line), que utilizan un espectro de
frecuencias situado por encima de la banda de voz (300 - 3.400 Hz) en líneas telefónicas
o por encima de los 80 KHz ocupados en las líneas RDSI, y permiten alcanzar
velocidades mucho mayores que un módem telefónico convencional. También
poseen otras cualidades, como es la posibilidad de establecer una comunicación
telefónica por voz al mismo tiempo que se envían y reciben datos.
Cuando te conectas a Internet, lo puedes hacer por medio de un modem normal, por una
red local en tu oficina, por un modem de cable, o también por medio de la tecnología DSL.
Este último es básicamente una conexión de alta velocidad que usa los mismos cables
que una línea telefónica de toda la vida.
Una conexión (inalámbrica) DSL funciona mejor cuanto más cerca estés de la
central telefónica de tu localización.
La conexión es más rápida para hacer descargas (recibir datos) que para enviar
información.
El Módem ADSL, modula las señales enviadas desde la red local para que puedan
transmitirse por una línea ADSL y demodula las señales recibidas por ésta para que los
equipos de la LAN puedan interpretarlos.
Cuando se crea la tecnología RDSI, hace posible que por los cables de teléfono pudiesen
circular los "unos" y "ceros" puros, sin modular, como impulsos eléctricos que son. Ésta es
la única tecnología de transmisión de datos verdaderamente digital. Esta tecnología
presenta, sin embargo, un inconveniente, que se considera insalvable: la característica
electrónica del famoso cable telefónico impide que se puedan transmitir datos en forma
digital a una velocidad superior a 56 kbps. Para aumentar la velocidad se emplean varias
líneas telefónicas (dos pares).
Se puede hablar y enviar datos por una línea básica porque está compuesta por dos
líneas individuales, una de voz y otra de datos.
Surge entonces ADSL. En contra de lo que se cree, no es una tecnología digital, sino tan
analógica como el antiguo módem de 56 Kbps, lo que sucede es que el tipo de señal
analógica se la "interpreta" como digital por las variaciones que posee; en realidad si la
señal fuera realmente digital ésta no podría alcanzar ni los 100 metros y se caería,
(principalmente por la atenuación) sabiendo no obstante que las líneas ADSL superan los
5 kilómetros.
Arquitectura ADSL
Selección de Módems
Tipo de Tecnología.
Disponibilidad de mantenimiento.
Costo.
Que esté normalizado (cumpla con las recomendaciones del ITU-T, antes CCITT).
Un Access Point es un equipo que se considera como una extensión de una red. Este
dispositivo lo que hace es convertir las señales de la LAN de cableado físico a una red
inalámbrica (una red local inalámbrica es aquella que cuenta con una interconexión de
computadoras relativamente cercanas, sin necesidad de cables y funcionan en base a
ondas de radio específicas), no genera direcciones propias, incluso este equipo depende
de una dirección aceptada dentro de la propia LAN. En este concepto, no se conectan dos
redes diferentes, es la misma red, pero con conexiones de distinto tipo, su uso está en
permitir que un grupo de computadoras con tarjetas red Inalámbricas usen los servicios
de la red local.
Un Router o Enrutador es un dispositivo que permite que dos redes diferentes en sus
direcciones IP se conecten entre sí, genera cambios alternos para para que sea posible
que dos tipos de direcciones IP como son las de Internet y las de una red local
intercambien información.
Un Access Point, en cambio, solo es una extensión de la red. Este dispositivo que hace es
convertir las señales de una LAN cableada a inalámbrica, no genera direcciones propias,
incluso este equipo depende de una dirección aceptada dentro de la propia LAN. En este
concepto no se conectan dos redes diferentes, es la misma red, pero con conexiones de
distinto tipo, en otras palabras permite que un grupo de computadoras con tarjetas de red
inalámbrica usen los servicios de la red LAN.
En ambos casos, la seguridad de la red es muy importante, no solo porque los recursos
de los equipos quedan expuestos, sino porque se da el caso de que cualquier persona
que esté en el rango de na red WLAN puede enlazarse, por esta razón es de suma
importancia que se activen los sistemas de seguridad de los dispositivos inalámbricos; la
seguridad de estos dispositivos está basada en claves hexadecimales y contraseñas con
distintos niveles de complejidad, entre mayor sea este nivel la red se hace más lenta,
entonces, lo más conveniente es determinar qué tan críticos son los datos y en función de
esto determinar el nivel de la seguridad. En el caso de una red abierta no es necesaria la
seguridad.
Las dos últimas organizaciones tratan en común una lista de normas que con frecuencia
se conocen como estándar TIA/EIA.
De todas las organizaciones antes mencionadas la TIA/EIA tienen el mayor impacto en las
normas relacionadas con los medios de red. Específicamente las TIA/EIA-568-A y
TIA/EIA-569-A han sido y continúan siendo las más ampliamente utilizadas en la parte
técnica de los medios de comunicación.
Las interfaces normalizadas por estos organismos especifican el nivel de las señales de
control y datos que se intercambian entre DTE’s y un DTE con un DCE. La interfaz
físicamente, comprende un par de conectores del tipo DB-25, DB-9 o RJ-45, unidos por
un cable multipar que conecta los dos equipos
-Velocidad de transmisión
-Transmisión Síncrona y asíncrona.
-Línea privada o conmutada.
Por otra parte, los estándares TIA/EIA tratan 6 elementos o subsistemas del cableado
LAN (cableado estructurado) y son los siguientes:
En las figuras siguientes se muestra las funciones de los pines ó terminales en las
versiones DB-25 y DB-9, del EIA-232:
Tierra de Protección.
Tierra de Señalización.
Datos Transmitidos.
Datos Recibidos.
Circuito 103. Datos de Transmitidos (Dirección hacia el DCE). Por este conductor
pasan los datos de información originados en el DTE con dirección al DCE para ser
transmitidos a través del medio de comunicación al equipo remoto.
El DTE solamente transmitirá datos por el circuito 103 si los circuitos 105, 106, 107 están
activados.
Circuito 104. Datos recibidos (Dirección hasta el DTE). Por este circuito pasan hacia el
DTE local los datos recibidos del DTE remoto.
Circuito 105. Petición para Transmitir. Request to Send (Dirección hacia el DCE).
Cuando el DTE está listo para transmitir datos activa este circuito, indicando con ello al
DCE que se prepare porque desea transmitir información. Al activarse este circuito obliga
al equipo de comunicaciones a pasar al estado de transmisión con respecto al medio de
comunicación. Este circuito (105) permanecerá activado durante el tiempo que el equipo
terminal transfiera datos por el circuito 103. Al desactivarse, obliga al modem a pasar al
modo de no transmisión.
Circuito 106. Listo para transmitir. Clear to Send (Dirección hacia el DTE). Por este
circuito el DCE responde a la petición para transmitir enviada por el DTE por el circuito
105. La activación de este circuito indica a la terminal que el equipo de comunicaciones
está listo para transmitir datos por el medio de comunicación. Al desactivarse indica que el
modem no está en condiciones de transmitir.
Circuito 107. DCE listo. Data Set Ready (Dirección hacia el DTE). Las señales
transmitidas por este circuito indican si el DCE está encendido y listo para funcionar.
Normalmente este circuito está activado cuando el DCE está encendido, indicando que
está conectado al medio de comunicación y lista para intercambiar señales de control con
el quipo terminal a él conectado.
Circuito 108. DTE Listo. Data Terminal Ready (Dirección hacia el DCE). Las señales
transmitidas por este circuito indican si el equipo terminal está encendido y listo para
funcionar.
Circuito 109. Detección de Portadora. Carrier Detector (Dirección hacia el DTE). Por
este circuito el equipo de comunicaciones indica al DTE si las señales recibidas a través
del medio de comunicaciones se ajustan a los niveles especificados por las normas.
Estas señales se emplean solamente en los sistemas síncronos. En este tipo de sistemas
es común que sea el DCE que proporcione la señal de reloj al DTE para sincronizarse,
tanto en la recepción como en la transmisión.
Circuito 114. Reloj de Transmisión (Dirección hacia el DTE). Por este circuito el DCE
proporciona al equipo terminal la base de tiempo para los datos trasmitidos.
Circuito 115. Reloj de Recepción (Dirección hacia el DTE). Por este circuito el DCE
proporciona al equipo terminal la base de tiempo para los datos recibidos.
Normalmente el DCE está en modo de recibir señales del medio de comunicación, así que
cuando el equipo terminal local desea transmitir datos, necesita que el DCE local, se
ponga en modo de transmisión. El DTE activa el circuito 105 (Request to Send), y al
detectar este nivel, el DCE local envía una señal de línea al DCE remoto para indicarle
que va a comenzar a transmitir datos.
Después de ser activado el circuito 105, el DCE local deja pasar un período de tiempo,
antes de activar el circuito 106 (Clear to Send). Este retardo da tiempo a que el DCE
remoto active su circuito 109 (Carrier Detector) y detecte los datos recibidos.
Una vez que el DTE detecta que el circuito 106 fue activado, comienza a transmitir datos
a través del circuito de interfaz 103. Mientras que transmite, los circuitos 105 y 106
permanecen activados. Cuando concluye la transmisión, el DTE desactiva el circuito 105 y
pocos instantes después el DCE hace lo mismo con el circuito 106, y deja de enviar
señales al DCE remoto.
En el extremo receptor, el DCE remoto, al recibir la señal de línea del DCE local deja
pasar un cierto período de tiempo antes de activar el circuito 109 (Carrier Detector).
Este retardo es con la finalidad de asegurarse que la señal detectada del medio de
comunicación no es un ruido de breve duración, sino una señal portadora. Al activarse el
circuito 109, el DTE remoto espera los datos (los cuales son recibidos a través del circuito
de interfaz 104).
Esta interfaz se utiliza cuando se conectan 2 DTE`s sin la utilización del modem. Esta
interfaz es necesaria para realizar el intercambio de señales de la misma forma que lo
hace un cable DTE-DCE.
NOTA: si el Hub tiene interruptores para hacer los cruces, entonces el cable será uno-
uno.
Este cable se usa para redes que tengan “Hub” o “Switch”, es decir para unir a las PC`S
con las “Rosetas” (una roseta es un dispositivo de conexión que permite un empalme
entre una instalación fija y un aparato movible) y estas con el “Hub” o “Switch”.
Al realizar la configuración 568-B es necesario que siempre la “patilla” del conector “RJ45”
este orientada hacia abajo y la asignación de los hilos debe ser de izquierda (Pin 1) a
derecha (Pin 8).
Esta norma o estándar, establece el siguiente código de colores en cada extremo del
cable:
Este cable se usa para redes entre 2 PC`s o para interconectar “Hubs” o “Switch” entre sí.
Al realizar la configuración 568-A es necesario que siempre la “Patilla” del conector “RJ45”
este orientada hacia abajo y la asignación de os hilos debe ser de izquierda (Pin 1) a
derecha (Pin 8).
INTERFACES WAN
Información General
Tipo de Cable: Cable Externo
Modelo de Cable serial DCE
Producto :
Información Técnica
Longitud 3,05m
del Cable :
Conectores: 1 x Serial V.35
1 x Smart Serial
Detalles de 1 x Serial V.35 Hembra
Conector : 1 x Smart Serial
La interfaz V.35 es una norma originalmente desarrollada por el CCITT (ahora ITU), la cual
se conoce como “Interfaz de Transmisión de Datos a 48 kbps, a través de circuitos en un
grupo primario de 60 a 108 KHz.”
En 1989 la ITU recomienda remplazar la interfase por el estándar V.10/V.11, sin embargo,
ha sido usada por muchos años para velocidades desde 20 KBPS hasta más de 2 MBPS.
Las señales utilizadas por esta interfaz son una combinación de las especificaciones V.11
para temporizadores y datos, y V.28 para las señales de control. Utiliza señales
balanceadas, niveles de tensión diferencial; para transportar datos y temporizadores a alta
velocidad.
Una complicación adicional con la interfaz V.35 es en que el conector V.35 es demasiado
grande y no cabe en muchas tarjetas de dispositivo suplementario, tales como las usadas
por los PC. Entonces muy a menudo se utiliza un cable no estándar usado para conectar
un sistema V.35, terminando un DB-25 o DB-15 en un extremo y un conector V.35 en el
otro. Entonces, como se dijo anteriormente, la Interfaz V.35 se conoce como una interfaz
síncrona para operar generalmente a velocidades superiores a 1 Mbps y utiliza la
combinación de dos señales balanceadas para control y de señales balanceadas para la
sincronización y envío y recepción de datos, lo que facilita trabajar a altas velocidades. El
interfaz V.35 trabaja esencialmente con el método de codificación NRZ.
V.35 PIN-OUT
Interfaz X.21
X.21 es una interfaz estándar diseñada por la ITU-T, para resolver muchos de los
problemas existentes en las interfaces EIA y, al mismo tiempo, preparar el camino para
las comunicaciones digitales. Fue introducida como un medio para proporcionar una
interfaz de señalización digital para las telecomunicaciones entre operadores y equipos de
los clientes.
Una gran proporción de los circuitos de las interfaces del EIA se usan para control. En una
línea, la información de control se representa por voltajes positivos y negativos. Pero, si
las señales de control se codifican usando caracteres de control de un sistema como el
ASCII, se pueden transmitir a través de las líneas de datos.
Por esta razón, la interfaz X.21 elimina la mayor parte de los circuitos de control
existentes en los estándares del EIA y, en su lugar dirige su tráfico a los circuitos de
datos. Para hacer posible esta funcionalidad, tanto en el DTE como el DCE, necesitan,
además de añadir circuitos lógicos que les permitan transformar los códigos de control en
flujos de bits que se puedan enviar por las líneas de datos, una lógica adicional para
discriminar entre la información de control y los datos del receptor.
X.21 es útil como una interfaz para conectar computadoras digitales a dispositivos
analógicos, tales como módems, así como un modo de conexión entre computadoras
digitales e interfaces digitales tales como RDSI y X.25.
Las redes de datos deben ser capaces de transferir información desde un dispositivo a
otro con una exactitud total. Sin embargo, siempre que se transmite de un origen a un
destino los datos se pueden corromper propiciando errores en la transmisión de
información.
a) Error de Bit: En un error de bit, solamente cambia un bit del bloque de datos.
b) Error de Ráfaga: Un error de ráfaga significa que dos o más bits de la unidad de
datos han cambiado.
En este método se agrega un bit llamado de paridad a cada carácter de datos, para hacer
que el número de bits 1’s o bits 0’s del carácter sea par o impar. Sí por ejemplo, se
acuerda paridad par sobre los 1’s, con cada carácter de datos transmitido se transmite al
final un bit que puede ser 1 o 0 dependiendo de que el número de 1’s del carácter
transmitido sea par o impar. Si este número es impar el bit que se transmite al último (Bit
de Paridad) será 1. En cambio, si el número de 1’s en el carácter es par, el bit de paridad
será 0, lo cual permite el receptor determinar si ha habido errores en la transmisión, ya
que se sabe que cada carácter debe contener siempre un número par de 1’s.
No. Bit de
Representación BCD
Decimal Paridad
1 0001 1
2 0010 1
3 0011 0
5 0101 (0110) 0
7 0111 1
VRC puede detectar todos los errores en un único bit. También puede detectar errores de
ráfaga siempre que el total de bits cambiados sea impar (3, 5, etc.), sin embargo, un
número par de bits erróneos no es detectado.
11100111
11011101
00111001
10101001
10101010 LRC
Cuando el receptor comprueba el LRC, algunos de los bits no siguen la regla de paridad
par y se descarta todo el bloque. (Los bits que se cambiaron se muestran en color rojo).
En el ejemplo se observa que LRC puede detectar fácilmente un error de ráfaga.
Sin embargo, hay un patrón de errores que sigue sin ser detectado. Lo anterior sucede si
se dañan dos bits de una unidad de datos y si también se corrompen otros dos bits de
otra unidad de datos que se encuentren exactamente en la misma posición, entonces, el
comprobador de LRC no detectará el error.
Si en dos unidades de datos se cambian el primer y el séptimo bit de cada una de éstas,
el código LRC no es capaz de detectar los errores.
a k 1
ak 2 ... a2 a1 a0
El polinomio es entonces:
k 1 k 2
M ( x) ak 1 x ak 2 x ... a2 x a1 x a0
2 1
1010001101
1 x 9 0 x 8 1 x 7 0 x 6 0 x 5 0 x 4 1 x 3 1 x 2 0 x1 1
M ( x) x9 x7 x3 x2 1
M ( x) x 9 x 7 x 3 x 2 1
Paso 1. El mensaje de datos M(x) es multiplicado por x r, dando “r” ceros en las
posiciones más bajas.
M ( x) x r
Paso 2. El resultado es dividido entre P(x). Esto da un cociente único Q(x) y un residuo
R(x), por lo tanto:
M ( x) x r
Q( x), R( x)
P( x)
Paso 3.- El residuo es sumado al mensaje, colocando los r términos, en las r posiciones
de orden más bajo.
Ejemplo
M ( x) 1010001101
M ( x) x 9 x 7 x 3 x 2 1
El polinomio generador
P( x) 110101
P( x) x 5 x 4 x 2 1
En el Transmisor:
Multiplicamos el polinomio del mensaje por el término de orden mayor del polinomio
generador P(x)
x r M ( x) x 5 M ( x)
x 5 M ( x) x 5 ( x 9 x 7 x 3 x 2 1)
x 5 M ( x) x 14 x 12 x 8 x 7 x 5
x 5 M ( x) 1010001101 00000
P ( x) M ( x) x r
Tx x r M ( x) R( x)
En el Receptor:
Como se observa R(x) es igual a cero, por lo tanto, se considera que no hubo error en la
transmisión.
TRANSMISOR RECEPTOR
M(x)/P(x) T(x)/P(x)
)
La cantidad de bits necesaria para corregir un error de varios bits o un error de ráfaga es
tan alta que en la mayoría de los casos su uso no resulta eficiente. Es por eso, que es
común el método de retransmisión de mensajes para la corrección de errores.
1.12.1.- Encapsulamiento
Prácticamente en todos los protocolos, los datos son transferidos en bloques llamados
Unidades de Datos del Protocolo o PDU (Protocolo Data Unit). Cada PDU contiene no
solo datos, si no también información de control. Sin embargo, algunos PDU contienen
únicamente de información de control sin llevar dato alguno
Por otra parte, La forma que adopta un bloque de datos en cualquier capa o nivel, ya sea
del modelo OSI o del modelo TCP/IP, se denomina PDU. Durante el encapsulamiento,
cada capa encapsula las PDU’s que recibe de las capas superiores, de acuerdo al
protocolo que se utiliza en cada capa. Esto es, en cada capa o nivel del proceso, una
PDU adquiere un nombre distinto que contiene los datos más información propia del
protocolo (información de control) de dicha capa.
Así entonces:
Figura 33.
1.12.2.- Fragmentación
Un Protocolo se encarga del intercambio del flujo de datos entre dos dispositivos.
Normalmente la transferencia puede caracterizarse como una secuencia de PDU’s de
algún tamaño determinado.
Al proceso de separar los datos de los mensajes en bloques de un tamaño más reducido
se denomina como fragmentación.
Algunas de las razones típicas para fragmentar un mensaje son las siguientes:
b) El control de errores puede ser más eficiente con un tamaño de PDU más
pequeño.
b) La recepción de una PDU puede generar una interrupción que debe ser
atendida. A medida que el bloque sea más pequeño se pueden generar más
interrupciones.
El control de flujo es una técnica utilizada para asegurar que un dispositivo transmisor no
sobrepase al dispositivo receptor con una excesiva cantidad de datos. Generalmente, el
receptor reserva una zona de memoria temporal para la transferencia de información. En
ausencia de procedimientos para el control de flujo, la memoria temporal del receptor se
podría llenar y desbordarse mientras éste se encuentra procesando datos previos.
La estación B reserva memoria temporal suficiente para almacenar “N” tramas. Por lo
tanto, la estación B puede aceptar “N” tramas permitiéndole a la estación A enviar este
mismo número de tramas si tener que esperar ninguna confirmación. Para saber que
tramas se han confirmado, cada una de ellas se etiqueta con un número de secuencia. La
estación B confirma una trama mediante el envío de una confirmación que incluye el
número de secuencia de la siguiente trama que espera recibir.
Este esquema se puede utilizar también para confirmar varias tramas simultáneamente,
por ejemplo, la estación B podrá recibir las tramas uno, dos, tres y cuatro, pero retener la
confirmación hasta que le llegue la trama 4. Al devolver una confirmación con un número
de secuencia 5, la estación B confirmara simultáneamente las tramas 1, 2, 3 y 4. La
estación A mantiene una lista con los números de secuencia que se le permite transmitir y
la estación B mantiene una lista con los números de secuencia que está esperando
recibir. Cada una de estas listas se puede considerar como una ventana de tramas, de ahí
que este procedimiento se denomine control de flujo mediante ventana deslizante.
El control de errores hace referencia a los mecanismos para la detección de los errores
que aparecen en una transmisión de tramas. Como se dijo anteriormente, los datos se
envían en base a una secuencia de tramas, las cuales se reciben en el mismo orden en
que fueron enviadas.
Las técnicas más usuales para el control de errores se basan en los siguientes métodos:
El esquema ARQ con parada y espera se basa en la técnica para el control de flujo
mediante parada y espera. La estación origen transmite una única trama y debe esperar
la recepción de una confirmación ACK para enviar otra trama, esto es, el transmisor no
podrá enviar ninguna otra trama hasta que la respuesta de la estación destino llegue al
emisor.
REJ deberá retransmitir la trama errónea además de todas las posteriores que hayan sido
transmitidas tras ella.
En el esquema ARQ con rechazo selectivo, las únicas tramas que se retransmiten son
aquellas para las que se recibe una confirmación negativa denominada SREJ (Rechazo
Selectivo), o aquellas para las que el temporizador correspondiente haya expirado.
Una importante función de los protocolos de línea es asegurar una correcta recuperación
de los datos. Después de cada transmisión, la estación receptora normalmente contesta
con un carácter de control de comunicación de Reconocimiento Positivo, que indica que el
bloque de datos es aceptado solicitando la transmisión del bloque siguiente a la estación
transmisora.
Una LAN puede necesitar cubrir más distancia de la que el medio de transporte puede
permitir o el número de estaciones puede ser demasiado grande para la entrega de
tramas de forma eficiente. Un dispositivo llamado repetidor (o hub, o concentrador), en el
primer caso se inserta en la red para incrementar la distancia a cubrir. En el segundo
caso, un dispositivo como el Switch (antes el Puente) se inserta para gestionar el tráfico.
Cuando el hub se emplea en una topología estrella, la comunicación entre los dispositivos
conectados a la LAN se realiza de extremo a extremo del hub, esto es, todo el tráfico de la
red con esta topología pasa a través del Hub.
El propósito del hub es regenerar y reenviar las señales de red. Los repetidores se
utilizaban de manera extensa en las redes Ethernet original y se han usado con otras
tecnologías de red.
Si el hub sólo tiene dos puertos también se le conoce como repetidor, pero si el hub tiene
4, 8, 24 o más puertos, entonces es un repetidor multipuerto o concentrador.
Un repetidor o un hub con dos puertos, recibe en uno, regenera y repite en el otro; pero
un hub con 4 puertos o más (concentrador), recibe en un puerto, regenera y repite en
todos los demás puertos.
Los hubs se emplean normalmente en las Ethernet 10 Base T o 100 Base T. La función
de los hubs en una red Token Ring lo ejecuta la Unidad de Conexión al Medio (MAU). En
FDDI, el dispositivo de conexión so conoce como concentrador. Estos dispositivos no
realizan operaciones de filtrado del tráfico. Como se dijo anteriormente, reenvían todos los
bits a todos los dispositivos conectados a ellos, forzando a que todos los dispositivos de la
LAN compartan el ancho de banda del medio. Además, esta implementación provoca
altos niveles de colisiones en la LAN.
Los hubs se consideran dispositivos de la Capa 1 de OSI, ya que sólo regeneran la señal
y la repiten a todos los puntos de conexión de la red.
Los Puentes actúan en las Capas Física y Enlace de Datos del modelo OSI. Entre sus
funciones, están las de poder dividir una red grande en segmentos más pequeños,
retransmitir tramas entre dos LAN originalmente separadas, así como proporcionar
seguridad mediante la separación del tráfico de cada segmento.
Este tipo de funcionamiento de los puentes reduce significativamente el tráfico entre los
segmentos de la red, al enviar a otros segmentos el tráfico (Tramas) innecesario.
Ya que los puentes solo se fijan en las direcciones MAC, no se preocupa por los
protocolos de la Capa 3 o de Red.
- Son más inteligentes que los hubs, ya que pueden analizar las Tramas que llegan y
enviarlas basándose en la dirección MAC de destino.
2.1.4.- Switches
Como los Puentes, los Switches conectan segmentos LAN, usando una tabla de
direcciones MAC (físicas) para decidir a qué segmento de la red van a transmitir una
Trama, reduciendo con esto el tráfico en cada segmento. Los Switches operan a
velocidades mucho más altas que los Puentes y pueden soportar nuevas funciones; como
las LAN virtuales.
Aunque el Switch LAN limita o disminuye el tamaño del dominio de colisión, todos los
hosts conectados con el Switch están aún en el mismo dominio de difusión
(Broadcast). Por lo tanto, una difusión desde un dispositivo todavía sería visible para los
otros dispositivos conectados mediante el Switch LAN.
Esta dirección, que permite ayudar a determinar las direcciones de origen y destino dentro
de una red Ethernet, independientemente del tipo de Ethernet que se utilice, brindó un
método o convenio para identificar dispositivos en un nivel inferior del Modelo OSI.
Una dirección MAC de Ethernet es un valor binario de 48 bits expresado como 12 dígitos
hexadecimales.
1.- Todas las direcciones MAC asignadas a una NIC (Tarjeta de Interfaz de Red) u otro
dispositivo Ethernet deben utilizar el OUI que se le asignó a dicho proveedor como los 3
primeros bytes.
2.- Se les debe asignar un valor exclusivo a todas las direcciones MAC con el mismo OUI
(Identificador Único de Organización) y el Código del Fabricante o Número de Serie en
los últimos 3 bytes.
Cada NIC en una red Ethernet, visualiza la información para determinar si la dirección
MAC coincide con su dirección física. Si no hay coincidencia, el dispositivo descarta la
Trama. Cuando la Trama llega al destino donde la MAC de la NIC coincide con la MAC de
destino de la Trama, la NIC pasa la Trama a las Capa inmediatamente superior donde se
lleva a cabo la desencapsulación.
La estructura o formato de la Trama Ethernet (IEEE 802.3), entre otros, tiene dos campos
de 6 bytes cada uno, dedicados para la dirección MAC de origen y para la dirección MAC
de destino.
El Switch segmenta el tráfico de tal manera que las tramas destinadas a un dominio de
colisión determinado no se propaguen a otro segmento aprendiendo direcciones MAC de
los hosts. A diferencia de un hub, un Switch no inunda todos los puertos con las tramas,
por el contrario, este último dispositivo es selectivo con cada trama.
Debido a que los Switches controlan el tráfico para múltiples segmentos al mismo tiempo,
contienen memoria búfer para que puedan recibir y transmitir tramas independientemente
en cada puerto o segmento.
A partir del momento en que el Switch toma la decisión de enviar la trama puede utilizar
diferentes tipos de procesamientos internos para hacerlo.
Un Switch crea circuitos virtuales entre segmentos, para ello debe identificar las
direcciones MAC de destino, buscar en su tabla de direcciones MAC a que puerto
debe enviarla y ejecutar el envío. Cuando un Switch se inicia no posee datos sobre los
hosts conectados a sus puertos, por lo tanto, inunda todos los puertos esperando
capturar la MAC correspondiente.
A medida que las tramas atraviesan el Switch, éste las comienza a almacenar en la
memoria CAM (memoria de contenido direccionable) asociándolas a un puerto de
salida e indicando en cada entrada una marca horaria (timer) a fin de que pasado
cierto tiempo dicha entrada sea eliminada, preservando el espacio de memoria. Si un
Switch detecta que la trama pertenece al mismo segmento de donde proviene no la
envía a otros segmentos, entonces la envía puerto de salida correspondiente. Si por el
contrario el destino pertenece a otro segmento, solo enviará la trama al segmento
correspondiente. Si la trama fuera un broadcast de capa 2, el Switch inundará todos
los puertos con dicha trama.
La tabla CAM (también conocida como tabla Cache), tiene un tamaño que varía en
función de cada equipo, pero es de tamaño limitado y puede llenarse y provocar un
desbordamiento. Para prevenir este problema en la memoria CAM es conveniente reducir
el tiempo de permanencia de las entradas en la tabla.
Existen casos en que las direcciones MAC no serán aprendidas por el Switch de forma
dinámica, en este caso el Switch podrá configurar las entradas en la memoria CAM de
forma manual.
FLASH: la memoria FLASH se utiliza para almacenar una imagen completa del
software IOS (Internetwork Operating System) de Cisco, que puede estar
comprimido o no. Estas imágenes pueden actualizarse cargando una nueva en la
memoria.
Conmutación (Switching) IP
En el diseño de una red LAN se debe tomar en cuenta el mejor tipo de tecnología
Ethernet y el tipo adecuado de cable que soporte el tráfico y la longitud necesaria de
acuerdo a los requisitos de la red.
Entorno de Medio Compartido: Lo anterior se dice cuando varios hosts (DTE’s) tienen
acceso al mismo medio. Por ejemplo, si varias PC están conectadas al mismo cable físico
o fibra óptica, o comparten el mismo espacio aéreo, todos comparten el mismo medio.
El tráfico excesivo en una red puede producir serios problemas. Si por ejemplo, un solo
cable interconecta todos los dispositivos de una red, la posibilidad de que haya conflictos
cuando varios usuarios envíen datos al mismo tiempo es alta. Lo mismo ocurre con los
segmentos de una red que están conectados sólo mediante dispositivos que no tienen la
capacidad de filtrado, como los repetidores.
Ahora bien, el área dentro de la red donde se originan y colisionan los paquetes ó tramas
de datos se conoce como Dominio de Colisión.
Por ejemplo, los repetidores regeneran las señales de un segmento a otro, pero no puede
filtrar el flujo del tráfico que pasa a través de ellos. Utilizar un repetidor amplía el dominio
de colisiones, por lo tanto, la red en ambos lados del repetidor es un gran dominio de
colisiones.
Dominio de Colisión
Si el dominio de colisión llega a ser demasiado grande, éste puede causar muchas
colisiones y dar como resultado una degradación del rendimiento de la red. El tamaño de
los dominios de colisión puede ser reducido utilizando dispositivos de red inteligentes que
fragmenten dichos dominios. Ejemplos de este tipo de dispositivos de red son los
puentes, Switches y Routers.
Puente
Por otra parte, como se dijo anteriormente, cuando se produce una colisión, los bloques
de datos implicados se destruyen. Para evitar este problema, la red deberá tener un
sistema que pueda administrar la competición por el medio de trasmisión (contención).
Una condición parecida se obtiene en las redes LAN que funcionen con el método de
acceso CSMA/CD.
En redes LAN, por ejemplo, Ethernet, la regla de los cuatro repetidores establece que
no se pueden instalar más de cuatro repetidores o hubs de repetición entre dos
computadoras cualesquiera de la red. Si se sigue, la regla garantiza que en caso de que
se produzca una colisión, todos los nodos del dominio de colisión sabrán que se ha
producido. Eso es crucial para el funcionamiento satisfactorio del protocolo de red.
Cuando se excede este límite de retraso, el número de colisiones posteriores se
incrementa considerablemente. Una colisión posterior es una colisión que se produce
después de haber trasmitido los primeros 64 bits de la trama.
Una VLAN es un dominio de broadcast común que puede abarcar múltiples segmentos
físicos LAN. Dentro de la internetwork conmutada, las VLAN’S proporcionan
segmentación y flexibilidad organizacional, además permite implementar políticas de
seguridad y acceso a un grupo particular de usuarios.
Una VLAN puede estar compuesta por uno o varios Switches. Puede incluir estaciones en
un edificio o en varios edificios, asimismo, puede conectarse a través de WAN’s.
Objetivo de la VLAN
El objetivo principal de la tecnología VLAN consiste en crear redes aisladas, que están
conectadas por Routers operando con el protocolo de capa de red IP. Esta estructura de
red genera barreras mucho más confiables, con lo que se evita la propagación del tráfico
indeseable desde una red a otra. Hoy en día, es común que toda red de tamaño
considerablemente grande incluya Routers, ya que estos dispositivos limitan el flujo de
broadcast evitando que inunden constantemente toda la red e interrumpan su operación.
El proceso de reenvío de tráfico de red desde una VLAN a otra usando un Router es
llamado Inter-VLAN-Routing. Las VLAN’S están asociadas a subredes IP únicas en la
red. Esta configuración de subred facilita el proceso de enrutamiento (routing) en un
ambiente multi-VLAN. Cuando se utiliza un Router para facilitar el Inter-VLAN-Routing,
las interfaces del Router pueden ser conectadas para separar las VLAN’s. Los
dispositivos en estás VLAN’s envían tráfico a través del Router hasta alcanzar otras
VLAN’s.
Usualmente las subredes son elegidas de acuerdo a las VLAN’s con las que están
asociadas.
La figura siguiente muestra que la VLAN2 hace uso de la subred 10.10.2.0/24, la VLAN3
usa la subred 10.10.3.0 y la VLAN4 utiliza la subred 10.10.4.0. En este ejemplo, el tercer
octeto claramente identifica la VLAN a la que el dispositivo pertenece.
VLAN 1- GESTIÓN
La Trama de Ethernet (802.3) se le agrega el tag de VLAN (802.1q) que ocupa 4 bytes, de
los cuales, 12 bits son utilizados para determinar el número de la VLAN, lo que da un
máximo de 4.095 VLANs diferentes.
El multiplexaje por división de tiempo o TDM síncrono es un proceso digital que se puede
aplicar cuando la capacidad (o velocidad) del canal de salida es mayor que la suma de la
capacidad requerida por los dispositivos de entrada.
Las ranuras de tiempo se agrupan en tramas. Una trama está formada por un ciclo
completo de tiempo. Las ranuras de tiempo dedicadas a un dispositivo o DTE
determinado ocupan la misma posición en cada trama y constituyen el canal del
dispositivo.
El TDM síncrono se puede comparar con un dispositivo de rotación muy rápido, a medida
que la “puerta” se abre frente a un dispositivo, este tiene la oportunidad de enviar una
cantidad específica de datos por el enlace. La “puerta” se mueve de dispositivo en
dispositivo con una velocidad constante y en orden fijo. Este proceso se llama
Entrelazado.
Al igual que en TDM el multiplexor estadístico tiene varias líneas de entrada y una línea
multiplexada de salida.
Cada línea de entrada tiene asociada una memoria temporal. La función de entrada del
multiplexor consiste en sondear las memorias de almacenamiento de las líneas de
entrada hasta completar una trama. Por lo que se refiere a la función de salida, el
multiplexor recibe la trama y distribuye las ranuras a las memorias de las líneas de salida
correspondientes.
Así, durante el primer intervalo solo se envían las ranuras de A y B. Sin embargo, con
este esquema se pierde el significado de posición de las ranuras; es decir, no se sabe qué
fuente de datos utilizará cada ranura. Entonces, dado que los datos se reciben de la línea
de entrada y se distribuyen hacia la línea de salida en forma impredecible, es necesario
adicionar información de direccionamiento en cada ranura para asegurar que el envió
sea realizado en forma apropiada y le indique al demultiplexor donde enviar los datos.
Esta dirección, valida solamente para uso local, es incluida por el multiplexor y descartada
por el demultiplexor una vez que la ha leído.
Dentro de las redes públicas para transmisión de datos, se han utilizado varias técnicas
para el manejo de la información, siendo las más comunes las siguientes:
Conmutación de Circuitos.
Conmutación de Paquetes.
Existen dos formas de cómo la red gestiona (maneja) la secuencia de los paquetes para
enrutarlos y entregarlos al destino apropiado, y estás son: Datagramas y Circuitos
Virtuales.
b) Circuitos Virtuales: En esta técnica se establece una ruta previa al envío de los
paquetes y una vez establecida ésta, todos los paquetes intercambiados entre dos
dispositivos siguen la misma ruta. A diferencia con la conmutación de circuitos, cada
paquete seguirá siendo almacenado en cada nodo y puesto en cola sobre la línea de
salida.
X.25 es un estándar de la ITU-T, que especifica una interfaz entre una estación y una red
de Conmutación de Paquetes. La funcionalidad de X.25 se especifica en tres niveles: 1)
Capa Física, 2) Capa de Enlace y 3) Capa de Paquete.
Esta capa o nivel trata la interfaz física entre un DTE y el enlace que lo conecta con un
nodo de la red de conmutación de paquetes. En el estándar se especifica la capa física en
base a la norma conocida como X.21, aunque en muchos casos se utilizan otros
estándares, como el EIA-232.
Ahora bien, cuando el circuito virtual se refiere a la conexión lógica entre dos estaciones
(DTE’s), a través de la red, se conoce como circuito virtual externo. Por otra parte, cuando
se refiere a una ruta específica predefinida a través de la red, entre dos DTE’s, a ésta se
le conoce como circuito virtual interno. El aspecto importante de un circuito virtual externo
es que se establece una relación lógica ó canal lógico, entre dos estaciones,
considerándose todos los datos asociados a dicho canal lógico como parte de una única
secuencia de datos entre estaciones.
En la figura siguiente se muestra la relación entre las capas X.25. Los datos del usuario
se pasan hacia abajo desde el nivel tres de X.25, el cual les añade una cabecera que
contiene información de control, dando lugar al paquete.
La información de control tiene varios objetivos, entre los cuales se pueden mencionar los
siguientes;
El paquete X.25 completo se pasa después a la entidad LAPB, que añade información de
control al principio y al final del paquete, dando lugar a una trama LAPB. Esta información
de control es necesaria para el funcionamiento LAPB. El funcionamiento del nivel de
paquete de X.25 es similar al del protocolo HDLC, ya que cada paquete de datos X.25
incluye números de secuencia de transmisión y recepción. (mismos que se vieron cuando
se trate el protocolo HDLC).
CL 1
CL1 CL1
CL2
CL2
CL 2
NIVEL NIVEL
NIVEL CL1 CL4
NIVEL
DE CL2 CL3 PAQUETE
PAQUETE DE
TRAMA
TRAMA
CL 3
CL3 CL3
CL4 CL4
CL4
Canales Lógicos
Las redes de alta velocidad dominan actualmente tanto el mercado de las redes de área
local (LAN) como el de las Redes de Área Amplia (WAN). Por lo que respecta al mercado
WAN, han aparecido dos tendencias relacionadas entre sí. Las redes de datos públicas y
privadas han evolucionado desde las redes de conmutación de paquetes, con velocidades
en el rango de Kbps hasta redes ATM (Modo de Transferencia Asíncrono) a 150Mbps o
más, pasando por los de transmisión de tramas (Frame Relay) que operan a un máximo
de 2Mbps, en el caso de internet y de las redes privadas de empresas, la velocidad de
transmisión de los datos también han aumentado en forma vertiginosa, siendo uno de los
aspectos importantes la construcción de la red troncal a 155 Mbps en 1996.
Por otra parte, durante muchos años, la LAN más habitual había sido la Ethernet a
10Mbps. Esta fue seguida por la Fast Ethernet a 100 Mbps y ahora conocemos la
Ethernet a 10 Gbps. En los últimos años hemos sido testigos de la introducción de LAN’s
con fibra óptica y LAN’s inalámbricas con velocidades de 3.2Gbps y hasta 54Mbps
respectivamente.
Una Red de Área Local (LAN, Local Área Network), es un grupo de dispositivos y usuarios
finales que se encuentran bajo el control de una administración común, que se caracteriza
por ser una red de comunicaciones que interconecta varios dispositivos localizados en el
mismo edificio o edificios vecinos y proporciona un medio para el intercambio de
información entre ellos.
misma, la capacidad de expansión y el rendimiento. Esta elección forma parte del proceso
global de diseño de una red LAN y, como tal, no debe ser llevada a cabo de forma
independiente de otros factores, como la elección del medio de transmisión, la disposición
del cableado y la técnica de control de acceso.
Existen varias alternativas para el medio de transmisión que pueden utilizarse en una
LAN: Par trenzado, Cable coaxial en banda base y fibra óptica.
La elección del medio de transmisión viene determinada por una serie de factores
inherentes a las restricciones de la topología seleccionada. Algunos otros aspectos muy
Se considera como redes de área amplia aquellas que cubren una extensa área
geográfica, y utilizan al menos parcialmente, medios de comunicación proporcionados por
una empresa de telecomunicaciones. Generalmente una WAN consiste en una serie de
nodos de conmutación interconectados. La transmisión generada por cualquier dispositivo
o DTE se enrutará a través de los nodos hasta alcanzar su destino.
Tradicionalmente, las Redes WAN se han implementado usado una de las dos
tecnologías siguientes: Conmutación de Circuitos y Conmutación de Paquetes. Sin
embargo, hay otras técnicas que últimamente se han utilizado, como: Retrasmisión de
Tramas (Frame Relay) y el Modo de Transferencia Asíncrono (ATM).
Una Red WAN comprende tres zonas: a) La zona de usuario; es aquella que incluye las
Redes Privadas (LAN, MAN, PAM, etc.) de los usuarios que pueden conectarse de
diferentes maneras.
La zona de acceso; en esta zona las redes de usuario pueden utilizar distintos medios de
conexión a fin de tener acceso a la red central de comunicaciones (podemos mencionar
las líneas físicas privadas y conmutadas, fibra óptica, radioenlaces).
Zona de Acceso: Ubicación de los diferentes medios para conectarse a la Red Central de
Comunicaciones
Los estándares anteriores describen los requisitos de las Capas Física y de Enlace de
Datos del modelo OSI. La capa Física describe la Interfaz entre el DTE y el DCE
Normalmente, el DCE es un equipo del proveedor de servicios y el DTE es un dispositivo
del cliente.
Dispositivos WAN
Por definición, las Redes WAN conectan dispositivos separados por áreas geográficas
amplias. Entre estos dispositivos cabe incluir:
Las MAN (Metropolitana Area Network), están entre las LAN y las WAN. El interés en las
redes MAN ha surgido tras ponerse de manifiesto que las técnicas tradicionales de
conmutación y conexión punto a punto usadas en las WAN, pueden ser no adecuadas
para las necesidades crecientes de ciertas organizaciones. Mientras que las redes Frame
relay (Retransmisión de Tramas) y ATM (Modo de Transferencia Asíncrono) prometen
satisfacer un amplio espectro de requerimientos en cuanto a velocidades de transmisión,
se tienen situaciones, tanto en redes privadas como públicas, que demandan gran
capacidad a costo reducido en áreas relativamente grandes. Para tal fin, se han
implementado una serie de soluciones, por ejemplo, las redes inalámbricas WI-MAX,
Celulares de Banda Ancha (4G) o las extensiones metropolitanas del tipo Ethernet
mediante Fibra Óptica.
El principal mercado para las redes MAN lo constituyen aquellos clientes que necesitan
alta capacidad en un área metropolitana Las MAN están concebidas para satisfacer estas
necesidades de capacidad a un costo reducido y con una eficacia mayor que la que se
obtendría mediante una compañía local de telefónica para un servicio equivalente.
A finales de la década de 1980, eran evidentes las siguientes diferencias entre las Redes
LAN y las Redes WAN.
d) Gama de servicios: Las elevadas transferencias de datos, permitían a las LAN’s, entre
otras cosas, compartir dispositivos de impresión, módems, faxes; acceder a bases de
datos centralizadas y usar el correo electrónico. En las WAN, los servicios proporcionados
principalmente eran la transferencia de archivos en su forma más simple y servicios
básicos de correo (mensajería).
De forma gradual las redes LAN empezaron a conectarse con las redes WAN, utilizando a
éstas últimas como medio de conexión a dispositivos remotos. La Convergencia se basó
en las nuevas plataformas digitales para la transmisión de datos, tales como, Redes
Inalámbricas, pero sobre todo la Fibra Óptica.
La alta calidad de los enlaces digitales ha modificado los requerimientos de los protocolos
WAN, dando mayor importancia a factores como la velocidad promedio de la transmisión
de la información y el procesamiento prioritario de paquetes altamente sensibles a los
retardos de tráfico (como tráfico de voz). Estos cambios se reflejaron en nuevas
tecnologías WAN, como Frame Relay y ATM. Además, el predominio del Protocolo
Internet (IP) ha contribuido a la convergencia entre las LAN y las WAN.
En la actualidad, este protocolo (IP) se utiliza sobre cualquier tecnología LAN o WAN,
incluidos Internet, Token Ring, Frame Relay y ATM, con el fin de crear una INTERRED
unificada basada en diferentes subredes.
1. Tipo de Trama
2. Control de Errores
3. Control de Secuencia
4. Información de Enrutamiento
5. Control de Línea
6. Control de Interrupción
7. Control de Inicialización
HDLC es de los más importantes, no solo porque es ampliamente utilizado, sino también
porque es la base de otros importantes protocolos de control de enlace, que utilizan los
mismos o similares formatos y los mismos procedimientos que los empleados por HDLC.
El modo de operación de HDLC está definido para Half y Full Duplex en forma síncrona y
se divide en forma general; en las clases del procedimiento y elementos del
procedimiento. El primero, se refiere a los términos empleados por el protocolo, tales
Para satisfacer las demandas de diversas aplicaciones, HDLC define tres tipos de
estaciones:
a) Configuración No Balanceada: Está formada por una estación primaria y una o más
secundarias. Permite transmisión Half y Full dúplex.
Hay una tercera configuración del enlace, conocida como Configuración Simétrica. En
ésta, cada estación física en un enlace, la componen dos estaciones lógicas (una que
actúa como primaria y otra como secundaria). En esta configuración, se utilizan líneas
distintas para la conexión en modo primario de una de estas estaciones, con el modo
secundario de la otra. Si analizamos como opera la configuración No Balanceada,
veremos que se su funcionamiento es similar, la diferencia o excepción radica en que el
control del enlace se puede trasladar entre las dos estaciones, a través de líneas
diferentes.
NRM se usa en líneas con múltiples conexiones, esto es, en las que se conectan varios
DTE´s a un computador central. Asimismo, se utiliza en ocasiones, en enlaces punto a
punto, principalmente entre dispositivos periféricos a un computador.
ABM es el más utilizado de los tres modos, ya que en éste no es necesario realizar
sondeos, es por eso que su utilización en enlaces punto a punto full-duplex resulta más
eficiente.
ARM se usa en contadas ocasiones, generalmente en situaciones particulares en las que
la estación secundaria necesita iniciar la transmisión.
Bandera. - Cada trama queda separada por un carácter de control único llamado bandera
(FLAG) que se codifica (01111110) y que va al inicio y al final de cada trama.
El carácter de control de este campo puede ser interpretado de forma diferente por el
receptor, si éste se encuentra en los campos de Información (datos) o de Control,
propiciando que lo tome como fin de la trama. Con el objeto de asegurar que éste carácter
(0111110) no se presente en cualquiera de las tramas especificadas, HDLC utiliza un
proceso conocido como “bit de relleno” (Bit Stuffing). Este proceso consiste en que
cada vez que el emisor transmite una secuencia mayor a 5 unos consecutivos, el
protocolo inserta un 0 (cero) después del quinto bit.
de un cero y cinco unos (011111) como parte de los datos, eliminado el bit de relleno o
bit Stuffinig, o en su caso, interpretarlo como delimitador de la Trama.
Cuando el receptor inicia la recepción de la información, procede a contar los bits unos
(1’s). Si recibe un patrón de cinco unos (1’s) consecutivos y el sexto bit es un cero (0),
verifica el siguiente, el bit séptimo. Si este último es un cero (0), el receptor asume que el
sexto bit es un bit de relleno, lo elimina, tomando la secuencia como parte de los datos,
entonces procede a reiniciar el contador. En cambio, si el séptimo bit es un uno (1), el
receptor procede a verificar el octavo bit. Si el octavo bit es un cero (0), identifica el patrón
o secuencia de bits, como un delimitador y lo toma como tal.
Por otra parte, si el octavo bit también es un uno (1), el receptor sigue con el proceso de
conteo. Si el receptor cuenta un total de 7 a 14 unos (1’s) consecutivos, manda una
indicación de abortar. Asimismo, un total de 15 o más unos (1’s), significan la liberación
del canal. Como se mencionó anteriormente, el bit de relleno se realiza necesariamente,
siempre que aparezcan cinco unos (1’s) consecutivos. Sin embargo, hay tres situaciones
en las que no se aplica este procedimiento.
Campo De Control
a) El tipo de trama es identificado con el bit 1 y 2 del nivel de control de la trama como se
muestra en la tabla siguiente.
b) El número de secuencia de envío es N(S) y se emplea para el conteo de tramas
enviadas.
c) El número de secuencia de recepción es N(R) y se emplea para el conteo de las tramas
recibidas o también el número de la siguiente trama esperada.
INICIO
Después de un 0 y cinco
1’s seguidos
0 1 1
¿7° Bit?
0 1 1
¿8° Bit?
Quitar Cero
Significa canal
Es una
ocioso
terminación
FIN
Bits
TIPO DE TRAMA
1 2
Información ----
0
-
Supervisión 1 0
No Numerada 1 1
DISC = Desconexión.
UA = Confirmación no numerada.
DM = Modo desconectado.
RD = Solicitud de desconexión.
UI = Información no numerada.
UP = Sondeo no numerado.
RSET = Reset.
3 4 6 7 8
SNRM 0 0 0 0 1 C - Establecimiento de modo,
SNRME 1 1 0 1 1 C ampliado=número de secuencia de 7 bits
SARM 1 1 0 0 0 C - Establecimiento de modo,
SARME 1 1 0 1 0 C ampliado=números de secuencia de 7 bits
SABM 1 1 1 0 0 C - Establecimiento de modo,
SABME 1 1 1 1 0 C ampliado=números de secuencia de 7 bits
SIM 1 0 0 0 0 C - Inicialización de las funciones de control
del enlace en los dispositivos especificados
en la dirección.
DISC 0 0 0 1 0 C - Finalización de la conexión lógica del
enlace
UA 0 0 1 1 0 R - Aceptación de confirmación de una de las
órdenes de establecimiento de modo
DM 1 1 0 0 0 R - La estación que responde se encuentra en
modo desconectado
RD 0 0 0 1 0 R - Solicitud de una orden DISC
RIM 1 0 0 0 0 R - Se necesita inicializar; Solicitud de la
orden SIM
UI 0 0 0 0 0 C/R - Usada para intercambiar información de
Control.
UP 0 0 1 0 0 C - Usada para solicita información de control
XID 1 1 1 0 1 C/R - Usada para solicitar/informar el estado
RSET 1 1 0 0 1 C - Usada para recuperación, reinicia N(R) y
N(S)
FRMR 1 0 0 0 1 R - Informa la recepción de una Trama
inaceptable
A B
SABM
A manda a B un SABM
(Comando) para Establecer el
Enlace (inicia Temporizador)
Temporizador
SABM
B devuelve un UA (Respuesta)
UA para Confirmar el Establecimiento
A recibe la Respuesta UA,
(La Conexión Lógica se del Enlace, e inicia contadores
estableció), A y B *
comienzan a Transmitir *
Tramas *
DISC
A envía a B un DISC
(Comando) que le indica la
Desconexión del Enlace.
B responde Con un UA
UA
Confirmando la Desconexión del
Enlace
A N(S) N(R) B
I, 0, 0
I, 0, 1
I, 1, 1
I, 2, 1
I, 1, 3
I, 3, 2
I, 2, 4
I, 3, 4
RR, 4
La figura siguiente muestra el caso en que el receptor no sea capaz de procesar las
Tramas-I a la velocidad a la que se reciben, o cuando el usuario no sea capaz de aceptar
datos tan rápidamente. En ambos casos se debe detener la recepción de Tramas-I; para
ello se utiliza una orden RNR. En el ejemplo A envía una Trama RNR, con lo que solicita a
B que pare la transmisión de Tramas-I. Al recibir la Trama RNR, la estación B sondeará a
la estación ocupada mediante el envío periódico de Tramas RR con el bit P puesto en 1.
Lo anterior exige que el otro extremo (A) responda con una Trama RNR si continúa
ocupada, o una Trama RR cuando la situación de ocupada termine, entonces, la
transmisión de Tramas-I desde B se podrá reanudar.
A B
I, 3, 0
RNR, 4
Recibe condición de ocupado
RR, 0, P Sondeo
Continua Sondeo
RR, 0, P
Se reanuda la Tx de
I, 4, 0 Tramas-I
A B
I, 3, 0
I, 4, 0
La trama 4 se pierde
I, 5, 0
Un sistema abierto es un modelo que permite que dos sistemas diferentes se puedan
comunicar independientemente de su arquitectura. Los protocolos específicos de cada
proveedor no permiten la comunicación entre dispositivos no compatibles. Los objetivos
principales de un sistema abierto, son el de permitir la comunicación entre sistemas
distintos, sin que sea necesario cambiar la lógica del hardware o software, así como
acelerar el desarrollo de futuros productos de red.
Una capa proporciona servicios a la capa inmediatamente superior. Idealmente, las capas
deben estar definidas para que los cambios en una capa no impliquen modificaciones en
otras capas. De esta forma, el problema se descompone en varios sub-problemas más
fáciles de detectar y de solucionar.
internacionales. El estándar ISO, que cubre todos los aspectos de las redes de
comunicación es el modelo de interconexión de sistemas abiertos u OSI (Open System
Interconection). El modelo OSI no es un protocolo, es un modelo que nos permite
comprender y diseñar una arquitectura de red flexible, robusta e inter operable.
Este modelo tiene 7 niveles o capas que son: Nivel o Capa Físico, Nivel o Capa de Enlace
de Datos, Nivel o Capa de Red, Nivel o Capa de Transporte, Nivel o Capa de Sesión,
Nivel o Capa de Presentación y Nivel o Capa de Aplicación. Cada capa o nivel determina
una función particular de la Red. Esta separación se conoce como Layering.
1.- Cada nivel o capa deberá realizar una función bien definida.
2.- La función de cada o nivel deberá ser elegida en base a la definición de protocolos
estandarizados internacionalmente.
3.- La frontera de cada nivel deberá ser elegida de tal manera, que el flujo de información
a través de las interfaces sea mínimo.
4.- El número de niveles deberá ser lo suficientemente grande que las diferentes
funciones no necesiten estar intercaladas o juntas en el mismo nivel, y lo suficientemente
pequeña que la arquitectura no llegue a ser difícil de manejar.
Por otra parte, dividir la Red en 7 niveles o capas proporciona las siguientes
ventajas:
3.- Permite que diferentes tipos de hardware y software de red se comuniquen entre sí.
4.- Impide que los cambios en una capa afecten a las otras, por lo que se pueden
desarrollar más rápidamente.
5.- Al dividir la comunicación de la Red en partes más pequeñas, hace más fácil su
comprensión y entendimiento.
Entonces, podemos concluir que el Modelo de referencia OSI, permite que el problema de
mover información entre computadoras se divida en 7 problemas pequeños y manejables.
Cada uno de los 7 problemas pequeños se representa por su propia capa o nivel. Las
Figuras siguientes muestras las 7 capas o niveles del Modelo OSI con diferentes
perspectivas de su arquitectura y sus funciones.
Las 3 capas superiores del Modelo OSI (Aplicación, Presentación y Sesión) se conocen
como Capas de Aplicación. Las 4 capas inferiores del Modelo OSI, conocidas como
(Transporte, Red, Enlace de Datos y Física), que son las Capas de Flujo de Datos,
definen cómo los datos se transfieren por el cableado físico a través de los dispositivos de
interconectividad hasta la estación destino.
Los objetivos de la Capa Física de OSI son el de codificar en señales, los dígitos binarios,
que representan las tramas de la Capa 2 o de Enlace de Datos, así como el transmitir y
recibir estas señales a través del medio de comunicación (hilo de cobre, fibra óptica, señal
inalámbrica, etc.) que conecta los dispositivos de la red.
b) Eléctricas: Especifica cómo se representan los bits de las señales (codificación), así
como su velocidad de transmisión.
c) Funcionales: Especifican las funciones que realiza cada uno de los circuitos de la
interfaz entre el sistema y el medio de transmisión.
b) Sincronización de los bits: Que los relojes del emisor y del receptor estén
sincronizados.
Todos los datos que viajan en una red tienen un origen y un destino. Una vez que se
transmiten, la Capa de Enlace de Datos proporciona el acceso a los medios de la red, los
cuales permiten que dichos datos alcancen su destino
Específicamente, para que los bloques (paquetes) de la Capa de Red puedan ser
transportados desde el Host origen al Host destino, deben atravesar diferentes redes
físicas. Estas redes físicas pueden estar compuesta por diferentes medios de transmisión,
entonces, debido a que los paquetes de la Capa de Red no tienen una manera de
acceder directamente a estos diferentes medios, la función de los servicios definidos por
la Capa de Enlace de Datos es preparar estos paquetes para que puedan ser transmitidos
y controlar el acceso a los medios de transmisión físicos.
Para realizar las tareas anteriores, la Capa de Enlace de Datos ofrece las funciones
necesarias de red para el intercambio de datos a través de un medio local común.
Asimismo, para sustentar esta variedad de funciones, la Capa de Enlace de Datos se
divide en dos subcapas, una subcapa inferior conocida como Control de Acceso al
Medio (MAC), y una subcapa superior denominada como Control de Enlace Lógico
(LLC).
La subcapa inferior define los procesos de acceso a los medios por medio de Hardware.
La subcapa superior define los procesos de software que proveen los servicios a los
protocolos de la Capa de Red.
d) Control de Errores: Este nivel añade confiabilidad al nivel físico al incluir mecanismos
para solucionar problemas causados por: tramas duplicadas, perdidas o dañadas.
La Capa 3, recibe segmentos de datos, o PDU’s, desde la Capa de Transporte. Con el fin
de que sean fiables estos datos han sido previamente numerados y procesados
(fragmentados) para que tengan un tamaño adecuado. La Capa de Red usa protocolos
para añadir el direccionamiento a la PDU, para enviarla al siguiente nodo, a través de la
mejor ruta, a la red de destino.
El Protocolo IP establece, que cada dispositivo final que envía o recibe, cuente con una
dirección lógica (IP) única. Aquellos dispositivos de una red IP que tienen una de estas
direcciones reciben el nombre de hosts. La dirección IP del host emisor se conoce como
dirección IP de origen, mientras que la del receptor es la dirección IP de destino.
2.- Encapsulamiento
Cada PDU enviada entre las redes necesita ser identificada con una dirección IP de
origen y de destino y una cabecera IP. Dicha PDU, contiene además otros bits que la
identifican como una PDU de la Capa de Red. Este proceso se conoce como
encapsulamiento. Durante este proceso, la Capa 3 recibe la PDU de la Capa 4 y le
agrega un encabezado o etiqueta de Capa 3 para crear la PDU de esta Capa. A esta
PDU, se le denomina Paquete.
3.- Enrutamiento
La Capa de Red provee los servicios para dirigir estos paquetes a su host destino a través
de diferentes redes. Los Routers son dispositivos que conectan estas redes. El
enrutamiento, es el proceso que los Routers realizan cuando reciben los paquetes de la
Capa 3, analizan la dirección de destino y la usan para elegir una ruta para el paquete, así
como para retransmitirlo después al siguiente Router de la red elegida.
4.- Desencapsulamiento
instancias en las que las PDU’s de las Capas 1 y 2 son encapsuladas y desencapsuladas
por los Routers.
La Capa de Red define la forma de transportar datos entre los dispositivos que no están
conectados localmente. Se utilizan principalmente dos conceptos:
Los procesos de la Capa de Transporte aceptan los datos arriba mencionados de las
Capas Superiores y los preparan para direccionarlos a la Capa de Red. La Capa de
Transporte es la responsable de la transferencia de extremo a extremo de los datos de
aplicación.
c) Reensamblaje de los segmentos: Como las redes pueden ofrecer varias rutas que
pueden tener tiempos de transmisión diferentes, los datos pueden llegar en el orden
incorrecto. Al incluir números de secuencia para cada segmento, la Capa de Transporte
puede garantizar el reensamblaje en orden de los segmentos.
d) Identificación de las Aplicaciones: Para pasar los flujos de datos a las aplicaciones
adecuadas, la Capa de Transporte debe identificar la aplicación de destino, y lo realiza
asignando un identificador a cada aplicación (los protocolos TCP/IP llaman a este
identificador “número de puerto”).
e) Control de Flujo: Los hosts de red tienen recursos limitados, ejemplo la memoria.
Algunos protocolos de la Capa de Transporte pueden regular la cantidad de datos que el
emisor transmite al receptor. En esta Capa el Control de Flujo se efectúa de extremo a
extremo.
Transporte del destino. Si la Capa de Transporte está orientada a conexión, establece una
conexión con la Capa de Transporte del destino antes de enviar algún bloque de datos.
Esta conexión es conocida como Circuito o Conexión Virtual.
En la Capa de Transporte, cada conjunto particular de los bloques que fluyen entre una
aplicación de origen y una aplicación de destino se conoce como conversación.
La Capa de Transporte, es el enlace entre las Capas Superiores y las Capas Inferiores,
que son las responsables de la transmisión por la red. Esta Capa, la de Transporte,
acepta datos de diferentes conversaciones y los pasa a las Capas Inferiores en forma de
bloques manejables que se pueden “multiplexar” sobre el medio. Las Capas Inferiores no
son conscientes de que varias aplicaciones están enviando datos sobre la red. Su
responsabilidad es entregar los datos al dispositivo adecuado, así como asegurar un
medio de transmisión fiable.
a) Control del diálogo: La Capa de Sesión permite que dos sistemas establezcan un
diálogo. Esta comunicación entre dos procesos puede ser en modo Hall-Duplex o Full-
Duplex.
b) Agrupamiento: El flujo de datos se puede marcar para definir grupos de datos. Por
ejemplo, si una empresa está transmitiendo datos correspondientes a las ventas hacia un
corporativo, éstos se pueden marcar de tal manera que se indique por grupos el final de
las ventas realizadas en cada departamento. Este servicio permitiría al Host destino
conocer los totales de las ventas realizadas de cada departamento.
Esta Capa permite al usuario tanto humano como de software acceder a la red.
Proporciona las interfaces del usuario y el soporte para servicios como; el correo
electrónico, la web, el acceso y la transferencia de archivos remotos, la gestión de datos
compartidos y otros tipos de servicios para la información distribuida.
Los acuerdos desarrollados por ARPA para especificar la forma en que las computadoras
individuales podían comunicarse a través de la red se convirtieron en el Modelo TCP/IP.
Por otra parte, debido a que TCP/IP es un estándar abierto, las empresas o fabricantes no
controlan la definición del Modelo.
4.- Transporte de los datos a través de la Interworking, que consiste de los medios y de
cualquier dispositivo intermedio.
5.-Recepción de los datos en la Capa de Acceso a la Red del dispositivo final de destino.
El nombre de esta Capa es amplio, ya que incluye las funciones de las Capas Física y de
Enlace de Datos del Modelo OSI, esto es:
La Capa de Internet corresponde a la Capa de Red del Modelo OSI, (esta última es
responsable de llevar paquetes a través de la red utilizando direccionamiento lógico o por
software). Entonces, la Capa de Internet proporciona los procedimientos necesarios que
permiten que los datos originados por los dispositivos conectados a redes diferentes
atraviesen las distintas redes interconectadas. El protocolo Internet (IP) se utiliza en
esta capa para ofrecer el servicio de enrutamiento a través de varias redes. Este
protocolo se implementa tanto en los sistemas finales (host, PC´S) como en los routers
intermedios. El ruteador realiza el proceso necesario para conectar dos redes y cuya
función principal es retransmitir datos desde una red a otra siguiendo la ruta adecuada
para alcanzar el destino.
Sin embargo, la tarea más importante de la Capa de Transporte llevada a cabo por los
protocolos antes mencionados (TCP y UDP), consiste en transmitir datos entre los
procesos de aplicación que se ejecutan en las computadoras conectadas a la red.
La Capa de Aplicación contiene toda la lógica necesaria para hacer posible las distintas
aplicaciones de usuario, e incluye todas las funciones de las Capas; de Aplicación,
Presentación y Sesión del modelo OSI. Los protocolos de la Capa de Aplicación, son
000 VOZ
001 DATOS
010 VIDEO
Longitud Total. - El campo con la longitud total, define la longitud total del datagrama IP.
La longitud mínima de un paquete es de 20 bytes (cabecera sin datos), mientras que la
máxima, con datos, es de 65,535 bytes (216).
Indicador (DF, MF). - Este campo, de tres bits, indica posibilidades de fragmentación. El
primer bit no se utiliza y debe tener siempre un valor de cero (0). El siguiente bit es el DF
Tiempo de Vida. - Este campo define el número de saltos que un datagrama puede dar
antes de que sea descartado. La estación origen, cuando crea el datagrama, fija este
campo a un valor inicial. A medida que el datagrama viaja por la red, cada router
disminuye este valor en 1. Si el valor se hace 0 antes de que el datagrama haya
alcanzado su destino final, se descarta el datagrama. Esto evita que un datagrama viaje
en forma indefinida entre routers (el número de saltos depende del Protocolo de
Enrutamiento que se tenga implementado).
Opciones IP. - El campo opciones ofrece más funcionalidad al datagrama IP. Puede
transportar datos que controlan el enrutamiento. Puede ser ruteo estático o ruteo
dinámico. Además, en este campo es posible especificar la ruta exacta y registrar los
Routers recorridos por el Datagrama o Paquete.
Relleno. - Si no se completa el campo opciones de IP, este campo se rellena con 1´s
3.8.- Direcciones IP
Cada dirección de Internet consta 4 bytes (32 bits), que definen 3 campos: la Clase de la
Dirección, el Identificador de la Red y el Identificador de la estación o host (PC,
Host, Computadora), asimismo, las direcciones IP se clasifican en: direcciones IP
públicas y direcciones IP privadas, a su vez estas pueden ser direcciones IP
estáticas y direcciones IP dinámicas.
Direcciones de Clase A
Direcciones de Clase B
Direcciones de Clase C
Direcciones de Clase D
Direcciones de Clase E
NÚMERO
FORMATO NÚMERO RANGO DE
DE HOST MASCARA
CLASE r= red DE DIRECCIONES
POR DE SUBRED
h=host REDES DE REDES
RED
Las direcciones IPv4 especiales se utilizan para realizar funciones específicas pero
diferentes de los tipos de direcciones que se describen anteriormente.
a) Ruta Predeterminada
La ruta predeterminada Iv4 es 0.0.0.0. Esta ruta es una del tipo “alcanzar todo” para
enrutar paquetes cuando no hay disponible una ruta más específica. El uso de esta
dirección también reserva las direcciones del bloque de direcciones 0.0.0.0/8 (0.0.0.0 a
0.255.255.255).
b) Loopback
La Loopback es una dirección especial que los hosts utilizan para dirigir el tráfico hacia
ellos mismos, creando un método abreviado para las aplicaciones y servicios de TCP/IP
que se ejecutan en el mismo dispositivo para comunicarse entre sí. También se puede
hacer ping a la dirección de Loopback para probar a configuración de TCP/IP en el host
local.
3.9.- Subnetting
Cuando se expresa una dirección de red IPv4, se añade una Longitud de Prefijo a la
dirección de red. Ésta es el número de bits de la dirección que proporcionan la “porción”
de red, y se escribe en forma de barra inclinada seguida por el número de bits de red. Por
ejemplo, en 172.16.4.0/24, donde /24 es la longitud de prefijo, que nos indica que los
primeros 24 bits (3 bytes) son la dirección de red. Los 8 bits restantes (1 byte),
representa la “porción” de host.
¿De qué forma los dispositivos de red identifican cuántos bits son la porción de red y
cuántos son la porción de host? La respuesta es la Máscara de Red. El prefijo y la
máscara de subred son formas diferentes de representar la misma información; la Porción
de red y una dirección. La longitud del prefijo nos indica fácilmente el número de bits de la
dirección que constituyen la porción de red.
La máscara de subred se utiliza en las redes de datos para especificar la porción de red
de la dirección, a los dispositivos de red. La máscara de subred es un valor de 32 bits que
se usa con las direcciones IPv4, y utilizan 1’s y 0’s para indicar que bits de esta dirección
son los bits de red y cuáles son los bits de host. La máscara de subred se representa en
el mismo formato decimal con puntos que la dirección IPv4. La máscara de subred se
crea colocando un 1(uno) binario en cada posición del bit apropiado que representa un bit
de red de la dirección, y colocando un 0 (cero) binario en el resto de las posiciones de bit,
que representarán la porción de host de la dirección.
Si la máscara de subred para un octeto está representada por 255, todos los bits
equivalentes de ese octeto de la dirección son bits de red. De forma parecida, si la
máscara de subred para un octeto está representada por un 0 (cero), todos los bits
equivalentes de ese octeto de la dirección son bits de host.
Una acción que resulta útil para el direccionamiento IPv4, es la capacidad de planificar la
división de una red en subredes. El rango de direcciones que se utiliza en una
internetwork tiene que dividirse en redes. Cada una de estas redes divididas debe tener
asignado una “porción” del rango de las direcciones originales, denominada subred.
Las subredes se crean reasignado uno o más de los bits de host como bits de red. Esto
se hace “pidiendo prestado” algún o algunos de los bits de la “porción” de host de la
dirección de host a fin de crear bits adicionales de red.
Cuanto más bit de host se “pidan prestados”, más subredes se pueden crear. Sin
embargo, con cada bit que se pida prestado, se tienen menos bits de host para definir las
direcciones de host en cada subred.
128 10000000 1 7
192 11000000 2 6
224 11100000 3 5
240 11110000 4 4
248 11111000 5 3
252 11111100 6 2
254 11111110 7 1
255 11111111 8 0
El router de la figura tiene dos interfaces para interconectar dos redes. Dado un bloque de
direcciones de 192.168.1.0 se van a crear dos subredes.
Para una de las subredes, este bit es un 0 (cero), y para la otra es un 1 (uno). La
información para estas dos subredes se muestra en la tabla siguiente:
Subred 1: 00000000 = 0
Subred 2: 10000000 = 128
Pedir prestado un
bit de la porción de
la host.
Aplicando la fórmula al ejemplo de dos subredes de la figura y la tabla, 27-2 = 126, lo que
muestra que cada una de estas subredes puede tener 126 host. Sin embargo, este ejemplo
es para un caso de “Subnetting Ideal”, ya que las dos direcciones obtenidas no se pueden
utilizar, debido a que se conocen como direcciones posibles, pero no válidas.
direcciones sin clase, permiten utilizar, tanto las direcciones de red como el rango
resultante de direcciones de host, en cada subred.
A continuación, se muestra otro ejemplo, en el que podemos ver con más detalle la creación
de 4 subredes.
Para este ejemplo utilizaremos la misma dirección de red que en el ejemplo anterior, pero el
desarrollo será diferente, tratando de ser más detallado.
Como la fórmula es: 2n, entonces para crear 4 subredes n=2, esto es, “pedimos prestados”
los dos bits más significativos del Byte 4 (Porción de Host). Luego 22 =4. Como pedimos
prestados los dos bits más significativos, entonces, el subcampo (porción de red) y el
subcampo (porción de Host), quedarán de la siguiente manera:
(Prefijo/26)
Para obtener las 4 subredes, en base a los 2 bits que “pedimos prestados”, tomamos en
cuenta las 2 siguientes consideraciones:
1) 128 64 32 16 8 4 2 1
Bits “prestados”
1.- 192.168.1.0 --- Dirección de Red de Subred –En teoría, Dirección Posible-No Válida
Nota: Como se mencionó en el primer ejemplo, las Subredes que se pueden utilizar en teoría
son el número 2 y 3. Entonces, las direcciones posibles y utilizables (válidas) de Host según
la fórmula serán:
2n – 2: Donde n es el número de bits que quedan en la Porción de Host, después de tomar los
bits prestados.
192.168.1.1
192.168.1.2
192.168.1.62
Cada red dentro de la Internetwork de una empresa u organización está diseñada para
acomodar un número finito de hosts. Específicamente, en las redes LAN de usuario en un
edificio grande, podrían necesitar alojar cientos de hosts. El número de hosts en cada
división debe permitir el crecimiento del número de éstas.
La división en subredes desde un bloque de direcciones para una Internetwork sigue los
siguientes pasos:
3.- Particionar el bloque de direcciones para crear una red del tamaño adecuado para la
red subred más grande.
4.- Crear una partición del tamaño adecuado para la siguiente red más grande.
5.- Continuar creando particiones para cada red subsiguiente más pequeña hasta que
todas las subredes tengan bloques de direcciones asignadas.
Al dividir las subredes originales en subredes más pequeñas, cada subred puede soportar
menos hosts, de modo que las subredes originales quedan libres para ser asignadas a
otros dispositivos y así evitar que se malgasten muchas direcciones.
Por ejemplo, para crear subredes más pequeñas para áreas con pocos hosts en una red,
se utilizará el bloque de la subred 192.168.20.192. Se puede dividir esta subred en
muchas subredes más pequeñas. Para proporcionar bloques de direcciones a dichas
áreas con dos direcciones cada una, tenemos que pedir prestados 3 bits de host
adicionales para utilizarlos como bits de red.
El propósito de un Router es examinar los paquetes entrantes (datos de la Capa 3), elegir
la mejor ruta para éstos a través de la red, y después enviarlos al mejor puerto de salida.
Los Routers son el regulador de tráfico más importante en las redes grandes, ya que
permiten que cualquier DTE se comunique con otro en cualquier parte del mundo. Los
Routers utilizan las direcciones de la Capa de Red, también conocidas como Direcciones
Resumiendo, los Routers retrasmiten los paquetes entre múltiples redes interconectadas,
así como enrutan paquetes de una red cualquiera de las posibles redes de destino a
Internet.
La comunicación dentro de una red, o de una subred, ocurre sin un dispositivo de capa de
red. Sin emargo, cuando un host se comunica fuera de la red local, un router actúa como
gateway y realiza la función de la capa de red eligiendo una ruta para el paquete.
Gateway Gateway
192.168.2.1 192.168.3.1
Red de
comunicaciones
192.168.2.30 192.168.2.31
192.168.3.5 192.168.3.4
Ningún paquete puede ser enviado sin ruta. Un host debe ser capaz de enviar un paquete
tanto al host de la red local como al gateway. Para reenviar paquetes el Router debe
contar con rutas que representen estos destinos. El Router toma una desición de
transmisión para cada paquete que llega a la interfaz Gateway. Este proceso se conoce
como enrutamiento.
Para enviar un paquete a la red de destino, el Router requiere de una ruta hacia esa red.
En caso de no existir, no se puede hacer el reenvío, entonces el paquete será enviado al
Gateway predeterminado y este último solo podrá idicar el siguiente Router al cual el
paquete será reenviado, más no la ruta exacta del Router final.
En el caso de que los hosts de destino y de origen no estén en la misma red, esto es en
redes diferentes, el paquete puede estar transportando una PDU de Capa de Transporte a
través de varias redes y muchos routers. En cada salto, las decisiones de reenvío están
basadas en la información de la cabecera del paquete IP.
La determinación de una ruta para el tráfico que pasa a través de varias redes se produce
en la Capa 3 ó Capa de Red del Modelo OSI.
indispensable que el router cuente en sus tabla de enrutamiento con alguna entrada a la
red. El proceso de enrutamiento utiliza una tabla de enrutamiento para emparejar la
dirección de la red de destino con el siguiente salto, y después reenvía el paquete a esa
dirección.
La función para decidir una ruta permite a un ruteador evaluar todas las rutas disponibles
para un destino y establecer el tratamiento preferido para un paquete. Los servicios de
enrutamiento utilizan información de la Topología de la Red, cuando evalúan las rutas de
la misma. Esta información la puede configurar el Administrador de la Red (Rutas
Estáticas), ó se puede recopilar a través de procesos dinámicos que tenga la red (Rutas
Dinámicas).
Cada una de las rutas que toma un paquete para alcanzar el siguiente dispositivo recibe
el nombre de SALTO. Un paquete puede “saltar” en varios Ruoters diferentes en su
camino hacia su destino final.
Las rutas estáticas son consideradas como muy fiables y el Router no usan demasiados
recursos para procesar el paquete. Como desventaja se puede decir, que como estas
rutas no se actualizan automáticamente, éstas se deben actualizar periódicamente, de lo
contrario la información de enrutamiento puede estar incompleta o ser inadecuada,
causando posibles pérdidas de paquetes. Además, los costos por administración son
continuos.
Los Routers también pueden “aprender” las rutas automáticamente a partir de otros
Routers de la misma “Internetworking”, a este proceso se le conoce como Enrutamiento
Dinámico.
Este tipode enrutamiento actualiza los datos a partir de otros Routers sin la necesidad de
una configuración administrativa, sin embargo, esto implica un mayor uso de recursos del
router, pero el costo administrativo tras el arranque inicial es mucho menor. Para lograr el
enrutamiento dinámico, se deben tener actualizadas las tablas de enrutamiento, proceso
que realizan los protocolos de enrutamiento dinámico, siendo los más comunes: el
Protocolo de Información de Enrutamiento (RIP), el Protocolo de Enrutamiento de
Gateway Interior Mejorado (EIGRP) y el Open Shortest Patch First (OSPF).
Los tipos de mensajes ICMP y su significado son amplios. Algunos de los mensajes ICMP
que se pueden utilizar son los siguientes:
a) Confirmación de host
c) Tiempo excedido
d) Redirección de ruta
e) Origen saturado.
a) Confirmación de host
ICMP utiliza un mensaje de eco para determinar si un host está operativo. El Host local
envía una respuesta de eco ICMP a un host. El host que recibe el mensaje de eco
responde con la respuesta de eco ICMP. Este uso de los mensajes de eco de ICMP es la
base del comando ping.
El mensaje Destino Inalcanzable de ICMP, se puede utilizar para notificar a un host que
el destino o servicio es inalcanzable.
Cuando un host o Gateway recibe un paquete que no puede entregar, envía un paquete
de Destino Inalcanzable ICMP al host que originó el paquete. Este paquete contendrá
códigos que indican por qué no fue posible entregar el paquete.
0 = red inalcanzable
1 = host inalcanzable
2 = protocolo inalcanzable
3 = puerto inalcanzable
Los códigos para red inalcanzable y host inalcanzable son las respuestas de un Router
cuando no puede entregar un paquete, ya sea porque la red o el host de destino están
inalcanzables, entonces, dicho Router manda un mensaje de Destino Inalcanzable ICMP
con el código adecuado.
c) Tiempo excedido
Un Router utiliza un mensaje de Tiempo excedido ICMP para indicar que no puede
enviarse un paquete porque el campo TTL del paquete ha expirado. Si el campo TTL de
un paquete se reduce a cero el Router lo descarta, entonces este último puede enviar un
mensaje de Tiempo excedido ICMP al host de origen para informarle la razón por la cual
el paquete fue descartado.
d) Redirección de ruta
Un Router puede utilizar el mensaje de Redirección de ruta ICMP para notificar a los
hosts de una red, que hay una mejor ruta disponible hacia un destino específico.
e) Origen saturado
SIN USAR
Para que una trama Ethernet pueda ser puesta en el medio LAN, debe tener una dirección
MAC. En un dispositivo que está transmitiendo, cuando se envía un paquete IPv4 a la
Capa de Enlace de Datos para que sea encapsulado en una trama, el dispositivo debe
identificar la dirección de Capa de Enlace de Datos (Dirección Física) que está asociada a
la dirección IPv4 de destino. Para localizar esta dirección MAC, el nodo consulta una tabla
de su memoria RAM llamada Tabla ARP o Caché ARP.
Cada entrada, o fila de la tabla ARP cuenta con un par de valores: una dirección IP y una
dirección MAC. La relación entre los dos valores de la fila es una asignación. Una
asignación permite al nodo localizar una dirección IP en la tabla y descubrir la dirección
MAC correspondiente. La tabla ARP almacena las asignaciones de los dispositivos de la
LAN local.
Para iniciar el proceso, un nodo transmisor intenta localizar en la tabla ARP la dirección
MAC asignada a un destino IPv4. Si esa asignación se encuentra en la tabla, el nodo
utiliza la dirección MAC como el destino MAC en la trama que encapsula el paquete IPv4.
Después, la trama se codifica en el medio Networking.
En la figura siguiente, el DTE A tiene que enviar datos al DTE C (10.10.0.3). Para hacerlo,
el paquete IPv4 que contiene los datos debe encapsularse en una trama y enviarse a la
dirección MAC del computador C. El DTE A no tiene en su caché ARP la dirección MAC
para 10.10.0.3. Por lo tanto, construye una consulta ARP y la transmite a todo el
segmento de red. Como dicha consulta fue enviada como un broadcast de Capa 2, todos
los nodos del segmento aceptan la trama. Una vez examinada la dirección IPv4 de la
consulta ARP, sólo el DTE C determina que su dirección coincide con la dirección de host.
Por ello, solo el computador C responderá a la consulta ARP.
Cuando la PC A recibe la respuesta ARP, puede crear una entrada en la Caché ARP y
construir tramas para enviar al host C.
Existen varios procesos ARP diferentes para proporcionar la dirección IP a las direcciones
MAC. Entre éstas podemos describir brevemente las dos siguientes:
La otra forma, se realiza como en el ejemplo de la figura anterior; un dispositivo envía una
consulta ARP, y ARP manda un broadcast de Capa 2 a todos los dispositivos de la LAN.
El nodo que recibe y acepta la trama responde enviando un paquete de respuesta ARP al
emisor en forma de una trama unicast. Esta respuesta se utiliza entonces para construir
una nueva entrada en la tabla ARP.
10.10.0.2 10.10.0.3
10.10.0.1
00-08-a3-b6-ce-04 00- 0d-56-09-fb-d1
00-0d-88-c7-9a-24
A B C
Si tu dirección IP es
10.10.0.3, dile tu dirección Red
MAC a 10.10.0.1 (00-0d-88-
c7-9a-24). (Dirección MAC)
Yo soy 10.10.0.3 Mi
dirección MAC es
00-0d-56-09-fd-d1
Por otra parte, se pueden incluir entradas estáticas en la tabla ARP, aunque no es muy
usual. Las entradas estáticas no tienen un período de tiempo determinado, por
consiguiente, tienen que ser eliminadas manualmente.
Cuando un nodo necesita crear una trama y la caché ARP no contiene una asignación
entre la dirección IP y la dirección MAC de destino, entonces, cuando ARP recibe una
petición para asociar una dirección IPv4 y una dirección MAC, comprueba si ya existe en
la tabla ARP. En caso de que no exista, la encapsulación del paquete IPv4 falla, y los
procesos de Capa 2 notifican a ARP que necesitan una asociación.
Entonces, ARP envía un paquete de solicitud ARP para encontrar la dirección MAC del
dispositivo en la red local. Si uno de los nodos que recibe la petición contiene la dirección
IPv4 de destino de la solicitud ARP, envía una respuesta ARP. Cuando ésta se recibe se
crea la asociación en la tabla ARP. Los paquetes dirigidos a esa dirección IPv4 pueden
ser encapsulados ahora en tramas en el Host. Sin embargo, si ningún DTE responde a la
solicitud ARP, el paquete se descarta porque no es posible crear una trama. Esta falla de
la encapsulación se notifica a las Capas Superiores del dispositivo. Si éste es un
dispositivo intermedio, como un router, las Capas Superiores pueden elegir responder al
host de origen con un error en un paquete ICMPv4.
0 8 16 24 31
DIRECH EMISOR: Un campo que se extiende por un número de octetos determinado por
LONG DIRECH y contiene la dirección de hardware del emisor.
DIRECP EMISOR: Un campo que se extiende por un número de octetos determinado por
LONG DIRECP y contiene la dirección de protocolo del emisor.
En la figura anterior se muestra el formato de ARP cuando se usa con una dirección IPv4
(32 bits) y una dirección de hardware Ethernet (MAC) de 6 octetos.
Como se muestra, el formato de consulta ARP, contiene campos para vincular dos
direcciones. Una vinculación corresponde al emisor y la otra al receptor, que ARP
denomina como el destino. Cuando se envía una consulta, el emisor no conoce la
direccione de hardware (dirección MAC) de destino, que es la información que se está
solicitando. En una respuesta ARP, la vinculación del destino hace referencia a la host
inicial que envío la consulta.
TCP es un protocolo orientado a conexión, que garantiza una entrega de datos fiable y
ordenada, del emisor al receptor. Lo anterior se sustenta en el hecho de que antes de que
un host utilice TCP para enviar datos a otro host, la Capa de Transporte inicia un proceso
para crear una conexión virtual con el destino. Una conversación TCP completa requiere
el establecimiento de una sesión entre los hosts en ambas direcciones.
Una vez establecida una conexión, el destino envía acuses de recibo al origen relativos a
los segmentos que recibió. Estos acuses de recibo forman parte de la base de la fiabilidad
dentro de la sesión TCP. Si el origen no recibe el acuse de recibo dentro de un periodo
predeterminado retransmite esos datos hacia el destino. Completada la comunicación, las
sesiones se cierran y la conexión finaliza. Parte de la sobrecarga adicional al utilizar TCP,
es el tráfico de red generado por:
- Números de Secuencia.
Las aplicaciones que utilizan TCP son: exploradores web, e-mail y transferencia de
archivos.
SEGMENTO TCP
PSH. Un valor de 1 le dice al software TCP que empuje todos los datos enviados a través
del canal hacia la aplicación receptora.
SYN. Un valor de 1 de SYN anuncia que los números de secuencia se deben sincronizar,
marcando el principio de una conexión.
FIN. Un valor de 1 significa que Host de origen no tiene más datos que transmitir. Esta
bandera se utiliza para cerrar una conexión.
Cuando dos Hosts se comunican utilizando TCP, se establece una conexión antes de
intercambiar datos. Una vez completada la comunicación, las sesiones se cierran y la
conexión finaliza. Los mecanismos de conexión y sesión habilitan la función de fiabilidad
de TCP.
El Host rastrea cada segmento de datos dentro de una sesión e intercambia información
sobre los datos recibidos de cada Host, haciendo uso de la información que hay en la
cabecera TCP. Cada conexión representa dos flujos, o sesiones, de comunicación de una
dirección. Para establecer la conexión, los Hosts ejecutan un Protocolo de Enlace de Tres
Vías. Los bits de control de la cabecera TCP indican el progreso y el estado de la
conexión. El protocolo de enlace de tres vías desempeña las siguientes funciones.
En las conexiones TCP, el Host que sirve como cliente inicia la sesión con el servidor. Los
tres pasos del establecimiento de la conexión TCP son los siguientes:
Host A Host B
1. Enviar SYN
(SEQ=100)
SYN recibida
SYN recibida
3. Establecida
(SEQ=101 ACK=301)
Para cerrar una conexión, debe establecerse la bandera (flag) de control FIN en la
cabecera del segmento. Para finalizar cada sesión TCP unidireccional se utiliza un
Protocolo de dos Vías, que consiste de un segmento FIN y un segmento ACK. Por lo
tanto, para terminar una conversación soportada por TCP, se necesitan cuatro
intercambios para terminar las dos sesiones:
1. Cuando el cliente ya no tiene más datos que enviar en el flujo, envía un segmento
con la bandera FIN establecida.
2. El servidor envía un ACK para acusar la recepción del FIN para terminar la sesión
del cliente con el servidor.
4. El cliente responde con un ACK como acuse de recibo del FIN que recibe del
servidor.
La figura siguiente muestra los pasos usados para terminar una conexión TCP.
Host A Host B
1. Envía FIN
FIN recibido
2. Enviar ACK
3. Enviar FIN
ACK recibido
FIN recibido
4. Enviar ACK
ACK recibido
Cuando el cliente de la sesión ya no tiene más datos que enviar, establece la bandera FIN
en la cabecera de un segmento. A continuación, el servidor enviará un segmento normal
que contiene datos con la bandera ACK establecida utilizando el número de acuse de
recibo para confirmar que todos los bytes de datos se han recibido. Cuando se han
acusado de recibido todos los segmentos, se cierra la sesión.
Como UDP tiene una baja sobrecarga y no proporciona la funcionalidad que TCP ofrece
para la fiabilidad, debe tenerse cuidado en caso de utilizarlo. Usar UDP sólo significa que
el protocolo de Capa de Transporte no proporciona la fiabilidad, por lo que, si se necesita,
debe implementarse de otro modo.
Como UDP no está orientado a conexión, no se establecen sesiones antes de que tenga
lugar la comunicación. UDP está basado en las transacciones. Es decir, cuando una
aplicación tiene que enviar datos, simplemente los envía.
Muchas aplicaciones que utilizan UDP envían pequeñas cantidades de datos que pueden
caber en un segmento. En cambio, otras aplicaciones que envían grandes cantidades de
datos deben dividirse en varios segmentos. La PDU de UDP se conoce como datagrama.
Los términos segmento y datagrama se utilizan a veces indistintamente para describir
una PDU de Capa de Transporte.
Cuando se envían varios datagramas a un destino, pueden tomar rutas distintas y llegar
en el orden erróneo. UDP no hace seguimiento de los números de secuencia por lo que
No obstante que es relativamente baja la cantidad total de tráfico UDP que puede
encontrarse en una red típica, entre los protocolos de la Capa de Aplicación que utilizan
UDP se incluyen:
Algunas aplicaciones como los juegos en línea o voz sobre IP (VoIP) pueden tolerar
algunas pérdidas de datos. Estas aplicaciones con TCP, experimentarían largas demoras
(retardos), ya que TCP detecta la pérdida de datos y los retransmite. Estas demoras
serían más perjudiciales para la aplicación que las pequeñas pérdidas de datos. La baja
sobrecarga de UDP lo hace preferible para dichas aplicaciones.
8 Bytes
Longitud (16) Suma de comprobación (16)
Datagrama UDP
Los servicios basados en TCP y UDP hacen un seguimiento de las conversaciones de las
distintas aplicaciones que se están comunicando. Para diferenciar los segmentos y los
datagramas destinados a cada aplicación, tanto TCP como UDP tienes unos campos de
cabecera que pueden identificar esas aplicaciones.
Los puertos bien conocidos (números 0 a 1023), están reservados para los servicios y
las aplicaciones. Por regla general, se utilizan para aplicaciones como HTTP (servidor
web) POP3/SMTP (servidor de e-mail) y Telnet.
Puertos registrados
Los puertos registrados (números 1024 a 49,151) se asignan a los procesos de usuario
y las aplicaciones. Estos procesos son principalmente aplicaciones individuales que un
usuario ha optado por instalar en lugar de las aplicaciones comunes que recibirían un
puerto bien conocido.
a) IPv4-Sin Conexión
Esto significa que no existe ningún enlace establecido previamente entre ambos
extremos. IP simplemente envía paquetes sin informar al receptor. Entonces, como IP no
tiene que estar al pendiente de la fiabilidad o de mantener una conexión, no necesita
mucha información de control para establecer una conexión de extremo a extremo, ni
requiere campos adicionales en el encabezado de la PDU para mantener esta conexión.
Estas características de funcionamiento reducen en gran medida la sobrecarga
(información adicional o redundante) del IP.
Sin embargo, la entrega de paquetes sin conexión puede hacer que éstos lleguen al
destino fuera de secuencia. Por esta razón IP y TCP trabajan tan bien juntos en la pila
TCP/IP; si un paquete se pierde o se retrasa, TCP corregirá el problema en la Capa 4.
b) IPv4-Máximo Esfuerzo
incluye los campos para la entrega fiable de los datos. No hay acuses de recibo, no hay
control de errores, ni hay forma de rastrear paquetes; por lo tanto, no existe la posibilidad
de retransmisión de paquetes.
Debido a lo anterior, en la pila de TCP/IP, la Capa de Transporte puede elegir entre los
protocolos TCP y UDP, basándose en las necesidades de la comunicación.
Existe, sin embargo, una importante consideración: el tamaño de la PDU. Algunas redes
cuentan con restricciones en el medio y deben imponer una MTU (Unidad Máxima de
Trasmisión). La MTU viene determinada por la Capa de Enlace de Datos de OSI y esta
restricción se pasa a la Capa de Red, y esta última se encarga de establecer un tamaño
máximo de paquete. Si el paquete debe atravesar una o varias redes que requieran de
bloques más pequeños, un router los dividirá antes de enviarlos al medio de la red. Este
proceso se denomina Fragmentación.
d) Paquete IPv4
El proceso de encapsular datos por capas permite que los servicios de diferentes capas
se desarrollen y escalen sin afectar otras capas. Entonces, los segmentos de la Capa de
Transporte pueden ser empaquetados por los protocolos de la Capa de Red existentes,
como IPv4 e IPv6, o por algún otro protocolo que sea desarrollado en el futuro.
En las redes de datos, los DTE’s tienen asignadas unas direcciones IP para que puedan
participar en el envío y la recepción de mensajes a través de la red. Sin embargo, a la
mayoría de las personas les resulta muy difícil recordar una dirección numérica. Por este
Cuando las redes eran pequeñas, la tarea de mantener la asignación entre los nombres
de dominio y las direcciones a las que representaban era muy sencilla. Sin embargo, a
medidas que las redes empezaron a crecer y el número de dispositivos a aumentar, este
sistema “manual” empezó a ser inexplotable y deficiente.
DNS se creó para la resolución de nombre de dominio a dirección para este tipo de
redes. DNS utiliza un conjunto distribuido de servidores para resolver los nombres
asociados con estas direcciones numéricas.
El protocolo DNS define un servicio automatizado que “empareja” nombres de recurso con
la dirección de red numérica requerida (incluye el formato para consultas, respuestas y
datos). Las comunicaciones del protocolo DNS utilizan un formato sencillo denominado
mensaje. Este formato de mensaje se utiliza para todos los tipos de consultas de cliente y
respuestas de servidor, mensajes de error y la transferencia de información de registro
de recursos entre los servidores.
DHCP permite a un Host obtener dinámicamente una dirección IP cuando se conecta con
una red. El servidor DHCP es contactado enviando una solicitud para solicitar una
dirección IP. Este servidor elige una dirección de un rango de direcciones previamente
configurado, denominado pool (grupo) y la asigna a un cliente host durante un período
de tiempo establecido.
Cuando un dispositivo configurado con DHCP se inicia o se conecta con la red, el cliente
emite un paquete DHCP DISCOVER para identificar cualquier servidor DHCP disponible
en la red. Un servidor DHCP responde con un DHCP OFFER, que es un mensaje de
oferta de alquiler con una dirección IP asignada, una máscara de subred, un servidor
DNS e información de Gateway predeterminado, así como la duración de ese alquiler.
DHCP es preferible en las redes grandes, las redes locales o donde la población de
usuarios cambia con frecuencia.
Las direcciones distribuidas por DHCP no se asignan permanentemente a los hosts, sino
que solo se “prestan” durante un período de tiempo. Si el host o portátil se apaga o
abandona la red la dirección IP es devuelta al pool para su reutilización.
DHCP tiene un riesgo de seguridad, ya que cualquier dispositivo conectado a la red puede
recibir una dirección IP. Este riesgo hace de la seguridad un factor importante cuando se
decide si se usa direccionamiento dinámico o estático (manual).
Un gran número de redes utilizan ambos tipos de direccionamiento, esto es, tanto el
direccionamiento DHCP como el estático. DHCP se utiliza por los hosts de propósito
general, como los dispositivos de usuario final, mientras que las direcciones estáticas o
fijas se utilizan para dispositivos de red como los Gateways, los Switches, los servidores y
las impresoras.
3.12.1.- La Telefonía IP
La telefonía en Internet o telefonía IP tiene una ventaja principal; que es más barata que
la telefonía tradicional fija (sobre la R.T.P.C. o RDSI), o la telefonía móvil (sobre 3 o 4
GM).
De este tipo de telefonía hay que distinguir entre la que se realiza a través de redes que
no ofrecen calidad de servicio (QoS), como por ejemplo en Internet y la que se realiza a
través de redes IP que si la ofrecen; como son algunas redes privadas (por ejemplo un
WLAN). Ambas hacen uso de la voz sobre IP (VoIP), pero el resultado en uno y otro caso
suelen ser diferentes.
La diferencia entre una y otra, es que la voz sobre IP (VoIP) se basa en la conversión de
voz en paquetes de datos, para que puedan ser transmitidos mediante el protocolo IP. El
resultado de esta conversión requiere un ancho de banda suficiente para que ese
intercambio de archivos sea fluido y no se produzcan efectos de retardo.
En muchos aspectos, las llamadas telefónicas por Internet son solamente otra forma de
streaming de audio, de tal forma que RTP (Protocolo de Transporte en Tiempo Real)
sea el protocolo más popular para transmitir comunicaciones de voz sobre IP (VoIP).
En cualquier caso, el teléfono envía señales a través de la red que deben recibirse e
interpretarse por otro teléfono en el otro extremo de la llamada.
Existen varios protocolos para iniciar y gestionar llamadas desde teléfonos IP. El sistema
de protocolos H.323 de la UIT es uno de éstos y más comunes para gestionar
teleconferencias de VoIP. Muchos sistemas VoIP están diseñados para H.323.
Otro protocolo más reciente para iniciar y que es más sencillo se conoce como Protocolo
de Inicio de Sesión (SIP).
SIP es un protocolo en la capa de aplicación para iniciar, detener y gestionar una sesión
de comunicación. SIP envía lo que se llama una invitación a un usuario remoto. En el
contexto de VoIP, dicha invitación es equivalente a realizar una llamada. Además de
iniciar y terminar llamadas, SIP proporciona características tales como redirección de
llamada etc.
El otro desafío con la telefonía IP es llegar a los usuarios finales con líneas terrestres de
la RTPC. Entonces, un dispositivo Gateway-VoIP sirve como interfaz desde Internet hacia
la red telefónica.
Los usuarios que realizan llamadas VoIP pueden llamarse entre sí a través de Internet sin
necesidad de un Gateway, pero cuando llaman a un número de la red telefónica
convencional, la llamada se enruta a través de un dispositivo Gateway-VoIP. Entonces,
los usuarios de la telefonía en Internet pueden subscribirse a un servicio de Gateway-
VoIP para tener acceso a dicho Gateway y así a la red telefónica pública convencional.
Sin embargo, los precios para la conexión a través de una Gateway generalmente son
más elevados que llamar a usuarios a través de una conexión punto a punto en Internet.
Las llamadas punto a punto a través de Internet a menudo son gratuitas (o casi gratuitas)
a cualquier parte del mundo para los usuarios que pagan su suscripción mensual.
Por otro lado, la telefonía IP, la cual funciona desde 1999, presenta algunos problemas.
Básicamente, éstos radican en que es necesario un ancho de banda mínimo que
garantizado para que los paquetes de datos (resultantes de la conversión de voz) pasen
rápido y con un mínimo de pausas.
La versión del protocolo de Internet, IPv4, que en general es la que se utiliza en Internet,
no permite garantizar el ancho de banda determinado y suficiente para diferentes
aplicaciones. Con la introducción del nuevo protocolo, IPv6, se permitirá eliminar estas
limitaciones y mejorar sensiblemente las comunicaciones de video en tiempo real y voz
sobre Internet (VoIP).
Al incluir el tráfico de voz en las redes IP, las empresas pueden eliminar las tarifas
asociadas con el transporte de llamadas por la R.T.P.C. Lo anterior será posible debido a
la naturaleza distribuida de la VoIP y por unos costos de operación reducidos, ya que las
empresas pueden combinar la voz y el tráfico de datos en una sola red.
Cuando la voz se convierta en otra aplicación IP, las empresas pueden construir redes
integradas, propiciando la misma calidad y fiabilidad que la R.T.P.C.
3.13.- IPv6
La cabecera básica de IPv6 es más sencilla que la cabecera de IPv4. Parte de esta
simplicidad es que la información detallada se relega a cabeceras de extensión especiales
que siguen a la cabecera principal.
Longitud de la carga útil (16 bits): determina la longitud de los datos (la porción
del datagrama después de la cabecera).
Límite de saltos (8 bits): indica cuantos saltos están permitidos para este
datagrama. Este valor disminuye en una unidad con cada salto. Si el límite de
saltos llega a cero, el datagrama se descarta.
Dirección de origen (128 bits): indica la dirección IP del host que envía el
datagrama.
Dirección de destino (128 bits): indica la dirección IP del host que recibe el
datagrama.
Opciones de destino
Enrutamiento
Fragmentación
Autentificación
Cada tipo de cabecera está asociada con un identificador de 8 bits. El campo Siguiente
Cabecera en la cabecera principal o en una cabecera de extensión define el identificador
de la siguiente cabecera en la cadena.
Transición a IPv6
Las direcciones IPv6, descritas en la RFC 2373, soportan un número de bits que
cuadriplica al utilizado por las de IPv4. Así, mientras el espacio de direccionamiento total
de IPv4 es de 232 (4.294.967.296), en IPv6 lo es de 2128,
(340.282.366.920.938.463.374.607.431.768.211.456).
El nuevo protocolo IPv6 debía ser un protocolo capaz de soportar grandes redes y ofrecer
un sencillo mecanismo de migración para sistemas IPv4. Uno de los problemas de IPv4
es la gran dimensión de las tablas de enrutamiento en la red troncal de Internet, que la
hace ineficaz y proporciona retardos en los tiempos de respuesta. En IPv6 el enrutamiento
en la red troncal es más eficiente, debido a una jerarquía de direccionamiento basado en
la agregación y la fragmentación y desfragmentación de los paquetes de extremo a
extremo. Sin embargo, como se dijo antes, la principal razón que originó la necesidad de
IPv6, fue la falta de direcciones derivada del crecimiento de la Red Internet, con ritmos
superiores al 100 % anual.
En general, si comparamos los modelos OSI y TCP/IP se observará que tienen similitudes
y diferencias. En principio ambos son Modelos multicapa y manejan la información en
base a la tecnología de Conmutación de Paquetes, y los protocolos que forman parte de
la suite (pila) de protocolos TCP/IP pueden describirse en términos del Modelo de
Referencia OSI.
analizan los procedimientos necesarios para tener acceso a los medios y los medios
físicos para enviar datos por una red.
Ambos Modelos tienen Capa de Aplicación, sin embargo, TCP/IP incluye una cantidad
de protocolos que proporcionan funciones específicas para una variedad de aplicaciones
de usuario final. Por otra parte, Las Capas 5, 6, y 7 del Modelo OSI se utilizan como
referencia para proveedores y programadores de software de aplicación para fabricar
productos que necesitan acceder a las redes para establecer comunicaciones.
Ambos Modelos tienen Capa de Red y Capa de Transporte, pero la Capa de Red de OSI
se utiliza casi universalmente para analizar y documentar el rango de los procesos que se
producen en todas las redes de datos para direccionar y enrutar mensajes a través de una
Internetwork. El protocolo IP es el protocolo de TCP/IP que describe la funcionalidad
descrita en la Capa 3.
La Capa de Transporte del Modelo OSI se utiliza para describir servicios o funciones
generales que administran conversaciones individuales entre los hosts de origen y
destino. Estas funciones incluyen acuse de recibo, control de errores y recuperación de la
información y números de secuencia. En la Capa de Transporte de TCP/IP los protocolos
TCP y UDP proporcionan la funcionalidad antes descrita.
Por todo lo aquí descrito los especialistas en redes necesitan conocer detalladamente
ambos Modelos, OSI y TCP/IP. La figura siguiente muestra una comparación entre los
modelos OSI y T
Los problemas más comunes que ocurren en las redes IP son el resultado de errores en el
esquema de direccionamiento. Cada prueba se centra en operaciones de red en una capa
específica del Modelo OSI
TELNET es un protocolo de terminal virtual que forma parte del conjunto de protocolos de
TCP/IP. Éste puede establecer una conexión entre un Router y un dispositivo conectado.
También permite verificar la conectividad de la Capa de Aplicación entre las estaciones de
origen y destino, lo que permite verificar implícitamente al mismo tiempo todas las Capas
que se encuentran debajo de esta Capa. Este es el mecanismo de prueba más completo.
Ejemplo: Se puede utilizar Telnet para realizar una prueba que determine sí es posible
acceder a un Router remoto. Como se muestra en la figura, se puede utilizar Telnet para
conectar el Router A al Router B. Si ésta es satisfactoria se habrá llevado a cabo una
prueba básica de conectividad de la Red.
Router A
Router B
Una conexión Telnet satisfactoria, indica que las 7 Capas del Modelo OSI están
funcionando apropiadamente para el origen y destino asociados.
Solicitud de eco
Respuesta de eco
A principios de la década de los 70’s ocurrió un evento que tuvo la mayor influencia en la
evolución de las redes de computadoras, la aparición de los circuitos integrados de gran
escala (dispositivos LSI), con un costo relativamente bajo y con funciones avanzadas. Lo
anterior propició el desarrollo de las minicomputadoras, las cuales podían efectuar
algunas tareas en paralelo y mucho más rápido que las “grandes” computadoras,
conocidas como mainframes.
Estas minicomputadoras podían realizar tareas como el control del equipo técnico y la
administración de las existencias de las empresas (en principio empresas medianas y
pequeñas).
Esto representó el origen del concepto de cómputo compartido, en el que los recursos de
cómputo estaban distribuidos por toda la compañía. Sin embargo, aún se tenía un
inconveniente; todas las minicomputadoras en una misma organización continuaban
operando en forma independiente, y los usuarios necesitaban intercambiar datos de las
minicomputadoras con otros usuarios de áreas o sucursales diferentes.
Como respuesta para satisfacer estas necesidades surgieron las primeras Redes de Área
Local o LAN.
Entonces, el proceso para diseñar una LAN pasó de ser un trabajo “artesanal” a un
procedimiento estándar mediante el uso de tecnologías para la conectividad de redes,
luego entonces, para construir una red LAN, era suficiente comprar un cable estándar y
adaptadores de red de acuerdo a las especificaciones requeridas (por ejemplo Ethernet),
conectar adaptadores al cable utilizando conectores estándar e instalar en las
computadoras algunos de los sistemas operativos comunes d esa época (Netware de
Novell, por ejemplo).
Los diseñadores de las LAN actuales introdujeron muchas innovaciones, por ejemplo; el
acceso a los recursos compartidos de la red fue más sencillo, eliminaron la necesidad de
manejar complejos identificadores de recursos compartidos, ya que las innovaciones
ofrecieron la lista de recursos disponibles en un formato amigable al usuario, utilización de
diferentes medios y topologías que permitieron velocidades de transmisión más altas, y
así, éstas y otras ventajas de dichas innovaciones fueron la consecuencia del progreso
del desarrollo y uso de las redes LAN actuales.
Como ya se ha mencionado, las LAN son redes de datos de alta velocidad que cubren
una zona geográfica relativamente pequeña. Las LAN, conectan estaciones de trabajo,
periféricos y otros dispositivos en un edificio o en una zona limitada (unos cuantos cientos
de metros).
Las topologías físicas que se usan normalmente en las redes LAN son: Bus, Anillo,
Estrella, Estrella Extendida y Árbol o jerárquica.
El seleccionar una de las Topologías anteriores para construir una LAN depende de varios
factores, entre otros: cantidad de dispositivos que se requieran conectar a la red, tipo y
cantidad de tráfico, fiabilidad de la red, requerimientos de velocidad de transmisión,
requerimientos de expansión, medio que se pretenda utilizar, método de acceso, etc.
Todo lo anterior deberá ser considerado en el diseño de la LAN.
Se pueden emplear los siguientes tipos de cable para conectar DTE’s: a) Cable Par
Trenzado Apantallado, b) Cable Par Trenzado No- Apantallado, c) Cable Coaxial y d)
Cable de Fibra Óptica.
hoja metálica y los 4 o 2 pares se envuelven globalmente en una hoja también metálica,
(habitualmente es cable de 150 Ohms). El STP reduce el ruido eléctrico que se origina
dentro del cable (diafonía) y fuera del cable (interferencia magnética-EMI), e interferencia
de radiofrecuencia (RFI). El STP ofrece más protección ante todas las clases de
interferencias externas, sin embargo, es más costoso y difícil de instalar El nuevo cable
híbrido de UTP con STP tradicional es el UTP protegido (ScTP). Este último es
esencialmente un UTP envuelto en un papel aluminio apantallado (habitualmente es cable
de 100 a 120 Ohms). Como el UTP el STP y ScTP, no se puede pasar cierta longitud,
(100 mts), como otros medios de red, como el cable coaxial y la fibra óptica, sin que la
señal quiera ser repetida.
El cable par trenzado no-apantallado (UTP), es un cable de 4 pares de cable que se utiliza
en un gran número de redes. Este tipo de cable depende únicamente del efecto de
cancelación, producido por los pares de cable trenzados, para limitar la degradación de la
señal provocada por los EMI y las RFI.
Cuando se utiliza en una red, el cable UTP tiene 4 pares de hilos de cobre de calibre 22 o
24, y tiene una impedancia de 100 Ohms.
Otras características que lo hacen preferido son: fácil de instalar y es menos costoso que
otros tipos de cable de red. Este cable se instala utilizando conectores RJ, mismos que
son normalizados. Durante un tiempo se consideró que el UTP era relativamente lento en
la transmisión de datos en comparación con otros tipos de cable de cobre. Sin embargo,
se ha demostrado que esto no es cierto, y de hecho en la actualidad el UTP está
considerado como el medio de cobre más rápido.
C) Cable Coaxial
El cable coaxial está compuesto de un conductor cilíndrico exterior hueco que rodea un
solo conductor interior; los dos conductores están aislados. En el centro del cable hay un
hilo de cobre que está rodeado con una capa aislante flexible. Sobre este material
aislante, una pantalla de cobre trenzado o papel metálico actúa como el segundo de los
cables del circuito. Esta segunda capa, o pantalla, ayuda a reducir la cantidad de
interferencias externas.
Para las redes LAN, el cable coaxial ofrece varias ventajas, entre ellas se puede cablear
mayores distancias (dependiendo del tipo de cable coaxial hasta 500 mts) sin necesidad
de repetidores entre nodos de la red, a diferencia del cable de par trenzado (STP o UTP)
que soporta un cableado máximo de 100 mts.
Por otra parte, el cable coaxial es menos costoso que el cable de fibra óptica, y se ha
utilizado durante muchos años para varios tipos de comunicación de datos.
Sin embargo, a medida que aumenta el diámetro del coaxial se incrementa la dificultad de
manipulación física.
Se tienen dos tipos de cable coaxial; el llamado thicknet, que es de diámetro grueso y
demasiado rígido, lo que impide una instalación fácil, además es más costoso que el
cable conocido como thinnet, con un diámetro exterior de solo 0.35 cm.
Debido a que el cable thinnet era más fácil de instalar y más económico era el más
utilizado en las redes LAN Ethernet. Sin embargo, las conexiones débilmente apantallas
son uno de los problemas más comunes que implica la instalación del cable coaxial. Estos
problemas de conexión que conllevan un ruido eléctrico y que interfiere la transmisión de
la red en el medio, es la razón, a pesar de su reducido diámetro, por la cual el cable
coaxial ya no es muy utilizado en redes LAN Ethernet.
El cable de Fibra Óptica este hecho por plástico ó fibras de vidrio, a lo largo de las cuales
se propagan señales luminosas. Este tipo de cable tiene mayor calidad, ya que garantiza
la transmisión de datos a velocidades altas. (10 Gbps o mayor). Además, garantiza una
mejor protección para los datos contra el ruido externo que cualquier otro medio.
La fibra óptica es la respuesta a los problemas de seguridad que aparecen en las grandes
instalaciones de cobre. Como no transporta ni voltaje ni corriente, es inmune a las
derivaciones a tierra y a las descargas eléctricas (relámpagos). Así entonces, como es
más seguro y puede transportar datos a distancias más grandes que el cobre, el cable de
fibra óptica suele estar considerado como la mejor elección para los troncales (backbone)
entre empresas o centrales telefónicas, así como para la interconexión entre edificios en
el caso de Campus compuestos de varios de éstos.
Según la distribución del factor de refracción y el diámetro del núcleo, los cables de fibra
óptica se clasifican en las categorías siguientes:
a) Fibra Monomodo: Transporta un solo haz de luz (generalmente emitido desde un láser).
Este tipo de fibra puede transmitir impulsos ópticos en distancias muy largas, ya que la luz
de láser es unidireccional y viaja a través del centro de la fibra.
b) Fibra Multimodo: Esta fibra utiliza emisores LED que no generan único haz de luz, sino
que ingresa a la fibra en diferentes ángulos, entonces, requiere de distintos períodos de
tiempo para viajar a través de la fibra. Este efecto denominado dispersión modal, limita la
longitud de los segmentos de la fibra multimodo.
Como resultado, los cables multimodo se utilizan principalmente para transmitir datos a
distancias más pequeñas (de 300 a 2000 metros) a velocidades que no excedan a 1 Gbps
(este tipo de fibra es el que se usa generalmente en redes LAN), y los cables monomodo
están diseñados para la transmisión de datos a las velocidades más elevadas posibles;
decenas de Gbps, en distancias que van desde varios kilómetros (este tipo de fibra se
utiliza generalmente en el backbone o enlaces troncales de las redes WAN), hasta
decenas o aún cientos de kilómetros en comunicaciones de larga distancia (por ejemplo
los cables submarinos).
El costo de los cables de fibra óptica no excede significativamente el de los cables de par
trenzado. Sin embargo, el trabajo involucrado en la instalación de los cables de fibra
óptica (por ejemplo, los empalmes) es difícil y costoso debido a la gran cantidad de
trabajo y especialización que implican las operaciones de instalación y el elevado costo de
los equipos que se utilizan para instalar este medio.
Concluyendo, la fibra que se utiliza como medio de transmisión para redes LAN es la fibra
multimodo. Sin embargo, debido a las grandes distancias que cubre esta fibra, está
encaminada a ser el medio físico apropiado para redes MAN.
Las LAN Inalámbricas o WLAN redefinen la visión que se tiene de las LAN. Las Redes
Inalámbricas proporcionan todas las características y ventajas de las tecnologías LAN
tradicionales sin la necesidad de cables, además la libertad de moverse manteniendo la
conectividad ha ayudado a que las redes inalámbricas hayan alcanzado gran popularidad.
Las WLAN utilizan un medio de transmisión, al igual que las LAN cableadas, pero en lugar
de utilizar cables (Par Trenzado, Fibra Óptica, etc.), las WLAN transmiten mediante
radiofrecuencia (RF). Las WLAN utilizan las bandas de frecuencia de 2.4 y 5 GHz.
Los dispositivos WLAN de primera generación, con sus bajas velocidades, alto costo y
carencia d estándares, eran poco prácticos para muchas aplicaciones.
a) IEEE 802.11
Las LAN Ethernet cableadas actuales funcionan a velocidades que van desde 100 Mbps
hasta el orden de Gbps. La mayoría de las WLAN operan entre 11 y 54 Mbps, y el costo
de implantación de las WLAN es competitivo respecto a la implantación de las LAN
cableadas. ¿Entonces por qué instalar redes WLAN?
Una razón es que en muchos entornos LAN pequeños las velocidades más bajas resultan
adecuadas para soportar las necesidades de las aplicaciones y del usuario. Con tantas
oficinas ahora conectadas a Internet mediante servidores de banda ancha, como DSL, las
WAN puede manipular las demandas de ancho de banda. Otra razón es que la WLAN
permite a los usuarios moverse en libertad, y a pesar de todo, mantenerse conectados.
Además, durante la reconfiguración de áreas u oficinas en una empresa, las WLAN no
requieren un recableado ni sus costos asociados.
Las tecnologías WLAN actuales ofrecen un aumento en las velocidades de datos, mayor
fiabilidad y reducción de costos.
Antecedentes
En febrero de 1980 se formó en el IEEE un comité de redes locales con la intención de
estandarizar un sistema de 1 o 2 Mbps, que básicamente era Ethernet, asignándole el
número 802. Decidieron estandarizar el nivel físico, el de enlace de datos y superiores.
Dividieron el nivel de enlace de datos en dos subniveles: el de enlace lógico, encargado
de la lógica de re-envíos, control de flujo y comprobación de errores, y el subnivel de
acceso al medio, encargado de arbitrar los conflictos de acceso simultaneo a la red por
parte de las estaciones.
Para final de año ya se había ampliado el estándar para incluir el Token Ring (Red en
anillo con paso de testigo) de IBM y un año después, y por presiones de grupos
industriales, se incluyó Token Bus (Red en bus con paso de testigo), que incluía opciones
de tiempo real y redundancia, y que se suponía idóneo para ambientes de fábrica.
Cada uno de estos tres "estándares" tenía un nivel físico diferente, un subnivel de acceso
al medio distinto, pero con algún rasgo común (espacio de direcciones y comprobación de
errores), y un nivel de enlace lógico único para todos ellos.
Después se fueron ampliando los campos de trabajo, se incluyeron las MAN, Redes de
Área Metropolitana, personal y regional, se incluyeron redes inalámbricas (WLAN),
métodos de seguridad, etc.
También se usa el nombre IEEE 802 para referirse a los estándares que proponen, y
algunos de los cuales son muy conocidos: Ethernet (IEEE 802.3), o Wi-Fi (IEEE 802.11),
incluso está intentando estandarizar Bluetooth en el 802.15.
Se centra en definir los niveles más bajos (según el modelo de referencia OSI (o sobre
cualquier otro modelo), concretamente subdivide el segundo nivel, el de enlace de datos,
en dos subniveles, el de enlace lógico, y el de acceso al medio.
Interconexión entre los 802 LAN, MAN y otras redes de Área Amplia
802 Enlace de seguridad
802 general de gestión de red
Capas de protocolo sobre el MAC (Control de Acceso al Medio) y LLC (Control
de Enlace Lógico).
La IEEE 802.1X es una norma del IEEE para el control de acceso a red basada en
puertos. Es parte del grupo de protocolos IEEE 802 (IEEE 802.1). Permite la autenticación
de dispositivos conectados a un puerto LAN, estableciendo una conexión punto a punto o
previniendo el acceso por ese puerto si la autenticación falla. Es utilizado en algunos
puntos de acceso inalámbricos cerrados y se basa en el protocolo de autenticación
extensible.
Este estándar define una red con topología de anillo en la cual una estación usa el token
para transmitir información a otra. En una estación de trabajo la cual envía un mensaje lo
adjunta dentro de un token y lo direcciona específicamente a un destino, la estación
destino copia el mensaje y lo envía a un token de regreso a la estación origen la cual
borra el mensaje y pasa el token a la siguiente estación.
conocido como "inserción de ranuras temporales". Puesto que puede llevar transmisión de
datos sincrónicos y asincrónicos, soporta aplicaciones de video, voz y datos. IEEE 802.6
con su DQDB, es la alternativa de la IEEE para ISDN
Un estándar de IEEE para una red de área local de banda ancha (LAN) que usa el cable
coaxial. Este estándar fue desarrollado para las compañías del Internet del cable.
Especificaciones de redes con mayores anchos de banda con la posibilidad de transmitir
datos, sonido e imágenes.
Comité de asesoramiento en redes con fibras ópticas. ANSI X3T9.5 tiene a su cargo la
normalización de FDDI.
Las redes FDDI (Fiber Distributed Data Interface - Interfaz de Datos Distribuida por Fibra)
surgieron a mediados de los años ochenta para dar soporte a las estaciones de trabajo de
alta velocidad, que habían llevado las capacidades de las tecnologías Ethernet y Token
Ring existentes hasta el límite de sus posibilidades.
Están implementados mediante una topología física en estrella y lógica de anillo doble de
token, uno transmitiendo en el sentido de las manecillas del reloj (anillo principal) y el otro
en dirección contraria (anillo de respaldo o back up), ofrece una velocidad de 100 Mbps
sobre distancias de hasta 200 metros, soportando hasta 1000 estaciones conectadas. Su
uso más normal es como una tecnología de backbone para conectar entre sí redes LAN
de cobre o computadores de alta velocidad.
Comité para integración de voz y datos IVD (Integrated Voice and Data) en la red ISDN.
También para ISLAN (Integrated Service LAN) para voz conmutada o en paquetes sobre
LAN 802.3.
Definición de ISDN.
Se define la RDSI (Red Digital de Servicios Integrados, en ingles ISDN) como una
evolución de las Redes actuales, que presta conexiones extremo a extremo a nivel digital
y capaz de ofertar diferentes servicios.
Decimos Servicios integrados porque utiliza la misma infraestructura para muchos
servicios que tradicionalmente requerían interfaces distintas (télex, voz, conmutación de
circuitos, conmutación de paquetes...); es digital porque se basa en la transmisión digital,
integrando las señales analógicas mediante la transformación Analógico - Digital,
ofreciendo una capacidad básica de comunicación de 64 Kbps.
Integración de señales en RDSI
El estándar original de este protocolo data de 1997, era el IEEE 802.11, tenía velocidades
de 1 hasta 2 Mbps y trabajaba en la banda de frecuencia de 2,4
GHz. En la actualidad no se fabrican productos sobre este estándar. El término
IEEE 802.11 se utiliza también para referirse a este protocolo al que ahora se conoce
como "802.11legacy."
El TAG se refiere a la coexistencia entre redes inalámbricas sin licencia. Muchos de los
estándares inalámbricos IEEE 802 el uso del espectro sin licencia y por lo tanto necesidad
de abordar la cuestión de la coexistencia. Estos dispositivos inalámbricos no autorizados
de abordar la cuestión de la coexistencia. Estos dispositivos inalámbricos no autorizados
pueden operar en la misma banda de frecuencia sin licencia en el mismo lugar. Esto
puede dar lugar a interferencias entre estas dos redes inalámbricas.
ESTANDAR DESCRIPCION
802.16 Banda ancha de acceso inalámbrico fijo (10-63 GHz)
802.16.2 Practica recomendada para la coexistencia
802.16c Perfiles de sistema para 10-63 GHz
802.16ª Capa física y MAC para 2.11GHz
P802.16b Frecuencias exentas de licencia
P802.16d Perfiles y mantenimiento del sistema de 2.11GHz
802.16-2004 Interfaz de aire para sistemas de acceso fijo inalámbrico de banda ancha
P802.16.2ª La convivencia de 2.11 GHz y 23.5-43.5 GHz
802.16.2- Practica recomendada para la existencia
2004
802.16f Gestión de la información base para 802.16-2004
802.16/cor1 Correcciones de operaciones fijas
802.16e Banda ancha móvil inalámbrica
802.16k Puente de 802.16
802.16g Procedimientos de gestión y servicios
802.16i Gestión de información móvil
802.16-2009 Interfaz de aire para el sistema de acceso de banda ancha fijos y móviles
inalámbricos
802.16j Multi-hop relé
802.16h Mejorar los mecanismos para la coexistencia sistemas sin licencia de
funcionamiento
802.16m Interfaz avanzada de aire con velocidades de transmisión de 100 Mbit/s móvil
y 1Gbit/s fijo
P802.16n Mayores redes de confiabilidad
P802.16p Mejoras en los soportes
Dos redes inalámbricas sin licencia se dicen que coexisten si pueden operar en el mismo
lugar sin causar interferencias significativas entre sí.
Ethernet es una familia de productos LAN descritos por los estándares IEEE. Han
existido muchas otras tecnologías que han desafiado su preferencia. Sin embargo, los
estándares Ethernet han evolucionado para seguir cumpliendo con las necesidades de las
LAN’s. Lo anterior ha permitido que presente cambios importantes en el tipo de medio
usado y la velocidad disponible.
En 1985, el comité de estándares IEEE para redes locales y metropolitanas publicaron los
estándares para las LAN’s Estos estándares empezaron con el número 802. El
correspondiente a Ethernet es el 802.3. El IEEE quería estar seguro de que sus
estándares fueran compatibles con el Modelo OSI. Para ello, el estándar IEEE 802.3 tuvo
que dirigir las necesidades de la Capa 1 (Física) y la porción inferior de la Capa 2 (Enlace
de Datos) del Modelo OSI. Como resultado de ello se introdujeron algunas pequeñas
modificaciones al estándar Ethernet original en el 802.3.
10 BASE 5 usaba u cable coaxial grueso que permitía distancias de hasta 500 mts. 10
BASE 2 o Thinnet empleaba un cable coaxial delgado, de menor diámetro y más flexible
que Thicknet y cuya distancia se prolongaba hasta los 185 mts.
Estos medios físicos coaxiales fueron sustituidos por las categorías más modernas de
cables UTP, mismas que comparadas con los coaxiales, los cables UTP eran más ligeros,
más baratos y más sencillos de instalar.
más grandes y sus servicios demandaban mayor infraestructura. Estas demandas dieron
paso a la siguiente generación de Ethernet.
Con el cambio del medio Ethernet a UTP surgieron las redes 10BASE-T. Éstas usaban
una topología física diferente con un hub como punto central del segmento de red. Como
puede verse en la figura siguiente, la nueva topología física era una estrella. Sin embargo,
el medio lo compartían como un bus lógico. Esto es, el hub tomaban un grupo de DTE’s y
permitían a la red verlos como una unidad. A medida que una trama llegaba a un puerto
del punto central era copiada a los demás puertos para que todos los segmentos de la
LAN recibieran la trama Debido al medio compartido, solo una estación podía transmitir
con éxito en un momento dado.
Para cumplir con las crecientes demandas de las redes de datos se desarrollaron nuevas
tecnologías para mejorar el rendimiento de Ethernet. Dos de las mejoras más importantes
fueron el aumento del ancho de banda de 10 a 100 Mbps y la introducción del Switch
LAN.
Concentrador
Estas innovaciones fueron cruciales para la aceptación de Ethernet como el estándar LAN
“de facto”. Las redes de 100 Mbps se conocían como Fast Ethernet. Asimismo, el
rendimiento de la LAN también se incrementó significativamente con la introducción de los
switches como sustitutos de los hubs en las redes basadas en Ethernet. A diferencia de
éstos, los switches permitían que cada nodo conectado a ellos tuviera todo el ancho de
banda del medio, eliminándose así la disputa por el medio. Los switches logran esto
controlando el flujo de datos asilando cada puerto y enviando una trama sólo a su destino
correcto, (en caso de conocerse), en lugar de hacerlo a todos lo dispositivos. Las ventajas
fueron evidentes; redujeron el tráfico, minimizaron la posibilidad de colisiones y eliminaron
la sobrecarga de MAC. Lo anterior y la introducción posterior de las comunicaciones Full-
Duplex, han permitido el desarrollo de la Ethernet a 1 Gbps 7 y más allá.
El aumento del rendimiento de las LAN’s creó una nueva generación de computadoras,
con la red como plataforma para su diseño y fabricación. El hardware, Sistemas
Operativos y Aplicaciones (tales como VoIP y servicios multimedia) también acordes a los
avances tecnológicos, demandaron otro tipo de redes LAN´s. estrella y lógica punto a
punto.
Switch
Estas demandas llevaron al desarrollo de redes Gigabit Ethernet. Éstas describen las
implementaciones de dichas redes con un ancho de banda de hasta 1 Gbits o superior.
Esta capacidad se basa en el protocolo de transporte de TCP/IP, UDP (con capacidad
Full-Duplex) y los medios de comunicación actuales, como la Fibra Óptica.
Una ventaja muy importante, es que con el desarrollo a Ethernet de 1 Gbits no siempre es
necesario sustituir la infraestructura de los cableados de red y los dispositivos (switches)
existentes; siempre y cuando en el diseño original de redes en operación (o en las
proyectadas) sean contemplados éstos aspectos, así como instaladas por personal
especializado. Por otra parte, con el aumento en las distancias del cableado (Fibra Óptica)
en redes basadas en la tecnología Ethernet, ha disminuido al máximo la frontera entre las
redes LAN’s y las WAN’s, asimismo puede extenderse a una ciudad entera mediante
MAN.
Como se dijo anteriormente, el Modelo OSI proporciona una referencia para Ethernet. Sin
embargo, los protocolos 802.3 están actualmente implementados sólo en la parte inferior
de la Capa de Enlace de Datos, lo que se conoce como Subcapa MAC (Media Access
Control) y en la Capa 1 o Física.
Ethernet utiliza subcapas de enlace de datos para definir sus funciones con profundidad.
Estas funciones que se describen en e Modelo OSI para la Capa de Enlace de Datos,
están asignadas a las subcapas MAC y LLC (Logical Link Control).
La subcapa MAC está relacionan con los componentes físicos que se emplean para
comunicar la información y para preparar los datos para su envío a través del medio. LLC
permanece relativamente independiente del equipo físico que se utiliza para el proceso de
comunicación.
La Capa 1 Ethernet es muy importante y clave en la comunicación que se realiza entre los
dispositivos. Ethernet define los siguientes elementos de la Capa 1:
Señales.
Diversas de Topologías.
Las comunicaciones entre los hosts también precisan de las funciones de Capa 2 (Enlace
de Datos). En esta Capa, Ethernet se encarga de las siguientes funciones:
Encapsulamiento de Datos.
MAC.
Estos dos procesos de la Capa de Enlace de Datos han evolucionado de forma diferente
a través de las distintas versiones de Ethernet. Aunque el encapsulamiento en la subcapa
MAC ha permanecido virtualmente sin cambios. MAC varía en las distintas
implementaciones de la Capa Física.
La topología lógica de una LAN afecta al tipo de MAC requerido. La topología tradicional
de Ethernet fue un bus compartido o multiacceso. Esto es, que todos los nodos
(dispositivos) en ese segmento de red comparten el medio, lo que implica todos reciban
todas las tramas transmitidas. Debido a esto, cada nodo debe determinar si una trama
debe ser aceptada y procesada por él. Esto requiere analizar el direccionamiento de la
trama proporcionada por la dirección MAC. Ethernet ofrece un método para determinar el
modo en que los nodos comparten el acceso al medio. El método MAC en las redes
Ethernet históricas y heredadas es CSMA/CD (mismo que se describe más
detalladamente en el tema 4.6)
Las implementaciones actuales de Ethernet suelen utilizar switches LAN que permiten
una topología punto a punto. En estas redes, el tradicional método MAC de CSMA/CD no
es necesario.
Para Ethernet, el estándar IEEE 802.2 describe las funciones de la subcapa LLC,
mientras que la IEEE 802.3 se encarga de la subcapa MAC y de la Capa Física.
LLC administra la comunicación entre el software de red de las Capas Superiores y de las
Capas Inferiores, comúnmente el hardware. Los estándares antes mencionados describen
la función de Ethernet. La subcapa LLC toma la PDU (Protocol Data Unit) de la Capa de
Red, que habitualmente es un paquete IPv4, y añade la información de control necesaria
para entregar el paquete a su destino. La Capa 2 se comunica con las Capas Superiores
a través de las funciones de LLC.
Antes de presentar la relación de las Direcciones MAC y las NIC, es de vital importancia
conocer la estructura de la Trama Ethernet, con el fin de ubicar e identificar cada campo
de ésta y su significado correspondiente, así como comprender su operatividad.
Al igual que ocurre con los estándares de la Capa de Enlace de Datos, el protocolo
Ethernet describe el formato de las tramas. El medio Físico y MAC evolucionan
continuamente, pero la cabecera y el tráiler de la trama Ethernet han permanecido casi
constantes a lo largo de muchas versiones de esta tecnología. Dos de los campos más
importantes son los que almacenan las direcciones MAC de origen y de destino.
destino hasta el FCS (Frame Check Sequence). Los campos Preámbulo y SFD no se
incluyen cuando se especifica el tamaño de la trama.
Ahora bien, si el tamaño de la trama recibida es menor que el valor mínimo o mayor que
el máximo se considera que esta corrupta. Entonces, el dispositivo receptor las descarta
todas. Estas tramas suelen ser el resultado de colisiones o de cualquier otra señal no
deseada.
IEEE 802.3
FCS (Frame Check Secuence). - El campo FCS se usa para detectar errores en
la trama y utiliza un código CRC.
Ahora bien, la dirección MAC la usa la NIC para determinar si un mensaje debe ser
pasado a las capas superiores para su procesamiento. Las direcciones MAC son
asignadas a los fabricantes en base a unas reglas estrictas del IEEE para asegurar
globalmente direcciones únicas para cada dispositivo Ethernet. Estas reglas, establecidas
por el IEEE, requieren que cada fabricante de dispositivos Ethernet se registre con el
IEEE. Este organismo asigna al fabricante o distribuidor un código de 3 bytes llamado OUI
(Organizational Unique Identifier).
Todas las direcciones MAC con el mismo OUI deben tener asignado un valor único
(código de fabricante o número de serie) en los tres últimos bytes.
En resumen, todos los elementos conectados a una LAN Ethernet (Estaciones de trabajo,
Servidores, Impresoras, switches, routers, etc.) cuentan con direcciones MAC de 48 bits
para cada interfaz. Sin embargo, cuando se examinan vemos que el sistema operativo las
representa en formatos hexadecimales, como los siguientes: 00-05-9A-3C- 78-00, 00:
9A:3C:78:00, 0005.9A3C.7800.
Las diferencias entre los estándares Ethernet, Fast Ethernet, Gigabits Ethernet y 10
Gigabits Ethernet surgen en la Capa Física, con frecuencia llamada Ethernet PHY.
Ethernet es cubierta por los estándares IEEE 802.3. En la actualidad hay cuatro
velocidades de datos definidas para el funcionamiento sobre Fibra Óptica y Cables de Par
Trenzado.
10BASE-T
d) Conectores RJ-45 (Se utilizan los pines 1 y 2 para TX y los pines 3 y6 para RX.
10BASE-T ya no es una elección común a la hora de instalar una LAN nueva (aún existen
muchas redes de este tipo funcionando), ya que con la sustitución de los hubs por
switches en las redes 10BASE-T se ha incrementado el rendimiento de las mismas y les
ha otorgado gran longevidad. Los enlaces 10BASE-T conectados a un Switch soportan
los funcionamientos en Half-Duplex y Full-Duplex.
A mediados de los 90’s surgieron nuevos estándares 802.3 que describía los métodos de
transmisión de datos sobre un medio Ethernet a 100 Mbps. Entre éstos, distintos tipos de
codificación para alcanzar altas velocidades.
Sin embargo, debido a que las altas frecuencias usadas por las señales Fast Ethernet
son más susceptibles al ruido, se utilizan dos pasos de codificación separados para
mejorar la integridad de las señales.
100BASE-TX
100BASE-FX
Las implementaciones de fibra son conexiones punto a punto, es decir, se utilizan para
conectar dos dispositivos como dos computadoras, una computadora y un Switch, o dos
switches.
1000BASE-T Ethernet
Inmunidad al ruido.
Ancho de Banda.
Las principales diferencias entre estas dos versiones de Ethernet con fibra son el medio
de enlace, los conectores y la longitud de onda de la señal óptica.
Medio Compartido
Algunas topologías de red comparten un medio común con múltiples nodos. En cualquier
momento pueden existir varios dispositivos intentando enviar o recibir datos usando el
medio de red. Al respecto, existen técnicas que gobiernan la forma en que dichos
dispositivos comparten el medio.
Las topologías multiacceso permiten que varios nodos compartan el uso del medio para
transportar datos.
Cualquier tipo de técnica MAC podría ser apropiada para este tipo de topología lógica.
Los dos métodos básicos son los siguientes:
Basado en el enfrentamiento. - Todos los nodos compiten por el uso del medio.
En este tipo de acceso, los dispositivos de la red toman turno, en secuencia para acceder
al medio. Este método se conoce también acceso determinista (por ejemplo, Token
Passing).
CSMA suele estar implementado junto con otro método para resolver las disputas por el
medio y se conoce como: CSMA/CD (Carrier Sense Multiple Access/Collision Detect).
Históricamente, Ethernet usaba CSMA/CD para detectar y manipular las colisiones, así
como para administrar la reanudación de las comunicaciones. Como todos los dispositivos
emplean un bus lógico Ethernet compartido para enviar sus mensajes por el mismo
medio, CSMA se utiliza para detectar la actividad eléctrica en el cable. Un dispositivo
puede determinar cuándo transmitir si no detecta a ninguna otra computadora enviando
una señal. A partir de ese momento CSMA con CD (Collision Detect) completa su
función.
En el método CSMA/CD, un dispositivo que tiene que enviar una trama pendiente, debe
escuchar antes de transmitirla. Si detecta una señal procedente de otro dispositivo,
esperará un determinado período de tiempo antes de volver a intentarlo. Si el equipo no
detecta tráfico transmitirá su trama.
Una vez que el tiempo (retardo) de backooff ha expirado en un dispositivo, éste vuelve a
su estado “escucha antes de transmitir”. El periodo de backoff aleatorio evita que los
dispositivos involucrados en la colisión intenten enviar de nuevo sus señales a la vez, ya
que de suceder esto, provocarían que todo el proceso se repitiera. Sin embargo, por otro
lado, esto significa que un tercer dispositivo podría transmitir antes de que alguno de los
dos causantes de la colisión tenga la oportunidad de volver a hacerlo.
requiere que el administrador realice múltiples operaciones manuales. Sin embargo, este
método ofrece más flexibilidad cuando se construyen VLAN’s basadas en varios Switches
que el método de agrupación de puertos.
VLAN 1
SWITCH
VLAN 2
Si los nodos de algunas VLAN’s comprenden varios Switches, deberá asignarse un par
especial de puertos a los Switches para interconectar uno de éstos a cada una de las
VLAN. De otro modo, cuando los Switches se conectan mediante un simple par de
puertos (sin configuración especial), la información de una trama perteneciente a una
VLAN específica se perderá cuando se transmite una trama de Switch a Switch. De esta
manera, para conectarse, los Switches con agrupación de puertos requieren que el
número de puertos configurados especialmente corresponda al número de VLAN’s
soportadas. Entonces, los cables y puertos que se utilizan se desaprovechan cuando se
pone en práctica este método. Además, cuando se conectan VLAN’s por medio de un
Router, se asigna un cable por separado y un puerto de Router por separado para cada
VLAN, lo cual también produce un gasto considerable.
Con la agrupación de direcciones MAC en una VLAN para cada Switch, se elimina la
necesidad de conectarlos mediante múltiples puertos, pues en este caso la dirección MAC
representa una clasificación de la VLAN. Sin embargo, este método requiere numerosas
operaciones manuales relacionadas para mapear direcciones MAC a la VLAN en cada
uno de los Switches de la red.
Un campo auxiliar que contenga la marca de una determinada VLAN se utiliza solamente
cuando la trama se pasa de un Switch a otro. Cuando se transmite la trama hacia el nodo
terminal por lo regular se elimina. En este caso, el protocolo de interacción “Switch-
Switch” se modifica y el hardware y software de los nodos terminales permanece igual.
Antes de adoptar el estándar IEEE 802.1Q había muchos protocolos propietarios de este
tipo con una desventaja común: el equipo de diferentes fabricantes no es compatible
cuando se construyen VLAN.
La adopción del estándar 802.1Q permitió a los fabricantes de equipos superar las
diferencias en las implementaciones de VLAN propietarias y obtener la compatibilidad
cuando se construyen las VLAN´s.
SWITCH 1 SWITCH 2
Para almacenar el número de una red virtual, el estándar IEEE 02.1Q (también conocido
como protocolo de etiqueta, debido a que agrega la clasificación al encabezado)
proporciona un encabezado adicional de cuatro bytes (ver figura). Los dos primeros bytes
forman el identificador de protocolo (TPID, por sus siglas en inglés Tag Protocol
IDentifier) y siempre llevan el valor hexadecimal 0x8100, mediante el cual el equipo de
red debe reconocer que esa trama es la trama Ethernet etiquetada. Los siguientes bytes
se conocen como información de control de la etiqueta (TCI, por sus siglas en inglés
Tag Control Information) y el protocolo 802.1Q los comparte con el protocolo 802.1p,
(Calidad de Servicio en LAN). En este campo se utilizan 12 bits para almacenar el
número de la VLAN (el campo ID de VLAN o VLANID) y se asignan 3 bits para almacenar
la prioridad de la trama. Con el objeto de distinguir las tramas Ethernet de las tramas
Token Ring se incluyó un bit, conocido como Identificador de Formato Canónico (CFI,
por sus siglas en inglés Canonical Format Identifier). En las tramas Ethernet, este bit
debe establecerse a 0. El campo VLAN ID de 12 bits permite crear hasta 4096 redes
virtuales. Como el campo de datos de la trama Ethernet disminuye en 2 bytes cuando se
agrega el encabezado 802.1Q/p, su tamaño máximo también disminuye. Por ejemplo,
para la trama Ethernet II, este campo es igual a 42-1496 bytes en contraste con los
valores estándar de 46-1500 bytes.
Las técnicas VLAN están soportadas por los fabricantes de Switches y por los fabricantes
de tarjetas de red. En lo que a las tarjetas de red se refiere, éstas pueden generar y recibir
tramas Ethernet clasificadas que contengan el campo VLAN TAG. Si la tarjeta de red
genera tramas etiquetadas, las mapea a una VLAN específica. Por lo tanto, el Switch
debe procesar tales tramas de la manera apropiada (por ejemplo, si tiene o no que
transmitirlas a un puerto de salida específico), lo cual depende del mapeo del puerto a
cierta VLAN. El controlador de la tarjeta de red obtiene el número de su VLAN o de sus
VLAN de los datos de la configuración introducidos manualmente por el administrador de
la red: alternadamente, podrá recibir esta información de alguna de las aplicaciones que
se ejecute en el nodo específico. Una aplicación así también puede ejecutarse en uno de
los servidores de red centralizados y controlar la estructura completa de la red.
4.7.3.- Troncales
6 6 2 2 2 42-1496 4
A medida que las tramas salen del Switch son etiquetadas para indicar a que VLAN
corresponden, esta etiqueta es retirada una vez que entra en el Switch de destino para
ser enviada al puerto de la VLAN correspondiente. Un puerto de un Switch que pertenece
a una VLAN determinada es llamado puerto de acceso, mientras que un puerto que
transmite información de varias VLAN a través de un enlace punto a punto es conocido
como puerto troncal. La información de todas las VAN creadas viajará por el enlace
troncal automáticamente, la VLAN 1, que es la VLAN por defecto o nativa, lleva la
información de estado de los puertos. Esta VLAN es conocida como la VLAN de gestión.
Etiquetado de Trama
**Los Switches Cisco implementan una variante de etiquetado propietario, la ISL (Inter
Switch Link). ISL posee muy baja latencia debido a que el etiquetado utiliza tecnología
ASIC. El etiquetado de la trama es eliminado de la trama al salir de un puerto de acceso
antes de ser enviada al dispositivo final**
Enlace Troncal
VLAN 200
VLAN 300
VLAN 100
La Trama de Ethernet (802.3) se le agrega el tag de VLAN (802.1q) que ocupa 4 bytes, de
los cuales, 12 bits son utilizados para determinar el número de la VLAN, lo que da un
máximo de 4.095 VLANs diferentes.
TRAMA
TRAMA
Enlace Troncal
TRAMA
TRAMA
Dirección
FCS
destino Longitud
Dirección Etiquetado
origen
802.1Q 4Bytes
Ejemplo de un Etiquetado Dot1q
Modo cliente: un dispositivo que opera en modo VTP cliente no puede crear,
cambiar ni suprimir VLAN. Un cliente VTP no guarda la configuración VLAN en
memoria no volátil. Tanto en modo cliente como en modo servidor, los Switches
sincronizan su configuración VLAN con la del Switch que tenga el número de
revisión más alto en el dominio VTP. En este modo se envían y retransmiten
Modo Servidor
Modo Cliente
Las computadoras y las redes de información son esenciales para lograr el éxito en
empresas grandes y pequeñas. Éstas en la actualidad, admiten aplicaciones y servicios y
proporcionan acceso a los recursos que las mantienen en funcionamiento. Para cumplir y
lograr en forma eficaz los requisitos diarios de las empresas, las redes actuales se han
vuelto bastante complejas.
Requisitos de la red
Es por esto que la mayoría de las empresas sólo incluye sus requisitos desde el punto de
vista de usuarios de la red:
La red debe estar activa a toda hora, incluso en caso de fallas en los enlaces, en el
equipo y en condiciones de sobrecarga de información.
Debe ser segura, esto es, debe proteger los datos que se transmiten a través de la
misma, al igual que los datos almacenados en los dispositivos que se conectan a
ella.
La red debe ser fácil de modificar para adaptarse al crecimiento de la misma, muy
posiblemente por cambios o crecimientos de la empresa.
La solución de problemas ó fallas debe ser sencilla y rápida, ya que estos eventos
pueden ocurrir con frecuencia.
Escalabilidad.
Disponibilidad.
Seguridad.
Facilidad de administración.
Entonces, para cumplir con los cuatro objetivos anteriores, la red se debe basar sobre una
arquitectura que permita flexibilidad y crecimiento. La respuesta es un diseño jerárquico
de red.
Los proyectos de diseño de una red generalmente se dividen en tres pasos diferentes:
Paso 2.- Caracterizar la red existente (en caso de que ya haya red).
El diseñador de la red trabaja junto con el cliente para documentar los objetivos del
proyecto, que generalmente son:
2.- Caracterización de la red existente (sólo en caso de que ya exista una red)
Se reúne y analiza información sobre los servicios y redes actuales, y con estos datos se
compara la funcionalidad de la red existente con los objetivos y requisitos definidos del
nuevo proyecto. Como resultado, el diseñador podrá determinar si el equipo, la
infraestructura, y los protocolos existentes pueden volver a utilizarse, y qué y cuáles de
éstos se necesitan cambiar para completar el diseño.
MODELO JERÁRQUICO
Núcleo
Distribución
Acceso
Entre los requisitos que sólo pueden afectar una porción de la red se incluyen:
La capa núcleo se denomina Backbone de la Red. Los routers y los switches en la capa
núcleo proporcionan conectividad de alta velocidad. En una LAN empresarial, la capa
núcleo puede conectar múltiples edificios o sitios, además de proporcionar conectividad a
la granja de servidores.
Maximizar el rendimiento.
Enlaces redundantes
La mayoría de las capas núcleo de una red se conectan en una topología malla completa
o malla parcial. Para instalaciones grandes, se utilizan topologías malla parcial
modificada. Con esta topología, cada dispositivo se conecta al menos con dos
dispositivos, lo cual crea una redundancia suficiente sin la complejidad y costo de una
malla completa.
Enlaces troncales
Los enlaces troncales generalmente se configuran entre los dispositivos de red de la capa
de distribución y de la capa de acceso. También se utilizan para transportar tráfico que
pertenece a múltiples VLAN entre dispositivos que pertenecen a través del mismo enlace.
Entonces, el diseñador de la red debe considerar los patrones de tráfico de la red y la
estrategia VLAN generales.
Enlaces redundantes
Los enlaces redundantes entre los dispositivos de red de la capa de distribución, ofrecen
la facilidad de que dichos dispositivos puedan configurarse para balancear la carga del
tráfico a través de los enlaces. El balanceo de carga aumenta el ancho de banda para las
aplicaciones.
que los dispositivos que admiten múltiples conexiones de fibra óptica de alta velocidad
suelen ser costosos, es indispensable hacer una planificación detallada que garantice que
existen suficientes puertos de fibra óptica disponibles a fin de proporcionar la redundancia
y el ancho de banda adecuados.
Armarios de cableado
Las redes modernas implican mucho más que solo computadoras personales e
impresoras conectadas a la capa de acceso. Dispositivos diferentes pueden conectarse a
una red IP, entre ellos se pueden mencionar los siguientes: teléfonos IP, videocámaras,
sistemas de videoconferencia.
Todos estos dispositivos pueden converger en una única infraestructura física de capa de
acceso. Sin embargo, el diseño lógico de la red que se necesita para admitirlos se vuelve
complejo debido a ciertas consideraciones, como la QoS (calidad se servicio). Estos
nuevos dispositivos finales, junto con las aplicaciones y servicios relacionados, modifican
La mayoría de las redes Ethernet recientes utilizan una topología en estrella. En una
topología en estrella, cada dispositivo final posee una conexión directa a un único
dispositivo de red. Este único dispositivo de red generalmente es un Switch de capa 2.
Una topología cableada en la capa de acceso por lo general no tiene redundancia desde
cada uno de los dispositivos finales al Switch. Para la mayoría de empresas, el costo del
cableado adicional para crear redundancia representa un costo alto. Entre las ventajas de
una topología en estrella se incluye:
Las topologías en estrella Ethernet generalmente poseen una combinación del siguiente
cableado:
En la actualidad las VLAN se utilizan para separar el tráfico y clasificar flujos de tráfico,
además de controlar el tráfico de broadcast dentro de un único cuarto (armario) de
cableado o edificio. Aunque las VLAN grandes abarcan redes enteras ya no son
recomendables, éstas pueden ser necesarias para admitir aplicaciones especiales, como
servicios de roaming y teléfonos IP inalámbricos.
Todas las redes tienen recursos limitados. Por esta razón, las redes necesitan
mecanismos de QoS (calidad de servicio). La capacidad de proporcionar QoS depende de
la clasificación del tráfico y la prioridad asignada.
Muchos de los riegos de seguridad que se producen en la capa de acceso de la red son el
resultado de dispositivos finales con seguridad deficiente. Los descuidos y errores de
usuario son el principal factor de una cantidad significativa de rupturas en la seguridad de
la red.
Asimismo, la seguridad física es igual de importante; cerrar con llave los armarios de
cableado y restringir el acceso a los dispositivos de red, son las formas más efectivas de
prevenir rupturas de seguridad. En áreas de alto riesgo, es pertinente equipar los armarios
de cableado con seguridad adicional, tales como cámaras o alarmas y dispositivos de
detección de movimiento.
De esta manera, se puede garantizar que se cumplirán los cuatro objetivos fundamentales
planteados en el diseño de la red:
Escalabilidad
Disponibilidad
Seguridad
Facilidad de administración
BIBLIOGRAFÍA y REFERENCIAS
2.- Guía del Primer Año – 2da. Edición, Cisco Press, 2003
3.- Transmisión de Datos y Redes de Comunicaciones – 2da Edición, Mc Graw Hill, 2002.
De: Behrouz A. Fourozan
4.- Comunicaciones y Redes de Computadoras -7ma. Edición, Pearson Prentice Hall, 2004.
De: William Stalings
7.- Aspectos Básicos de Networking – Versión 4.01, Cisco Press USA 2009
De: Academia de Networking de Cisco Systems
12.- www.itu.org