Academia.eduAcademia.edu

NORMAS DE COMUNICACIÓN

Broadcast: Enviar una señal a diversos lugares en el mismo momento. Dirección destino: 11111111 Se trata de una dirección de broadcast y las maquinas saben que deben leerlo. Dominio de broadcast: Todo lo que no pueda filtrar el broadcast (switch si, router no, lo leera pero no lo pasaría a otra red) Control de acceso al medio (MAC) MAC se refiere a los protocolos que determinan cuál de los computadores de un entorno de medios compartidos (dominio de colisión) puede transmitir los datos. La subcapa MAC, junto con la subcapa LLC, constituyen la versión IEEE de la Capa 2 del modelo OSI. Tanto MAC como LLC son subcapas de la Capa 2. Hay dos categorías amplias de Control de acceso al medio: determinística (por turnos) y la no determinística (el que primero llega, primero se sirve). Ejemplos de protocolos determinísticos son: el Token Ring y el FDDI. En una red Token Ring, los host individuales se disponen en forma de anillo y un token de datos especial se transmite por el anillo a cada host en secuencia. Cuando un host desea transmitir, retiene el token, transmite los datos por un tiempo limitado y luego envía el token al siguiente host del anillo. El Token Ring es un entorno sin colisiones ya que sólo un host es capaz de transmitir a la vez. Los protocolos MAC no determinísticos utilizan el enfoque de "el primero que llega, el primero que se sirve". CSMA/CD es un sistema sencillo. La NIC espera la ausencia de señal en el medio y comienza a transmitir. Si dos nodos transmiten al mismo tiempo, se produce una colisión y ningún nodo podrá transmitir. Las tres tecnologías comunes de Capa 2 son Token Ring, FDDI y Ethernet. Las tres especifican aspectos de la Capa 2, LLC, denominación, entramado y MAC, así como también los componentes de señalización y de medios de Capa 1. Las tecnologías específicas para cada una son las siguientes: • Ethernet: topología de bus lógica (el flujo de información tiene lugar en un bus lineal) y en estrella o en estrella extendida física (cableada en forma de estrella) • Token Ring: topología lógica de anillo (en otras palabras, el flujo de información se controla en forma de anillo) y una topología física en estrella (en otras palabras, está cableada en forma de estrella)

Supercharge your research with Academia Premium

checkDownload curated PDF packages
checkTrack your impact with Mentions
checkAccess advanced search filters
NORMAS DE COMUNICACIÓN Broadcast: Enviar una señal a diversos lugares en el mismo momento. Dirección destino: 11111111 Se trata de una dirección de broadcast y las maquinas saben que deben leerlo. Dominio de broadcast: Todo lo que no pueda filtrar el broadcast (switch si, router no, lo leera pero no lo pasaría a otra red) Control de acceso al medio (MAC) MAC se refiere a los protocolos que determinan cuál de los computadores de un entorno de medios compartidos (dominio de colisión) puede transmitir los datos. La subcapa MAC, junto con la subcapa LLC, constituyen la versión IEEE de la Capa 2 del modelo OSI. Tanto MAC como LLC son subcapas de la Capa 2. Hay dos categorías amplias de Control de acceso al medio: determinística (por turnos) y la no determinística (el que primero llega, primero se sirve). Ejemplos de protocolos determinísticos son: el Token Ring y el FDDI. En una red Token Ring, los host individuales se disponen en forma de anillo y un token de datos especial se transmite por el anillo a cada host en secuencia. Cuando un host desea transmitir, retiene el token, transmite los datos por un tiempo limitado y luego envía el token al siguiente host del anillo. El Token Ring es un entorno sin colisiones ya que sólo un host es capaz de transmitir a la vez. Los protocolos MAC no determinísticos utilizan el enfoque de "el primero que llega, el primero que se sirve". CSMA/CD es un sistema sencillo. La NIC espera la ausencia de señal en el medio y comienza a transmitir. Si dos nodos transmiten al mismo tiempo, se produce una colisión y ningún nodo podrá transmitir. Las tres tecnologías comunes de Capa 2 son Token Ring, FDDI y Ethernet. Las tres especifican aspectos de la Capa 2, LLC, denominación, entramado y MAC, así como también los componentes de señalización y de medios de Capa 1. Las tecnologías específicas para cada una son las siguientes: Ethernet: topología de bus lógica (el flujo de información tiene lugar en un bus lineal) y en estrella o en estrella extendida física (cableada en forma de estrella) Token Ring: topología lógica de anillo (en otras palabras, el flujo de información se controla en forma de anillo) y una topología física en estrella (en otras palabras, está cableada en forma de estrella) FDDI: topología lógica de anillo (el flujo de información se controla en un anillo) y topología física de anillo doble (cableada en forma de anillo doble) ETHERNET Norma de mayor aceptación en el mercado local y mundial. Velocidad de transmisión de 10/100 Mbs y 1/10 Gbs. Topología lógica Bus (difusión). Topología física Bus (coaxil) o Estrella (UTP/FO). Método de acceso al medio: CSMA/CD. TOPOLOGÍA BUS Número máximo de segmentos = 5; Incluido 2 de extensión. Número máximo de nodos por segmento: Coaxil Fino: 30 nodos. Coaxil Grueso: 100 nodos. Distancia máxima por segmento: Coaxil Fino: 185 metros. Coaxil Grueso: 500 metros. Distancia mínima entre nodos: Coaxil Fino y Grueso: 0,50 metros. Ley de 5 4 3 2 1 TOPOLOGÍA BUS Ventajas: Bajo costo. Instalación simple. Desventajas: Falla en cualquier parte del cableado ocasiona interrupción de la comunicación en todo el segmento. Es difícil ubicar la falla en el conexionado. Toda tarea de prolongación o modificación de la red produce interrupción en las comunicaciones. La tecnología 10BASE2 se introdujo en 1985. La instalación fue más sencilla debido a su menor tamaño y peso, y por su mayor flexibilidad. Todavía existen en redes de este tipo, como 10BASE5, la cual no es recomendable para la instalación de redes hoy en día. Tiene un costo bajo y carece de la necesidad de hubs. Además, las NIC son difíciles de conseguir para este medio. 10BASE2 usa la codificación Manchester también. Los computadores en la LAN se conectaban entre sí con una serie de tendidos de cable coaxial sin interrupciones. Se usaban conectores BNC para unir estos tendidos a un conector en forma de T en la NIC. 10BASE2 tiene un conductor central trenzado. Cada uno de los cinco segmentos máximos de cable coaxial delgado puede tener hasta 185 metros de longitud y cada estación se conecta directamente al conector BNC con forma de "T" del cable coaxial. Sólo una estación puede transmitir a la vez, de lo contrario, se produce una colisión. 10BASE2 también usa half-duplex. La máxima velocidad de transmisión de 10BASE2 es de 10 Mbps. Puede haber hasta 30 estaciones en cada segmento individual de 10BASE2. De los cinco segmentos consecutivos en serie que se encuentran entre dos estaciones lejanas, sólo tres pueden tener estaciones conectadas. Topología estrella: Concentrador único Concentrador en Backbone TOPOLOGÍA ESTRELLA Ventajas: Alta confiabilidad. Fácil expansión y localización de fallas. Permite cableado estructurado. Desventajas: Mediano costo. La información se difunde por medio de un equipo central. Los enlaces de 10BASE-T generalmente consisten en una conexión entre la estación y un hub o switch. Los hubs son repetidores multipuertos y cuentan en el número límite de repetidores entre las estaciones lejanas. Los hubs no dividen los segmentos de la red en distintos dominios de colisión. Como los hubs o repetidores solamente extienden la longitud de una red dentro de un solo dominio de colisión, existe un límite respecto de cuántos hubs pueden ser utilizados en dicho segmento. Los puentes y los switches dividen un segmento en dominios de colisión individuales, dejando que las limitaciones de los medios determinen la distancia entre los switches. 10BASE-T limita la distancia entre los switches a 100 m (328 pies). Aunque los hubs pueden estar enlazados, es recomendable evitar esta disposición. Esto contribuye a evitar que se exceda el límite de retardo máximo entre las estaciones lejanas. Cuando se requiera del uso de múltiples hubs, es recomendable organizarlos de forma jerárquica, para así crear una estructura en forma de árbol. Mejorará el rendimiento si pocos repetidores separan las estaciones. La Figura muestra un ejemplo de arquitectura. Son aceptables todas las distancias entre las estaciones. Sin embargo, la distancia total desde un extremo de la red hasta el otro lleva la arquitectura al límite. El aspecto más importante a considerar es cómo mantener el retardo entre las estaciones lejanas al mínimo, independientemente de la arquitectura y los tipos de medios utilizados. Un retardo máximo más corto brinda un mejor rendimiento general. Los enlaces de 10BASE-T pueden tener distancias sin repetición de hasta 100 m. Aunque esta pueda parecer una distancia larga, por lo general se ve maximizada al cablear un edificio real. Los hubs pueden solucionar el problema de la distancia pero permiten que se propaguen las colisiones. La introducción difundida de los switches ha hecho que la limitación de la distancia resulte menos importante. Siempre que las estaciones de trabajo se encuentren dentro de unos 100 m de distancia del switch, esta distancia de 100 m comienza nuevamente a partir del switch. CONTROL DE ACCESO AL MEDIO CSMA/CD (Carrier Sense Multiple Access/Collision Detect) Funciona según el modo “escuchar antes de transmitir”. Primero verifica si los medios de networking están ocupados. Si no estan ocupados, el dispositivo comienza a transmitir. Si los medios están ocupados, el nodo espera un tiempo aleatorio para volver a “escuchar” el canal. Detecta Colisiones. Si dos nodos transmiten al mismo tiempo se produce una colisión. Los nodos calculan un tiempo aleatorio y vuelven a “escuchar” los medios de netwoking. Ethernet es una tecnología de broadcast de medios compartidos. El método de acceso CSMA/CD que se usa en Ethernet ejecuta tres funciones: Transmitir y recibir paquetes de datos. Decodificar paquetes de datos y verificar que las direcciones sean válidas antes de transferirlos a las capas superiores del modelo OSI. Detectar errores dentro de los paquetes de datos o en la red. En el método de acceso CSMA/CD, los dispositivos de networking que tienen datos para transmitir funcionan en el modo "escuchar antes de transmitir". Esto significa que cuando un nodo desea enviar datos, primero debe determinar si los medios de networking están ocupados. Si el nodo determina que la red está ocupada, el nodo esperará un tiempo determinado al azar antes de reintentar. Si el nodo determina que el medio de networking no está ocupado, comenzará a transmitir y a escuchar. El nodo escucha para asegurarse que ninguna otra estación transmita al mismo tiempo. Una vez que ha terminado de transmitir los datos, el dispositivo vuelve al modo de escuchar. Los dispositivos de networking detectan que se ha producido una colisión cuando aumenta la amplitud de la señal en los medios de networking. Cuando se produce una colisión, cada nodo que se encuentra en transmisión continúa transmitiendo por poco tiempo a fin de asegurar que todos los dispositivos detecten la colisión. Una vez que todos los dispositivos la han detectado, se invoca el algoritmo de postergación y la transmisión se interrumpe. Los nodos interrumpen la transmisión por un período determinado al azar, que es diferente para cada dispositivo. Cuando caduca el período de retardo cada nodo puede intentar ganar acceso al medio de networking. Los dispositivos involucrados en la colisión no tienen prioridad para transmitir datos. TRAMA ETHERNET Tramas Permiten establecer una comunicación por medio del envío de información complementaria adosada, a los datos del usuario. Objetivos Identificar las computadoras a comunicarse. Indicar el inicio y el fin de la comunicación. Controlar errores de envío. Algunos de los campos que se permiten o requieren en la Trama 802.3 de Ethernet son: Preámbulo Delimitador de inicio de trama. Dirección destino Dirección origen Longitud/Tipo Datos y relleno FCS Extensión El Preámbulo es un patrón alternado de unos y ceros que se utiliza para la sincronización de los tiempos en implementaciones de 10 Mbps y menores de Ethernet. Las versiones más veloces de Ethernet son síncronas y esta información de temporización es redundante pero se retiene por cuestiones de compatibilidad. Un Delimitador de Inicio de Trama es un campo de un octeto que marca el final de la información de temporización y contiene la secuencia de bits 10101011. El campo de dirección destino contiene la dirección destino MAC. La dirección destino puede ser unicast, multicast o de broadcast. El campo de dirección de origen contiene la dirección MAC de origen. La dirección origen generalmente es la dirección unicast del nodo de transmisión de Ethernet. Sin embargo, existe un número creciente de protocolos virtuales en uso que utilizan y a veces comparten una dirección MAC origen específica para identificar la entidad virtual. El campo Longitud/Tipo admite dos usos diferentes. Si el valor es menor a 1536 decimal, 0x600 (hexadecimal), entonces el valor indica la longitud. La interpretación de la longitud se utiliza cuando la Capa LLC proporciona la identificación del protocolo. El valor del tipo especifica el protocolo de capa superior que recibe los datos una vez que se ha completado el procesamiento de Ethernet. La longitud indica la cantidad de bytes de datos que sigue este campo. Los Campos de datos y de relleno, de ser necesario, pueden tener cualquier longitud, mientras que la trama no exceda el tamaño máximo permitido de trama. La unidad máxima de transmisión (MTU) para Ethernet es de 1500 octetos, de modo que los datos no deben superar dicho tamaño. El contenido de este campo no está especificado. Se inserta un relleno no especificado inmediatamente después de los datos del usuario cuando no hay suficientes datos de usuario para que la trama cumpla con la longitud mínima especificada. Ethernet requiere que cada trama tenga entre 64 y 1518 octetos de longitud. Una FCS contiene un valor de verificación CRC de 4 bytes, creado por el dispositivo emisor y recalculado por el dispositivo receptor para verificar la existencia de tramas dañadas. Ya que la corrupción de un solo bit en cualquier punto desde el inicio de la dirección destino hasta el extremo del campo de FCS hará que la checksum (suma de verificación) sea diferente, la cobertura de la FCS se auto-incluye. No es posible distinguir la corrupción de la FCS en sí y la corrupción de cualquier campo previo que se utilizó en el cálculo. Ethernet requiere que cada trama tenga entre 64 y 1518 octetos de longitud. TOKEN RING Norma desarrollada por IBM. Velocidad de transmisión de 4 y 16 Mbs. Topología lógica Anillo (secuencial). Topología física Estrella (UTP o STP). Número máximo de nodos: 260 con STP. 72 con UTP. Método de acceso al medio: Paso de Testigo. Topología estrella: mau Transmisión de tokens (Diapositiva 20) Token Ring e IEEE 802.5 son los principales ejemplos de redes de transmisión de tokens. Las redes de transmisión de tokens transportan una pequeña trama, denominada token, a través de la red. La posesión del token otorga el derecho de transmitir datos. Si un nodo que recibe un token no tiene información para enviar, transfiere el token a la siguiente estación terminal. Cada estación puede mantener al token durante un período de tiempo máximo determinado, según la tecnología específica que se haya implementado. Cuando una estación que transfiere un token tiene información para transmitir, toma el token y le modifica 1 bit. El token se transforma en una secuencia de inicio de trama. A continuación, la estación agrega la información para transmitir al token y envía estos datos a la siguiente estación del anillo. No hay ningún token en la red mientras la trama de información gira alrededor del anillo, a menos que el anillo acepte envíos anticipados del token. En este momento, las otras estaciones del anillo no pueden realizar transmisiones. Deben esperar a que el token esté disponible. Las redes Token Ring no tienen colisiones. Si el anillo acepta el envío anticipado del token, se puede emitir un nuevo token cuando se haya completado la transmisión de la trama. La trama de información gira alrededor del anillo hasta que llega a la estación destino establecido, que copia la información para su procesamiento. La trama de información gira alrededor del anillo hasta que llega a la estación emisora y entonces se elimina. La estación emisora puede verificar si la trama se recibió y se copió en el destino. A diferencia de las redes CSMA/CD (acceso múltiple con detección de portadora y detección de colisiones), tales como Ethernet, las redes de transmisión de tokens son determinísticas. Esto significa que se puede calcular el tiempo máximo que transcurrirá antes de que cualquier estación terminal pueda realizar una transmisión. Esta característica, y varias características de confiabilidad, hacen que las redes Token Ring sean ideales para las aplicaciones en las que cualquier retardo deba ser predecible y en las que el funcionamiento sólido de la red sea importante. Los entornos de automatización de fábricas son ejemplos de operaciones de red que deben ser sólidas y predecibles. Sistema de prioridad Las redes Token Ring usan un sistema de prioridad sofisticado que permite que determinadas estaciones de alta prioridad designadas por el usuario usen la red con mayor frecuencia. Las tramas Token Ring tienen dos campos que controlan la prioridad: el campo de prioridad y el campo de reserva. Sólo las estaciones cuya prioridad es igual o superior al valor de prioridad que posee el token pueden tomar ese token. Una vez que se ha tomado el token y éste se ha convertido en una trama de información, sólo las estaciones cuyo valor de prioridad es superior al de la estación transmisora pueden reservar el token para el siguiente paso en la red. El siguiente token generado incluye la mayor prioridad de la estación que realiza la reserva. Las estaciones que elevan el nivel de prioridad de un token deben restablecer la prioridad anterior una vez que se ha completado la transmisión. Mecanismos de manejo Las redes Token Ring usan varios mecanismos para detectar y compensar las fallas de la red. Uno de los mecanismos consiste en seleccionar una estación de la red Token Ring como el monitor activo. Esta estación actúa como una fuente centralizada de información de temporización para otras estaciones del anillo y ejecuta varias funciones de mantenimiento del anillo. Potencialmente cualquier estación de la red puede ser la estación de monitor activo. Una de las funciones de esta estación es la de eliminar del anillo las tramas que circulan continuamente. Cuando un dispositivo transmisor falla, su trama puede seguir circulando en el anillo e impedir que otras estaciones transmitan sus propias tramas; esto puede bloquear la red. El monitor activo puede detectar estas tramas, eliminarlas del anillo y generar un nuevo token. La topología en estrella de la red Token Ring de IBM también contribuye a la confiabilidad general de la red. Las MSAU (unidades de acceso de estación múltiple) activas pueden ver toda la información de una red Token Ring, lo que les permite verificar si existen problemas y, de ser necesario, eliminar estaciones del anillo de forma selectiva. Beaconing, una de las fórmulas Token Ring, detecta e intenta reparar las fallas de la red. Cuando una estación detecta la existencia de un problema grave en la red (por ejemplo, un cable roto), envía una trama de beacon. La trama de beacon define un dominio de error. Un dominio de error incluye la estación que informa acerca del error, su vecino corriente arriba activo más cercano (NAUN) y todo lo que se encuentra entre ellos. El beaconing inicia un proceso denominado autoreconfiguración, en el que los nodos situados dentro del dominio de error automáticamente ejecutan diagnósticos. Este es un intento de reconfigurar la red alrededor de las áreas en las que hay errores. Físicamente, las MSAU pueden lograrlo a través de la reconfiguración eléctrica. Trama: Del. de Inicio: Alerta de la llegada de un Token. Contiene una cadena JK0JK000. J y K son símbolos sin datos, denominados violaciones de códigos, y utilizados por la codificación de Manchester Diferencial para determinar campos delimitadores de campos de datos. Control de Acceso: Contiene los campos de prioridad (3) y reserva (3) y un bit de token y monitor. El campo está formado de la siguiente forma PPPTMRRR. PPP: bits de prioridad desde el 000 hasta el 111. T: bit token, 0=bloque token, 1=bloque de datos. M: usado por la estación monitor para supervisar el estado del token. Cuando se transmiten datos o el token está inactivo el bit está en 0. Cuando la estación monitor recibe un bloque de datos el bit se fija en 1. Si al dar vuelta el mensaje por el anillo, el bit sigue con el valor 1, la estación considera al bloque como huérfano y vuelve a poner un token. RRR: permiten reservar un token con un nivel particular de prioridad. Del. de Fin: Alerta del fin de un Token. Contiene una cadena JK1JK10E. J y K son símbolos sin datos, denominados violaciones de códigos, y utilizados por la codificación de Manchester Diferencial para determinar campos delimitadores de campos de datos. E es un bit de detección de error. Control de Trama: brinda información para poder controlar el boque. 00000000-prueba de dirección duplicada: usada para determinar si dos nodos tienen la misma MAC. 00000010-faro: permite localizar rupturas en el anillo. 00000011-Solicitar ficha: Permite a un nodo convertirse en monitor. 00000100-Purga: usado para reinicializar el anillo. 00000101-Monitor Activo presente: usado por el monitor para informar a todos los nodos que está presente. 00000110-Monitor de Reserva presente: usado por el monitor de reserva para informar a todos los nodos que está presente. Dirección destino Dirección Origen Datos del usuario Suma de verificación o CRC Estado de la trama: brinda información del estado de la trama. Este byte no es revisado por el CRC y para garantizar la integridad los bits AC se repiten y deben ser idénticos. El formato es ACxxACxx. Donde A es el bit de dirección reconocida y el C el bit de trama copiada. 00xx00xx: dirección no reconocida; nada se copia. 10xx10xx: dirección reconocida; nada se copia (posible error CRC). 01xx01xx: dirección no reconocida; datos copiados. 11xx11xx: dirección reconocida; datos copiados (transmisión exitosa). Los tokens tienen una longitud de 3 bytes y están formados por un delimitador de inicio, un byte de control de acceso y un delimitador de fin. El delimitador de inicio informa a cada estación de la llegada de un token o de una trama de datos/comandos. Este campo también incluye señales que distinguen al byte del resto de la trama al violar el esquema de codificación que se usa en otras partes de la trama. Byte de control de acceso El byte de control de acceso contiene los campos de prioridad y de reserva, así como un bit de token y uno de monitor. El bit de token distingue un token de una trama de datos/comandos y un bit de monitor determina si una trama gira continuamente alrededor del anillo. El delimitador de fin señala el final del token o de la trama de datos/comandos. Contiene bits que indican si hay una trama defectuosa y una trama que es la última de una secuencia lógica. Tramas de datos/comandos El tamaño de las tramas de datos/comandos varía según el tamaño del campo de información. Las tramas de datos transportan información para los protocolos de capa superior; las tramas de instrucciones contienen información de control y no poseen datos para los protocolos de capa superior. En las tramas de datos/comandos, un byte de control de trama sigue al byte de control de acceso. El byte de control de trama indica si la trama contiene datos o información de control. En las tramas de control, este byte especifica el tipo de información de control. A continuación del byte de control de trama hay dos campos de dirección que identifican las estaciones destino y origen. Como en el caso de IEEE 802.5, la longitud de las direcciones es de 6 bytes. El campo de datos está ubicado a continuación del campo de dirección. La longitud de este campo está limitada por el token de anillo que mantiene el tiempo, definiendo de este modo el tiempo máximo durante el cual una estación puede retener al token. A continuación del campo de datos se ubica el campo de secuencia de verificación de trama (FCS). La estación origen completa este campo con un valor calculado según el contenido de la trama. La estación destino vuelve a calcular el valor para determinar si la trama se ha dañado mientras estaba en tránsito. Si la trama está dañada se descarta. Al igual que con el token, el delimitador de fin completa la trama de datos/comandos TRANSMISIÓN DE DATOS Cuando un nodo tiene datos para transmitir, toma un token libre, cambia el bit token del campo de control de acceso a 1 y le agrega los datos, poniendo luego el bloque en el anillo. Si un nodo recibe un bloque de datos (chequea el bit de token) verifica si es el destinatario. Si no es, vuelve a colocar el bloque en el anillo. Cuando el destinatario recibe el bloque, lo copia y fija los bits AC, del campo estado de trama, en 1. Luego coloca el bloque entero en el anillo, donde continuará siendo transmitido de nodo a nodo. Cuando el nodo emisor recibe el bloque, examina el campo estado de trama. Si los bits AC están en 1, es porque la transmisión fue exitosa. De lo contrario el bloque es retransmitido. Si la transmisión fue exitosa, se retiran los datos del bloque y se cambia el token bit a 0, transformando el bloque en un token libre. El nodo que tiene posesión del token se le permite continuar transmitiendo datos, hasta que no tenga más o expire su límite de tiempo, denominado tiempo de retención de token que está establecido en 10 ms. PRIORIDAD Y RESERVA (Diapositva 26) El nodo 2 transforma el bloque token en un bloque de datos con dirección de destino del nodo 1. El nodo 2 transmite el bloque al nodo 3. El nodo 3 examina la trama y determina que no es el destinatario, además no puede transmitir porque su prioridad es menor que la del nodo 2. Pasa la trama al nodo 4. El nodo 4 recibe la trama, como tiene prioridad 5, hace una reservación de 5 fijando para esto los bits de reserva del campo control de acceso. El nodo 4 pasa la trama al nodo 1. El nodo 1 recibe la trama, como es el destinario, verifica la suma de verificación, cambia el campo de estado de la trama para señalar que ha recibido los datos y luego transmite al nodo 2. El nodo 2 al ver que la transmisión tuvo éxito, separa los datos de la trama. Normalmente el nodo podría seguir transmitiendo hasta terminar de enviar los datos o hasta que expire su límite de tiempo. Sin embargo como el bloque tiene una reserva de prioridad de valor 5, el nodo 2 no puede seguir transmitiendo porque su nivel de prioridad es 0. Por esto, emite un token libre con nivel de prioridad 5 (bits de prioridad) y lo transmite al nodo 3. El nodo 3 recibe el token libre y lo pasa al nodo 4 ya que aunque tenga datos para transmitir su prioridad es menor de la que posee el token. El nodo 4 recibe el token, cambia el bit token del campo de control de acceso, y transmite sus datos al nodo 1. Cuando la trama regresa al nodo 4 y si no hay mas datos por transmitir o se agoto el límite de tiempo, este transmite un token libre al nodo 1, permaneciendo el nivel de prioridad en 5. El nodo 1, pasa el token al nodo 2. El nodo 2 recibe el token libre y se determina que el nivel de prioridad es el mismo que cuando emitió un token nuevo. El nodo 2 reemite un nuevo token con su nivel previo de prioridad 0. El nodo que actualizó el nivel de prioridad del token, es también el responsable del reestablecimiento del nivel previo. ESTACIONES DE MONITOREO Las estaciones de monitoreo se emplean para supervisar el anillo y garantizar que esté funcionando apropiadamente. Este nodo es conocido como monitor activo y es usualmente un nodo de alta prioridad. Existen dentro del anillo otros nodos denominados monitores de reserva que monitorean al monitor activo. Si deja de funcionar el monitor activo un protocolo de contención es llamado de entre los monitores de reserva. Funciones de un monitor: Genera el primer token cuando se inicia la red. Comienza el proceso que permite a cada nodo conocer la dirección de su próximo vecino en línea. Mantiene correctamente el reloj maestro del anillo. Si no detecta un token después de una cantidad de tiempo determinado, genera un nuevo token. Verifica que un token de datos no quede perdido en el anillo. Lo que no puede hacer un monitor activo es detectar rupturas del anillo, esto lo detectan y arreglan los concentradores (MAU, MSAU) VENTAJAS Y DESVENTAJAS Ventajas Excelente performance para altas cargas. Permite el manejo de prioridades y reservas. Apto para redes de gran tráfico y gran número de nodos. Fácil conectividad a mainframes. Desventajas Alto costo en placas y accesorios. En redes de bajo o mediano tráfico, no presenta mejoras con respecto a Ethernet. FDDI (Interfez de datos distribuido por fibra) No es tan común como Ethernet o Token Ring. Utilizada típicamente como Backbone. Velocidad de transmisión mayor a 100 Mbs. Topología lógica de Anillo. Topología física de Doble Anillo redundante. Topología fibra óptica (diapositva 31) Control de acceso al medio: Trama FDDI Los campos de una trama FDDI son los siguientes: preámbulo: Prepara cada estación para recibir la trama entrante delimitador de inicio: indica el comienzo de una trama, y está formado por patrones de señalización que lo distinguen del resto de la trama control de trama: indica el tamaño de los campos de dirección, si la trama contiene datos asíncronos o síncronos y otra información de control dirección destino: contiene una dirección unicast (singular), multicast (grupal) o broadcast (toda estación); las direcciones destino tienen 6 bytes (por ejemplo, Ethernet y Token Ring) dirección origen: identifica la estación individual que envió la trama. Las direcciones origen tienen 6 bytes (como Ethernet y Token Ring) datos: información de control, o información destinada a un protocolo de capa superior secuencia de verificación de trama (FCS): la estación origen la completa con una verificación por redundancia cíclica (CRC) calculada, cuyo valor depende del contenido de la trama (como en el caso de Token Ring y Ethernet). La estación destino vuelve a calcular el valor para determinar si la trama se ha dañado durante el tránsito. La trama se descarta si está dañada. delimitador de fin: contiene símbolos que no son datos que indican el fin de la trama estado de la trama: permite que la estación origen determine si se ha producido un error y si la estación receptora reconoció y copió la trama VENTAJAS Y DESVENTAJAS Ventajas Es inmune al ruido electromagnético. Permite mayores velocidades y mayores distancias. Desventajas Es costosa, tanto su instalación como su mantenimiento. Redes Inalámbricas y Moviles Kurose 497, 498 DISPOSITIVOS DEL MODELO OSI Capa 1: cables UTP, STP, coaxil fino y grueso, fibra óptica. Conectores RJ-45, plug RJ-45, BNC, de fibra. Patchera, transeiver, repetidores, hub. Capa 2: NIC’S, puentes, switches. Capa 3: Router, Repetidor: El término repetidor proviene de los inicios de las comunicaciones de larga distancia. El término describe una situación en la que una persona en una colina repite la señal que acababa de recibir de otra persona ubicada en una colina anterior. El proceso se repetía hasta que el mensaje llegaba a destino. El telégrafo, el teléfono, las microondas, y las comunicaciones por fibra óptica usan repetidores para fortalecer la señal enviada a través de largas distancias. Un repetidor recibe una señal, la regenera, y la transmite. El propósito de un repetidor es regenerar y retemporizar las señales de red a nivel de los bits para permitir que los bits viajen a mayor distancia a través de los medios. En Ethernet e IEEE 802.3 se implementa la “regla 5-4-3”, en referencia al número de repetidores y segmentos en un Backbone de acceso compartido con topología de árbol. La “regla 5-4-3 divide la red en dos tipos de segmentos físicos: Segmentos Poblados (de usuarios), y Segmentos no Poblados (enlaces). En los segmentos poblados se conectan los sistemas de los usuarios. Los segmentos no poblados se usan para conectar los repetidores de la red entre si. La regla manda que entre cualquiera dos nodos de una red, puede existir un máximo de cinco segmentos, conectados por cuatro repetidores o concentradores, y solamente tres de los cinco segmentos pueden tener usuarios conectados a los mismos. El protocolo Ethernet requiere que una señal enviada en la LAN alcance cualquier parte de la red dentro de una longitud de tiempo especificada. La “regla 5-4-3” asegura que esto pase. Cada repetidor a través del cual pasa la señal añade una pequeña cantidad de tiempo al proceso, por lo que la regla está diseñada para minimizar el tiempo de transmisión de la señal. Demasiada latencia en la LAN incrementa la cantidad de colisiones tardías, haciendo la LAN menos eficiente. Hub: Los hubs en realidad son repetidores multipuerto. En muchos casos, la diferencia entre los dos dispositivos radica en el número de puertos que cada uno posee. Mientras que un repetidor convencional tiene sólo dos puertos, un hub por lo general tiene de cuatro a veinticuatro puertos. Los hubs por lo general se utilizan en las redes Ethernet 10BASE-T o 100BASE-T, aunque hay otras arquitecturas de red que también los utilizan. El uso de un hub hace que cambie la topología de la red desde un bus lineal, donde cada dispositivo se conecta de forma directa al cable, a una en estrella. En un hub, los datos que llegan a un puerto del hub se transmiten de forma eléctrica a todos los otros puertos conectados al mismo segmento de red, salvo a aquel puerto desde donde enviaron los datos. Los hubs vienen en tres tipos básicos: Pasivo: Un hub pasivo sirve sólo como punto de conexión física. No manipula o visualiza el tráfico que lo cruza. No amplifica o limpia la señal. Un hub pasivo se utiliza sólo para compartir los medios físicos. En sí, un hub pasivo no requiere energía eléctrica. Activo: Se debe conectar un hub activo a un tomacorriente porque necesita alimentación para amplificar la señal entrante antes de pasarla a los otros puertos. Inteligente: A los hubs inteligentes a veces se los denomina "smart hubs". Estos dispositivos básicamente funcionan como hubs activos, pero también incluyen un chip microprocesador y capacidades diagnósticas. Los hubs inteligentes son más costosos que los hubs activos, pero resultan muy útiles en el diagnóstico de fallas. Los dispositivos conectados al hub reciben todo el tráfico que se transporta a través del hub. Cuántos más dispositivos están conectados al hub, mayores son las probabilidades de que haya colisiones. Las colisiones ocurren cuando dos o más estaciones de trabajo envían al mismo tiempo datos a través del cable de la red. Cuando esto ocurre, todos los datos se corrompen. Cada dispositivo conectado al mismo segmento de red se considera un miembro de un dominio de colisión. Algunas veces los hubs se llaman concentradores, porque los hubs sirven como punto de conexión central para una LAN de Ethernet. Cisco IOS y CLI El Cisco IOS (Internetworking Operating System) es el sistema operativo empleado por los routers de Cisco Systems. El Cisco IOS CLI (Command-Line Interface) es el método principal para la configuración, monitorización y mantenimiento de equipos Cisco. El acceso a este interfaz se realiza normalmente a través del puerto de consola de los routers. El conector de este puerto puede ser de diferentes tipos. Uno muy común es un conector RJ45 (lo cual NO quiere decir que sea un interfaz Ethernet). Se suele emplear un cable especial que ofrece un conector RJ45 en un extremo y serie para un PC en el otro. El interfaz CLI permite ejecutar comandos del Cisco IOS y una vez configurado el router se puede permitir el acceso a dicho interfaz a través de un interfaz de red además de por el puerto de consola. NIC’S Puente: A veces, es necesario dividir una LAN grande en segmentos más pequeños que sean más fáciles de manejar.   Esto disminuye la cantidad de tráfico en una sola LAN y puede extender el área geográfica más allá de lo que una sola LAN puede admitir. Los dispositivos que se usan para conectar segmentos de redes son los puentes, switches, routers y gateways. Los switches y los puentes operan en la capa de enlace de datos del modelo de referencia OSI. La función del puente es tomar decisiones inteligentes con respecto a pasar señales o no al segmento siguiente de la red. Cuando un puente recibe una trama a través de la red, se busca la dirección MAC destino en la tabla de puenteo para determinar si hay que filtrar, inundar, o copiar la trama en otro segmento. El proceso de decisión tiene lugar de la siguiente forma:   Si el dispositivo destino se encuentra en el mismo segmento que la trama, el puente impide que la trama vaya a otros segmentos. Este proceso se conoce como filtrado. Si el dispositivo destino está en un segmento distinto, el puente envía la trama hasta el segmento apropiado. Si el puente desconoce la dirección destino, el puente envía la trama a todos los segmentos excepto aquel en el cual se recibió. Este proceso se conoce como inundación. Si se ubica de forma estratégica, un puente puede mejorar el rendimiento de la red de manera notoria. A medida que se agregan más nodos al segmento físico de Ethernet, aumenta la contención de los medios. Ethernet es un medio compartido, lo que significa que sólo un nodo puede transmitir datos a la vez. Al agregar más nodos, se aumenta la demanda sobre el ancho de banda disponible y se impone una carga adicional sobre los medios. Cuando aumenta el número de nodos en un solo segmento, aumenta la probabilidad de que haya colisiones, y esto causa más retransmisiones. Una solución al problema es dividir un segmento grande en partes y separarlo en dominios de colisión aislados. Para lograr esto, un puente guarda una tabla de direcciones MAC y sus puertos asociados. El puente luego envía o descarta tramas basándose en las entradas de su tabla. Los pasos siguientes ilustran el modo de operación de un puente: El puente se acaba de encender, por lo tanto la tabla de puenteo se encuentra vacía. El puente sólo espera el tráfico en ese segmento. Cuando detecta el tráfico, el puente lo procesa. El Host A está haciendo ping hacia el Host B. Como los datos se transmiten por todo el segmento del dominio de colisión, tanto el puente como el Host B procesan el paquete. El puente agrega la dirección origen de la trama a su tabla de puenteo. Como la dirección se encontraba en el campo de dirección origen y se recibió la trama en el Puerto 1, la trama debe estar asociada con el puerto 1 de la tabla. La dirección de destino de la trama se compara con la tabla de puenteo. Ya que la dirección no se encuentra en la tabla, aunque está en el mismo dominio de colisión, la trama se envía a otro segmento. La dirección del Host B no se registró aún ya que sólo se registra la dirección origen de una trama. El Host B procesa la petición del ping y transmite una repuesta ping de nuevo al Host A. El dato se transmite a lo largo de todo el dominio de colisión. Tanto el Host A como el puente reciben la trama y la procesan. El puente agrega la dirección origen de la trama a su tabla de puenteo. Debido a que la dirección de origen no estaba en la tabla de puenteo y se recibió en el puerto 1, la dirección origen de la trama debe estar asociada con el puerto 1 de la tabla. La dirección de destino de la trama se compara con la tabla de puenteo para verificar si su entrada está allí. Debido a que la dirección se encuentra en la tabla, se verifica la asignación del puerto. La dirección del Host A está asociada con el puente por el que la trama llegó, entonces la trama no se envía. El Host A ahora va a hacer ping hacia el Host C. Ya que los datos se transmiten en todo el segmento del dominio de colisión, tanto el puente como el Host B procesan la trama. El Host B descarta la trama porque no era el destino establecido. El puente agrega la dirección origen de la trama a su tabla de puenteo. Debido a que la dirección ya estaba registrada en la tabla de puenteo, simplemente se renueva. La dirección de destino de la trama se compara con la tabla de puenteo para verificar si su entrada está allí. Debido a que la dirección no se encuentra en la tabla, se envía la trama a otro segmento. La dirección del Host C no se registró aún, ya que sólo se registra la dirección origen de una trama. El Host C procesa la petición del ping y transmite una repuesta ping de nuevo al Host A. El dato se transmite a lo largo de todo el dominio de colisión. Tanto el Host D como el puente reciben la trama y la procesan. El Host D descarta la trama porque no era el destino establecido. El puente agrega la dirección origen de la trama a su tabla de puenteo. Ya que la dirección se encontraba en el campo de dirección origen y la trama se recibió en el Puerto 2, la trama debe estar asociada con el puerto 2 de la tabla. La dirección destino de la trama se compara con la tabla de puenteo para verificar si su entrada está allí. La dirección se encuentra en la tabla pero está asociada con el puerto 1, entonces la trama se envía al otro segmento. Cuando el Host D transmite datos, su dirección MAC también se registrará en la tabla de puenteo. Esta es la manera en que el puente controla el tráfico entre los dominios de colisión. Estos son los pasos que utiliza el puente para enviar y descartar tramas que se reciben en cualquiera de sus puertos. Switch: Un switch es simplemente un puente con muchos puertos. Cuando sólo un nodo está conectado a un puerto de switch, el dominio de colisión en el medio compartido contiene sólo dos nodos. Los dos nodos en este segmento pequeño, o dominio de colisión, constan del puerto de switch y el host conectado a él. Estos segmentos físicos pequeños son llamados microsegmentos. Otra capacidad emerge cuando sólo dos nodos se conectan. En una red que utiliza cableado de par trenzado, un par se usa para llevar la señal transmitida de un nodo al otro. Un par diferente se usa para la señal de retorno o recibida. Es posible que las señales pasen a través de ambos pares de forma simultánea. La capacidad de comunicación en ambas direcciones al mismo tiempo se conoce como full duplex. La mayoría de los switch son capaces de admitir full duplex, como también lo son las tarjetas de interfaz de red (Network Interface Card, NIC) En el modo full duplex, no existe contención para los medios. Así, un dominio de colisión ya no existe. En teoría, el ancho de banda se duplica cuando se usa full duplex. Además de la aparición de microprocesadores y memoria más rápidos, otros dos avances tecnológicos hicieron posible la aparición de los switch. La memoria de contenido direccionable (Content Addressable Memory, CAM) es una memoria que esencialmente funciona al revés en comparación con la memoria convencional. Ingresar datos a la memoria devolverá la dirección asociada. El uso de memoria CAM permite que un switch encuentre directamente el puerto que está asociado con la dirección MAC sin usar un algoritmo de búsqueda. Un circuito integrado de aplicación específica (Application Specific Integrated Circuit, ASIC) es un dispositivo formado de compuertas lógicas no dedicadas que pueden programarse para realizar funciones a velocidades lógicas. Las operaciones que antes se llevaban a cabo en software ahora pueden hacerse en hardware usando ASIC. El uso de estas tecnologías redujo enormemente los retardos causados por el procesamiento del software y permitió que un switch pueda mantenerse al ritmo de la demanda de los datos de muchos microsegmentos y velocidades de bits altas. Modos de conmutación Cómo se conmuta una trama a su puerto de destino es una compensación entre la latencia y la confiabilidad. Un switch puede comenzar a transferir la trama tan pronto como recibe la dirección MAC destino. La conmutación en este punto se llama conmutación por el método de corte y da como resultado una latencia más baja en el switch. Sin embargo, no se puede verificar la existencia de errores. En el otro extremo, el switch puede recibir toda la trama antes de enviarla al puerto destino. Esto le da al software del switch la posibilidad de controlar la secuencia de verificación de trama (Frame Check Sequence, FCS) para asegurar que la trama se haya recibido de modo confiable antes de enviarla al destino. Si se descubre que la trama es inválida, se descarta en este switch en vez de hacerlo en el destino final. Ya que toda la trama se almacena antes de ser enviada, este modo se llama de almacenamiento y envío. El punto medio entre los modos de corte y de almacenamiento y envío es el modo libre de fragmentos. El modo libre de fragmentos lee los primeros 64 bytes, que incluye el encabezado de la trama, y la conmutación comienza antes de que se lea todo el campo de datos y la checksum. Este modo verifica la confiabilidad de direccionamiento y la información del protocolo de control de enlace lógico (Logical Link Control, LLC) para asegurar que el destino y manejo de los datos sean correctos. Al usar conmutación por métodos de corte, tanto el puerto origen como el destino deben operar a la misma velocidad de bit para mantener intacta la trama. Esto se denomina conmutación síncrona. Si las velocidades de bit no son iguales, la trama debe almacenarse a una velocidad de bit determinada antes de ser enviada a otra velocidad de bit. Esto se conoce como conmutación asíncrona. En la conmutación asimétrica se debe usar el método de almacenamiento y envío. Una conmutación asimétrica proporciona conexiones conmutadas entre puertos con distinto ancho de banda, tal como una combinación de puertos de 1000 Mbps y de 100 Mbps. La conmutación asimétrica ha sido optimizada para el flujo de tráfico cliente/servidor en el que muchos clientes se comunican con el servidor de forma simultánea, lo cual requiere mayor ancho de banda dedicado al puerto del servidor para evitar un cuello de botella en ese puerto. CAPA 3: Router: Los routers son los responsables de enrutar paquetes de datos desde su origen hasta su destino en la LAN, y de proveer conectividad a la WAN. Dentro de un entorno de LAN, el router contiene broadcasts, brinda servicios locales de resolución de direcciones, tal como ARP, y puede segmentar la red utilizando una estructura de subred. Para brindar estos servicios, el router debe conectarse a la LAN y a la WAN. Además de determinar el tipo de cable, es necesario determinar si se requieren conectores DTE o DCE. El DTE es el punto final del dispositivo del usuario en un enlace WAN. El DCE en general es el punto donde la responsabilidad de enviar los datos se transfiere al proveedor de servicios. Al conectarse en forma directa a un proveedor de servicios, o a un dispositivo como CSU/DSU que suministrará la señal de temporización, el router actúa como DTE y necesita un cable serial DTE. En general, esta es la forma de conectar los routers. Sin embargo, hay casos en que los routers tendrán que actuar como DCE. Al armar un escenario de routers conectados espalda contra espalda en un ámbito de prueba, uno de los routers debe ser DTE y el otro DCE. Al cablear routers para obtener conectividad serial, los routers tendrán puertos fijos o modulares. El tipo de puerto que se utilice afectará la sintaxis que se use posteriormente para configurar cada interfaz. Las interfaces de los routers que tienen puertos seriales fijos están rotuladas según tipo y número de puerto. Las interfaces de los routers que tienen puertos seriales modulares se rotulan según el tipo de puerto, ranura y número de puerto. La ranura indica la ubicación del módulo. Para configurar un puerto de una tarjeta modular, es necesario especificar la interfaz usando la sintaxis "tipo de puerto/número de ranura/número de puerto." Use el rótulo "serial 1/0," cuando la interfaz sea serial, el número de ranura donde se instala el módulo es el 1, y el puerto al que se hace referencia es el puerto 0. Descripción del enrutamiento La función de enrutamiento es una función de la Capa 3 del modelo OSI. El enrutamiento es un esquema de organización jerárquico que permite que se agrupen direcciones individuales. Estas direcciones individuales son tratadas como unidades únicas hasta que se necesita la dirección destino para la entrega final de los datos. El enrutamiento es el proceso de hallar la ruta más eficiente desde un dispositivo a otro. El dispositivo primario que realiza el proceso de enrutamiento es el Router. Las siguientes son las dos funciones principales de un Router: Los Routers deben mantener tablas de enrutamiento y asegurarse de que otros Routers conozcan las modificaciones a la topología de la red. Esta función se lleva a cabo utilizando un protocolo de enrutamiento para comunicar la información de la red a otros Routers. Cuando los paquetes llegan a una interfaz, el Router debe utilizar la tabla de enrutamietno para establecer el destino. El Router envía los paquetes a la interfaz apropiada, agrega la información de entramado necesaria para esa interfaz, y luego transmite la trama. Un Router es un dispositivo de la capa de red que usa una o más métricas de enrutamiento para determinar cuál es la ruta óptima a través de la cual se debe enviar el tráfico de red. Las métricas de enrutamiento son valores que se utilizan para determinar las ventajas de una ruta sobre otra.  Los protocolos de enrutamiento utilizan varias combinaciones de métricas para determinar la mejor ruta para los datos. Los Routers interconectan segmentos de red o redes enteras. Pasan tramas de datos entre redes basándose en la información de Capa 3. Los Routers toman decisiones lógicas con respecto a cuál es la mejor ruta para la entrega de datos. Luego dirigen los paquetes al puerto de salida adecuado para que sean encapsulado para la transmisión. Los pasos del proceso de encapsulamiento y desencapsulamiento ocurren cada vez que un paquete atraviesa un router. El router debe desencapsular la trama de capa 2 y examinar la dirección de capa 3. Como se muestra en la figura , el porceso completo del envío de datos de un dispositivo a otro comprende encapsulamiento y desencapsulamiento de las siete capas OSI. Este proceso divide el flujo de datos en segmentos, agrega los encabezados apropiados e información final y luego transmite los datos. El proceso de desencapsulamiento es el proceso inverso: quita los encabezados e información final, y luego combina los datos en un flujo continuo. Este curso se concentra en el protocolo enrutable más común, el protocolo de Internet (IP) Otros ejemplos de protocolos enrutables incluyen IPX/SPX y AppleTalk. Estos protocolos admiten la Capa 3. Los protocolos no enrutables no admiten la Capa 3. El protocolo no enrutable más común es el NetBEUI. NetBeui es un protocolo pequeño, veloz y eficiente que está limitado a la entrega de tramas de un segmento Los routers son los responsables de enrutar paquetes de datos desde su origen hasta su destino en la LAN, y de proveer conectividad a la WAN. Dentro de un entorno de LAN, el router contiene broadcasts, brinda servicios locales de resolución de direcciones, tal como ARP, y puede segmentar la red utilizando una estructura de subred. Para brindar estos servicios, el router debe conectarse a la LAN y a la WAN. Además de determinar el tipo de cable, es necesario determinar si se requieren conectores DTE o DCE. El DTE es el punto final del dispositivo del usuario en un enlace WAN. El DCE en general es el punto donde la responsabilidad de enviar los datos se transfiere al proveedor de servicios. Al conectarse en forma directa a un proveedor de servicios, o a un dispositivo como CSU/DSU que suministrará la señal de temporización, el router actúa como DTE y necesita un cable serial DTE. En general, esta es la forma de conectar los routers. Sin embargo, hay casos en que los routers tendrán que actuar como DCE. Al armar un escenario de routers conectados espalda contra espalda en un ámbito de prueba, uno de los routers debe ser DTE y el otro DCE. Al cablear routers para obtener conectividad serial, los routers tendrán puertos fijos o modulares. El tipo de puerto que se utilice afectará la sintaxis que se use posteriormente para configurar cada interfaz. Las interfaces de los routers que tienen puertos seriales fijos están rotuladas según tipo y número de puerto. Las interfaces de los routers que tienen puertos seriales modulares se rotulan según el tipo de puerto, ranura y número de puerto. La ranura indica la ubicación del módulo. Para configurar un puerto de una tarjeta modular, es necesario especificar la interfaz usando la sintaxis "tipo de puerto/número de ranura/número de puerto." Use el rótulo "serial 1/0," cuando la interfaz sea serial, el número de ranura donde se instala el módulo es el 1, y el puerto al que se hace referencia es el puerto 0. Determinación de la ruta La determinación de la ruta ocurre a nivel de la capa de red. La determinación de la ruta permite que un Router compare la dirección destino con las rutas disponibles en la tabla de enrutamiento, y seleccione la mejor ruta. Los Routers conocen las rutas disponibles por medio del enrutamiento estático o dinámico. Las rutas configuradas de forma manual por el administrador de la red son las rutas estáticas. Las rutas aprendidas por medio de otros Routers usando un protocolo de enrutamiento son las rutas dinámicas. El Router utiliza la determinación de la ruta para decidir por cuál puerto debe enviar un paquete en su trayecto al destino. Este proceso se conoce como enrutamiento del paquete. Cada Router que un paquete encuentra a lo largo del trayecto se conoce como salto. El número de saltos es la distancia cubierta. La determinación de la ruta puede compararse a una persona que conduce un automóvil desde un lugar de la ciudad a otro. El conductor tiene un mapa que muestra las calles que puede tomar para llegar a su destino, así como el Router posee una tabla de enrutamiento. El conductor viaja desde una intersección a otra al igual que un paquete va de un Router a otro en cada salto. En cualquier intersección el conductor determinar su ruta al ir hacia la izquierda, la derecha, o avanzar derecho. Del mismo modo, un Router decide por cuál puerto de salida debe enviarse un paquete. Las decisiones del conductor se ven influenciadas por múltiples factores como el tráfico en la calle, el límite de velocidad, el número de carriles, si hay peaje o no, y si esa ruta se encuentra cerrada o no con frecuencia. A veces es más rápido tomar un recorrido más largo por una calle más angosta y menos transitada que ir por una autopista con mucho tránsito. De la misma forma, los Routers pueden tomar decisiones basándose en la carga, el ancho de banda, el retardo, el costo y la confiabilidad en los enlaces de red. Se utiliza el siguiente proceso durante la determinación de la ruta para cada paquete que se enruta: El router compara la dirección IP del paquete recibido contra las tablas que tiene. Se obtiene la dirección destino del paquete. Se aplica la máscara de la primera entrada en la tabla de enrutamiento a la dirección destino. Se compara el destino enmascarado y la entrada de la tabla de enrutamiento. Si hay concordancia, el paquete se envía al puerto que está asociado con la entrada de la tabla. Si no hay concordancia, se compara con la siguiente entrada de la tabla. Si el paquete no concuerda con ninguno de las entradas de la tabla, el Router verifica si se envió una ruta por defecto. Si se envió una ruta por defecto, el paquete se envía al puerto asociado. Una ruta por defecto es aquella que está configurada por el administrador de la red como la ruta que debe usarse si no existe concordancia con las entradas de la tabla de enrutamiento. El paquete se elimina si no hay una ruta por defecto. Por lo general se envía un mensaje al dispositivo emisor que indica que no se alcanzó el destino. El enrutamiento en comparación con la conmutación A menudo, se compara el enrutamiento con la conmutación. Un observador inexperto puede pensar que el enrutamiento y la conmutación cumplen la misma función. La diferencia básica es que la conmutación tiene lugar en la Capa 2, o sea, la capa de enlace de los datos, en el modelo OSI y el enrutamiento en la Capa 3. Esta diferencia significa que el enrutamiento y la conmutación usan información diferente en el proceso de desplazar los datos desde el origen al destino. La relación entre la conmutación y el enrutamiento es comparable con la relación entre las comunicaciones telefónicas locales y de larga distancia. Cuando se realiza una comunicación telefónica a un número dentro de un mismo código de área, un Switch local administra la llamada. Sin embargo, el Switch local sólo puede llevar registro de sus propios números locales. El Switch local no puede administrar todos los números telefónicos del mundo. Cuando el Switch recibe un pedido de llamada fuera de su código de área, transfiere la llamada a un Switch de nivel superior que reconoce los códigos de área. El Switch de nivel superior entonces transfiere la llamada de modo que finalmente llegue al Switch local del código de área marcado. El Router tiene una función parecida a la del Switch de nivel superior en el ejemplo del teléfono. La figura muestra las tablas ARP de las direcciones MAC de Capa 2 y las tablas de enrutamiento de las direcciones IP de Capa 3. Cada interfaz de computador y de Router mantiene una tabla ARP para comunicaciones de Capa 2. La tabla ARP funciona sólo para el dominio de broadcast al cual está conectada.. El Router también mantiene una tabla de enrutamiento que le permite enrutar los datos fuera del dominio de broadcast. Cada componente de la tabla ARP contiene un par de direcciones IP-MAC (en el gráfico las direcciones MAC están representadas por la sigla MAC, debido a que las direcciones verdaderas son demasiado largas y no caben en el gráfico). Las tablas de enrutamiento también registran cómo se informó la ruta (en este caso ya sea directamente conectada [C] o informada por RIP [R]), la dirección IP de red de las redes alcanzables, el número de saltos o distancia hasta dichas redes, y la interfaz por la que los datos deben enviarse para llegar a la red de destino. Los switches Capa 2 construyen su tabla usando direcciones MAC. Cuando un host va a mandar información a una dirección IP que no es local, entonces manda la trama al router más cercano., también conocida como su Gateway por defecto. El Host utiliza las direcciones MAC del Router como la dirección MAC destino. Un switch interconecta segmentos que pertenecen a la misma red o subred lógicas.  Para los host que no son locales, el switch reenvía la trama a un router en base a la dirección MAC destino. El router examina la dirección destino de Capa 3 para llevar a cabo la decisión de la mejor ruta. El host X sabe la dirección IP del router puesto que en la configuración del host se incluye la dirección del Gateway por defecto. Únicamente un switch mantiene una tabla de direcciones MAC conocidas, el router mantiene una tabla de direcciones IP. Las direcciones MAC no están organizadas de forma lógica. Las IP están organizadas de manera jerárquica. Un switch soporta un número limitado de direcciones MAC desorganizadas debido a que sólo tiene que buscar direcciones MAC que están dentro de su segmento. Los Routers necesitan administrar un mayor volumen de direcciones. Entonces, los Routers necesitan un sistema de direccionamiento organizado que pueda agrupar direcciones similares y tratarlas como una sola unidad de red hasta que los datos alcancen el segmento destino. Si las direcciones IP no estuvieran organizadas, Internet simplemente no funcionaría. Sería como tener una biblioteca que contiene una pila enorme con millones de páginas sueltas de material impreso. Este material resultaría inútil porque sería imposible ubicar un documento en particular. Si las páginas están organizadas en libros y cada página está individualizada, y además los libros están registrados en un índice, es mucho más sencillo ubicar y utilizar la información. Otra diferencia entre las redes conmutadas y enrutadas es que las redes conmutadas no bloquean los broadcasts. Como resultado, los Switches pueden resultar abrumados por las tormentas de broadcast. Los Routers bloquean los broadcasts de LAN, de modo que una tormenta de broadcast sólo afecta el dominio de broadcast de origen. Debido a que los Routers bloquean broadcasts, pueden brindar un mayor nivel de seguridad y control de ancho de banda que los Switches. Colisiones: Se producen cuando dos bits se propagan al mismo tiempo en la misma red. Son graves cuando existe un exceso de tráfico en la red. El área dentro de la red donde los paquetes se originan y colisionan, se denomina DOMINIO de COLISIÓN, e incluye todos los entornos de medios compartidos. Entorno de medios compartidos Comprender los dominios de colisión requiere de la comprensión de lo que son las colisiones y cómo se originan. Para ayudar a explicar las colisiones, aquí se revisan los medios y topologías de Capa 1. Algunas redes se conectan directamente y todos los hosts comparten la Capa Ejemplos: Entorno de medios compartidos: Ocurre cuando varios hosts tienen acceso al mismo medio. Por ejemplo, si varios PC se encuentran conectados al mismo cable físico, a la misma fibra óptica entonces se dice que comparten el mismo entorno de medios. Entorno extendido de medios compartidos: Es un tipo especial de entorno de medios compartidos en el que los dispositivos de networking pueden ampliar el entorno de modo que pueda incluir accesos múltiples o distancias mayores de cableado. Entorno de red punto a punto: Se usa mucho en las conexiones de red de servicio de acceso telefónico y es la más común para el usuario hogareño. Se trata de un entorno de networking compartido en el que un dispositivo se conecta a un dispositivo solamente, como por ejemplo un computador al proveedor de servicios de Internet por cable módem y línea telefónica. Es importante saber identificar un entorno de medios compartidos, debido a que las colisiones sólo ocurren en un entorno así. Un sistema de autopistas es un ejemplo de entorno compartido en el que las colisiones pueden ocurrir porque varios vehículos están utilizando las mismas rutas. A medida que más vehículos entran a las rutas, es probable que haya más colisiones. Una red de datos compartida se parece mucho a una autopista. Existen reglas para determinar quién tiene acceso a los medios de red, pero a veces las reglas simplemente no pueden manejar el volumen de tráfico, entonces se producen colisiones. El estado de error más común en redes Ethernet son las colisiones. Las colisiones son el mecanismo para resolver la contención del acceso a la red. Unas pocas colisiones proporcionan una forma simple y sin problemas, que usa pocos recursos, para que los nodos de la red arbitren la contención para el recurso de red. Cuando la contención de la red se vuelve demasiado grave, las colisiones se convierten en un impedimento significativo para la operación útil de la red. Las colisiones producen una pérdida del ancho de banda de la red equivalente a la transmisión inicial y a la señal de congestión de la colisión. Esto es una demora en el consumo y afecta a todos los nodos de la red causando posiblemente una significativa reducción en su rendimiento. La mayoría de las colisiones se producen cerca del comienzo de la trama, a menudo, antes de la SFD. Las colisiones que se producen antes de la SFD generalmente no se informan a las capas superiores, como si no se produjeran. Tan pronto como se detecta una colisión, las estaciones transmisoras envían una señal de congestión de 32 bits que la impone. Esto se hace de manera que se corrompen por completo los datos transmitidos y todas las estaciones tienen la posibilidad de detectar la colisión. En la Figura dos estaciones escuchan para asegurarse de que el cable esté inactivo, luego transmiten. La Estación 1 pudo transmitir un porcentaje significativo de la trama antes de que la señal alcanzara el último segmento del cable. La Estación 2 no había recibido el primer bit de la transmisión antes de iniciar su propia transmisión y sólo pudo enviar algunos bits antes de que la NIC detectara la colisión. De inmediato, la Estación 2 interrumpió la transmisión actual, la sustituyó con la señal de congestión de 32 bits y cesó todas sus transmisiones. Durante la colisión y el evento de congestión que la Estación 2 experimentaba, los fragmentos de la colisión iban en ruta por el dominio de colisiones repetido hacia la Estación 1. La Estación 2 completó la transmisión de la señal de congestión de 32 bits y quedó en silencio antes de que la colisión se propagara hacia la Estación 1, que todavía no sabía de la misma y continuaba transmitiendo. Finalmente, cuando los fragmentos de la colisión llegaron a la Estación 1, ésta cortó la transmisión en curso y sustituyó con la señal de congestión de 32 bits el resto de la trama que estaba transmitiendo. Luego de enviar la señal de congestión de 32 bits, la Estación 1 dejó de transmitir. Una señal de congestión puede estar compuesta por cualquier dato binario siempre que no forme una checksum apropiada para la porción de la trama ya transmitida. El patrón de datos que se observa con mayor frecuencia para una señal de congestión es simplemente un patrón de uno, cero, uno, cero que se repite, al igual que el Preámbulo. Cuando se observa con un analizador de protocolos, este patrón aparece como una secuencia repetida de A ó 5 hexadecimales. Los mensajes corrompidos, transmitidos de forma parcial, generalmente se conocen como fragmentos de colisión o runts. Las colisiones normales tienen menos de 64 octetos de largo y, por lo tanto, reprueban tanto la prueba de longitud mínima como la prueba de la checksum de FCS. Tipos de colisiones Por lo general, las colisiones se producen cuando dos o más estaciones de Ethernet transmiten al mismo tiempo dentro de un dominio de colisión. Una colisión simple es una colisión que se detecta al tratar de transmitir una trama, pero en el siguiente intento es posible transmitir la trama con éxito. Las colisiones múltiples indican que la misma trama colisionó una y otra vez antes de ser transmitida con éxito. Los resultados de las colisiones, los fragmentos de colisión, son tramas parciales o corrompidas de menos de 64 octetos y que tienen una FCS inválida. Los tres tipos de colisiones son: Locales Remotas Tardías Para crear una colisión local en un cable coaxial (10BASE2 y 10BASE5), la señal viaja por el cable hasta que encuentra una señal que proviene de la otra estación. Entonces, las formas de onda se superponen cancelando algunas partes de la señal y reforzando o duplicando otras. La duplicación de la señal empuja el nivel de voltaje de la señal más allá del máximo permitido. Esta condición de exceso de voltaje es, entonces, detectada por todas las estaciones en el segmento local del cable como una colisión. El inicio de la forma de onda en la Figura contiene datos normales codificados en Manchester. Unos pocos ciclos dentro de la muestra, la amplitud de onda se duplica. Este es el inicio de la colisión, donde las dos formas de onda se superponen. Justo antes de la finalización de la muestra, la amplitud se vuelve normal. Esto sucede cuando la primera estación que detecta la colisión deja de transmitir y cuando todavía se observa la señal de congestión proveniente de la segunda estación que ha sufrido la colisión. En el cable UTP, como por ejemplo 10BASE-T, 100BASE-TX y 1000BASE-T, la colisión se detecta en el segmento local sólo cuando una estación detecta una señal en el par de recepción (RX) al mismo tiempo que está enviando una señal en el par de transmisión (TX). Como las dos señales se encuentran en pares diferentes, no se produce un cambio en la característica de la señal. Las colisiones se reconocen en UTP sólo cuando la estación opera en half duplex. La única diferencia funcional entre la operación en half duplex y full duplex en este aspecto es si es posible o no que los pares de transmisión y de recepción se utilicen al mismo tiempo. Si la estación no participa en la transmisión, no puede detectar una colisión local. Por otra parte, una falla en el cable, como por ejemplo una diafonía excesiva, puede hacer que una estación perciba su propia transmisión como si fuera una colisión local. Las características de una colisión remota son una trama que mide menos que la longitud mínima, tiene una checksum de FCS inválida, pero no muestra el síntoma de colisión local del exceso de voltaje o actividad de transmisión/recepción simultánea. Este tipo de colisión generalmente es el resultado de colisiones que se producen en el extremo lejano de una conexión con repetidores. El repetidor no envía un estado de exceso de voltaje y no puede hacer que una estación tenga ambos pares de transmisión y de recepción activos al mismo tiempo. La estación tendría que estar transmitiendo para que ambos pares estén activos y esto constituiría una colisión local. En las redes de UTP este es el tipo más común de colisión que se observa. No hay posibilidad de que se produzca una colisión normal o legal después de que las estaciones transmitan los primeros 64 octetos de datos. Las colisiones que se producen después de los primeros 64 octetos reciben el nombre de "colisiones tardías". La diferencia más importante entre las colisiones tardías y las colisiones que se producen antes de los primeros 64 octetos radica en que la NIC de Ethernet retransmitirá de forma automática una trama que ha sufrido una colisión normal, pero no retransmitirá automáticamente una trama que ha sufrido una colisión tardía. En lo que respecta a la NIC, todo salió bien y las capas superiores de la pila del protocolo deben determinar si se perdió la trama. A diferencia de la retransmisión, una estación que detecta una colisión tardía la maneja de la misma forma que si fuera una colisión normal. Dominios de colisión Los dominios de colisión son los segmentos de red física conectados, donde pueden ocurrir colisiones. Las colisiones causan que la red sea ineficiente. Cada vez que ocurre una colisión en la red, se detienen todas las transmisiones por un período de tiempo. La duración de este período sin transmisión varía y depende de un algoritmo de postergación para cada dispositivo de la red. Los tipos de dispositivos que interconectan los segmentos de medios definen los dominios de colisión. Estos dispositivos se clasifican en dispositivos OSI de Capa 1, 2 ó 3. Los dispositivos de Capa 1 no dividen los dominios de colisión; los dispositivos de Capa 2 y 3 sí lo hacen. La división o aumento del número de dominios de colisión con los dispositivos de Capa 2 y 3 se conoce también como segmentación. Los dispositivos de Capa 1, tales como los repetidores y hubs, tienen la función primaria de extender los segmentos de cable de Ethernet Al extender la red se pueden agregar más hosts, Sin embargo, cada host que se agrega aumenta la cantidad de tráfico potencial en la red. Como los dispositivos de Capa 1 transmiten todo lo que se envía en los medios, cuanto mayor sea el tráfico transmitido en un dominio de colisión, mayor serán las posibilidades de colisión. El resultado final es el deterioro del rendimiento de la red, que será mayor si todos los computadores en esa red exigen anchos de banda elevados. En fin, al colocar dispositivos de Capa 1 se extienden los dominios de colisión, pero la longitud de una LAN puede verse sobrepasada y causar otros problemas de colisión. La regla de los cuatro repetidores en Ethernet establece que no puede haber más de cuatro repetidores o hubs repetidores entre dos computadores en la red. Para asegurar que una red 10BASE-T con repetidores funcionará de forma adecuada, el cálculo del retardo del recorrido de ida y vuelta debe estar dentro de ciertos límites, de otro modo todas las estaciones de trabajo no podrán escuchar todas las colisiones en la red. La latencia del repetidor, el retardo de propagación y la latencia de la NIC contribuyen a la regla de 4 repetidores. Si se excede la regla de los cuatro repetidores, esto puede llevar a la violación del límite de retardo máximo. Cuando se supera este límite de retardo, la cantidad de colisiones tardías aumenta notablemente. Una colisión tardía es una colisión que se produce después de la transmisión de los primeros 64 bytes de la trama. Cuando se produce una colisión tardía, no se requiere que los conjuntos de chips en las NIC retransmitan de forma automática. Estas tramas de colisión tardía agregan un retardo denominado retardo de consumo. Con el aumento del retardo de consumo y la latencia, se deteriora el rendimiento de la red. La regla 5-4-3-2-1 requiere que se cumpla con las siguientes pautas: Cinco segmentos de medios de red. Cuatro repetidores o hubs Tres segmentos de host de red Dos secciones de enlace (sin hosts) Un dominio de colisión grande La regla 5-4-3-2-1 también explica cómo mantener el tiempo de retardo del recorrido de ida y vuelta en una red compartida dentro de los límites aceptables. Segmentación La historia de cómo Ethernet maneja las colisiones y los dominios de colisión se remonta a la investigación realizada en la Universidad de Hawai en 1970. En su intento por desarrollar un sistema de comunicaciones inalámbrico entre las islas de Hawai, los investigadores de la Universidad desarrollaron un protocolo llamado Aloha. En realidad, el protocolo de Ethernet se basa en el protocolo Aloha. Una habilidad importante de todo profesional de networking, es la capacidad de reconocer los dominios de colisión. Conectar varios computadores a un solo medio de acceso compartido que no tiene ningún otro dispositivo de networking conectado, crea un dominio de colisión. Esta situación limita el número de computadores que pueden utilizar el medio, también llamado segmento. Los dispositivos de Capa 1 amplían, pero no controlan los dominios de colisión. Los dispositivos de Capa 2 dividen o segmentan los dominios de colisión. El control de propagación de trama con la dirección MAC asignada a todos los dispositivos de Ethernet ejecuta esta función. Los dispositivos de Capa 2, los puentes y switches, hacen un seguimiento de las direcciones MAC y el segmento en el que se encuentran. Al hacer esto, estos dispositivos pueden controlar el flujo de tráfico en el nivel de Capa 2. Esta función hace que las redes sean más eficientes, al permitir que los datos se transmitan por diferentes segmentos de la LAN al mismo tiempo sin que las tramas colisionen. Al usar puentes y switches, el dominio de colisión se divide efectivamente en partes más pequeñas, que se transforman cada una a su vez en un dominio de colisión. Estos dominios de colisión más pequeños tendrán menos hosts y menos tráfico que el dominio original. Cuanto menor sea la cantidad de hosts en un dominio de colisión, mayores son las probabilidades de que el medio se encuentre disponible. Siempre y cuando el tráfico entre los segmentos puenteados no sea demasiado pesado, una red puenteada funciona bien. De lo contrario, el dispositivo de Capa 2 puede desacelerar las comunicaciones y convertirse en un cuello de botella en sí mismo. Los dispositivos de Capa 3, al igual que los de Capa 2, no envían las colisiones. Es por eso que usar dispositivos de Capa 3 en una red produce el efecto de dividir los dominios de colisión en dominios menores. Los dispositivos de Capa 3 tienen más funciones que sólo las de dividir los dominios de colisión. Los dispositivos de Capa 3 y sus funciones se tratarán con mayor profundidad en la sección sobre dominios de broadcast. Broadcasts de Capa 2 cableaPara comunicarse con todos los dominios de colisión, los protocolos utilizan tramas de broadcast y multicast a nivel de Capa 2 en el modelo OSI. Cuando un nodo necesita comunicarse con todos los hosts de la red, envía una trama de broadcast con una dirección MAC destino 0xFFFFFFFFFFFF. Esta es una dirección a la cual debe responder la tarjeta de interfaz de la red (Network Interface Card, NIC) de cada host. Los dispositivos de Capa 2 deben inundar todo el tráfico de broadcast y multicast. La acumulación de tráfico de broadcast y multicast de cada dispositivo de la red se denomina radiación de broadcast. En algunos casos, la circulación de radiación de broadcast puede saturar la red, entonces no hay ancho de banda disponible para los datos de las aplicaciones. En este caso, no se pueden establecer las conexiones en la red, y las conexiones existentes pueden descartarse, algo que se conoce como tormenta de broadcast. La probabilidad de las tormentas de broadcast aumenta a medida que crece la red conmutada. Como la NIC tiene que interrumpir a la CPU para procesar cada grupo de broadcast o multicast al que pertenece, el efecto de radiación de broadcast afecta el rendimiento de los hosts de la red. La Figura muestra los resultados de pruebas que Cisco condujo sobre el efecto de la radiación de broadcast en el rendimiento de un CPU de Sun SPARCstation 2 usando una tarjeta Ethernet estándar incorporada. Como se ve en los resultados, los broadcasts que inundan la red efectivamente pueden desconectar una estación de trabajo IP. Aunque parezca extremo, durante las tormentas de broadcast, se han observado picos de miles de broadcasts por segundo. Pruebas en un entorno controlado con una variedad de broadcasts y multicasts de la red mostraron una degradación del sistema mensurable a tan sólo 100 broadcasts o multicasts por segundo. La mayoría de las veces, el host no se beneficia al procesar el broadcast, ya que no es el destino buscado. Al host no le interesa el servicio que se publicita, o ya lo conoce. Los niveles elevados de radiación de broadcast pueden degradar el rendimiento del host de manera considerable. Las tres fuentes de broadcasts y multicasts en las redes IP son las estaciones de trabajo, los routers y las aplicaciones multicast. Las estaciones de trabajo envían en broadcast una petición de protocolo de resolución de direcciones (Address Resolution Protocol, ARP) cada vez que necesitan ubicar una dirección MAC que no se encuentra en la tabla ARP. Aunque los números en la figura pudieran parecer bajos, representan una red promedio IP bien diseñada. Cuando el tráfico de broadcast y multicast hace un pico debido a una tormenta, la pérdida pico de la CPU puede tener una magnitud mayor al promedio. Las tormentas de broadcast pueden originarse en un dispositivo que requiere información de una red que ha crecido demasiado. La petición original recibe tantas respuestas que el dispositivo no las puede procesar, o la primera petición desencadena peticiones similares de otros dispositivos que efectivamente bloquean el flujo de tráfico en la red. Como ejemplo, el comando telnet mumble.com se traduce a una dirección IP a través de una búsqueda en el sistema de denominación de dominios (Domain Naming System, DNS). Para ubicar la dirección MAC correspondiente, se envía una petición ARP. Por lo general, las estaciones de trabajo IP guardan entre 10 y 100 direcciones en sus tablas ARP durante dos horas aproximadamente. La velocidad de un ARP en una estación de trabajo típica puede ser cercana a 50 direcciones cada dos horas o 0,007 ARP por segundo. Eso significa que 2000 estaciones terminales IP producen cerca de 14 ARP por segundo. Los protocolos de enrutamiento que están configurados en la red pueden aumentar el tráfico de broadcast de modo significativo. Algunos administradores configuran todas las estaciones de trabajo para que ejecuten el protocolo de información de enrutamiento (Routing Information Protocol, RIP) como una política de redundancia y alcance. Cada 30 segundos, el RIPv1 utiliza broadcasts para retransmitir toda la tabla de enrutamiento a otros routers RIP. Si 2000 estaciones de trabajo se configuraran para ejecutar RIP y, en promedio, se requieren 50 paquetes para transmitir la tabla de enrutamiento, las estaciones de trabajo generarían 3333 broadcasts por segundo. La mayoría de los administradores de red sólo configuran un número pequeño de routers, por lo general de cinco a diez, para ejecutar un RIP. En el caso de una tabla de enrutamiento que tiene un tamaño de 50 paquetes, 10 routers RIP generarán cerca de 16 broadcasts por segundo. Las aplicaciones multicast en IP pueden afectar negativamente el rendimiento de redes conmutadas de gran escala. Aunque el multicast es una forma eficiente de enviar un flujo de datos de multimedia a muchos usuarios en un hub de medios compartidos, afecta a cada usuario de una red plana conmutada. Una aplicación de paquete de video determinada, puede generar un flujo de siete megabytes (MB) de datos multicast que, en una red conmutada, se enviarían a cada segmento, causando una gran congestión. Dominios de broadcast Un dominio de broadcast es un grupo de dominios de colisión conectados por dos dispositivos de Capa 2. Dividir una LAN en varios dominios de colisión aumenta la posibilidad de que cada host de la red tenga acceso a los medios. Efectivamente, esto reduce la posibilidad de colisiones y aumenta el ancho de banda disponible para cada host. Pero los dispositivos de Capa 2 envían broadcasts, y si son excesivos, pueden reducir la eficiencia de toda la LAN. Los broadcasts deben controlarse en la Capa 3, ya que los dispositivos de Capa 1 y Capa 2 no pueden hacerlo. El tamaño total del dominio del broadcast puede identificarse al observar todos los dominios de colisión que procesan la misma trama de broadcast. En otras palabras, todos los nodos que forman parte de ese segmento de red delimitados por un dispositivo de Capa 3. Los dominios de broadcast están controlados en la Capa 3 porque los routers no envían broadcasts. Los routers, en realidad, funcionan en las Capas 1, 2 y 3. Ellos, al igual que los dispositivos de Capa 1, poseen una conexión física y transmiten datos a los medios. Ellos tienen un encapsulamiento de Capa 2 en todas las interfaces y se comportan como cualquier otro dispositivo de Capa 2. Es la Capa 3 la que permite que el router segmente dominios de broadcast. Para que un paquete sea enviado a través del router, el dispositivo de Capa 2 debe ya haberlo procesado y la información de la trama debe haber sido eliminada. El envío de Capa 3 se basa en la dirección IP destino y no en la dirección MAC. Para que un paquete pueda enviarse, debe contener una dirección IP que esté por afuera del alcance de las direcciones asignadas a la LAN, y el router debe tener un destino al cual enviar el paquete específico en su tabla de enrutamiento. Introducción al flujo de datos El flujo de datos en un contexto de dominios de colisión y de broadcast se centra en la forma en que las tramas se propagan a través de la red. Se refiere al movimiento de datos a través de los dispositivos de Capa 1, 2 y 3 y a la manera en que los datos deben encapsularse para poder realizar esa travesía en forma efectiva. Recuerde que los datos se encapsulan en la capa de la red con una dirección de origen y destino IP, y en la capa de enlace de datos con una dirección MAC origen y destino. Una buena regla a seguir es que un dispositivo de Capa 1 siempre envíe la trama, mientras que un dispositivo de Capa 2 desee enviar la trama. En otras palabras, un dispositivo de Capa 2 siempre enviará la trama al menos que algo se lo impida. Un dispositivo de Capa 3 no enviará la trama a menos que se vea obligado a hacerlo. Usar esta regla ayudará a identificar la forma en que los datos fluyen a través de la red. Los dispositivos de Capa 1 no funcionan como filtros, entonces todo lo que reciben se transmite al segmento siguiente. La trama simplemente se regenera y retemporiza y así vuelve a su calidad de transmisión original. Cualquier segmento conectado por dispositivos de Capa 1 forma parte del mismo dominio, tanto de colisión como de broadcast. Los dispositivos de Capa 2 filtran tramas de datos basados en la dirección MAC destino. La trama se envía si se dirige a un destino desconocido fuera del dominio de colisión. La trama también será enviada si se trata de un broadcast, multicast o unicast que se dirige fuera del dominio local de colisión. La única vez en que la trama no se envía es cuando el dispositivo de Capa 2 encuentra que el host emisor y el receptor se encuentran en el mismo dominio de colisión. Un dispositivo de Capa 2, tal como un puente, crea varios dominios de colisión pero mantiene sólo un dominio de colisión. Los dispositivos de Capa 3 filtran paquetes basados en la dirección IP destino. La única forma en que un paquete se enviará es si su dirección IP destino se encuentra fuera del dominio broadcast y si el router tiene una ubicación identificada para enviar el paquete. Un dispositivo de Capa 3 crea varios dominios de colisión y broadcast. El flujo de datos en una red enrutada basada en IP, implica el movimiento de datos a través de dispositivos de administración de tráfico en las Capas 1, 2 y 3 del modelo OSI. La Capa 1 se utiliza en la transmisión por medios físicos, la Capa 2 para la administración de dominios de colisión, y la Capa 3 para la administración de dominios de broadcast. Cableado estructurado: Sistema de cableado pre-planificado, pensado para hacer frente a las reconfiguraciones y el crecimiento. Incluye: cables, conectores de comunicación, enchufes, adaptadores, paneles de conexión (patcheras) y dispositivos electrónicos. Definen las distancias, las topologías de los cables, especifica las características físicas de las habitaciones (piso, techo iluminación etc.). Brinda sencillez en la administración de cables y facilidad para encontrar errores. Diapositiva 68 revisar Instalación en diapositiva 71 etiquetas Servidores Un servidor, brinda servicios a otros nodos de la red. No necesariamente debe ser una computadora de última generación. Debe estar disponible las 24 horas del día, los 365 días del año. Puede ser del tipo: Tower: servidores estandards. Por lo general, de gama baja. Rack: permite un mejor aprovechamiento de la superficie del centro de cómputos. Mejora el rendimiento, capacidad de almacenamiento y la refrigeración. Blade: minimiza la utilización de energía, ventiladores, unidades flexibles, etc. Ahorrando espacio y dispositivos. Conjuntos de placas trabajando juntas. Almacenamiento Pueden ser: SATA (serial ATA): sustituta de la Paralell-ATA(EIDE). Tiene una capacidad de almacenamiento muy alta a precios razonables. Posee un tiempo de acceso a disco más lento y ofrecen menos garantías de disponibilidad. SAS (Serial Attached SCSI): es una mejora de los discos SCSI, con una velocidad de transferencia de 3Gbs a 6Gbs. Hotswap: componente que se puede sustituir sin apagar el equipo. El equipo debe ser capaz de recuperarse de la perdida. Cabina de discos que todos lo pueden ver. SAN (Storage Area Network): es un sistema de discos que se conecta a los servidores mediante redes de altísima velocidad (generalmente fibre channel). NAS (Network Attached Storage): es un sistema de discos que se conecta a la red como cualquier otro dispositivo y se le asigna una dirección IP como un miembro más de la red. RAID (conjunto redundante de discos independientes): sistema de almacenamiento de datos que usa múltiples unidades de almacenamiento entre los que se distribuyen o replican los datos. (misma marca y mismo modelo) Permite: Mayor integridad. Posibilidad de recuperación ante una perdida, Mayor tolerancia a fallos. mayor throughput (rendimiento). mayor capacidad. Raid 0: A dos tres o más discos dividirlos en partes para que pueda grabar más rápido. Raid 1: Espejar un disco. Se pierde 50% de capacidad de almacenamiento. Se lo utiliza en base de datos Raid 5: Varios discos donde se pone datos y un disco donde se pone la redundancia o el bit de paridad. Si se rompe un disco de datos se lo recupera con la paridad. Va repartiendo datos y paridad de forma heterogénea. Se pierde un disco por la paridad, cuanto más discos se tenga se pierde menos. Como minimo se debe tener 3 discos. Siempre un disco de paridad. Raid 6: Duplicar la paridad, brinda mayor seguridad. Raid 10: Duplicar y dividir discos.