Eje 2 - Comunicacion en Sistemas Distribuidos
Eje 2 - Comunicacion en Sistemas Distribuidos
Eje 2 - Comunicacion en Sistemas Distribuidos
Unidad II
COMUNICACIÓN EN SISTEMAS
DISTRIBUIDOS
Año 2020
Sistemas Operativos III Unidad II
El servidor contiene la parte que será compartida por varios usuarios y el cliente solo la particular de cada
usuario.
Una computadora es servidor si ejecuta una aplicación/proceso que sea servidor.
Las características más importantes de la arquitectura cliente/servidor son:
El servidor presenta a todos sus clientes una interface única y bien definida.
El cliente no necesita conocer la lógica del servidor, solo su interface externa.
El cliente no depende de la ubicación física del servidor, ni del equipo físico en el que se encuentra, ni de su
sistema operativo.
Los cambios en el servidor implican pocos o ningún cambio en el cliente.
Middleware es software que se sitúa entre un sistema operativo y las aplicaciones que se ejecutan en él.
Básicamente, funciona como una capa de traducción oculta para permitir la comunicación y la administración de
datos en aplicaciones distribuidas.
A veces, se le denomina “plumbing” (tuberías), porque conecta dos aplicaciones para que se puedan pasar
fácilmente datos y bases de datos por una “canalización”. El uso de middleware permite a los usuarios hacer
solicitudes como el envío de formularios en un explorador web o permitir que un servidor web devuelva páginas
web dinámicas en función del perfil de un usuario.
Tipos de middleware:
Orientados a procedimiento: A través de procesos rígidos se usa a un Middleware para enlazar dos
procesos que son heterogéneos.
Orientados a objetos: Se pueden realizar peticiones de forma simultánea de acuerdo a múltiples
clientes. La comunicación es “sincronizada diferida” o “no sincronizada”.
MOM o Message-oriented Middleware: Existen dos tipos de Middleware (mensaje y espera y
publicación suscripción). El primer tipo trabaja cuando una aplicación envía un mensaje a diferentes
clientes a través del MOM cliente. Este es recibido y ordenado por el servidor MOM y los pone en cola.
Direccionamiento
Para que un cliente pueda enviar un mensaje a un servidor, debe conocer la dirección de éste. Los principales
métodos para direccionar procesos son:
Integrar machine.number al código del proceso cliente: en el que machine indica el número de máquina
dentro de la red y number, el número de proceso dentro de esa máquina. Es un método no transparente.
Dejar que los procesos elijan direcciones al azar y localizarlos mediante transmisiones: El emisor transmite
un paquete especial de localización con la dirección del proceso destino, todos los núcleos de las máquinas en la
red reciben este mensaje y verifican si la dirección es la suya; en caso de que lo sea, regresa un mensaje “aquí
estoy” con su dirección en la red (número de maquina). El núcleo emisor utiliza entonces esa dirección y la
captura para uso posterior. Su desventaja es que genera una carga adicional en el sistema.
Generar un servidor de nombres: Cada vez que se ejecute un cliente en su primer intento por utilizar un
servidor, el cliente envía una solicitud al servidor de nombres (en ASCII) para pedirle el número de la máquina
donde se localiza el servidor. Una vez obtenida la dirección se puede enviar la solicitud de manera directa.
También existe el método de dejar que cada proceso elija su propio identificador: En un espacio de
direcciones grande y disperso, por ej.: enteros binarios de 64 bits. La probabilidad de que dos procesos elijan el
mismo número es muy pequeña. Existe el problema, para el núcleo emisor, de saber a qué máquina enviar el
mensaje:
o En una LAN, el emisor puede transmitir un paquete especial de localización con la dirección del
proceso destino.
o Este paquete de transmisión será recibido por todas las máquinas de la red.
o Todos los núcleos verifican si la dirección es la suya; si lo es, regresa un mensaje aquí estoy con su
dirección en la red (número de máquina).
o El núcleo emisor utiliza esa dirección y la captura para evitar a posteriori una nueva búsqueda del
servidor.
Es un esquema transparente, pero la transmisión provoca una carga adicional en el sistema. Se puede evitar con
una máquina adicional para la asociación de los nombres de servicios y las direcciones de las máquinas.
Generalmente se considera que las desventajas de las primitivas asíncronas no compensan las ventajas del
máximo paralelismo que permiten lograr.
Una primitiva síncrona es aquella en que el emisor se bloquea hasta que el receptor ha aceptado el mensaje y la
confirmación regresa al emisor.
Todo lo demás es asíncrono con este criterio.
Generalmente a las primitivas de envío se las conoce como send y a las de recepción como receive y
ambas pueden ser con bloqueo o sin bloqueo.
Una recepción sin bloqueo le indica al núcleo la localización del buffer y regresa el control:
El problema es saber quién hizo la llamada cuando se llevó a cabo la operación.
RPC es la transferencia sincrónica de datos y control entre dos partes de un programa distribuido a través de
espacios de direcciones disjuntas. “La manera en que RPC logra hacer esto, es por medio de lo que se conoce
como STUB. En el caso del STUB servidor, se conoce como SKELETON. Estos Stubs y Skeletons permiten que al
momento de ser invocada la función remota esta pueda ser; simulada localmente.
Stub: en computación distribuida es un fragmento de código que convierte los parámetros pasados entre el
cliente y el servidor durante una llamada a procedimiento remoto (RPC).
Skeleton: es el objeto del lado del servidor que decodifica los parámetros, ubica el objeto llamado, llama el
método deseado, codifica el valor retornado, y envía la información de regreso al stub.
Objetivos de RPC
Proporcionar un middelware que simplifique el desarrollo de aplicaciones distribuidas.
Evitar que programador tenga que interactuar directamente con el interfaz de Sockets.
Abstraer (ocultar) los detalles relativos a la red.
El Servidor ofrece procedimientos que el cliente llama como si fueran procedimientos locales.
Se busca ofrecer un entorno de programación lo más similar posible a un entorno no distribuido.
El sistema RPC oculta los detalles de implementación de esas llamadas remotas Implementa la llamada
remota mediante un dialogo petición respuesta -- Mensaje de petición: identifica procedimiento
llamado, contiene parámetros de la llamada -- Mensaje de respuesta: contiene valor/es devuelto/s se
encarga de enviar/recibir mensajes para comunicar ambas partes se encarga de gestionar los contenidos
de esos mensajes (empaquetado y formateado de datos)
El mecanismo de RPC
El stub del cliente: se encarga de empaquetar los parámetros y la solicitud, enviarlos al intermediario en
el servidor, y luego esperar la respuesta, desempaquetarla y entregarla a la aplicación.
El programa principal del servidor (que incluye el stub y el dispatcher). se encarga de recibir peticiones,
desempaquetar los parámetros, invocar la función solicitada, pasarle los parámetros, luego obtener el
resultado, empaquetarlo y enviarlo al cliente.
Las rutinas de serialización de datos: Se debe tomar en cuenta que las máquinas cliente y servidor
puedan ser de arquitectura diferente (y no compatible).
Servicio de binding: Responsable de la transparencia de localización, gestiona la asociación entre el
nombre del procedimiento remoto (y su versión) con su localización en la maquina servidor (dirección,
puertos, skeleton, etc). Realiza la búsqueda del skeleton de la implementación concreta del
procedimiento remoto llamado por un cliente.
Tipos de Semánticas
Semántica "tal-vez"
Procedimiento remoto puede ejecutarse una vez o ninguna vez.
El cliente puede recibir una respuesta o ninguna.
Funcionamiento
1. El cliente envía una petición y se queda a la espera un tiempo determinado.
2. Si no llega la respuesta dentro del tiempo de espera, continúa su ejecución.
3. El cliente no tiene realimentación en caso de fallo (no sabe que pasó).
Sólo admisible en aplicaciones donde se tolere la pérdida de peticiones y la recepción de respuestas con retraso
(fuera de orden).
Semántica "al-menos-una-vez"
Procedimiento remoto se ejecuta una o más veces.
El cliente puede recibir una o más respuestas.
Funcionamiento
1. El cliente envía una petición y queda a la espera un tiempo.
2. Si no llega respuesta o ACK dentro del tiempo de espera, repite la petición.
3. El servidor no filtra peticiones duplicadas (el procedimiento remoto puede ejecutarse repetidas veces).
4. El cliente puede recibir varias respuestas.
Sólo es aplicable cuando se usan exclusivamente operaciones idempotentes (repetibles). Nota: una operación es
idempotente si se puede ejecutar varias veces resultando el mismo efecto que si se hubiera ejecutado sólo una.
En ocasiones una operación no idempotente puede implementarse como una secuencia de operaciones
idempotentes. Admisible en aplicaciones donde se tolere que se puedan repetir invocaciones sin afectar a su
funcionamiento.
Semántica "como-máximo-una-vez"
El procedimiento remoto se ejecuta exactamente una vez o no llega a ejecutarse ninguna.
El cliente recibe una respuesta o una indicación de que no se ha ejecutado el procedimiento remoto.
Funcionamiento
1. El cliente envía la petición y queda a la espera un tiempo.
2. Si no llega respuesta o ACK dentro del tiempo de espera, repite la petición.
3. El servidor filtra las peticiones duplicadas y guarda historial con las respuestas enviadas (servidor con
memoria). El procedimiento remoto sólo se ejecuta una vez.
4. El cliente sólo recibe una respuesta si la petición llegó y se ejecutó el procedimiento, si no recibe
informe del error.
.
Comunicación en Grupo
Una hipótesis subyacente e intrínseca de RPC es que la comunicación solo es entre dos partes: el cliente y el
servidor.
A veces existen circunstancias en las que la comunicación es entre varios procesos y no solo dos.
Ej.: un grupo de servidores de archivo que cooperan para ofrecer un único servicio de archivos tolerante
a fallos:
o Sería recomendable que un cliente envíe el mensaje a todos los servidores para garantizar la
ejecución de la solicitud aunque alguno falle.
RPC no puede controlar la comunicación de un servidor con muchos receptores, a menos que
realice RPC con cada uno en forma individual.
Un grupo es una colección de procesos que actúan juntos en cierto sistema o alguna forma determinada por el
usuario.
La propiedad fundamental de todos los grupos es que cuando un mensaje se envía al propio grupo, todos los
miembros del grupo lo reciben.
Se trata de una comunicación uno - muchos (un emisor, muchos receptores), que se distingue de
la comunicación puntual o punto a punto (un emisor, un receptor).
Los grupos son dinámicos:
Se pueden crear y destruir.
Un proceso se puede unir a un grupo o dejar a otro.
Un proceso puede ser miembro de varios grupos a la vez.
La implantación de la comunicación en grupo depende en gran medida del hardware:
En ciertas redes es posible crear una dirección especial de red a la que pueden escuchar varias
máquinas:
o Cuando se envía un mensaje a una de esas direcciones se lo entrega automáticamente a todas
las máquinas que escuchan a esa dirección.
o Esta técnica se denomina multitransmisión.
o Cada grupo debe tener una dirección de multitransmisión distinta.
Las redes que no soportan multitransmisión operan con transmisión simple:
Significa que los paquetes que tienen cierta dirección se entregan a todas las máquinas.
Se puede utilizar para implantar los grupos, pero es menos eficiente que la multitransmisión.
Cada máquina debe verificar, mediante su software, si el paquete va dirigido a ella:
o En caso negativo se descarta, pero para analizarlo se generó una interrupción y se dedicó ciclos
de cpu.
Otra solución es implantar la comunicación en grupo mediante la transmisión por parte del emisor de paquetes
individuales a cada uno de los miembros del grupo:
En vez de un paquete se precisan “n” paquetes.
Es menos eficiente que las soluciones anteriores.
Es una solución válida particularmente con grupos pequeños.
El envío de un mensaje de un emisor a un único receptor se llama unitransmisión.
Tolerancia a fallos.
La tolerancia a fallas es considerada la principal característica que debe de tener un sistema distribuido para
alcanzar el principio de transparencia. Para lograr la tolerancia a fallos se necesita de una buena comunicación
entre procesos distribuidos y sobre todo de una correcta coordinación entre ellos.
Prevención de fallos: Se trata de evitar que se implementen sistemas que pueden introducir fallos.
Tolerancia a fallos: Se trata de conseguir que el sistema continué funcionando correctamente aunque se
presenten algunos fallos.
Un sistema que sea tolerante a fallos debería tener disponibilidad, confiabilidad, seguridad y con un programa
de Mantenimiento.
Confiabilidad: La garantía de que el Sistema puede llevar a cabo su trabajo con muy bajas
probabilidades de una caída repentina.
Mantenimiento: Se refiere a que el sistema puede ser remplazado o reparado rápidamente mediante
los lineamientos un programa preventivo y un plan de contingencia.
Tipos de fallos
Fallos en sistemas cliente-servidor.
En este esquema la capa de transporte se encarga de los fallos en comunicaciones, sin embargo si se usan
datagramas en vez de paquetes, es la aplicación la que tendrá que encargarse de ordenar dichos datagramas
fuera de secuencia, solicitar su retransmisión y/o restablecer los enlaces. La capa de transporte por sí misma
otorga el concepto de Calidad en el Servicio, (QoS) pero no es una solución definitiva para todos los casos.
Falla de procesos: La ejecución arroja un estado incorrecto, los procesos provocan que el sistema se
desvíe de las especificaciones y el proceso con fallo pueda suspenderse momentáneamente.
Falla de sistema: Ocurre por el algún desorden en el software y problemas del HW (como errores de
CPU, falla en la memoria principal, falla de energía, etc.)
En caso de una falla de este tipo el sistema es detenido y reiniciado a un estado correcto, no obstante
que es un error generalizado no es tan grave, pero vale la pena documentarlo.
Falla de amnesia: Ocurre cuando se reinicia el sistema a un estado predefinido, no depende del estado
del sistema antes de la falla sino de una mala calendarización. Tampoco es grave.
Falla de Pausa: Ocurre cuando se reinicia el sistema al mismo estado en que se encontraba antes de la
falla. Tampoco es grave.
Falla en medio de almacenamiento secundarios: Se dice que ocurre una falla de este tipo cuando los
datos almacenados no pueden ser accedidos (cualquiera de sus partes o en su totalidad) entonces
buscamos el restablecimiento por redundancia. Nótese que no obstante la naturaleza crítica de los fallos
mencionados, su efecto en el sistema en general es menos severo por virtud de la distribución.
Recuperación de errores
Una forma prospectiva de trabajar con los errores es considerar que un error es un estado del sistema que es
distinto a los valores esperados, de tal suerte que la recuperación de una falla se aborda como un proceso de
recuperación de estados hasta un estado libre de error, puede ser previo o posterior.
1- Si la naturaleza del error y los daños causados pueden ser completamente calculados, entonces es posible
remover esos errores del estado del proceso (o sistema) y habilitar el movimiento hacia adelante del proceso a
un estado libre de error. Esta técnica es conocida como recuperación hacia adelante.
2- Si no es posible prever la naturaleza de las fallas y remover todos los errores en el estado del proceso (o
sistema), entonces el estado del proceso puede ser restaurado a un estado previo libre de error. Esta técnica es
conocida como recuperación hacia atrás.
La recuperación hacia adelante significa cercenar el fallo, y soslayarlo, de tal suerte que se asume la pérdida del
tiempo de procesamiento y los recursos involucrados. En cambio, en la recuperación hacia atrás, el proceso con
revertido a un estado previo con la esperanza de que ese estado previo esté libre de errores.
Hay dos formas de implementar una recuperación de error hacia atrás: el enfoque basado en la operación y el
enfoque basado en estado. Supongamos que tenemos un sistema modelo, que consiste de una máquina simple.
Asumimos que la máquina está conectada a un sistema de almacenamiento secundario y a un sistema de
almacenamiento estable que no pierde datos en caso de falla. El almacenamiento estable es usado para
almacenar un registro de las transacciones y puntos de recuperación. En comparación al almacenamiento
secundario, el almacenamiento estable es mucho más seguro, pero el almacenamiento secundario trabaja
continuamente.
a) Enfoque basado en la operación: Aquí, todas las modificaciones que se hacen al estado de un proceso son
registradas con suficiente detalle; para revertir el proceso a un estado previo, se procesan las transacciones de
este registro pero marcha atrás.
b) Enfoque basado en estado: El estado completo de un proceso es guardado en una instancia llamada punto de
restauración o verificación y su recuperación involucra reiniciar la ejecución del proceso en alguno de esos
puntos. Establecer esta instancia se conoce como tomar un punto de verificación. El punto de restauración es
entonces también un punto de revisión.
Al proceso de restauración de un proceso a un estado anterior se le refiere como rolar al proceso hacia atrás y al
proceso de reiniciar la ejecución en un estado se le conoce como transición forzada. Ambos métodos significan
el consumo de tiempo de CPU y retardan la terminación del proceso, mas es preferible retroceder el proceso
que cancelarlo. Por ello se acostumbra establecer muchos puntos de revisión.