CARRETERO Jesus - Sistemas Operativos Libro
CARRETERO Jesus - Sistemas Operativos Libro
CARRETERO Jesus - Sistemas Operativos Libro
ISBN: 84-481-3001-4
Depósito legal: M. 13.413-2001
Prólogo XV
3. PROCESOS 77
3.1. Concepto de proceso 78
3.2. Multitarea 79
3.2.1. Base de la multitarea 80
3.2.2. Ventajas de la multitarea 82
3.2.3. Grado de multiprogramación y necesidades de memoria principal 82
3.3. Información del proceso 84
3.3.1. Estado del procesador 84
3.3.2. Imagen de memoria del proceso 85
3.3.3. Información del BCP 90
3.3.4. Tablas del sistema operativo 91
3.4. Formación de un proceso 93
6. INTERBLOQUEOS 309
6.1. Los interbloqueos: una historia basada en hechos reales 310
6.2. Los interbloqueos en un sistema informático 311
6.2.1. Tipos de recursos 311
7. ENTRADA/SALIDA 351
7.1. Introducción 352
7.2. Caracterización de los dispositivos de E/S 354
7.2.1. Conexión de un dispositivo de E/S a una computadora 354
7.2.2. Dispositivos conectados por puertos o proyectados en memoria 355
7.2.3. Dispositivos de bloques y de caracteres 356
7.2.4. E/S programada o por interrupciones 357
7.2.5. Mecanismos de incremento de prestaciones 361
7.3. Arquitectura del sistema de entrada/salida 363
7.3.1. Estructura y componentes del sistema de E/S 363
7.3.2. Software de E/S 364
7.4. Interfaz de aplicaciones 369
7.5. Almacenamiento secundario 373
7.5.1. Discos 374
7.5.2. El manejador de disco 379
7.5.3. Discos en memoria 384
7.5.4. Fiabilidad y tolerancia a fallos 385
7.6. Almacenamiento terciario 387
7.6.1. Tecnología para el almacenamiento terciario 388
7.6.2. Estructura y componentes de un sistema de almacenamiento
terciario 389
7.6.3. Estudio de caso: Sistema de almacenamiento de altas prestaciones
(HPSS) 391
7.7. El reloj 393
7.7.1. El hardware del reloj 393
7.7.2. El software del reloj 394
Bibliografía 709
Índice 721
Los sistemas operativos son una parte esencial de cualquier sistema de computación, por lo que
todos los planes de estudio de informática incluyen uno o más cursos sobre sistemas operativos.
La mayoría de libros de sistemas operativos usados en estos cursos incluyen gran cantidad de
teoría general y aspectos de diseño, pero no muestran claramente cómo se usan.
Este libro está pensado como un texto general de sistemas operativos, pudiendo cubrir
tanto la parte introductoria como los aspectos de diseño de los mismos. En él se tratan todos los
aspectos fundamentales de los sistemas operativos, tales como procesos, gestión de memoria,
comunicación y sincronización de procesos, entrada/salida, sistemas de archivos y seguridad y
protección. Además, en cada tema, se muestra la interfaz de programación de los sistemas
operativos POSIX y Win32, con ejemplos de uso de las mismas. Esta solución permite que el lector
no sólo conozca los principios teóricos, sino cómo se aplican en sistemas operativos reales.
Comparando esta situación con la del mundo real se observaban considerables diferencias:
• Demanda de los estudiantes para tener apoyo en las cuestiones teóricas con ejemplos
prácticos.
• Necesidad de conocer los sistemas operativos desde el punto de vista de programación de
sistemas.
• Visión generalista del diseño de los sistemas operativos, estudiando distintos sistemas.
Esta situación obligaba a los autores a mezclar textos generales sobre sistemas operativos con
otros libros que estudiaban sistemas operativos concretos y la forma de programarlos. Por esta
razón, entre- otras, el cuerpo de los apuntes, mencionado anteriormente, fue creciendo y
modernizándose hasta llegar a este libro.
El libro está organizado en doce temas, cuyo índice se muestra a continuación. Su contenido cubre
todos los aspectos de gestión de una computadora, desde la plataforma hardware hasta los
sistemas distribuidos. Además, se incluyen tres apéndices.
Los temas son los siguientes:
En este tema se explica qué es un sistema operativo, cuáles son sus funciones principales, los
tipos de sistemas operativos existentes actualmente y cómo se activa un sistema operativo.
También se introduce brevemente la estructura del sistema operativo y de sus componentes
principales (procesos, memoria, archivos, comunicación, etc.), que se describen en detalle en
capítulos posteriores. Además, se ponen dos ejemplos concretos, como son LINUX y Windows NT.
Para terminar, se muestra la interfaz de usuario y de programador del sistema operativo.
Procesos
Gestión de memoria
cómo se genera dicho modelo y diversos esquemas de gestión de memoria, incluyendo la memoria
virtual. Este tema está relacionado con el Capítulo 7, debido a que la gestión de la memoria virtual
se apoya en los discos como medio auxiliar de almacenamiento de la imagen de los procesos que
no cabe en memoria principal. Al final del tema se muestran los servicios de gestión de memoria
existentes en POSIX y Win32 y algunos ejemplos de uso de los mismos.
Los procesos no son entidades aisladas, sino que en muchos casos cooperan entre sí y compiten
por los recursos. El sistema operativo debe ofrecer mecanismos de comunicación y sincronización
de procesos concurrentes. En este tema se muestran los principales mecanismos usados en
sistemas operativos, tales como tuberías, semáforos o el paso de mensajes, así como algunos
aspectos de implementación de los mismos. Al final del tema se muestran los servicios de
comunicación y sincronización existentes en POSIX y Win32 y algunos ejemplos de uso de los
mismos.
Interbloqueos
Entrada/salida
El procesador de una computadora necesita relacionarse con el mundo exterior. Esta relación se
lleva a cabo mediante los dispositivos de entrada/salida (E/S) conectados a la computadora. El
sistema operativo debe ofrecer una interfaz de acceso a dichos dispositivos y gestionar los detalles
de bajo nivel de los mismos. En este tema se muestran aspectos del hardware y el software de
E/S, estudiando una amplia gama de dispositivos, tales como los de almacenamiento secundario y
terciario, los relojes o el terminal. Al final del tema se muestran los servicios de entrada/salida
existentes en POSIX y Win32 y algunos ejemplos de uso de los mismos.
El sistema operativo debe proporcionar al usuario mecanismos de alto nivel para acceder a la
información existente en los dispositivos de almacenamiento. Para ello, todos los sistemas
operativos incluyen un sistema de gestión de archivos y directorios. El archivo es la unidad
fundamental de almacenamiento que maneja el usuario. El directorio es la unidad de estructuración
del conjunto de archivos. En este tema se muestran los conceptos fundamentales de archivos y
directorios, la estructura de sus gestores y los algoritmos internos usados en los mismos. Al igual
que en otros temas, se muestran los servicios de archivos y directorios existentes en POSIX y
Win32 y algunos ejemplos de uso de los mismos.
Seguridad y protección
Un sistema de computación debe ser seguro. El usuario debe tener la confianza de que las
acciones internas o externas del sistema no van a ser un peligro para sus datos, aplicaciones o
para las actividades de otros usuarios. El sistema operativo debe proporcionar mecanismos de
protección
entre los distintos procesos que ejecutan en un sistema y entre los distintos sistemas que estén
conectados entre sí. En este tema se exponen los conceptos de seguridad y protección, posibles
problemas de seguridad, mecanismos de diseño de sistemas seguros, los niveles de seguridad
que puede ofrecer un sistema y los controles existentes para verificar si el estado del sistema es
seguro. Además, se estudian los mecanismos de protección que se pueden usar para controlar el
acceso a los distintos recursos del sistema, Al final del tema se muestran los servicios de
protección existen en POSIX y Win32 y algunos ejemplos de uso de los mismos.
Los sistemas de computación actuales raramente están aislados. Es habitual que estén
conectados formando conjuntos de máquinas que no comparten la memoria ni el reloj, es decir,
sistemas distribuidos. Este tema presenta una breve introducción a dichos sistemas, estudiando las
características de los sistemas distribuidos, sus problemas de diseño, su estructura y sus distintos
elementos (redes, comunicación, memoria distribuida, sistemas de archivo distribuido, etc.).
También se muestran distintas técnicas de diseño de aplicaciones cliente-servidor en sistemas
distribuidos.
Este capítulo muestra en detalle los aspectos de LINUX desarrollados a lo largo del libro. Para ello
se describe, tema por tema, cómo es la arquitectura del sistema operativo LINUX, cómo son los
procesos de LINUX, sus mecanismos de comunicación y seguridad, etc.
Este capítulo muestra en detalle los aspectos de Windows NT desarrollados a lo largo del libro.
Para ello se describe, tema por tema, cómo es la arquitectura del sistema operativo Windows NT,
cómo son los procesos de Windows NT, su sistema de E/S, sus mecanismos de comunicación y
seguridad, etcétera.
Tabla de llamadas al sistema de POSIX y Win32. Para cada función del sistema se muestra la
llamada POSIX y la de Win32 que lleva a cabo dicha función, junto a un breve comentario de la
misma.
Materiales suplementarios
Existe una página Web con materiales suplementarios para el libro, situada en la dirección:
http: //arcos.inf.uc3m.es/’ La misma información se encuentra duplicada en:
http://datsi.fi. upm. es/ ssoo-va.
En esta página Web se puede encontrar el siguiente material:
Es un placer para nosotros poder presentar este texto a las personas interesadas en los sistemas
operativos, su diseño y su programación. La elaboración de este texto ha supuesto un arduo
trabajo para nosotros, tanto por la extensión de la obra como por los ejemplos prácticos incluidos
en la misma. Además, se ha hecho un esfuerzo importante para tratar de unificar la terminología
usada en distintos países de habla hispana. Con todo, creemos que el resultado final hace que el
esfuerzo realizado haya merecido la pena.
El esfuerzo realizado por mostrar los dos sistemas operativos más actuales, LINUX y
Windows NT, ha dado como resultado final un texto didáctico y aplicado, que puede ser usado
tanto en cursos de introducción como de diseño de sistemas operativos. En el libro se incluyen
ejemplos que muestran el uso de las llamadas al sistema de POSIX y Win32. Dichos ejemplos han
sido cuidadosamente compilados y enlazados en los dos entornos en que estaban disponibles:
Visual C y gcc.
Nos gustaría mostrar nuestro agradecimiento a todas las personas que han colaborado en
este texto con su ayuda y sus comentarios. Este agradecimiento se dirige especialmente a
Francisco Rosales García, Alejandro Calderón Mateos y José María Pérez Menor por su ayuda en
la compilación de los programas de ejemplo y en algunos proyectos de sistemas operativos.
La computadora es una máquina destinada a procesar datos. En una visión esquemática, como
la que muestra la Figura 1.1, este procesamiento involucra dos flujos de información: el de
datos y el de instrucciones. Se parte del flujo de datos que han de ser procesados. Este flujo de
datos es tratado mediante un flujo de instrucciones de maquina, generado por la ejecución de
un programa, y produce el flujo de datos resultado.
Para llevar a cabo la función de procesamiento, una computadora con arquitectura von
Neuman está compuesta por los cuatro componentes básicos representados en la Figura 1.2.
La memoria principal se construye con memoria RAM y memoria ROM. En ella han de
residir los datos a procesar, el programa máquina (Aclaración 1.1) a ejecutar y los resultados.
La memoria está formada por un conjunto de celdas idénticas. Mediante la información
de dirección se selecciona de forma única la celda sobre la que se quiere realizar el acceso,
pudiendo ser éste de lectura o de escritura. En las computadoras actuales es muy frecuente
que el direccionamiento se realice a nivel de byte, es decir, que las direcciones 0, 1, 2,...
identifiquen los bytes 0, 1, 2,... Sin embargo, el acceso se realiza sobre una palabra de varios
bytes (típi ente de 4 o de 8 bytes) cuyo primer byte se sitúa en la dirección utilizada.
ACLARACIÓN 1.1
Se denomina programa máquina (o código) al conjunto de instrucciones máquina que tiene por
objeto que la computadora realice una determinada función. Los programas escritos en
cualesquiera de los lenguajes de programación han de convertirse en programas máquina para
poder ser ejecutados por la computadora
La unidad de control tiene asociados una serie de registros, entre los que cabe destacar:
el contador de programa (PC, program counter), que indica la dirección de la siguiente
instrucción de máquina a ejecutar, el puntero de pila (SP, snack pointer), que sirve para
manejar cómodamente una pila en memoria principal, el registro de instrucción (RL), que
permite almacenar la instrucción de maquina a ejecutar, y el registro de estado (RE), que
almacena diversa información producida por la ejecución de alguna de las últimas instrucciones
del programa (bits de estado aritméticos) e información sobre la forma en que ha de
comportarse la computadora (bits de interrupción, nivel de ejecución, etc.).
Finalmente, la unidad de entrada/salida (E/S) se encarga de hacer la transferencia de
información entre la memoria principal (o los registros) y los periféricos. La entrad salida se
puede hacer bajo el gobierno de la unidad de control (E/S programada) o de forma
independiente (DMA), como se verá en la Sección 1.7.
Se denomina procesador, o unidad central de proceso (UCP), al conjunto de la unidad
aritmética y de control. Actualmente, el procesador suele construirse en un único circuito
integrado.
Desde el punto de vista de los sistemas operativos, nos interesa más profundizar en el funcio-
namiento interno de la computadora que en los componentes físicos que la constituyen.
El modelo de programación a bajo nivel de una computadora se caracteriza por los siguientes
aspectos, que se muestran gráficamente en la Figura 1.3:
ACLARACIÓN 1.2
Es muy frecuente que las computadoras incluyan el mapa de E/S dentro del mapa de memoria.
En este caso, se reserva una parte del mapa de memoria para realizar la E/S.
Se puede decir que la computadora presenta mas de un modelo de programación. Uno más
restrictivo, que permite realizar un conjunto limitado de acciones, y otros más permisivos que
permiten realizar un mayor conjunto de acciones. Uno o varios bits del registro de estado
establecen el nivel en el que está ejecutando la máquina. Modificando esto. bits se cambia de
nivel de ejecución.
Como veremos más adelante, los niveles de ejecución se incluyen en las computadoras
para dar soporte al sistema operativo. Los programas de usuario, por razones de seguridad, no
podrán realizar determinadas acciones al ejecutar en nivel de usuario. Por su lado, el sistema
operativo, que ejecuta en nivel de núcleo, puede ejecutar todo tipo de acciones.
Típicamente, en el nivel de usuario la computadora no permite operaciones de E/S, ni modifi-
car una gran parte del registro de estado, ni modificar los registros de soporte de gestión de
memoria. La Figura 1.4 muestra un ejemplo de dos modelos de programación de una
computadora.
ADVERTENCIA 1.1
Algunas computadoras tienen una instrucción «HALT» que hace que la unidad de control se
detenga hasta que llega una interrupción. Sin embargo, esta instrucción es muy poco utilizada,
por lo que a efectos prácticos podemos considerar que la unidad de control no para nunca de
realizar la secuencia de lectura de instrucción, incremento de PC y ejecución de la instrucción.
Podemos decir, por tanto, que lo único que sabe hacer la computadora es repetir a
gran veloci- dad esta secuencia. Esto quiere decir que, para que realice algo útil, se ha de tener
adecuadamente cargados en memoria un programa máquina con sus datos y hemos de
conseguir que el contador de programa apunte a la instrucción máquina inicial del programa.
El esquema de ejecución lineal es muy limitado, por lo que se añaden unos mecanismos que
permiten alterar esta ejecución lineal. En esencia todos ellos se basan en algo muy simple:
modifi- can el contenido del contador de programa, con lo que se consigue que se salte o
bifurque a otro segmento del programa o a otro programa (que, lógicamente, también ha de
residir en memoria).
Como se ha indicado anteriormente, la unidad de control tiene asociada una serie de registros
denominamos de control y estado. Estos registros dependen de la arquitectura de la
computadora muchos de ellos se refieren a aspectos que se analizarán a lo largo del texto, por
lo que no se intentará explicar aquí su función. Entre los más importantes se pueden encontrar
los siguientes:
1.3. INTERRUPCIONES
A nivel físico, una interrupción se solicita activando una señal que llega a la unidad de control.
El agente generador o solicitante de la interrupción ha de activar la mencionada señal cuando
necesite que se le atienda, es decir, que se ejecute un programa que le atienda.
Ante la solicitud de una interrupción, siempre y cuando esté habilitado ese tipo de interrupción,
la unidad de control realiza un ciclo de aceptación de interrupción. Este ciclo se lleva a cabo
en cuanto termina la ejecución de la instrucción maquina que se esté ejecutando y consiste en
las siguiente. operaciones:
Las interrupciones se pueden generar por diversas causas, que se pueden clasificar de la
siguiente forma:
ADVERTENCIA 1.2
En este caso no existe un agente externo que suministre el vector necesario para entrar en la
tabla de interrupciones. Será la propia unidad de control del procesador la que genere este
vector.
1.4. EL RELOJ
El término reloj se aplica a las computadoras con tres acepciones diferentes, si bien
relacionadas, como se muestra en la Figura 1.7. Estas tres acepciones son las siguientes:
ADVERTENCIA 1.3
En el caso de UNIX se cuentan segundos y se toma como referencia las 0 horas del 1 de enero
de 1970. si se utiliza una palabra de 32 bits, el mayor número que se puede almacenar es el
2.147.483.647, que se corresponde a las 3h 14m y 7s de enero de 2038. esto significa que, a
partir de ese instante, el contador tomará el valor de 0 y la fecha volverá a ser el 1 de enero de
1970.
Dado que la memoria de alta velocidad tiene un precio elevado y un tamaño reducido, la
memoria de la computadora se organiza en forma de una jerarquía como la mostrada en la
Figura 1.8. En esta jerarquía se utilizan memorias permanentes de alta capacidad y baja
velocidad, como son los cos, para almacenamiento permanente de la información. Mientras
que se emplean memorias semiconductores de un tamaño relativamente reducido, pero de alta
velocidad, para almacenar la información que se está utilizando en un momento determinado.
• Tiempo de acierto.
• Penalización de fallo.
• Tasa de aciertos (Hrk) del nivel k.
1.5.3. Coherencia
1.5.4. Direccionamiento
RECORDATORIO 1.1
Aquí conviene incluir una aclaración. Dado que las memorias principales se direccional a nivel
de byte pero se acceden a nivel de palabra, la dirección siguiente no es la dirección actual mas
1. Para palabras de 4 bytes la dirección siguiente es la actual mas 4.
En un sistema sin memoria virtual, el sistema operativo divide la memoria principal en trozos y
asigna uno a cada uno de los programas que están ejecutando en un instante determinado. La
Figura 1.13 muestra el reparto típico de la memoria para el caso de un solo programa o de
varios programas. Observe que el espacio asignado a un programa consiste en una zona de
memoria principal
contigua, es decir, no se asignan varios trozos disjuntos de memoria a un mismo programa. Por
el contrario, como se verá más adelante, en los sistemas con memoria virtual no es necesario
que los
espacios de memoria asignados a los programas sean contiguos.
La memoria virtual utiliza dos niveles de la jerarquía de memoria: la memoria principal y una
memoria de respaldo (que suele ser el disco, aunque puede ser una memoria expandida).
Sobre memoria de respaldo se establece un mapa uniforme de memoria virtual. Las
direcciones generadas por el procesador se refieren a este mapa virtual, pero, sin embargo, los
accesos reales se realiza sobre la memoria principal.
Para su funcionamiento, la memoria virtual exige una gestión automática de la parte de la
jerarquía de memoria formada por los niveles de memoria principal y de disco.
Insistimos en que la gestión de la memoria virtual es automática y la realiza el sistema
operativo con ayuda del hardware de la máquina. Como muestra la Figura 1.14, esta gestión
incluye toda la memoria principal y una parte del disco, que sirve de respaldo a la memoria
virtual.
Los aspectos principales en los que se basa la memoria virtual son los siguientes:
• Las direcciones generadas por las instrucciones máquina, tanto para referirse a datos como a
otras instrucciones, están referidas al espacio virtual, es decir, forman parte del mapa de
memoria virtual. En este sentido se suele decir que el procesador genera direcciones virtuales
Los fallos de página son atendidos por el sistema operativo (Prestaciones 1.1)
que se encarga de realizar la adecuada migración de páginas, para traer la página requerida
por el programa a un marco de página. Se denomina paginación al proceso de migración
necesario para atender los fallos de pagina.
Finalmente, conviene resaltar que el tamaño del espacio virtual suele ser muy
grande. En la actualidad se emplean direcciones de 32, 48 o hasta 64 bits, lo que significa
espacios virtuales de 232, 248 y 264 bytes. Dado que los programas requieren en general
mucho menos espacio, una de las funciones que realiza el sistema operativo es la asignación
de espacio virtual a los programas para su ejecución. El programa no podrá utilizar todo el
espacio virtual sino que ha de restringirse a la zona o zonas que le asigne el sistema operativo.
La Figura 1.15 muestra que el espacio virtual reservado al programa A puede estar en una
única zona o puede estar dividido en varias zonas, que se denominan segmentos.
.
Sin embargo, los programas están compuestos por varios elementos, como son el
propio programa objeto, la pila y los bloques de datos. Además, tanto la pila como los bloques
de datos han de poder crecer. Por ello, un esquema de tabla de un nivel obliga a dejar grandes
huecos de memoria virtual sin utilizar , pero que están presentes en la tabla con el consiguiente
desperdicio de espacio.
Por ello se emplean esquemas de tablas de páginas de más de un nivel. La Figura
1.18 muestra el caso de tabla de páginas de dos niveles. Con este tipo de tabla, la memoria
asignada esta compuesta por una serie de bloques de memoria virtual, es decir, por unos
segmentos. Cada segmento está formado por una serie contigua de byte. que puede variar su
tamaño, siempre y cuando no choque con otro segmento. La dirección se divide en tres pres.
La primera identifica el segmento de memoria donde esta la información que se desea acceder.
Con este valor se entra en una subtabla de segmentos, que contiene un puntero por segmento,
puntero que indica el comienzo de la subtabla de paginas del segmento. Con la segunda parte
de la dirección se entra en la subtabla de páginas seleccionada. Esta subtabla es similar a la
tabla mostrada en la Figura 1.18, lo que permite obtener el marco en el que está la información
deseada.
Obsérvese que se ha añadido a cada subtabla su tamaño. De esta forma se detectan las llama-
das violaciones de memoria, producidas cuando el programa en ejecución intenta acceder
una dirección que no pertenezca a los espacios asignados por el sistema operativo.
La ventaja del diseño con varios niveles es que permite una asignación de memoria más
flexible que con un solo nivel, puesto que se pueden asignar bloques de memoria virtual
disjuntos, por lo que pueden crecer de forma a independiente. Además, la tabla de páginas no
tiene espacios vacíos, por lo que ocupa solamente el espacio imprescindible.
Las computadoras actuales suelen proporcionar tablas de varios niveles, algunos llegan asta
cuatro, con lo que se consigue una mayor flexibilidad en la asignación de espacio de memoria.
La Figura 1.19 muestra un ejemplo de traducción mediante tabla de páginas de dos niveles. El
segmento direccionado es el 5, por lo que hay que leer la entrada 5 de la tabla de segmentos.
Con ello se obtiene la dirección donde comienza la tabla de páginas de este segmento. La
página direccionada es la 3, por lo que entramos en el elemento 3 de la tabla anterior. En esta
tabla encontramos que el marco es el Hex4A24 (Advertencia 1.5), por lo que se puede formar
la dirección física en la que se encuentra la información buscada.
Traducción de direcciones
Finalmente, hay que destacar que la encargada de mantener la información de que página
están sucias es la MMU. En efecto, al mismo tiempo que hace la traducción, en caso de que
acceso sea de escritura marca a esa pagina como sucia (Advertencia 1.6).
Como se verá en el Capítulo 2, los sistemas operativos permiten que existan varios programa
activos al tiempo. De estos programas solamente puede haber uno en ejecución en cada
instante, encargándose el sistema operativo de ir poniendo en ejecución uno detrás de otro de
forma ordenada. Sin embargo, cada uno de los programas ha de tener asignado un espacio de
memoria, por lo que ha de tener su propia tabla de páginas.
La MMU ha de utilizar la tabla de paginas correspondiente al programa que está en
ejecución. Para ello, como muestra la Figura 1.21, el procesador tiene un registro
identificador de espacio de direccionamiento (RIED). Este registro contiene la dirección en
la cual está almacenada la tabla de índices o segmentos del programa. Cuando el sistema
operativo pone en ejecución un programa ha de actualizar el valor del RIED para que apunte a
la tabla de páginas adecuada.
1.7. ENTRADA-SALIDA
1.7.1. Periféricos
El registro de control sirve para indicarle al controlador las operaciones que ha de realizar.
Los distintos bits de este registro indican distintas accione que ha de realizar el periférico.
El disco magnético
El disco magnético es, para el sistema operativo, el periférico más importante, puesto que sirve
de espacio de intercambio a la memoria virtual y sirve de almacenamiento permanente para
los programa y los datos, encargándose el sistema operativo de la gestión de este tipo de
dispositivo.
Para entender la forma en que el sistema operativo trata a los discos magnéticos es
necesario conocer las características de los mismos, entre las que destacaremos tres:
organización de la información, tiempo de acceso y velocidad de transferencia.
La organización de la información del disco se realiza en contenedores de tamaño fijos
denominados sectores (tamaños típicos del sector son 256, 512 o 1.024 bytes). Como muestra
Figura 1.23, el disco se divide en pistas que, a su vez, se dividen en sectores.
Las operaciones se realizan a nivel de sector, es decir, no se puede escribir o leer una
palabra o byte individual: hay que escribir o leer de golpe uno o varios sectores.
El tiempo de acceso de estos dispositivos viene dado por el tiempo que tardan en
Posicionar el brazo en la pista deseada, esto es, por el tiempo de búsqueda, más el tiempo
que tarda la información de la pista en pasar delante de la cabeza por efecto de la rotación del
disco, esto es, mas la
El disco magnético requiere que se lea o escriba un bloque de información (uno o varios
sectores), por lo que se denomina dispositivo de bloques. Existen otros dispositivos de bloques
como las cintas magnéticas, los DVD, los CD y los controladores de red. Todos ellos se
caracterizan por tener un tiempo de acceso importante comparado con el tiempo de
transferencia de una palabra, por lo que interesa amortizar este tiempo de acceso transfiriendo
bastantes palabras.
Otros dispositivos como el teclado se denominan de caracteres. puesto que la operación básica
de acceso es de un carácter. Estos dispositivos se cauterizan por ser lentos y por no tener un
tiempo de acceso apreciablemente mayor que el tiempo de transferencia de una palabra.
Los periféricos son sensiblemente más lentos que el procesador, por ejemplo, durante el
tiempo que se tarda en acceder a una información almacenada en un disco, un procesador
moderno es capaz de ejecutar varios millones de instrucciones de máquina (Prestaciones 1.3).
Es, por tanto, muy conveniente que mientras se está esperando a que se complete una
operación de E/S el procesador esté ejecutando un programa útil y no un bucle de espera.
controlador del periférico, operación que puede hacerse mediante unas cuantas instrucciones
de salida, Dado que el controlador es un dispositivo electrónico, estas escrituras se pueden
hacer a la velocidad de procesador, sin esperas intermedias.
n= O
while n < m
read registro_control
if (registro_control = datoAisponible)
read registro_datos
store en memoria principal
n=n+ 1
endi f
endwhile
Observe que, hasta que se disponga del primer dato, el bucle puede ejecutarse cerca del millón
de veces y que, entre dato y dato, se repetirá varias decenas de veces. Al llegar a completar
número m de datos a leer, se termina la operación de E/S.
Se denomina espera activa cuando un programa queda en un bucle hasta que ocurra un
evento. La espera activa consume tiempo del procesador, por lo que es muy poco
recomendable cuando el tiempo de espera es grande en comparación con el tiempo de
ejecución de una instrucción
En caso de utilizar E/S con interrupciones, el procesador, tras enviar la orden al controlador del
periférico, puede dedicarse a ejecutar otro programa. Cuando el controlador disponga de un
dato generará una interrupción. La rutina de interrupción deberá hacer la lectura del dato y su
almacenamiento en memoria principal, lo cual conlleva un cierto tiempo del procesador. En
este caso se dice que se hace espera pasiva, puesto que el programa que espera el evento no
esta ejecutándose la interrupción se encarga de <<despertar >> al programa cuando ocurre el
evento.
Finalmente, en caso de utilizar E/S por DMA, el controlador se encarga directa de ir
transfiriendo los datos del periférico a memoria sin molestar al procesador. Una vez terminada
la transferencia de todos los datos, genera una interrupción de forma que se sepa que ha
terminado (Recordatorio 1.2).
Puede observarse que la solución que presenta la máxima concurrencia y que descarga al
máximo al procesador es la de E/S por DMA. Por otro lado, es la que exige una mayor
inteligencia por parte del controlador.
Un aspecto fundamental de esta concurrencia es su explotación. En efecto, de nada sirve
descargar al procesador del trabajo de E/S si durante ese tiempo no tiene nada útil que hacer.
Será una función importante del sistema operativo el explotar esta concurrencia la E/S y el
procesador, haciendo que este ultimo tenga trabajo útil el mayor tiempo posible.
1.8. PROTECCIÓN
Como veremos mas adelante, una de las funciones del sistema operativo es la protección de
unos usuarios contra otros: ni por malicia ni por descuido un usuario deberá acceder a la
información de otro.
La protección hay que comprobarla en tiempo de ejecución, por lo que se ha de basar en
mecanismos hardware. En esta sección se analizaran estos mecanismos para estudiar más
adelante cómo los aplica el sistema operativo. Se analizara en primer lugar los mecanismos de
protección que ofrece el procesador para pasar seguidamente a los mecanismos de protección
de memoria.
Los mecanismos de protección del procesador se basan en los niveles de ejecución del mismo.
En nivel de ejecución de núcleo se pueden ejecutar todas las instrucciones de maquina y se
pueden acceder a todos los registros y a la totalidad de los mapas de memoria y de E/S. Sin
embargo, en modo usuario se ejecuta un subconjunto de las instrucciones y se limitan los
registros y los mapas accesibles.
Uno de los objetivos prioritarios de protección son los periféricos. En efecto, prohibiendo el
acceso directo de los usuarios a los periféricos se impide que puedan acceder a la información
almacenada por otros usuarios en esos periféricos. Por esta razón, toda la E/S es accesible
solamente en nivel de núcleo, nivel que debe estar reservado al sistema operativo.
Para evitar que un programa de usuario pueda poner el procesador en nivel de núcleo,
no existe ninguna instrucción máquina que realice este cambio (Advertencia 1.7). Sin embargo,
existe la instrucción máquina inversa, que cambia de nivel de núcleo a nivel de usuario. Esta
instrucción es utilizada por el sistema operativo antes de dejar que ejecute un programa de
usuario.
espacio. de memoria asignados por el sistema operativo a ese programa. La MMU, al mismo
tiempo que realiza la traducción de cada dirección, comprueba que no se sobrepase el límite
de ninguna de las tablas involucradas. En caso de sobrepasarse, generara una excepción de
violación de memoria, para que el sistema operativo realice la acción correctora oportuna.
Dada la insaciable apetencia por máquinas de mayor potencia de proceso, cada vez es mas
corriente encontrarse con computadoras que incluyen más de un procesador. Esta situación
tiene una repercusión inmediata en el sistema operativo, que ha de ser capaz de explotar
adecuadamente todos estos procesadores.
Las dos arquitecturas para estas computadoras son la de multiprocesador y la de
multicomputadora, que se analizan seguidamente.
Multiprocesador
Como muestra la Figura 1.27, un multiprocesador es una máquina formada por un conjunto
procesadores que comparten el acceso a una memoria principal común.
Cada procesador ejecuta su propio programa, debiendo todos ellos compartir la memoria
principal común.
Una ventaja importante de esta solución es que el acceso a datos comunes por parte de varios
programas es muy sencillo, puesto que utilizan la misma memoria principal. El mayor
inconveniente es el limitado número de procesadores que se pueden incluir sin incurrir en el
problema de saturar el ancho de banda de la memoria común (un límite típico es el de 16
procesadores).
Multicomputadora
La multicomputadora es una máquina compuesta por varios nodos, estando cada nodo
formado un procesador, su memoria principal y, en su caso, elementos de E/S. La Figura 1.28
muestra esquema global de estas computadoras.
Al contrario que en los multiprocesadores, en estas máquinas los programas de do:
procesadores no pueden compartir datos en memoria principal. Sin embargo, no existe la
limitación anterior en cuanto al número de procesadores que e pueden incluir, Buena prueba de
ello es que existen máquinas con varios miles de procesadores.
En esta sección se plantea en primer lugar el concepto de maquina desnuda para pasar
acto seguido a introducir el concepto de sistema operativo y sus principales funciones.
Las funciones clásica, del sistema operativo se pueden agrupar en las tres
categorías siguientes:
Como muestra la Figura 2.1, el sistema operativo esta formado conceptualmente por
tres capas principales. La capa m : cercana al hardware se denomina núcleo (kernel) y
es la que gestiona los recursos hardware del sistema y la que suministra otra la
funcionalidad básica del sistema operativo. Esta capa ha de ejecutar en nivel núcleo,
mientras que las otras pueden ejecutar en niveles menos permisivos.
Figura 2.1. Niveles del sistema operativo.
En una computadora actual suelen coexistir varios programas, del mismo o de varios
usuarios, ejecutándose simultáneamente. Estos programas compiten por los recursos de
la computadora, siendo el sistema operativo el encargado de arbitrar su asignación y
uso. Como complemento a la gestión de recursos, el sistema operativo ha de garantizar
la protección de unos programas frente a otros y ha de suministrar información sobre el
uso que se hace de los recursos.
a) Asignación de recursos
b) Protección
El sistema operativo ha de garantizar la protección entre los usuarios del sistema. Ha de
asegurar la confidencialidad de la información y que unos trabajos no interfieran con
otros. Para conseguir este
36 Sistemas operativos. Una visión aplicada
objetivo ha de impedir que unos programas puedan acceder a los recursos asignados a
otros programas.
c) Contabilidad
d) Ejecución de programas
El sistema operativo incluye servicios para lanzar la ejecución de un programa, así como
para pararla o abortarla. También existen servicios p a conocer y modificar las
condiciones de ejecución de los programa, para comunicar y sincronizar unos programas
con otros.
La ejecución de programas da lugar al concepto de proceso. Un proceso se puede
definir como un programa en ejecución. El proceso es un concepto fundamental en los
sistemas operativos, puesto que el objetivo ultimo de éstos es crear, ejecutar y destruir
procesos, de acuerdo a las órdenes de los usuarios.
Para que un programa pueda convertirse en un proceso ha de estar traducido a
código máquina y almacenado en un dispositivo de almacenamiento como el disco. Bajo
la petición de un usuario, el sistema operativo creará un proceso para ejecutar el
programa. Observe que varios procesos pueden estar ejecutando el mismo programa. Por
ejemplo, varios usuarios pueden haber pedido al operativo la ejecución del mismo
programa editor.
b) Órdenes de E/S
Los servicios de E/S ofrecen una gran comodidad y protección al proveer a los programas
de operaciones de lectura, escritura y modificación del estado de los periféricos. En
efecto, la programación de las operaciones de E/S es muy compleja y dependiente del
hardware específico de cada periférico. Los servicios del si tema operativo ofrecen un alto
nivel de abstracción de forma que el programador de aplicaciones no tenga que
preocuparse de esos detalles.
e) Operaciones sobre archivos
Los archivos ofrecen un nivel de abstracción mayor que el de las órdenes de E/S,
permitiendo operaciones tales como creación, borrado, renombrado, apertura, escritura y
lectura de chivos.
Observe que muchos de los servicios son parecidos a las operaciones de E/S y terminan
concretándose en este tipo de operaciones.
Además de analizar detalladamente todas las ordenes que recibe, para comprobar que se
pueden realizar , el sistema operativo se encarga de tratar todas las condiciones de error
que detecte el hardware.
Entre las condiciones de error que pueden aparecer destacaremos las siguientes:
errores en las operaciones de E/S, errores de paridad en los accesos a memoria o en los
buses y errores de ejecución en los programas, como desbordamientos, violaciones de
memoria, códigos de instrucción prohibidos, etc.
El módulo del sistema operativo que permite que los usuarios dialoguen de forma
interactiva con el sistema es el intérprete de mandatos o shell.
El shell se comporta como un bucle infinito que está repitiendo constantemente la
siguiente secuencia:
• Espera una orden del usuario. En el caso de interfaz textual, el shell está pendiente
de lo que escribe el usuario en la línea de mandatos. En las interfaces gráficas está
pendiente de los eventos del apuntador (ratón) que manipula el usuario, además, de los
del teclado.
• Analiza la orden y, en caso de ser correcta, la ejecuta, para lo cual emplea los
servicios del sistema operativo.
• Concluida la orden vuelve a la espera.
El dialogo mediante interfaz textual exige que el usuario memorice la sintaxis de los
mandatos, con la agravante de que son distintos para cada sistema operativo (p. ej.: para
listar el contenido de un chivo en MS-DOS e emplea el mandato type, pero en UNIX se
usa el mandato cat ). Por esta razón cada vez son más populares los intérpretes de
mandatos con interfaz gráfica, como el de Windows NT.
Archivos de mandatos
Casi todos los intérpretes de mandatos pueden ejecutar archivos de mandatos, llamados
shell scripts. Estos chivos incluyen varios mandatos totalmente equivalentes a los
mandatos que se introducen en el terminal. Además, para realizar funciones complejas,
pueden incluir mandatos especiales de control del flujo de ejecución, como puede ser el
goto, el for o el if, así como etiquetas para identificar líneas de mandatos,
Para ejecutar un archivo de mandatos basta con invocarlo de igual forma que un
mandato estándar del intérprete de mandatos.
Los usuarios se organizan en grupos (p. ej.: en una universidad se puede crear un
grupo para los alumnos de cada curso y otro para los profesores). Todo usuario debe
pertenecer a un grupo. Los grupos también se emplean en la protección del sistema,
puesto que los derechos de un usuario son los suyos propios más los del grupo al que
pertenezca. Por ejemplo, UNIX asigna un identificador «gid» (group identtfier) a cada
grupo.
El arranque de una computadora actual tiene dos fases: la fase de arranque hardware y la
fase arranque del sistema operativo. La Figura 2.2 resume las actividades más
importantes que se realizan en el arranque de la computadora.
Figura 2.2. Operaciones realizadas en el arranque de la computadora.
Arranque hardware
En el caso de una computadora de tipo PC, la memoria ROM contiene, además del
programa iniciador, software de E/S denominado BIOS (basic input-output system). La
BIOS de una computadora la proporciona el fabricante y suele contener procedimientos
para leer y escribir de leer caracteres del teclado y escribir en la pantalla.
El programa cargador del sistema operativo tiene por misión traer a memoria principal
algunos los componentes del sistema operativo. Una vez cargados estos componentes, se
pasa a la fase iniciación, que incluye las siguientes operaciones:
• Comprobación del sistema. Se completan las pruebas del hardware realizadas por
dar ROM y se comprueba que el sistema de archivos tiene un estado coherente.
Esta operación exige revisar todos los directorios, lo que supone un largo tiempo de
procesamiento.
• Se establecen las estructuras de información propias del sistema operativo, tales
como tabla de procesos, las tablas de memoria y las de E/S. El contenido de estas
tablas se describirá a lo largo del libro,
• Se carga en memoria principal aquella parte del sistema operativo que ha de estar
siempre memoria, parte que se denomina sistema operativo residente.
• Se crea un proceso de inicio o login por cada terminal definido en el sistema, así
como una serie de procesos auxiliares y de demonios (p. ej.; el demonio de
impresión o el demonio comunicaciones).
Figura 2.4. El sistema operativo se encuentra almacenado en una unidad de disco.
Introducción a los sistemas operativos 41
Todos estos componentes ofrecen una serie de servicios a través de una interfaz de
llamadas sistema. Como se muestra en la Figura 2.5, un sistema operativo puede incluir
más de una interfaz de servicios (en la figura se han considerado las interfaces Win32 y
POSIX, interfaces que ser
descritas a lo largo del presente libro). En este caso, los programas podrán elegir sobre
qué interfaz quieren ejecutar, pero no podrán mezclar servicios de varias interfaces. Se
dice, en este caso, que sistema operativo presenta al usuario varias máquinas virtuales.
De igual forma, el sistema operativo puede incluir varios intérpretes de mandatos,
unos textuales y otros gráficos, pudiendo el usuario elegir el que mas le interese. Sin
embargo, hay que observar que no se podrán mezclar mandatos de varios intérpretes.
En las secciones siguientes de este capitulo se van a describir, de forma muy breve,
cada uno de los componentes anteriores, pero antes se van a describir las distintas
formas que tienen los sistemas operativos de estructurar dichos componente.
Un sistema operativo de este tipo no tiene una estructura clara y bien definida. Todos sus
componentes se encuentran integrados en un único programa (el sistema operativo) que
ejecuta en un único espacio de direcciones. En este tipo de sistemas todas las funciones
que ofrece el sistema operativo se ejecuta en un modo núcleo.
Estos sistemas operativos han surgido, normalmente, de sistemas operativos
sencillos y pequeños a los que se les ha ido añadiendo un número mayor de
funcionalidades. Esto les ha hecho evolucionar y crece hasta convertirlos en programas
grandes y complejos formados por muchas funciones situadas todas ellas en un mismo
nivel. Ejemplos claros de este tipo de sistemas son MS-DOS y UNIX. Ambos comenzaron
siendo pequeños sistemas operativos, que fueron haciéndose cada vez mas grandes
debido a la gran popularidad que adquirieron.
Introducción a los sistemas operativos 43
En un sistema por capas, el sistema operativo se organiza como una jerarquía de capas,
donde cada capa ofrece una interfaz clara y bien definida a la capa superior y solamente
utiliza los servicios que le ofrece la capa inferior.
La principal ventaja que ofrece este tipo de estructuras es la modularidad y la
ocultación de la información. Una capa no necesita conocer como se ha implementado
la capa sobre la que se construye, únicamente necesita conocer la interfaz que ofrece.
Esto facilita enormemente la depuración y verificación del sistema, puesto que las capas
se pueden ir construyendo y depurando por separado.
Este enfoque lo utilizo por primera vez el sistema operativo THE [Dijkstra, 1968], un
sistema operativo sencillo que estaba formado por seis capas, como se muestra en la
Figura 2.6. Otro ejemplo de sistema operativo diseñado por capas es el OS/2 [Deitel,
1994], descendiente de MS-DOS.
b) Modelo cliente-servidor
No hay una definición clara de las funciones que debe llevar a cabo un micronúcleo.
La mayoría incluyen la gestión de interrupciones, gestión básica de procesos y de
memoria y servicios básicos de comunicación entre procesos. Para solicitar un servicio en
este tipo de sistemas, como por ejemplo crear un proceso, el proceso de usuario (proceso
denominado cliente) solicita el servicio al servidor del sistema operativo correspondiente,
en este caso al servidor de procesos. A su vez, el proceso servidor puede requerir los
servicios de otros servidores, como es el caso del servidor de memoria. En este caso, el
servidor de procesos se convierte en cliente del servidor de memoria.
La ventaja de este modelo es la gran flexibilidad que presenta. Cada proceso
servidor sólo ocupa de una funcionalidad concreta, lo que hace que cada parte pueda ser
pequeña y
Esto a su vez facilita el desarrollo y depuración de cada uno de los procesos servidores.
En cuanto a las desventajas, citar que estos sistemas presentan una mayor
sobrecarga en el tratamiento de los servicios que los sistemas monolíticos. Esto se debe
a que los distintos componentes de un sistema operativo de este tipo ejecutan en
espacios de direcciones distintos, lo que hace que su activación requiera más tiempo.
Minix [Tanenbaum, 1998], Mach [Accetta, 1986] y Amoeba [Mullender, 1990] son
ejemplos de sistemas operativos que siguen este modelo. Windows NT también sigue
esta filosofía de diseño, aunque muchos de los servidores (el gestor de procesos, gestor
de E/S, gestor de memoria, etc.) se ejecutan en modo núcleo por razones de eficiencia.
memoria en los que reside el código y los datos del proceso se le denomina imagen de
memoria. Observe que, durante su ejecución, el proceso va modificando los registros del
modelo de programación de la computadora, de acuerdo a las instrucciones de maquinas
involucradas. El contenido de los registros del modelo de programación es lo que se
conoce como estado del procesador.
El sistema operativo mantiene por cada proceso una serie de estructuras de
información que permite identificar las características de éste así como los recursos que
tiene asignados. Una parte muy importante de esta estructura es el bloque de control del
proceso (BCP) que, como se verá en el Capítulo 3, incluye, entre otra información, el
estado de los registros del proceso, cuando éste no está ejecutando. El sistema operativo
debe encargarse también de ofrecer una serie de servicios para la gestión de procesos y
de gestionar los posibles interbloqueos que surgen cuando los procesos acceden a
diferentes recursos.
Dependiendo del número de procesos y de usuarios que puedan ejecutar
simultáneamente, un sistema operativo puede ser:
El sistema operativo ofrece una serie de servicios que permiten definir la vida de un
proceso. Esta vida está constituida por las siguientes fases; creación, ejecución y muerte
del proceso.
En general, los sistemas operativos ofrecen los siguientes servicios para la gestión de
procesos:
46 Sistemas operativos. Una visión aplicada
• Crear un proceso. El proceso es creado por el sistema operativo cuando así lo
solicita otro proceso, que se convierte en el padre del nuevo. Existen dos
modalidades básicas para crear un proceso en los sistemas operativos;
2.5.1. Servicios
El gestor de memoria ofrece una serie de servicios a los procesos. Estos son;
Los procesos son entes independientes y aislados, puesto que, por razones de
seguridad, no deben interferir unos con o os. Sin embargo, cuando se divide un trabajo
complejo e varios procesos que
48Sistemas operativos. Una visión aplicada
cooperan entre sí para realizar ese trabajo, es necesario que se comuniquen para
transmitirse datos y órdenes y se sincronicen en la ejecución de sus acciones. Por tanto,
el sistema operativo debe incluir servicios de comunicación y sincronización entre
procesos que, sin romper los esquemas de seguridad, han de permitir la cooperación
entre ellos.
El sistema operativo ofrece una serie de mecanismos básicos de comunicación que
permiten transferir cadenas de bytes, pero han de ser los procesos que se comunican los
que han de interpretar la cadena de bytes transferida. En este sentido, se han de poner
de acuerdo en la longitud de la información y en los tipos de datos utilizados.
Dependiendo del servicio utilizado, la comunicación se limita a los procesos de una
máquina (procesos locales) o puede involucrar a procesos de máquinas distintas
(proceso. remotos). La Figura 2.9 muestra ambas situaciones.
El sistema operativo ofrece también mecanismos que permiten que los procesos
esperen (se bloqueen) y se despierten (continúen su ejecución) dependiendo de
determinados eventos.
De acuerdo con esto, los servicios básicos de comunicación, que incluyen todos los
mecanismos de comunicación, son los siguientes;
• Facilitar el manejo de los dispositivos periféricos. Para ello debe ofrecer una interfaz
sencilla, uniforme y fácil de utilizar entre los dispositivos, y gestionar los errores que
se pueden producir en el acceso a los mismos,
• Ofrecer mecanismos de protección que impidan a los usuarios acceder sin control a
los dispositivos periféricos.
2.7.1. Servicios
El sistema operativo ofrece a los usuarios una serie de servicio, de E/S independiente de
los dispositivos, Esta independencia implica que deben emplearse los mismos servicios y
operaciones de E/S para leer, por ejemplo, datos de un disquete, de un disco duro, de un
CD-ROM o de un teclado, Los servicios de E/S están dirigidos básicamente a la lectura y
escritura de datos. Estos servicios pueden estar orientados a caracteres, como ocurre
con las impresoras o los terminales, o pueden estar orientados a bloques, como ocurre
con las unidades de disco. El segundo caso se diferencia del primero en que la operación
elemental de E/S se hace sobre un bloque de información de un número fijo de caracteres
(p. ej.: sobre un bloque de 1 KB).
En general, los sistemas operativos consiguen la independencia en el acceso a los
dispositivos modelándolos como archivos especiales. La gestión de chivos y sus servicios
se describen en la siguiente sección.
En el Capítulo 7 se estudiará el software de E/S del sistema operativo, la gestión del
almacenamiento secundario y terciario, de los relojes y terminales. También se
presentarán los servicios de EIS que ofrecen los sistemas operativos.
El servidor de archivos es la parte del sistema operativo que cubre una de las cuatro
clases de funciones que tiene éste en su faceta de máquina extendida. Los objetivos
fundamentales del servidor de archivos son los dos siguientes:
• Facilitar el manejo de los dispositivos periféricos. Para ello ofrece una visión lógica
simplificada de los mismos en forma de chivos.
• Proteger a los usuarios, poniendo limitaciones a los chivos que es capaz de
manipular cada usuario.
Los servicios que se engloban en el servidor de archivos son de dos tipos: los
servicios dirigidos al manejo de datos, o archivos, y los dirigidos al manejo de los
nombres, o directorios.
El servidor de archivos ofrece al usuario (Fig. 2.11) una visión lógica compuesta por
una serie de objetos ( chivos y directorios) identificables por un nombre lógico sobre los
que puede realiza una serie de operaciones. La visión física ha de incluir los detalles de
cómo están almacenados estos objetos en los periféricos correspondientes (p. ej.: en los
discos).
Se crea el archivo
Se abre: se genera un descriptor de archivo
Se escribe y lee (el archivo puede crecer)
• Se cierra Se borra
La ventaja del esquema jerárquico es que permite una gestión distribuida de los
nombres, garantizar de forma sencilla que no exista nombres repetidos. En efecto, hasta
con que los nombres relativos de cada. subdirectorio sean distintos, aunque los nombres
relativos de subdirectorios distintos sean iguales, para que no exista duplicación de
nombres, puesto que quedarán diferencia dos por el camino hasta llegar al
correspondiente subdirectorio.
La visión física del sistema de directorios consiste en unas estructuras de
información que permiten relacionar cada nombre lógico con la descripción física del
correspondiente archivo. En esencia, se trata de una tabla NOMBRE- IDENTIFICADOR
por cada subdirectorio. El NOMBRE no es mas que el nombre relativo del archivo,
mientras que el.DIENTIFICADOR es una información que permite localizar la descripción
física del archivo.
Servicios de directorios
Un objeto directorio es básicamente un conjunto de entradas que relacionan nombres y
archivos El servidor de archivos incluye una serie de servicios que permiten manipular
directorios. Estos son.:
Crear un directorio. Crea un objeto directorio y lo sitúa en el árbol de directorios
donde se especifique en el nombre, absoluto o relativo, del nuevo directorio.
Borrar un directorio. Elimina un objeto directorio de forma que nunca más pueda
accesible y borra su entrada del árbol de directorios. Normalmente, sólo se puede
borrar directorio vacío, es decir, un directorio sin entradas.
Abrir un directorio. Abre un directorio para leer los datos del mismo. Al igual que
un chivo, un directorio debe ser abierto para poder acceder a. su contenido. Esta
operación vuelve al usuario un identificador, descriptor o manejador de directorio
de carácter temporal que permite su manipulación.
Leer un directorio. Extrae la siguiente entrada de un directorio, abierto
previamente. Devuelve una estructura de datos como la que define la entrada de
directorios
Cerrar un directorio. Cierra un directorio, liberando el identificador devuelto en la
operación de apertura, así como los recursos de memoria y del sistema operativo
relativos al mismo.
Introducción a los sistemas operativos 55
2.8.3. Sistema de archivos
Se denomina sistema de archivos al conjunto de archivos incluidos en una unidad de
disco. El sistema de archivos está compuesto por los datos de los archivos, así como por
toda la información auxiliar que se requiere.
Se denomina rnetainformación a toda la información auxiliar que es necesario
mantener en un volumen. Resumiendo y completando lo visto en las secciones anteriores,
la metainformación está compuesta por los siguientes elementos:
• Estructura física de los archivos (nodos-i de UNIX o FAT de MS-DOS)
• Directorios (archivos que contienen las tablas nombre-puntero).
• Estructura física del sistema de archivos (superbloque en UNIX).
Estructura de información de bloques y nodos-i libres (mapas de bits).
Cada sistema operativo organiza las particiones de disco de una determinada forma,
repartiendo el espacio disponible entre: el programa de carga (boot) del sistema operativo,
la metainforinación y los datos. Normalmente, las tablas de los subdirectorios se
almacenan como archivos, por lo que compiten por los bloques de datos con los archivos
de datos.
En el Capítulo 8 se estudiará en detalle la gestión de archivos y directorios,
presentando los conceptos, los servicios y los principales aspectos de implementación.
Dado que hay muchas formas de utilizar un recurso, la lista de control de acceso, o
la de capacidades, han de incluir el modo en que se puede utilizar el recurso Ejemplos de
modos de utilización son los siguientes: leer, escribir, ejecutar, eliminar, test, control y
administrar.
Los servicios relacionados con la seguridad y la protección se centran en la
capacidad para asignar atributos de seguridad a los usuarios y a los recursos.
En el Capítulo 9 se describirán todos los aspectos relacionados con la seguridad y la
protección y se presentarán los principales servicios.
Para concluir esta sección, es importante resaltar que en un sistema, además de las
interfaces disponibles para los usuarios normales, pueden existir otras específicas
destinadas a los administradores del sistema. Más aún, el propio programa (residente
normalmente en ROM) que se encarga de la carga del sistema operativo proporciona
generalmente una interfaz de usuario muy simplificada y rígida que permite al
administrador realizar operaciones tales como pruebas y diagnósticos del hardware o la
modificación de los parámetros almacenados en la memoria RAM no volátil de la
máquina que controlan características de bajo nivel del sistema.
2.12.2. interfaces alfanuméricas
La característica principal de este tipo de interfaces es su modo de trabajo basado
en líneas de texto. El usuario, par dar instrucciones al sistema, escribe en su terminal un
mandato terminado con un carácter de final de línea. Cada mandato está normalmente
estructurado corno un nombre de mandato (p. ej.: borrar) y unos argumentos (p. ej.: el.
nombre del archivo que se quiere borrar). Observe que en algunos sistemas se permite
que se introduzcan varios mandatos en una línea. El intérprete de mandatos, que es
como se denomina típicamente al módulo encargado de la interfaz, lee la línea escrita
por el usuario y lleva a cabo las acciones especificadas por la misma. Una vez
realizadas, el intérprete escribe una indicación (prompt) en el terminal para notificar al
usuario que está listo para recibir otro mandato. Este ciclo repetitivo define el modo de
operación de este tipo de interfaces, El usuario tendrá disponibles un conjunto de
mandatos que le permitirán realizar actividades tales como manipular archivos y
directorios, controlar la ejecución de los programas, desarrollar aplicaciones,
comunicarse con otros sistemas, obtener información del estado del sistema o acceder al
sistema. de ayuda interactivo.
Esta forma de operar, basada en líneas de texto, viene condicionada en parte por el
tipo de dispositivo que se usaba como terminal en los primeros sistemas de tiempo
compartido. Se trataba de teletipos que imprimían la salida en papel y que, por tanto,
tenían intrínsecamente UI) funciona miento basado en líneas. La disponibilidad posterior
de terminales más sofisticados que, aunque seguían siendo de carácter alfanumérico,
usaban una pantalla para mostrar la información y ofrecían, por tanto, la posibilidad de
trabajar con toda la. pantalla no cambió, sin embargo, la forma de trabajo de la interfaz
que continuó siendo en modo línea, Como reflejo de esta herencia, obsérvese que en el
mundo UNIX se usa el término tty (abreviatura de teletype) para referirse a un terminal,
aunque no tenga nada que ver con los primitivos teletipos. Observe que, sin embargo,
muchas aplicaciones sí que se aprovecharon del. modo de trabajo en modo pantalla.
Como ejemplo, se puede
64 Sistemas operativos. Una visión aplicada
observar la evolución de los editores en UNIX: se pasó de editores en modo línea como
el ed a editores orientados a pantalla como el vi y el emars.
A pesar de que el modo de operación básico apenas ha cambiado, Su estructura e
implementación han evolucionado notablemente desde la aparición de los primeros
sistemas de tiempo compartido hasta la actualidad. Como ya se ha comentado
anteriormente, se pasó de tener el intérprete incluido en el sistema operativo a su un
módulo externo que usa los servicios del mismo, lo proporciona una mayor flexibilidad
facilitando su modificación o incluso su reemplazo. Dentro esta opción existen
básicamente dos formas de esturar el módulo que maneja la interfaz de usuario
intérprete con mandatos internos e interprete con mandatos externos
Intérprete con mandatos internos
El intérprete de mandatos es un único programa que contiene el código para e todos los
mandatos. El intérprete, después de leer la línea tecleada por el usuario, determina de
qué mandato se trata y salta a la parle (le su código que lleva a cabo la acción
especificada por el mandato. Si no se trata de ningún mandato, se interpreta que el
usuario quiere arrancar una determinada aplicación, en cuyo caso el intérprete iniciará la
ejecución del programa correspondiente en el contexto de un nuevo proceso y esperará
hasta que termine. Con esta estrategia, mostrada en el Programa 21, los mandatos son
internos al intérprete. Obsérvese que en esta sección se está suponiendo que hay un
único mandato en cada línea.
_______________________________________________________________________
_
Programa 2.1. Esquema de un intérprete con mandatos internos.
Repetir Bucle
Escribir indicación de preparado
Leer e interpretar línea -> Obtiene operación y argumentos
Caso operación
Si “ fin”
Terminar ejecución de intérprete /
Si “renombrar”
Renombrar archivos según especifican argumentos
Si “borrar”
Borrar archivos especificados por argumentos
Si no (No se trata de un mandato)
Arrancar programa “operación” pasándole “argumentos”
Esperar a que termine el programa
Fin Bucle
___________________________________________________________________
_
Intérprete con mandatos externos
Existe un programa por cada mandato. El intérprete de mandatos no analiza la línea
tecleada por el usuario, sino que directamente inicia la ejecución del programa
correspondiente en el contexto de un nuevo proceso y espera que éste termine. Se
realiza un mismo tratamiento ya se trate de un mandato o de cualquier otra aplicación.
Con esta estrategia, mostrada en el Programa 2.2, los mandatos son externos al
intérprete y la interfaz de usuario está compuesta por un conjunto de programas del
sistema: un programa por cada mandato más el propio intérprete.
Introducción a os sistemas operativos 65
_________________________________________________________________________________
_
Programa 22, Esquema de un intérprete con mandatos externos.
Repetir Bucle
Escribir indicación de preparado
Leer e interpretar línea —> Obtiene operación y argumentos
Si operación = “fin”
Terminar ejecución de intérprete
Si no
Arrancar programa “operación” pasándole“argumentos”
Esperar a que termine el programa
Fin Bucle
_________________________________________________________________________________
_
La principal ventaja de la primera estrategia es la eficiencia, ya que los mandatos los
lleva a cabo el propio intérprete sin necesidad de ejecutar programas adicionales. Sin.
embargo, el intérprete puede llegar a ser muy grande y la inclusión de un nuevo mandato,
o la modificación de uno existente, exige cambiar el código del intérprete y recompilarlo. La
segunda solución es más recomendable ya que proporciona un tratamiento y visión
uniforme de los mandatos del sistema y las restantes aplicaciones. El intérprete no se ve
afectado por la inclusión o la modificación de un mandato.
En los sistemas reales puede existir tina mezcla de las dos estrategias. El intérprete
de manda tos de MS-DOS (COMMAND. COM )se enmarca dentro de la primera categoría,
esto es, intérprete con mandatos internos. El motivo de esta estrategia se debe a que este
sistema operativo se diseñó para poder usarse en computadoras sin disco duro y, en este
tipo de sistemas, el uso de un intérprete con mandatos externos exigiría que el disquete
correspondiente estuviese insertado para ejecutar un determinado mandato. Sin embargo,
dadas las limitaciones de memoria de MS-DOS, para mantener el tamaño del intérprete
dentro de un valor razonable, algunos mandatos de uso poco frecuente, como por ejemplo
DISKCOPY, están implementados como externos.
Los intérpretes de mandatos de UNIX, denominados shells, se engloban en la
categoría de intérpretes con mandatos externos. Sin embargo, algunos mandatos se
tienen que implementar como internos debido a que su efecto sólo puede lograrse si es el
propio intérprete el que ejecuta el mandato. Así, por ejemplo, el mandato cd, que cambia el
directorio actual de trabajo del usuario usando la llamada chdir, requiere cambiar a su vez
el directorio actual de trabajo del proceso que ejecuta el intérprete, lo cual sólo puede
conseguirse si el mandato lo ejecuta directamente el intérprete.
2.12.3. Interfaces gráficas
El auge de las interfaces gráficas de usuario (GUI, Graphical UserInterface) se debe
principalmente a la necesidad de proporcionar a los usuarios no especializados una visión
sencilla e intuitiva del sistema que oculte toda su complejidad. Esta necesidad ha surgido
por la enorme difusión de las computadoras en todos los ámbitos de la vida cotidiana Sin
embargo, el desarrollo de este tipo de interfaces más amigables ha requerido un avance
considerable en la potencia y capacidad gráfica de las computadoras dada la gran
cantidad de recursos que consumen durante su operación.
Las primer experiencias con este tipo de interfaces se remontan a Los primeros
años de la década de los setenta. En Xerox PARC (un centro de investigación de Xerox)
se desarrolló lo que actualmente se considera la primera estación de trabajo a. la que se
denominó Alto. Además de otros muchos avances, esta investigación estableció los
primeros pasos en el campo de los GUI.
66 Sistemas operativos. Una visión aplicada
Con la aparición, a principios de los ochenta, de las computadoras personales
dirigidas a usuarios no especializados se acentuó la necesidad de proporcionar este tipo
de interfaces. Así la compañía Apple adopto muchas de las ideas de la investigación de
Xerox PARC para lanzar su computadora personal [Macintosh, 1984] con una interfaz
gráfica que simplificaba enormemente el manejo de la computadora. El otro gran
competidor en este campo, el sistema operativo MS tardó bastante más en dar este
paso. En sus primeras versiones proporcionaba una. interfaz alfanumérica similar a la de
UNIX pero muy simplificada. Como paso intermedio, hacia 1988, incluyo una interfaz
denominada. DOS-SHELL que, aunque seguía siendo alfanumérica, no estaba basada
en líneas sino que estaba orientada al uso de toda la. pantalla y permitía realizar
operaciones mediante menús. Por fin, ya en los noventa, lanzó una interfaz. gráfica,
denominada. Windows, que tomaba prestadas muchas de las ideas del Macintosh.
En el mundo UNIX. se produjo una evolución similar. Cada fabricante incluía en su
sistema. una interfaz gráfica además de la convencional. La. aparición del sistema de
ventanas X a mediados de los ochenta y su aceptación generalizada, que le ha
convertido en un estándar de facto, ha permitido que la mayoría de los sistemas UNIX
incluyan una interfaz gráfica común. Como resultado de este proceso, prácticamente
todas las computadoras de propósito general existentes actualmente poseen una interfaz
de usuario gráfica
Hoy en día, este tipo de interfaces tiene su mayor representante en los sistemas
operativo Windows de Microsoft. En la Figura 2.18 se muestra uno de los elementos
clave de la interfaz gráfica de este tipo de sistemas, el explorador de Windows.
A continuación, se revisan las características comunes de este tipo de interfaces. En
primer lugar, todos ellos están basados en ventanas que permiten al usuario trabajar
simultáneamente en distintas actividades. Asimismo, se utilizan iconos y menús para
representar los recursos del sistema y poder realizar operaciones sobre los mismos,
respectivamente. El usuario utiliza. un ratón (o dispositivo equivalente) para interaccionar
con estos elementos. Así, por ejemplo, para arrancar una:
Figura 2.19 Estructura de un sistema distribuido que utiliza un sistema operativo distribuido
3.1CONCEPTO DE PROCESO
Todos los programas, cuya ejecución solicitan los usuarios, se ejecutan en forma de
procesos, de ahí la importancia para el informático de conocerlos en detalle. Como ya se
vio en el Capítulo 2, el proceso se puede definir como un programa en ejecución y, de
una forma un poco más precisa, como la unidad de procesamiento gestionada por el
sistema operativo.
En el Capítulo 1 se vio que para que un programa pueda ser ejecutado ha de
residir con sus datos en memoria principal. Observe que durante su ejecución el proceso
va modificando los registros del modelo de programación de la computadora, de acuerdo
a las instrucciones de máquina involucradas (Fig. 1.3).
El sistema operativo mantiene por cada proceso una serie de estructuras de
información que permiten identificar las características de éste, así como los recursos
que tiene asignados. En esta última categoría entran los descriptores de los segmentos de
memoria asignados, los descriptores de los archivos abiertos, los descriptores de los
puertos de comunicaciones, etc.
Una parte muy importante de estas informaciones se encuentra en el llamado
bloque de control del proceso (BCP). El sistema operativo mantiene una tabla de
procesos con todos los BCP de los procesos. Por razones de eficiencia, la tabla de
procesos se construye normalmente como una estructura estática, que tiene un
determinado número de BCP, todos ellos del mismo tamaño. El contenido del BCP se
analizará con más detalle en secciones posteriores; sin embargo, de manera introductoria
se puede decir que la información que compone un proceso es la siguiente:
• Contenido de los segmentos de memoria en los que residen el código y los datos
del proceso. A esta información se le denomina imagen de memoria o core image.
• Contenido de los registros del modelo de programación.
• Contenido del BCP.
Es de destacar que el proceso no incluye información de E/S, puesto que ésta suele
estar reservada al sistema operativo.
Jerarquía de procesos
Grupos de procesos
Los procesos forman grupos que tienen diversas propiedades. El conjunto de procesos
creados a partir de un shell puede formar un grupo de procesos. También pueden formar
un grupo los procesos dependientes de un terminal.
El interés del concepto de grupo de procesos es que hay determinadas operaciones
que se pueden hacer sobre todos los procesos de un determinado grupo, como se verá al
estudiar algunos de los servicios. Un ejemplo es la posibilidad de matar a todos los
procesos pertenecientes a un mismo grupo.
3.2. MULTITAREA
• Monotarea o monoproceso.
• Multitarea o multiproceso.
• Monousuario.
• Multiusuario (tiempo compartido).
Un sistema monousuario está previsto para dar soporte a un solo usuario. Estos
sistemas pueden ser monoproceso o multiproceso. En este último caso el usuario puede
solicitar varias tareas al mismo tiempo, por ejemplo, puede estar editando un archivo y,
simultáneamente, puede estar accediendo a una página Web de la red.
El sistema operativo multiusuario da soporte a varios usuarios que trabajan
simultáneamente desde varios terminales. A su vez, cada usuario puede tener activos
más de un proceso, por lo que el sistema, obligatoriamente, ha de ser multitarea. Los
sistemas multiusuario reciben también el nombre de tiempo compartido, puesto que el
sistema operativo ha de repartir el tiempo de la computa-. dora entre los usuarios, para
que las tareas de todos ellos avancen de forma razonable.
Figura 3.2. Tipos de sistemas operativos en función del numero de procesos y usuarios
Procesos 81
Este proceso consiste en un bucle infinito que no realiza ninguna operación útil. El
objetivo de este proceso es «entretener» al procesador cuando no hay ninguna otra tarea.
Planificador y activador
El planificador (scheduler) forma parte del núcleo del sistema operativo. Entra en
ejecución cada vez que se activa el sistema operativo y su misión es seleccionar el
proceso que se ha de ejecutar a continuación.
El activador (dispatcher) también forma parte del sistema operativo y su función es
poner en ejecución el proceso seleccionado por el planificador.
La multiprogramación presenta varias ventajas, entre las que se pueden resaltar las
siguientes:
Todas estas ventajas hacen que, salvo para situaciones muy especiales, no se conciba
actualmente un sistema operativo que no soporte multitarea.
Procesos 83
En los sistemas con memoria virtual la situación es más compleja, puesto que los
procesos sólo tienen en memoria principal su conjunto residente (Recordatorio 32), lo
que hace que quepan mas procesos. Sin embargo, al aumentar el número de procesos
disminuye el conjunto residente de cada uno, situación que se muestra en la Figura 3.6.
Cuando el conjunto residente de un proceso se hace menor de un determinado
valor ya no representa adecuadamente al futuro conjunto de trabajo (Recordatorio 3.2)
del proceso, lo que tiene como consecuencia que se produzcan muchos fallos de página.
Cada fallo de página consume tiempo de procesador, porque el sistema operativo ha de
tratar el fallo, y tiempo de FIS, puesto que hay que hacer una migración de páginas.
Todo ello hace que, al crecer los fallos de páginas, el sistema dedique cada vez más
tiempo al improductivo trabajo de resolver estos fallos de página.
La Figura 3.7 muestra que, en un sistema con memoria virtual, el aumento del
grado de multiprogramación conlleva primero un aumento del rendimiento del
procesador. Sin embargo, superado un determinado valor de grado de multiprogramación
los conjuntos residentes de los procesos empiezan a ser demasiado pequeños, por lo que
el sistema baja su rendimiento al perder el tiempo paginando.
El estado del procesador (Aclaración 3.1) está formado por el contenido de todos sus
registros, que se enumeran seguidamente:
• Puntero de pila.
• Registro o registros de estado.
• Registros especiales. Como puede ser el RIED (registro identificador de espacio de
direccionamiento).
La imagen de memoria del proceso está formada por los espacios de memoria que está
autorizado a utilizar. Las principales características de la imagen de memoria son las
siguientes:
Este es el modelo más sencillo de imagen de memoria y su uso se suele restringir a los
sistemas sin memoria virtual. El proceso recibe un único espacio de memoria que,
además, no puede variar de tamaño.
Se puede decir que esta solución no se emplea. En sistemas sin memoria virtual los
segmentos no pueden crecer a menos que se deje espacio de memoria principal de
reserva; se chocaría con otro proceso. Ahora bien, la memoria principal es muy cara
como para dejarla de reserva. En sistemas Con memoria virtual sí se podría emplear,
pero es más conveniente usar un modelo de varios segmentos, pues es mucho más
flexible y se adapta mejor a las necesidades reales de los procesos.
Procesos 87
-Datos sin valor inicial. Estos datos son estáticos, pero no tienen valor asignado.
por lo que no están presentes en el archivo ejecutable. Será el sistema operativo el
que, al cargar el proceso, rellene o no rellene esta zona de datos con valores
predefinidos.
-Datos dinámicos. Estos datos se crean y se destruyen de acuerdo a las directrices
del programa.
Los datos podrán ser de lectura-escritura o solamente de lectura.
Pila. A través del puntero de pila, los programas utilizan una estructura dc pila
residente en memoria. En ella se almacenan, por ejemplo, los bloques de activación de
los procedimientos llamados. La pila es una estructura dinámica, puesto que crece y
decrece según avanza la ejecución del proceso.
Esta solución es más avanzada que la anterior, al permitir que existan los segmentos que
desee el proceso. La Figura 3.10 presenta un caso de siete segmentos, que podrán ser de
texto. de pila o de datos.
• Código.
• Datos con valor inicial.
Los datos sin valor inicial no necesitan residir en el archivo ejecutable puesto que el
sistema operativo se encargará de asignarles valor (normalmente O) cuando cree el
proceso encargado de ejecutar dicho programa.
Ejecutable de Win32
• Cabecera MZ de MS-DOS.
• Programa MS-DOS.
• Cabecera del ejecutable.
• Cabecera de Sección 1.
• Cabecera de Sección 2.
• Cabecera de Sección 3.
• ...
• Cuerpo de la Sección 1.
• Cuerpo de la Sección 2.
• Cuerpo de la Sección 3.
• ...
4. Cabeceras de las secciones. Los datos del ejecutable en sí están contenidos en las seccio-
nes. Las secciones se componen de una cabecera y un cuerpo. En el cuerpo de la sección
están los datos y en la cabecera de la sección información de cómo están organiiados los
datos y de qué tipo son (de lectura, de escritura, de lectura/escritura...).
5. Cuerpos de las secciones. Después de las cabeceras de las secciones están los cuerpos de
las secciones, donde están contenidos todos los datos del ejecutable. Las secciones mas
comunes son: código, datos con valor inicial, datos con valor inicial de sólo lectura,
datos sin valor inicial, funciones importadas, funciones exportadas, depuracíon...
El BCP contiene la información básica del proceso, entre la que cabe destacar la
siguiente:
Información de identificación
Contiene los valores iniciales del estado del procesador o su valor en el instante en que
fue interrumpido el proceso.
Procesos 91
Como se muestra en la Figura 3.8, el sistema operativo mantiene una serie de tablas que
describen a los procesos y a los recursos del sistema. Algunos de los aspectos de estas
tablas ya se han ido comentando, pero aquí se profundizará y detallará el contenido de
las mismas.
La información asociada a cada proceso se encuentra parcialmente en el BCP y
parcialmente fuera de él. La decisión de incluir o no una información en el BCP se toma
según dos argumentos: eficiencia y necesidad de compartir información.
Eficiencia
Por razones de eficiencia, es decir, para acelerar los accesos, la tabla de procesos se
construye normalmente como una estructura estática, formada por un número
determinado de BCP del mismo tamaño. En este sentido, aquellas informaciones que
pueden tener un tamaño variable no deben incluirse en el BCP. De incluirlas habría que
reservar en cada BCP el espacio necesario para almacenar el mayor tamaño que puedan
tener estas informaciones. Este espacio estaría presente en todos los BCP, pero estaría
muy desaprovechado en la mayoría de ellos.
Un ejemplo de este tipo de información es la tabla de páginas, puesto que su
tamaño depende dc las necesidades de memoria de los procesos, valor que es muy
variable de unos a otros. En este sentido, el BCP incluirá el RIED (registro identificador
de espacio de direccionamiento) e incluso una descripción de cada segmento (p. ej.:
incluirá la dirección virtual donde comienza el segmento, su tamaño, la zona reservada
para su crecimiento y el puntero a la subtabla de páginas, pero no la subtabla en sí).
Compartir información
Figura 3.12. Tabla de archivos con los punteros de posición y los descriptores físicos de archivo.
Ahora bien, se puede dar el caso de que dos procesos independientes A y B abran
el mismo archivo, Imaginemos que el proceso A lee 1.000 bytes del archivo y que
seguidamente el proceso B lee 500 bytes. Está claro que el proceso B, que no tiene nada
que ver con el proceso A, espera leer los primeros 500 bytes del archivo y no los bytes 1
.000 a 1 .499. Para evitar esta situación, el sistema operativo asignará una nueva entrada
en la tabla externa de archivos cada vez que se realice una operación de apertura de
archivo. De esta forma, cada apertura obtiene su propio PP.
La Figura 3.12 presenta esta situación, puesto que analizando el proceso con BCP
23 se observa que su fd 4 utiliza la entrada 2 de la tabla externa de archivos. Esta entrada
se refiere al archivo de IDFF = 345 12, que coincide con el de la entrada 4. Los tres
procesos de la figura comparten el archivo 34512, pero de forma distinta, puesto que los
de BCP 4 y 7 comparten el PP, mientas que el de BCP 23 utiliza otro puntero de posición
(Aclaración 3.3).
Finalmente, diremos que otra razón que obliga a que las tablas de páginas sean
externas al BCP es para permitir que se pueda compartir memoria. En este caso, como
se analizará en detalle en el Capítulo 4, dos o más procesos comparten parte de sus tablas
de páginas.
Tablas de E/S
Procesos 93
Una vez completada toda la información del proceso, se puede marcar como listo
para ejecutar, dc forma que el planificador, cuando lo considere oportuno, lo seleccione
para su ejecución.
Como se puede observar en la Figura 3.4, no todos los procesos activos de un sistema
multitarea están en la misma situación. Se diferencian, por tanto, tres estados básicos en
los que puede estar un proceso, estados que detallamos seguidamente:
• Ejecución. En este estado está el proceso que está siendo ejecutado por el
procesador, es decir, que está en fase de procesamiento. En esta fase el estado
del proceso reside en los registros del procesador.
Además de los tres estados básicos de ejecución, listo y bloqueado, los procesos pueden
estar en los estados de espera y de suspendido. El diagrama de estados completo de un
proceso se representa en la Figura 3.15.
Los procesos entran en el sistema porque lo solicita un proceso de usuario o porque está
prevista su ejecución hatch. Es frecuente tener una lista de procesos batch en espera
para ser ejecutados cuando se pueda. El sistema operativo ha de ir analizando dicha lista
para lanzar la ejecución de los procesos a medida que disponga de los recursos
necesarios.
Los procesos salen del sistema cuando mueren, es decir, al ejecutar el servicio
correspondiente o al producir algún error irrecuperable.
complete una lectura de disco y que llega una interrupción del disco. Se produce un
cambio de contexto y entra a ejecutar el sistema operativo para tratar la interrupción. En
el caso de que la interrupción indique que ha terminado la lectura por la que esperaba A,
el sistema operativo cambiará el estado de este proceso a listo o incluso a ejecución si así
lo decide el planificador. El resultado final es que ha habido un cambio de estado de
proceso.
Supóngase ahora que está ejecutando el proceso A y que llega una interrupción de
teclado asociado al proceso B. Se produce el cambio de contexto, pero el proceso B
puede seguir en estado de bloqueado (no llegó el carácter de fin de línea) y el proceso A
puede seguir en estado de ejecución, por lo que no hay cambio de estado en ]os procesos.
Las transiciones en el estado del proceso exigen un trabajo cuidadoso por parte del
sistema operativo, para que se hagan correctamente. El aspecto más delicado se refiere al
contenido de los registros de la computadora. Veamos detalladamente los pasos
involucrados:
Según la secuencia anterior, si se desea más adelante continuar con la ejecución del
proceso, se presenta un grave problema: los registros ya no contienen los valores que
deberían. Supongamos que el proceso está ejecutando la secuencia siguiente:
LD .5,# CANT
<= En este punto llega una interrupción y se pasa al SO
LD .1, [.5]
Procesos 97
Activación de un proceso
El módulo del sistema operativo que pone a ejecutar un proceso se denomina activador
o dispatcher. La activación de un proceso consiste en copiar en los registros del
procesador el estado del procesador, que está almacenado en su BCP. De esta forma, el
proceso continuará su ejecución en las mismas condiciones en las que fue parado. El
activador termina con una instrucción RETI (Recordatorio 3.4) de retorno de
interrupción. El efecto de esta instrucción es restituir el registro de estado y el contador
de programa, lo cual tiene los importantes efectos siguientes:
• Contador de programa.
• Pila.
• Registros.
• Estado del proceso ligero (ejecutando, listo o bloqueado).
Todos los procesos ligeros de un mismo proceso comparten la información del mismo.
En concreto, comparten:
• Espacio de memoria.
• Variables globales.
• Archivos abiertos.
• Procesos hijos.
• Temporizadores.
• Señales y semáforos.
• Contabilidad.
El proceso ligero puede estar en uno de los tres estados siguientes: ejecutando, listo para
ejecutar y bloqueado. Como muestra la Figura 3.19, cada proceso ligero de un proceso
tiene su propio estado, pudiendo estar unos bloqueados, otros listos y otros en ejecución
(Aclaración 3.4).
El estado del proceso será ¡a combinación de los estados de sus procesos ligeros.
Por ejemplo, si tiene un proceso ligero en ejecución, el proceso está en ejecución. Si no
tiene proceso ligeros en ejecución, pero tiene alguno listo para ejecutar, el proceso está
en estado de listo. Finalmente, si todos sus procesos ligeros están bloqueados, el proceso
está bloqueado. No tiene sentido el estado dc suspendido, puesto que si el proceso está
suspendido, todos sus procesos ligeros lo estarán.
3.6.2.Paralelismo
Los procesos ligeros permiten paralelizar una aplicación, tal y como muestra la Figura
3.20. En efecto, cuando un programa puede dividirse en procedimientos que pueden
ejecutar de forma independiente, el mecanismo de los procesos ligeros permite lanzar
simultáneamente la ejecución de todos ellos. De esta forma se consigue que el proceso
avance más rápidamente (Prestaciones 3.2).
La base de este paralelismo estriba en que, mientras un proceso ligero está bloqueado,
otro puede ejecutar.
Comparando el uso de los procesos ligeros con otras soluciones se puede decir que:
— No hay paralelismo.
— Utiliza llamadas al sistema bloqueantes.
— Permite paralelismo.
— Utiliza llamadas al sistema no bloqueantes, lo que lleva a un diseño muy
complejo y difícil de mantener.
Figura 3.20. Los procesos ligeros permiten paralelizar la ejecución de una aplicación.
Procesos 101
— Permite paralelismo.
— No comparte variables, por lo que la comunicación puede consumir mucho
tiempo.
La utilización de procesos ligeros ofrece las ventajas de división de trabajo que dan los
procesos, pero con una mayor sencillez, lo que se traduce en mejores prestaciones. En
este sentido, es de destacar que los procesos ligeros comparten memoria directamente,
por lo que no hay que añadir ningún mecanismo adicional para utilizarla, y que la
creación y destrucción de procesos ligeros requiere mucho menos trabajo que la de
procesos.
Las ventajas de diseño que se pueden atribuir a los procesos ligeros son las siguientes:
• Hay variables globales que se comparten entre varios procesos ligeros. Dado que
cada proceso ligero ejecuta de forma independiente a los demás, es fácil que
ocurran accesos incorrectos a estas variables.
• Para ordenar la forma en que los procesos ligeros acceden a los datos se emplean
mecanismos de sincronización, como el mutex, que se describirán en el Capítulo 5.
El objetivo de estos mecanismos es impedir que un proceso ligero acceda a unos
datos mientras los esté utilizando otro.
• Para escribir código correcto hay que imaginar que los códigos de los otros
procesos ligeros que pueden existir están ejecutando cualquier sentencia al mismo
tiempo que la sentencia que se está escribiendo.
3.7. PLANIFICACIÓN
Expulsión
La planificación puede ser con expulsión o sin ella. En un sistema sin expulsión un
proceso conserva el procesador mientras lo desee, es decir, mientras no solicite del
sistema operativo un servicio que lo bloquee. Esta solución minimiza el tiempo que gasta
el sistema operativo en planificar y
Procesos 130
activar procesos, pero tiene como inconveniente que un proceso puede monopolizar el
procesador (imagínese lo que ocurre si el proceso, por error, entra en un bucle infinito).
En los sistemas con expulsión, el sistema operativo puede quitar a un proceso del
estado de ejecución aunque éste no lo solicite. Esta solución permite controlar el tiempo
que está en ejecución un proceso, pero requiere que el sistema operativo entre de forma
sistemática a ejecutar para así poder comprobar si el proceso ha superado su límite de
tiempo de ejecución. Como sabemos, las interrupciones sistemáticas del re]oj garantizan
que el sistema operativo entre a ejecutar cada pocos milisegundos, pudiendo determinar
en estos Instantes si ha de producirse un cambio dc proceso o no.
Colas de procesos
Para realizar las funciones de planificación, el sistema operativo organiza los procesos
listos en una serie de estructuras de información que faciliten la búsqueda del proceso a
planificar. Es muy frecuente organizar los procesos en colas de prioridad y de tipo.
La Figura 3.23 muestra un ejemplo con 30 colas para procesos interactivos y 2
colas para procesos batuh. Las 30 colas interactivas permiten ordenar los procesos listos
interactivos según 30 niveles dc prioridad, siendo, por ejemplo, el nivel 0 el más
prioritario. Por su lado, las dos colas batch permiten organizar los procesos listos batch
en dos niveles de prioridad.
Se puede observar en la mencionada figura que se ha incluido una palabra
resumen. Esta palabra contiene un 1 si la correspondiente cola tiene procesos y un 0 si
está vacía. De esta forma, se acelera cl planificador, puesto que puede saber rápidamente
dónde encontrará procesos listos.
Corno muestra la Figura 3.24, las colas de procesos se construyen con unas
cabeceras y con unos punteros que están incluidos en los BCP. Dado que un proceso está
en cada instante en una sola cola de planificación, es necesario incluir un solo espacio de
puntero en su BCP, como muestra la Figura 3.24.
Objetivos de la planificación
La mayoría de estos objetivos son incompatibles entre sí, por lo que hay que
centrar la atención en aquel que sea de mayor interés. Por ejemplo, una planificación que
realice un reparto equitativo del procesador no conseguirá optimizar el uso del mismo.
Hay que observar que algunos objetivos están dirigidos a procesos interactivos,
mientras que otros lo están a procesos batch.
Cíclica o Round-robin
El algoritmo cíclico está diseñado para hacer un reparto equitativo del tiempo del
procesador, por lo que está especialmente destinado a los sistemas de tiempo
compartido. El algoritmo se basa en el concepto de rodaja (slot) de tiempo.
Los procesos están organizados en forma de cola circular, eligiéndose para su
ejecución el proceso cabecera de la cola. Un proceso permanecerá en ejecución hasta que
ocurra una de las dos condiciones siguientes:
• El proceso pasa a estado de bloqueado, porque solicita un servicio del sistema
operativo.
• El proceso consume su rodaja de tiempo, es decir, lleva ejecutando el tiempo
estipulado de rodaja.
En este caso, la cola de procesos en estado de listo está ordenada de acuerdo al instante
en que los procesos pasan al estado de listo. Los que llevan más tiempo esperando están
más cerca de la cabecera.
El algoritmo es sencillo, puesto que consiste en tomar para ejecutar al proceso de
la cabecera de la cola. No se plantea expulsión, por lo que el proceso ejecuta hasta que
realiza una llamada bloqueante al sistema operativo.
Es aplicable a los sistemas batch, pero no a los interactivos.
Prioridades
Este algoritmo exige conocer a priori el tiempo de ejecución de los procesos, por lo que
es aplicable a trabajos batch repetitivos cuyo comportamiento se tenga analizado.
El algoritmo consiste en seleccionar para ejecución al proceso listo con menor tiempo
de ejecución. No se plantea expulsión, por lo que el proceso sigue ejecutándose mientras
lo desee.
La ventaja de este algoritmo es que produce el menor tiempo de respuesta, pero a costa
de penalizar los trabajos de mayor tiempo de ejecución. También puede sufrir de
inanición, puesto que, en el caso de que estén continuamente apareciendo procesos con
tiempo de ejecución pequeño, un proceso largo puede no llegar a ejecutar.
Aleatorio o lotería
Los sistemas de tiempo real se caracterizan porque los procesos tienen que ejecutar en
instantes predeterminados. Se pueden diferenciar dos tipos de procesos de tiempo real: a
plazo fijo y periódico. La diferencia estriba en que los de plazo fijo tienen que ejecutar
una vez, en un instante determinado, mientras que los periódicos deben ejecutar de forma
repetitiva cada cierto tiempo.
Como muestra la Figura 3.26, se asocia a cada proceso el instante en el que debe
ejecutar. Los procesos que no han alcanzado su tiempo de ejecución están en una cola de
espera, mientras que los que han alcanzado el tiempo de ejecución pasan a las colas de
listo para ejecutar. La planificación consiste en seleccionar de entre estos últimos el
proceso a ejecutar.
La planificación de tiempo real está basada en el reloj de tiempo de la computadora y su
objetivo es conseguir que no se retrase la ejecución de los procesos. En los denominados
sistemas de tiempo real críticos, los procesos tienen asignada una franja de tiempo en la
cual deben ejecutar y. en ningún caso, se ha de rebasar el tiempo máximo sin que el
proceso complete su ejecución.
Procesos 107
Los sistemas de tiempo real se suelen diseñar de forma que estén bastante
descargados, es decir, que tengan pocos procesos en estado de listo. De esta forma se
consigue que no se retrase la ejecución de los mismos. Además, se evitan los
mecanismos que introducen retardos en la ejecución, como puede ser la memoria virtual,
puesto que la paginación puede introducir retardos inadmisibles en la ejecución.
— Cuando un proceso bloqueado pasa a listo para ejecutar, el proceso se introduce al final de la
cola asociada a su prioridad.
— Cuando un proceso cambia su prioridad o su política de planificación, utilizando para ello los
servicios adecuados, se realiza una replanificación. Si como resultado de ésta
el proceso resulta expulsado, éste se introduce al final de la cola de procesos
de su prioridad.
• Cíclica: En este caso, los procesos de cada nivel de prioridad se planifican según una
política de planificación cíclica con una determinada rodaja de tiempo. El
comportamiento del planificador para los procesos con este tipo de planificación es
el siguiente:
Observe que la política de planificación se realiza por proceso y, por tanto, las tres
políticas conviven en el planificador. Observe, además, que la planificación en POSIX es
con expulsión.
• Listo. Los procesos ligeros en este estado están listos para ejecutar.
• Reserva. Un proceso ligero en este estado será el siguiente proceso ligero a ejecutar
en un procesador determinado. Sólo puede haber un proceso ligero en este estado por
procesador.
• Ejecución. El proceso ligero permanece ejecutando hasta que se cumpla alguna de
estas condiciones: el sistema operativo lo expulsa para ejecutar un proceso ligero de
mayor prioridad, la rodaja de tiempo del proceso termina o bien el proceso ligero finaliza
su ejecución.
• Bloqueado. Cuando el proceso ligero deja de estar bloqueado puede, dependiendo de
su prioridad, comenzar su ejecución inmediatamente o pasar al estado de listo para
ejecutar.
• Transición. Un proceso ligero entra en este estado cuando está listo para ejecutar,
pero la pila que utiliza el sistema operativo para ese proceso no reside en memoria
principal. Cuando la página vuelva a memoria, el proceso ligero pasará al estado de listo
para ejecutar.
• Finalizado. Cuando un proceso ligero finaliza su ejecución, pasa a este estado. Una
vez terminado, el proceso ligero puede o no ser eliminado del sistema. En caso de no ser
eliminado, podría ser reutilizado de nuevo.
Procesos 109
Todos los procesos ligeros en el mismo nivel se ejecutan según una política de
planificación cíclica con una determinada rodaja de tiempo (Prestaciones 3.3). En la
primera categoría, todos los procesos ligeros tienen una prioridad fija. En la segunda, los
procesos comienzan su ejecución con una determinada prioridad y ésta va cambiando
durante la vida del proceso, pero sin llegar al nivel 16. Esta prioridad se modifica según
el comportamiento que tiene el proceso durante su ejecución. Así, un proceso (situado en
el nivel de prioridades variable) ve decrementada su prioridad si acaba la rodaja de
tiempo. En cambio, si el proceso se bloquea, por ejemplo, por una petición de E/S
bloqueante, su prioridad aumentará. Con esto se persigue mejorar el tiempo de respuesta
de los procesos interactivos que realizan E/S.
3.8.1. Señales
Las señales tienen frente al proceso el mismo comportamiento que las interrupciones
tienen frente al procesador, por lo que se puede decir que una señal es una interrupción al
proceso.
El proceso que recibe una señal se comporta, como muestra la Figura 3.28, de la
siguiente forma:
Un proceso puede enviar una señal a otro proceso que tenga el mismo identificador de
usuario (uid), a no los que lo tengan distinto (Aclaración 3.5). Un proceso también puede
mandar una señal a un grupo de procesos, que han de tener su mismo uid.
El sistema operativo también toma la decisión de enviar señales a los procesos cuando
ocurren determinadas condiciones. Por ejemplo, las excepciones de ejecución programa
(el desbordamiento
Figura 3.28. Recepción de una señal por parte de un proceso.
Procesos 111
en las Operaciones aritméticas, la división por cero, el intento de ejecutar una instrucción
con código de operación incorrecto o de direccionar una posición de memoria prohibida)
las convierte el sistema operativo en señales al proceso que ha causado la excepción.
Tipos de señales
Dado que las señales se utilizan para indicarle al proceso muchas cosas diferentes,
existen una gran variedad de ellas. A título de ejemplo, se incluyen aquí tres categorías
de señales:
• Excepciones hardware.
• Comunicación.
• FIS asíncrona.
3.8.2. Excepciones
Una excepción es un evento que ocurre durante la ejecución de un programa y que
requiere la ejecución dc un fragmento de código situado fuera del flujo normal de
ejecución.
Las excepciones son generadas por el hardware o el software. Ejemplos de excepciones
hardware incluyen la división por cero o la ejecución de instrucciones ilegales. Las
excepciones software incluyen aquellas detectadas y notificadas por el sistema operativo
o el propio proceso. Cuando ocurre una excepción, tanto hardware como software, el
control es transferido al Sistema operativo, que ejecuta la rutina de tratamiento de
excepción correspondiente. Esta rutina crea un registro de excepción que contiene
información sobre la excepción generada. Si existe un manejador para la excepción
generada, el sistema operativo transfiere el control a dicho manejador, en caso contrario
aborta la ejecución del proceso.
try{
Bloque donde puede producirse una excepción
}
except{
Bloque que se ejecutará si se produce una excepción
en el bloque anterior
}
3.9. TEMPORIZADORES
El sistema operativo mantiene en cada BCP un temporizador que suele estar expresado
en segundos. Cada vez que la rutina del sistema operativo que trata las interrupciones de
reloj comprueba que ha transcurrido un segundo, decrementa todos los temporizadores
que no estén a «0» y comprueba si han llegado a «0». Para aquellos procesos cuyo
temporizador acaba de llegar a «0», el sistema operativo notifica al proceso que el
temporizador ha vencido. En POSIX se genera una señal SIGALRN. En Win32 se
ejecuta una función definida por el usuario y que se asocia al temporizador.
El proceso activa el temporizador mediante un servicio en el que especifica el
número de segundos o milisegundos que quiere temporizar. Cuando vence la
temporización, recibirá la correspondiente señal o se ejecutará la función asociada al
mismo.
Los servidores y los demonios son dos tipos de procesos muy frecuentes y que tienen
unas características propias que se analizan seguidamente.
Un servidor es un proceso que está pendiente de recibir órdenes de trabajo que provienen
de otros procesos, que se denominan clientes. Una vez recibida la orden, la ejecuta y
responde al peticionario con el resultado. La Figura 3.29 muestra cómo el proceso
servidor atiende a los procesos clientes.
• Lectura de orden. El proceso está bloqueado esperando a que llegue una orden.
• Recibida la orden, el servidor la ejecuta.
Procesos 113
De esta forma, el proceso servidor dedica muy poco tiempo a cada cliente, puesto
que el trabajo lo realiza un nuevo proceso, y puede atender rápidamente nuevas
peticiones. La Figura 3.30 muestra esta secuencia.
Esta sección describe los principales servicios que ofrece POSIX para la gestión de
procesos, procesos ligeros y planificación. También se presentan los servicios que
permiten trabajar con señales y temporizadores
En esta sección se describen los principales servicios que ofrece POSIX para la gestión
de procesos. Estos servicios se han agrupado según las siguientes categorías:
• Identificación de procesos.
• El entorno de un proceso.
• Creación de procesos.
• Terminación de procesos.
Procesos 115
Identificación de procesos
POSIX identifica cada proceso por medio de un entero único denominado identificador
de proceso de tipo pid_ti. Los servicios relativos a la identificación de los procesos son
los siguientes:
Este servicio devuelve el identificador del proceso que realiza la llamada. Su prototipo
en C lenguaje es el siguiente:
Pid_t getpid(void);
pid ti getppid(void);
El Programa 3. 1 muestra un ejemplo de utilización de ambas llamadas.
_______________________________________________________________________
Programa 3.1. Programa que imprime el identificador del proceso y el identificador de
su proceso padre.
# include <sys/types.h>
#include <stdio.h>
main ( )
{
pid_id_proceso;
pid_id_padre;
id proceso = getpid ( );
id_padre = getppid ( );
Este servicio devuelve el identificador de usuario real del proceso que realiza la llamada.
Su prototipo es:
uid_t getuid(void);
uid_t geteuid(void);
Este servicio permite obtener el identificador de grupo real. El prototipo que se utiliza
para invocar este servicio es el siguiente:
_______________________________________________________________________
Programa 3.2. Programa que imprime la información de identificación de un proceso.
#include <sys/types.h>
#include <stdio.h>
main ( )
El entorno de un proceso
El entorno de un proceso viene definido por una lista de variables que se pasan al mismo
en el momento de comenzar su ejecución. Estas variables se denominan variables de
entorno y son accesibles a un proceso a través de la variable externa environ, declarada
de la siguiente forma:
Procesos 117
Esta variable apunta a una lista de variables de entorno. Esta lista no es más que un
vector de punteros a cadenas de caracteres de la forma nombre = valor, donde nombre
hace referencia al nombre de una variable de entorno y valor al contenido de la misma.
El Programa 3.3 imprime la lista de variables de entorno de un proceso.
_______________________________________________________________________
Programa 3.3. Programa que imprime el entorno del proceso.
#include <stdio.h>
#include <stdlib.h>
El servicio getenv permite buscar una determinada variable de entorno dentro de la lista
de variables de entorno de un proceso. La sintaxis de esta función es:
#include <stdio.h>
#include <stdlib.h>
main ()
Creación de procesos
En esta sección se describen los principales servicios POSIX relativos a la creación de
procesos.
a) Crear un proceso
La Figura 3.32 muestra que la donación del proceso padre se realiza copiando la
imagen de memoria y el BCP. Observe que el proceso hijo es una copia del proceso
padre en el instante en que éste solicita el servicio fork. Esto significa que los datos y la
pila del proceso hijo son los que tiene el padre en ese instante de ejecución. Es más, dado
que, al entrar el sistema operativo a tratar el servicio, lo primero que hace es salvar los
registros en el BCP del padre, al copiarse el BCP se copian los valores salvados de los
registros, por lo que el hijo tiene los mismos valores que el padre.
Este valor de retorno se puede utilizar mediante una cláusula de condición para
que el padre y el hijo sigan flujos de ejecución distintos, como se muestra en la Figura
3.33.
Observe que las modificaciones que realice el proceso padre sobre sus registros e
imagen de memoria después del FORK no afectan al hijo y, viceversa, las del hijo no
afectan al padre. Sin embargo, el proceso hijo tiene su propia copia de los descriptores
del proceso padre. Esto hace que el hijo tenga acceso a los archivos abiertos por el
proceso padre. El padre y el hijo comparten el puntero de posición de los archivos
abiertos en el padre.
El Programa 3.5 muestra un ejemplo de utilización de la llamada fork. Este
programa hace uso dc la función de biblioteca perror que imprime un mensaje
describiendo el error de la última llamada ejecutada. Después de la llamada fork, los
procesos padre e hijo imprimirán sus identificadores de proceso utilizando la llamada
getpid, y los identificadores de sus procesos padre por medio de la llamada getppid.
Observe que los identificadores del proceso padre son distintos en cada uno de los dos
procesos.
_______________________________________________________________________
Programa 3.5. Programa que crea un proceso.
#include <sys/ypes.h>
#ineclude <stdio.h>
main ()
{
120 Sistemas operativos. Una visión aplicada
pid_t pid;
pid = fork ();
switch(pid) {
case -1: /* error del fork<) *1
perror(”fork”)
break;
case 0: /* proceso hilo */
printf(”Proceso %d; padre = %d \n”, getpidü, getppid();
break;
default: /* padre */
printf(”Proceso %d; padre = %d \n”, getpidú, getppid();
_______________________________________________________________________
El código del Programa 3.6 crea una cadena de n procesos como se muestra en la Figura
3.34.
_______________________________________________________________________
#include <sys/types.h>
#include <stdio.h>
main ()
{
piclit pid;
int i;
int n = 10;
}
_______________________________________________________________________
mamo
pidt pid;
mt i;
mt n = 10;
En este programa, a diferencia del anterior, es el proceso hijo el que finaliza la ejecución
del bucle ejecutando la sentencia break, siendo el padre el encargado de crear todos los
procesos.
h) Ejecutar un programa
El servicio exec de POSIX tiene por objetivo cambiar el programa que está ejecutando
un proceso. Se puede considerar que el servicio tiene dos fases. En la primera se vacía el
proceso de casi todo su contenido, mientras que en la segunda se carga en nuevo
programa. La Figura 3.36 muestra estas dos fases.
2 N
BCP
Mapa de
memoria
o
Se
carga la nueva imagen
Objeto Tabla de procesos Se
pone PC en dirección de arranque
ejecutable Imagen
co
~ detprocaso
Se conservan los fd
Biblioteca
sistema
Recuerde que el servicio fork crea un nuevo proceso que ejecuta el mismo programa que
el
proceso padre y que el servicio exec no crea un nuevo proceso, sino que permite que un
proceso pase a ejecutar un programa distinto.
En POSIX existe una familia de funciones exec, cuyos prototipos se muestran a
continuación:
in~ excl(char ‘~path, char ~arg, ...); icÉ execv(char *path char *argv[]); ints
execle(char *path char *arg, ...);
Procesos 1
mt execve(char *path, char *argv[] char *envp[1); mt execlp(char *file const char *arg,
...);
mt execvp<char *file, char *argv[1);
La familia de funciones exec reemplaza la imagen del proceso actual por una nueva
imagen. Esta nueva imagen se construye a partir de un archivo ejecutable. Si la llamada
se ejecuta con éxito, ésta no devolverá ningún valor puesto que la imagen del proceso
habrá sido reemplazada, en caso contrario devuelve —1.
La función main del nuevo programa llamado tendrá la forma:
ACLARACIóN 3.7
Cuando un usuario ejecuta un archivo ejecutable con el bit de modo set -user- ID, el
nuevo proceso creado tendrá como identificador de usuario efectivo el identificador de
usuario del propietario del archivo ejecutable. Como se verá en el Capítulo 9, este
identificador es el que se utiliza para comprobar los permisos en los accesos a
determinados recursos como son los archivos. Pør tanto, cuando se ejecuta un programa
con este bit, el nuevo proceso ejecuta con los permisos que tiene el propietario del
archivo ejecutable.
El nuevo proceso hereda del proceso que realiza la llamada los siguientes atributos:
• ldcntiticador de proceso.
• ldentificador del proceso padre.
• ldentificador del grupo del proceso.
• ldentificador de usuario real.
#include <sys/types.h>
#include <stdio.h>
mamo
pidt pid;
mt status;
pid = forkü;
switch(pid)
case —1: /* error del fork(> */
exit(-1);
case O: /* proceso hijo */
execlp(”ls”, “ls”, “-1” ,NULL);
perror(”exec”)
break;
default: /* padre */
#include <sys/types .
#include <stdio.h>
pidt pid;
char *argumentos[3];
Procesos
pid = fork<);
switch(pid)
case ~-1: /~ error del fork() */
•Xit(-l)
case O: /~ proceso hijo */
execvp(argumentos[O] argumentos);
perror ( “exec”);
break;
default: /* padre */
printf ( “Proceso padre\n”);
El siguiente programa (Programa 3.10) crea un proceso que ejecuta un mandato recibido
en la línea de argumentos.
#include <sys/types.h>
#include <stdio.h>
pid = forkü;
switch<pid)
case -1: /* error del fork() */
•xit(-1);
case O: /* proceso hijo */
if (execvp(argv[1], &argv[1])< O)
perror(”exec”)
default: /* padre */
printf (“Proceso padre\n”);
}
Terminación de procesos
Cuando un programa ejecuta dentro de la función main la sentencia return (valor), ésta es
similar a exit (valor). El prototipo de la función exit es:
voidexit(int status);
Estos servicios tienen por función finalizar la ejecución de un proceso. Ambos reciben
como parámetro un valor que sirve para que el proceso dé una indicación de cómo ha
terminado. Como se verá más adelante, esta información la puede recuperar el proceso
padre que, de esta forma, puede conocer cómo ha terminado el hijo.
La finalización de un proceso tiene las siguientes consecuencias:
En general se recomienda utilizar la llamada exit en vez de _exit, puesto que es más
portahlc y permite volcar a disco los datos no actualizados. Una llamada a exit realiza las
siguientes lu nc iones:
Procesos
127
El Programa 3.11 finaliza su ejecución utilizando la llamada exit. Cuando se llama a esta
tuncion se ejecuta la función fin, registrada previamente por medio de la función atexit.
Programa 3.11. Ejemplo de utilización de exit y atexit.
#include <stdio.h>
#include <stdlib.h>
void íin(void)
void main(void)
if (atexit(fin) O)
perror(”atexit”)
exit (1)
Permite a un ~~OCCS() padre esperar hasta que termine la ejecución de un proceso hijo
(el proceso padre se queda bloqueado hasta que termina un proceso hijo). Existen dos
formas de invocar este servicio:
pid = fork~
switch(pid)
case —1: /* error del fork() */
exit(-l)
case O: /~ proceso hijo */
mf (exeevp(argv[11, &argv[l]) <O)
perror(”exec”);
if (valor == O)
printfV’El mandato se ejecuto de formal normal\n”);
else
if (WIFEXITED(valor))
printf(”El hijo termino normalmente y su valor
devuelto fue %d\n”, WEXITEDSTATUS(valor));
}
if (WIFSIGNALZD(valor))
printfV’El hijo termino al recibir la señal
%d\n”, WTERMSIG(valor));
La utilización de los servicios fork, exec, wait y exit hace variar la jerarquía de procesos
(Fig. 3.37). Con el servicio fork aparecen nuevos procesos y con el exit desaparecen. Sin
embargo, existen algunas situaciones particulares que conviene analizar.
La primera situación se refleja en la Figura 3.38. Cuando un proceso termina y se
encuentra con que el padre no está bloqueado en un servicio wai t, se presenta el
problema de dónde almacenar el estado de terminación que el hijo retorna al padre. Esta
información no se puede almacenar en el BCP del padre, puesto que puede haber un
número indeterminado de hijos que hayan terminado. Por ello, la información se deja en
el BCP del hijo, hasta que el padre la adquiera mediante el oportuno wa it. Un proceso
muerto que se encuentra esperando el wai t del padre se dice que está en estado zombie.
El proceso ha devuelto todos sus recursos con excepción del BCP, que contiene el pid
del padre y la palabra de estado de terminación.
pid P
padre
pidP pidP pIdH1 pidP DidH EJ ~DD~D
EZZ1 ‘EZZ —EZ ‘EZZIEZZ1
Figura 3.37. Uso de las llamadas fork, exec, wait y exit.
pid P
EJ
Texto
Datos
Pila
Archivos, tuberías,...
}
y
1
)
La segunda situación se presenta en la Figura 3.39 y se refiere al caso de que un proceso
con hijos termine antes que éstos. De no tomar alguna acción correctora, estos procesos
contendrían su BCP una información obsoleta del pid del padre, puesto que ese proceso
ya no existe. La solución adoptada en UNIX es que estos procesos «huérfanos» los toma
a su cargo el proceso mit. Er concreto, el proceso B de la mencionada figura pasará a
tener como padre al P~OCCSO ini,.
Para que los procesos heredados por mit acaben correctamente, y no se conviertan en
zombies,
el proceso mit está en un bucle infinito de walt.
La mayoría de los intérpretes de mandatos (shells) permiten ejecutar mandatos en
huckgroi
finalizando la línea de mandatos con el carácter &. Así, cuando se ejecuta el siguiente
mandato;
ls —1 &
El shell ejecutará el mandato ls —l sin esperar la terminación del proceso que lo ejecutó.
Esto
permite al intérprete de mandatos estar listo para ejecutar otro mandato, el cual puede
ejecutarse d
lnit
Proceso A
forkO
¡ nit
¡ nit
)
)
(
(
l’~igura 3.39. En UNIX el proceso ini ~ heredo los proce.~os hilos que se quedan sin
padre.
)
)
((
II
(
Proc~sos 131
#inciude <sys/types.h>
#include <stdio.h>
main(inL argc, char **argv)
picit pid;
pué fork(>;
SW]LCh(pid>
1
3.11.2. Servicios POSIX de gestión de procesos ligeros
Cada proceso ligero en POSIX tiene asociado una serie de atributos que representan sus
propiedades. Los valores de los diferentes atributos se almacenan en un objeto atributo
de tipo pth~eadattr_t. Existen una serie de servicios que se aplican sobre el tipo anterior
y que permiten modificar los valores asociados a un objeto de tipo atributo. A
continuación, se describen las principales funciones relacionadas con los atributos de los
procesos ligeros.
Este servicio permite iniciar un objeto atributo que se puede utilizar para crear nuevos
procesos ligeros. El prototipo de esta función es:
mt pthread_attr_init(pthread_attr_t *attr)
b) Destruir atributos
Destruye el objeto de tipo atributo pasado como argumento a la misma. Su prototipo es:
intpthread_attr_destroy(pthread_attr_t*attr>;
Cada proceso ligero tiene una pila cuyo tamaño se puede establecer mediante esta
función, cuyo prototipo es el siguiente:
El prototipo del servicio que permite obtener el tamaño de la pila de un proceso es:
Los servicios relacionados con la creación e identificación de procesos ligeros son los
siguientes:
Este servicio permite crear un nuevo proceso ligero que ejecuta una determinada
función. Su prototipo es:
Procegos
1
33
El primer argumento de la función apunta al identificador del proceso ligero que se crea,
este identificador viene determinado por el tipo pthread_t. El segundo argumento
especifica los atributos de ejecución asociados al nuevo proceso ligero. Si el valor de
este segundo argumento es NULL, se utilizarán los atributos por defecto, que incluyen la
creación del proceso como no independiente. El tercer argumento indica el nombre de la
función a ejecutar cuando el proceso ligero comienza su ejecución. Esta función requiere
un solo parámetro que se especifica con el cuarto argumento, arg.
Los servicios relacionados con la terminación de procesos ligeros son los siguientes:
La función suspende la ejecución del proceso ligero llamante hasta que el proceso ligero
con identificador thid finalice su ejecución. La función devuelve en el segundo
argumento el valor que pasa el proceso ligero que finaliza su ejecución en el servicio
pthread exi t, que se verá a continuación. Únicamente se puede solicitar el servicio
pthreadlioín sobre procesos ligeros creados
1
como no independientes.
b) Finalizar la ejecución de un proceso ligero
Es análogo al servicio exlt sobre procesos. Su prototipo es:
Incluye un puntero a una estructura que es devuelta al proceso ligero que ha ejecutado la
correspondiente llamada a pthread joln, lo que es mucho más genérico que el parámetro
que permite el servicio walt.
La Figura 3.40 muestra una jerarquía de procesos ligeros. Se supone que el proceso
ligero A es el primario, por lo que corresponde a la ejecución del main. Los procesos B,
C y D se han creado mediante pthread_create y ejecutan respectivamente los
procedimientos b o, c O) y d O). El proceso ligero D se ha creado como «no
independiente», por lo que otro proceso puede hacer una
)
134Sistemas operativos. Una visión aplicada
pcreate Nc
5~so
ligero B
Figura 3.40. E/emplo de jerarquía de procesos ligeros.
operación hin sobre ~1. La figura muestra que el proceso ligero C hace una operacion
/0w sobre el D, por lo que se queda bloqueado hasta que termine.
El Programa 3.14 crea dos procesos ligeros que ejecutan la función func. Una vez
creados se espera su finalización con la función pthreadjoin.
#include <pthread.h>
#include <st.dio.h>
void func(void)
mo i n
Proceso
ligero O
1’
(
Procesos 135
/~ se espera su terminación ~/
pthreadjoin(thl, NULL); pthreadjoin(th2, NULL);
exit (O)
Lii ~ que se muestra a continuación (Programa 3.15) crea diez procesos ligeros
indepcndientcs. que liberan sus recursos cuando finalizan (se han creado con el atributo
PJHHEAD CREATIi_DETACHED). En este caso, no se puede esperar la terminación
de los procesos ligeros. p~r lo que el proceso ligero principal que ejecuta el código de la
función main debe continuar su e~ccucion en paralelo con ellos. Para evitar que el
proceso ligero principal finalice la ejecución dc la lbnción main. lo que supone la
ejecución del servicio exit y, por tanto, la finalización de todo el proceso (Aclaración
3.8), junto con todos los procesos ligeros, el proceso ligero principal suspendc su
ejecución durante cinco segundos para dar tiempo a la creación y destrucción dc los
procesos ligeros que se han creado.
Progrania 3.15. Programa que crea diez procesos ligeros independientes.
VC)ii] naln))
lot 3;
pthCeád t LhidIMAXTHREADS]
El siguiente programa (Programa 3.16) crea un proceso ligero por cada número que se
introduce. Cada proceso ligero ejecuta el código de la función imprimir.
¡ Programa 3.16. Programa que crea un proceso ligero por cada
número introducido.
#define MAX_THREADS 10
main ()
pthread_attrt attr;
pthread_t thid;
mt num;
pthread_attrinit(&attr);
pthread_attr_setdetachstate(&attr, PTHREAD_CREATE_DETACHED);
while (1)
scanf(”%d”, &num); /~ espera */
pthreadcreate (&thid, &attr, imprimir, &num);
Para cada política de planificación hay un rango de prioridades mínimo que toda
implementación debe soportar. Para políticas FIFO y cíclicas, debe haber al menos 32
niveles de prioridad.
La prioridad de ejecución de los procesos y procesos ligeros se puede especificar
mediante la
estructura schedparam, que debe incluir al menos el siguiente campo, que especifica la
prioridad de planificación:
mt schedpriority;
/~ prioridad de ejecución del proceso */
Hay diversas funciones que permiten obtener información sobre los parámetros de
planificación de un proceso. Estas son las siguientes:
Estas dos funciones devuelven los niveles de prioridad mínimo y máximo dc la política
de
planificación poiicy.
Procesos 13
Lii esta scccion se presentan los principales servicios que ofrece POSIX para la gestión
de señales y teinporizadores.
El archivo de cabecera signal . h declara la lista de señales posibles que se pueden enviar
a los procesos en un sistema. A continuación se presenta una lista de las señales que
deben incluir todas ¡as implementaciones. La acción por defecto para todas estas señales
es la terminación anormal de proceso.
Si una iniplernentación soporta control de trabajos, entonces también debe dar soporte,
entre otras, a las siguientes señales:
La acción por defecto para la señal SIGCHLD, que indica la terminación de un proceso
hijo. es ignorar la señal.
A continuación, sc describen los principales servicios POSIX relativos a las señales.
Estos servicios se han agrupado de acuerdo a las siguientes categorías:
• Conjuntos de señales.
• Envío dc señales.
• Armado de una señal.
• Bloqueo de señales.
• Espera de señales.
• Servicios de temporización.
Conjuntos de señales
Como se ha indicado anteriormente, existe una serie de señales que un proceso puede
recibir durante su ejecución. Un proceso puede realizar operaciones sobre grupos o
conjuntos de señales. Estas operaciones sobre grupos de señales utilizan conjuntos de
señal de tipo sigset~t y son las sigu lentes:
mt sigeiuptyset(sigset t *~~11)
Procdsos
141
Envío de señales
Algunas señales como SIGSEGV o SIGBUS las genera el sistema operativo cuando
ocurren ciertos errores. Otras señales se envían de unos procesos a otros utilizando el
siguiente servicio:
una señal
Envía la señal sig al proceso o grupo de procesos especificado por pid. Para que un
~fOCC5() pueda enviar una señal a otro proceso designado por pid, el identificador de
usuario efectivo o real del proceso que envía la señal debe coincidir con el identificador
real o efectivo del proceso que la recibe, a no ser que el proceso que envía la señal tenga
los privilegios adecuados, por ejemplo es un
~fOCC5() ejecutado por cl superusuario.
Si pid es mayor que cero, la señal se enviará al proceso con identificador de proceso
igual a
p~ ci. Si pid es cero, la señal se enviará a todos los procesos cuyo identificador de grupo
sea igual al dentificador de grupo del proceso que envía la señal. Si pid es negativo pero
distinto de —1, la
señal será enviada a todos los procesos cuyo identificador de grupo sea igual al valor
absoluto de
1
p Ld. Para pid igual a —1, POSIX no especifica funcionamiento alguno.
Armado de tina señal
Esta llamada tiene tres parámetros: el número de señal para la que se quiere establecer el
inane jador. un puntero a una estructura de tipo struct sigaction para establecer el nuevo
manejador y un puntero a una estructura también del mismo tipo que almacena
información sobre el manejador establecido anteriormente.
La estructura sigact ion, definida en el archivo de cabecera signal .h, está formada por los
siguientes campos:
struct sigaction
void (*sahandler) ~ /*
Manejador para la señal */
slgsets samask; /* Señales bloqueadas durante la
ejecución del manejador */
mt sa_ filags; /* opciones
especiales */
El primer argumento indica la acción a ejecutar cuando se reciba la señal. Su valor puede
ser:
Si el valor del tercer argumento es distinto de NULL, la acción previamente asociada con
la
señal será almacenada en la posición apuntada por oact. La función devuelve o en caso
de éxito o
-1 si hubo algún error.
El siguiente fragmento de código hace que el proceso que lo ejecute ignore la señal
SIGINT
que se genera cuando se pulsa CTLR-C.
Máscara de señales
Con esta función se permite bloquear un conjunto de señales de tal manera que su envío
será
congelado hasta que se desbloqueen.
El valor del argumento how indica la manera en la cual el conjunto de señales set será
camNado. Los posibles valores de este argumento se encuentran definidos en el archivo
de cabecera signal .h y son los siguientes:
sigset_t mask;
Procesos 143
sigfillset(&mask)
sigprocmask(SIG_SETMASK, &mask, NULL);
sigsett mask;
sigemptyset (&mask)
sigaddset(&mask, SIGSEGV>;
sigprocmask(SIG_UNBLOCK, &mask, NULL);
mt sigpending(sigset t *~~>
Espera de señales
Cuando se quiere esperar la recepción de una señal, se utiliza el pause. Este servicio
bloquea al P~OCCS() que la invoca hasta que llegue una señal. Su prototipo es:
mt pause(void);
Este servicio no permite especificar el tipo de señal por la que se espera, por tanto,
cualquier
señal no ignorada sacará al proceso del estado de bloqueo.
Servicios de temporización
a) Activar un temporizador
#include <stdio.h>
#include <signal.h>
void main(void)
/* establece el manejador */
act.sa_handler = tratar_alarma; /“ función a ejecutar */ act.saflags = O; /* ninguna acción
específica*/
for ( ; ;
alarm(3)
pause ()
/* se arma el temporizador */
/* se suspende el proceso hasta que se
reciba una señal */
El Programa 3. 1 8 muestra un ejemplo en el que un proceso temporiza la ejecución de un
proceso hijo. El programa crea un proceso hijo que ejecuta un mandato recibido en la
línea de mandatos y espera su finalización. Si el proceso hijo no termina antes de que
haya transcurrido una determinada cantidad de tiempo, el padre mata al proceso
enviándole una señal mediante el servicio kill. La señal que se envía es SIGKILL, señal
que no se puede ignorar ni armar.
pidt pid;
mt status;
char **argumentos;
scruct sigaction act;
argumentos = &argv[l];
/k Se crea el proceso hijo */
pid forkü;
switch <pid)
exit (O);
En el programa anterior, una vez que el proceso padre ha armado el temporizador, se
bloquea esperando la finalización del proceso hijo, mediante una llamada a walt. Si la
señal SIGALRM se recibe antes de que el proceso haya finalizado, el padre ejecutará la
acción asociada a la recepción de esta señal. Esta acción se corresponde con la función
matarproceso, que es la que se encarga de enviar al proceso hijo la señal SIGKILL.
Cuando el proceso hijo recibe esta señal, se finaliza su ejecución.
mt sleep(unsigned mt seconds)
146Sistemas operativos. Una visión aplicada
Esta sección describe los principales servicios que ofrece Win32 para la gestión de
procesos, procesos ligeros y planificación. También se presentan los servicios que
permiten trabajar con excepciones y temporizadores.
En Win32 cada proceso contiene uno o más procesos ligeros. Como se indicó
anteriormente, en Windows el proceso ligero o thread es la unidad básica de ejecución.
Los procesos en Win32 se diferencian de los de POSIX, en que Win32 no mantiene
ninguna relación padre-hijo. Por conveniencia, sin embargo, en el texto se asumirá que
un proceso padre crea a un proceso hijo. Los servicios que ofrece Win32 se han
agrupado, al igual que en POSIX, en las siguientes categorías:
• Identificación de procesos.
• El entorno de un proceso.
• Creación de procesos.
• Terminación de procesos.
Identificación de procesos
El primer argumento especifica el modo de acceso al objeto que identifica al proceso con
idcntificador Idprocess. Algunos de los posibles valores para este argumento son:
El entorno de un proceso
El Programa 3.19 ilustra el uso de esta función para imprimir la lista de variables de
entorno de
un proceso.
Programa 3.19. Programa que lista las variables de entorno de un proceso en Windows.
~ ¡
#include <windows.h>
#include cstdio.h>
void rnain(void)
char *lpszVar
void *lpvEnv;
lpvEnv GetEnvironinentStrizigs ~
if (lpvEnv == NULL)
printrf(”Error al acceder al entorno\n”)
exit<O~
148Sistemas operativos. Una visión aplicada
putchar<*lpszVar++);
putchar ( “\n”i;
Creación de procesos
EOOL CreateProcess
LPCTSTR lpszlmageName,
LPTSTR lpszComrnandLine,
LPSECURITY_ATTRIBUTES lpsaProcess,
LPSECURITY_ATTRIBLJTES lpsaThread,
BOQL flnheritHandles,
DWORD fdwCreate,
LPVOID lpvEnvironrnent,
LPCTSTR lpszcurdir,
LPSTARTUPINFO lpsistartlnfo,
5 LPPROCESS_INFQRMATION
Esta función crea un nuevo proceso y su proceso ligero principal. El nuevo proceso
ejecuta el archivo ejecutable especificado en lpszlmageName. Esta cadena puede
especificar el nombre de un archivo con camino absoluto o relativo, pero la función no
utilizará el camino de búsqueda. Si lpszlmageName es NULL, se utilizará como nombre
de archivo ejecutable la primera cadena delimitada por blancos del argumento
lpszCommandLine.
El argumento lpszCommandLine especifica la línea de mandatos a ejecutar, incluyendo
el
Procesos
149
Fi parámetro lpEnvironment apunta al bloque del entorno del nuevo proceso. Si el valor
es NULL, el nuevo proceso obtiene el entorno del proceso que realiza la llamada.
El argumento lpszcuraír apunta a una cadena de caracteres que indica el directorio actual
de trabajo para el nuevo proceso. Si el valor de este argumento es NULL, el proceso
creado tendrá el nhismo directorio que el padre.
El parámetro lpStartuplnfo apunta a una estructura de tipo STARTPINFO que especifica
la apariencia de la ventana asociada al nuevo proceso. Para especificar los manejadores
para la entrada, salida y error estándar deben utilizarse los campos hStdln, hStdøut y
hStdErr. En este caso, el campo dwFlags de esta estructura debe contener el valor
STARTFUSESTDHANDLES
Por último, en el argumento lpProcesslnformatjon puntero a una estructura de tipo
PROCESE INFORMATION, se almacenará información sobre el nuevo proceso creado.
Esta estructura tiene la siguiente definición:
En los campos hProcess y hThread se almacenan los manejadores del nuevo proceso y
del proceso ligero principal de él. En dwProcessld se almacena el identificador del nuevo
proceso y en dwThreadld el identificador del proceso ligero principal del proceso creado.
FI Programa 3.20 crea un proceso que ejecuta un mandato pasado en la línea de
argumentos. El proceso padre no espera a que finalice, es decir, el nuevo proceso se
ejecuta en background.
Programa 3.20. Programa que crea un proceso que ejecuta la línea de mandatos pasada
como argumento.
¡
#include <windows.h>
#include <stdio.h>
STARTUPINFO si;
PRUCESSINFORMATION pi;
i f (!Createprocess
NULL, /~ utiliza la línea de mandatos */
150Sistemas operativos. Una visión aplicada
argv [1], NTJLL, NULL, FALSE, o, NULL, NTJLL, &s1, &pj)
/~‘ línea de mandatos pasada como argumentos */ /* manejador del proceso no
heredable*/ /* manejador del thread no heredable */ /* no hereda manejadores */
/* sin flags de creación */
/* utiliza el entorno del proceso */
/~ utiliza el directorio de trabalo del padre */
printf <“Error al crear el proceso. Error: %x\n”, GetLastError <)>;
ExitProcess<O>
/* el proceso acaba ~/
exit (O)
Terminación de procesos
La llamada cierra todos los manejadores abiertos por el proceso y especifica el código de
salida del proceso. Este código lo puede obtener otro proceso mediante el siguiente
servicio:
Esta función devuelve el código de terminación del proceso con manejador hProcess. El
proceso especificado por hProcess debe tener el acceso
PROCESSQUERYINFORIVIATION (veáse OpenProcess). Si el proceso todavía no ha
terminado, la función devuelve en lpdwExitCode el valor STILL_ALIVE en caso
contrario almacenará en este valor el código de terminación.
Además, un proceso puede finalizar la ejecución de otro mediante el servicio:
La primera función bloquea al proceso hasta que el proceso con manejador hObject
finalice su ejecución. El argumento dwTimeOut especifica el tiempo máximo de bloqueo
expresado en rnilisegundos. Un valor de O hace que la función vuelva inmediatamente
después de comprobar si el proceso finalizó la ejecución. Si el valor es INFINITE, la
función bloquea al proceso hasta que el
proceso acabe su ejecución.
La segunda función permite esperar la terminación de varios procesos. El argumento
cObj ects especifica el número de procesos (el tamaño del vector 1phob~ects) por los que
se desea esperar. El argumento lphObjects es un vector con los manejadores de los
procesos sobre los que se quiere esperar. Si el parámetro fWaitAll es TRUE, entonces la
función debe esperar por todos los procesos, en caso contrario la función vuelve tan
pronto como un proceso haya acabado. El paráme1ro dwTimeOut tiene el significado
descrito anteriormente.
Estas funciones, aplicadas a procesos, pueden devolver los siguientes valores:
Programa 3.21. Programa que crea un proceso que ejecuta la línea de mandatos pasada
como argumento y espera por él.
STARTUPINFO si;
PROCESS_INFORMATION pi;
IDWORD code;
if (!Createprocess( NTJLL,
argv[l], /*
NULL,
NULL,
FALSE,
Q
NULL,
NULL,
&sj,
&pi))
utiliza la línea de mandatos */
línea de mandatos pasada como argumentos */ manejador del proceso no heredable*/
manejador del thread no heredable */ no hereda manejadores */
sin flags de creación */ utiliza el entorno del proceso */
utiliza el directorio de trabajo del padre */
Los procesos ligeros son la unidad básica de ejecución en Windows. Los servicios de
Win32 para la gestión de procesos ligeros pueden agruparse en las siguientes categorlas:
• Identificación de procesos ligeros.
• Creación de procesos ligeros.
• Terminación de procesos ligeros.
A continuación, se presentan los servicios incluidos en las categorías anteriores.
Identificación de procesos ligeros
En Win32, los procesos ligeros, al igual que los procesos, se identifican mediante
identificadores de procesos ligeros y manejadores. Estos presentan las mismas
características que los identificadores y manejadores para procesos, ya descritos en la
Sección 3.12.1.
Existen dos funciones que permiten obtener la identificación del proceso ligero que
realiza la
llamada.
Procesos
La primera devuelve el manejador del proceso ligero que realiza la llamada y la segunda
su
identificador de proceso ligero.
Conocido el identificador de un proceso ligero, se puede obtener su manejador mediante
el
siguiente servicio:
Esta función crea un nuevo proceso ligero. El argumento lpsa contiene la estructura con
los atributos de seguridad asociados al nuevo proceso ligero. Su significado es el mismo
que el utilizado en la Iunción CreateProcess. El argumento cbStack especifica el tamaño
de la pila asociada al proceso ligero. Un valor de o especifica el tamaño por defecto (1
MB). lpStartAddr apunta a la función a ser ejecutada por el proceso ligero. Esta función
tiene el siguiente prototipo:
DWORDWINAPI ThreadFunc(LPVOID>;
Una vez creado un proceso ligero, éste puede suspenderse mediante la función:
DWORD SuspendThread(HANDLE hThread);
Al igual que con los procesos en Win32, los servicios relacionados con la terminación de
procesos ligeros se agrupan en dos categorías: servicios para finalizar la ejecución de un
proceso ligero y
servicios para esperar la terminación de un proceso ligero. Estos últimos son los mismos
que los empleados para esperar la terminación de procesos (waitForSingleøbject y
WaitForMultipleObjects) y no se volverán a tratar.
Un proceso ligero puede también abortar la ejecución de otro proceso ligero mediante el
servicio.
Win32 ofrece servicios para que los usuarios puedan modificar aspectos relacionados con
la prioridad y planificación de los procesos y de los procesos ligeros. Como se describió
en la Sección 3.7.2, la prioridad de ejecución va asociada a los procesos ligeros, ya que
son éstos las unidades básicas de ejecución. La clase de prioridad va asociada a los
procesos.
La prioridad de cada proceso ligero se determina según los siguientes criterios:
• La clase de prioridad de su proceso.
• El nivel de prioridad del proceso ligero dentro de la clase de
prioridad de su proceso.
Las prioridades de los procesos ligeros son relativas a la prioridad base del proceso al
que pertenecen. Cuando se crea un proceso ligero, éste toma la prioridad de su proceso.
La prioridad de cada proceso ligero varía dentro del rango ±2 desde la clase de prioridad
del proceso. Estos cinco valores vienen determinados por:
• THREAD_PRIORITY_LOWEST.
• THREAD_PRIORITY_BELOW_NORMAL.
• THREAD_PRIORITY_NORMAL.
• THREAD_PRIORITY_ABOVE_NORMAL.
• THREAD_PRIORITY_HIGHEST.
Además de los valores relativos anteriores, existen dos valores absolutos que son:
Como se vio en la Sección 3.8, una excepción es un evento que ocurre durante la
ejecución de un
1
programa y que requiere la ejecución de un código situado fuera del flujo normal de
ejecución. Win32 ofrece un manejo de excepciones estructurado, que permite la gestión
de excepciones software y hardware. Este manejo permite la especificación de un bloque
de código o manejador de
1~
excepción a ser ejecutado cuando se produce la excepción.
El manejo de excepciones en Windows necesita del soporte del compilador para llevarla
a cabo. El compilador de C desarrollado por Microsoft ofrece a los programadores dos
palabras reservadas que pueden utilizarse para construir manejadores de excepción. Estas
son: __try y
except. La palabra reservada __try identifica el bloque de código que se desea proteger
de errores. La palabra __except identifica el manejador de excepciones.
En las siguientes secciones se van a describir los tipos y códigos de excepción y el uso de
un rnanejador de excepción.
‘1
156Sistemas operativos. Una visión aplicada
Esta función debe ejecutarse justo después de producirse una excepción. La función
devuelve
cl valor asociado a la excepción. Existen muchos tipos de excepciones, algunos de ellos
son:
try
/~ bloque de código a proueger */
except (expresión)
/~ manejador de excepciones ~/
El bloque de código encerrado dentro de la sección try representa el código del programa
que se quiere proteger. Si ocurre una excepción mientras se está ejecutando este
fragmento de código, el sistema operativo transfiere el control al manejador de
excepciones. Este manejador se encuentra dentro de la sección _except. La expresión
asociada a _except se evalúa inmediatamente después de producirse la excepción. La
expresión debe devolver alguno de los siguientes val ores:
1
except<GetExceptionCode() == EXCEPTION_ACCESS_VIOLATION ?
EXCEPTION_EXECUTE_HANDLER EXCEPTION_CONTINUE SEARCH)
return NULL;
Procesos
~try
7k bloque de código a proteger */
except (Filtrar(GetExceptioncode())) f
/~ manejador de excepciones */
case EXCEPTION_INTDIVIDEBYZERO
return EXCEPTIQN_EXECUTEHANDLER;
3.12.5. Servicios de temporizadores
Activación de temporizadores
Los dos primeros argumentos pueden ignorarse cuando no se está utilizando un gestor de
ventanas. El parámetro idEvent es el mismo identificador de evento proporcionado en la
función SetTimer. El parámetro dwTime representa el tiempo del sistema en formato
UTC (Coordinated Universal Time, tiempo universal coordinado).
La función SetTimer crea un temporizador periódico, es decir, si el valor de uElapse es 5
ms, la función lpTimerFunc se ejecutará cada 5 ms.
La siguiente función permite desactivar un temporizador:
BOOLKillTimer(HWNDhWnd, UINTuIdEvent);
void mamo
UINT idEvent = 2;
UINT intervalo = 10;
UINT tid;
Son muchos los libros de sistemas operativos que cubren los temas tratados en este
capítulo. Algunos de ellos son iCrow)ey, 1997], IMilenkovic, 1992], lSilberchatz, 1999],
[Stallings, 1998] y lTanenbaum, 1995]. ISoloilion, 1998] describe en detalle la gestión de
procesos de Windows NT y en [IEEE, 19961 puede encontrarse una descripción
completa de todos los servicios POSIX descritos en este capítulo.
3.15. EJERCICIOS
a) Memoria virtual.
b) Protección de memoria.
e) Instrucciones de FIS que sólo pueden ejecutarse en modo kernel.
d) Dos modos de operación: kemel y usuario.
a) Restaurar los registros de usuario con los valores almacenados en la tabla del
proceso.
h Restaurar el contador de programa.
e) Restaurar el puntero que apunta a la tabla de páginas del proceso.
d) Restaurar la imagen de memoria de un proCeso.
a) Bloqueado a listo.
h) Ejecutando a listo.
e) Ejecutando a bloqueado
d) Listo a ejecutando.
Sea un sistema que usa un algoritmo de planificación de ~~OCCSOS round-rohin con una rodaja de
tiempo de lOO ms. En este sistema ejecutan dos procesos. El primero no realiza
operaciones de EIS y el segundo solicita una operación de EIS cada 50 ms. ¿Cuál será el
porcentaje de uso de la UCP?
Considere el siguiente conjunto de procesos planificados con un algoritmo round-rohin con 1 u.t. de
rodaja. ¿Cuánto tardan en acabar todos ellos?
Proceso Llegada
Pl 2
P2
P3
Duración
8
5
4
3
En un sisteína que usa un algoritmo de planificación de procesos round-rohin, ¿cuántos procesos
como máximo pueden cambiar de estado cuando se produce una interrupción del disco
que indica que se ha terminado una operación sobre el mismo?
Se tienen los siguientes trabajos a ejecutar:
3.15. ¿Qué sucede cuando un proceso recibe una señal? ¿, Y cuando recibe una excepción?
3.16. ¿Cómo se hace en POSIX para que un proceso cree otro proceso que ejecute otro programa? ¿Y
en W in3 2’?
3.17. ¿Qué información comparten un proceso y su hijo después de ejecutar el siguiente código’?
if (fork() !=0)
wait (&status)
el se
execve (B, parámetros, 0)
3.18. En un sistema operativo conforme a la norma POSIX, ¿cuándo pasa un proceso a estado
zombie?
3.19. Tras la ejecución del siguiente código, ¿cuántos procesos se habrán creado’?
3.20. Cuando un proceso ejecuta una llamada fork y luego el proceso hijo un exec, ¿qué información
comparten ambos procesos?
3.21. ¿Qué diferencia existe entre bloquear una señal e ignorarla en POS IX?
3.22. Escribir un programa en lenguaje C que active unos manejadores para las señales SIGINT,
SIGQUIT y SIGILL. Las acciones a ejecutar por dichos manej adores serán:
se pide:
a) Dibujar un esquema que muestre la jerarquía de procesos que se crea cuando se ejecuta el
programa con argc igual a 3.
h) ¿Cuántos procesos se crean si argc vale n’?
3.24. Responder a las siguientes preguntas sobre las llamadas al sistema walt de POSIX y WaitFor-
SlngleObject de Win32 cuando ésta se aplica sobre un manejador de proceso.
3.12.
(1
P4 3
3.13.
3.14.
8
5
164 Sistemas operativos. Una visión aplicada
sador, tanto para acceder a sus operandos como para realizar bifurcaciones en la secuencia de
ejecución. Estas referencias típicamente estarán incluidas en un intervalo desde 0 hasta un valor
máximo N.
Supóngase, por ejemplo, un fragmento de un programa que copia el contenido de un vector
almacenado a partir de la dirección 1000 en otro almacenado a partir de la 2000, estando el
tamaño del vector almacenado en la dirección 1500. El código almacenado en el archivo
ejecutable, mostrado en un lenguaje ensamblador hipotético, seria el mostrado en la Figura 4.1,
donde se ha supuesto que la cabecera del ejecutable ocupa 100 bytes y que cada instrucción
ocupa 4. Observe que, evidentemente, tanto en el ejecutable como posteriormente en memoria,
se almacena realmente código máquina. En esta figura y en las posteriores se ha preferido
mostrar un pseudocódigo ensamblador para facilitar la legibilidad de las mismas.
El código maquina de ese programa incluye referencias a direcciones de memoria que
corresponden tanto a operandos (las direcciones de los vectores y su tamaño) como a
instrucciones (la etiqueta de la bifurcación condicional, JNZ).
En el caso de un sistema con monoprogramación, para ejecutar este programa sólo será
necesario cargarlo a partir de la posición de memoria 0 y pasarle el control al mismo. Observe
que, como se puede apreciar en la Figura 4.2, se esta suponiendo que el sistema operativo estará
cargado en la parte de la memoria con direcciones más altas.
En un sistema con multiprogramación es necesario realizar un proceso de traducción
(reubicación) de las direcciones de memoria a las que hacen referencia las instrucciones de un
programa (direcciones lógicas) para que se correspondan con las direcciones de memoria
principal asignadas al mismo (direcciones físicas). En el ejemplo planteado previamente, si al
programa se le asigna una zona de memoria contigua a partir de la dirección 10000, habría que
traducir todas las direcciones que genera el programa añadiéndoles esa cantidad.
Este proceso de traducción crea, por tanto, un espacio lógico (o mapa) independiente para
cada proceso proyectándolo sobre la parte correspondiente de la memoria principal de acuerdo
con una función de traducción:
Dado que hay que aplicar esta función a cada una de las direcciones que genera el
programa, es necesario que sea el procesador el encargado de realizar esta traducción. Como se
explicó en el Capitulo 1, la función de traducción la lleva a cabo concretamente un módulo
específico del procesador denominado unidad de gestión de memoria (MMU, Memory
Management Unit). El sistema operativo deberá poder especificar a la MMU del procesador que
función de traducción debe aplicar al proceso que está ejecutando en ese momento. En el
ejemplo planteado, el procesador, a instancias del sistema operativo, debería sumarle 10000 a
cada una de las direcciones que genera el programa en tiempo de ejecución. Observe que el
programa se cargaría en memoria desde el ejecutable sin realizar ninguna modificación del
mismo y, como se muestra en la Figura 4.3, seria durante su ejecución cuando se traducirían
adecuadamente las direcciones generadas. El sistema operativo debería almacenar asociado a
cada proceso cuál es la función de traducción que le corresponde al mismo y, en cada cambio de
proceso, debería indicar al procesador qué función debe usar para el nuevo proceso activo.
Protección
Compartimiento de memoria
Para cumplir el requisito de protección, el sistema operativo debe crear espacios lógicos
independientes y disjuntos para los procesos. Sin embargo, en ciertas situaciones, bajo la
supervisión y control del sistema operativo, puede ser provechoso que los procesos puedan
compartir memoria. Esto es, la posibilidad de que direcciones lógicas de dos o más procesos,
posiblemente distintas entre sí, se correspondan con la misma dirección física. Nótese que,
como puede observarse en la Figura 4.5, la posibilidad de que dos o más procesos compartan
una zona de memoria implica que el sistema de gestión de memoria debe permitir que la
memoria asignada a un proceso no sea contigua. Así, por ejemplo, una función de traducción
como la comentada anteriormente, que únicamente sumaba una cantidad a las direcciones
generadas por el programa, obligaría a que el espacio asignado al proceso fuera contiguo,
imposibilitando, por tanto, el poder compartir memoria.
Figura 4.6.Problemas al compartir una zona en diferentes direcciones del mapa de cada proceso.
170 Sistemasoperativos. Una visión aplicada
Otro aspecto a resaltar es que el mapa del proceso no es estático. Durante la ejecución de
un programa puede variar el tamaño de una región o, incluso, pueden crearse nuevas regiones o
eliminarse regiones existentes. El sistema de memoria debe controlar qué regiones están
presentes en el mapa de memoria y cual es el tamaño actual de cada una. Tómese como ejemplo
el comportamiento dinámico de la región de pila del proceso. El gestor de memoria debe asignar
y liberar memoria para estas regiones según evolucionen la. mismas. Este carácter dinámico del
mapa de un proceso implica la existencia de zonas dentro del mapa de memoria del proceso que
en un determinado momento de su ejecución no pertenecen a ninguna región y que, por tanto,
cualquier acceso a las mismas implica un error de programación. El gestor de memoria debería
detectar cuándo se produce un acceso a las mismas y, como en el caso anterior, tratarlo
adecuadamente. Con ello además de facilitar la depuración, se elimina la necesidad de reservar
memoria física para zonas del mapa que no estén asignadas al proceso en un determinado
instante sistema operativo debe almacenar por cada proceso una tabla de regiones que indique
las características de las regiones del proceso (tamaño, protección, etc.),
De acuerdo con los aspectos que se acaban de analizar, la función de traducción se
generaliza para que tenga en cuenta las situaciones planteadas pudiendo, por tanto, devolver tres
valores alternativos:
Traducción(dirección lógica tipo de operación) →
(Dirección física correspondiente,
Excepción por acceso a una dirección no asignada,
Excepción por operación no permitida}
Por último, hay que resaltar que el mapa de memoria del propio sistema operativo, como
programa que es, también está organizado en regiones. Al igual que ocurre con los procesos de
usuario, el sistema de memoria debería dar soporte a las regiones del sistema operativo. Así, se
detectaría inmediatamente un error en el código del sistema operativo, lo que facilitaría su
depuración a la gente encargada de esta ardua labor. Observe que 1a detección del error debería
detener inmediatamente la ejecución del sistema operativo y mostrar un volcado de la
información del sistema.
Maximizar el rendimiento
Como ya se analizó en capítulos anteriores, el grado de multiprogramación del sistema
influye directamente en el porcentaje de utilización del procesador y, por tanto, en el
rendimiento del sistema. Adicionalmente, un mayor grado de multiprogramación implica que
puede existir un mayor numero de usuarios trabajando simultáneamente en el sistema.
El gestor de memoria debe, por tanto, realizar un reparto de la memoria entre los procesos
intentando que quepa el mayor numero de ellos en memoria y minimizando el desperdicio
inherente al reparto. Para ello, debe establecerse una política de asignación adecuada. La
política de asignación determina qué direcciones de memoria se asignan para satisfacer una
determinada petición. Hay que resaltar que la propia gestión de la memoria requiere un gasto en
espacio de almacenamiento para que el sistema operativo almacene las estructura. de datos
implicadas en dicha gestión. Así, será necesario guardar la tabla de regiones y la función de
traducción asociada a cada proceso (normalmente implementadas como tablas), así como una
estructura que refleje qué partes de la memoria permanecen libres y cuales están ocupadas.
Dado que el almacenamiento de estas estructuras resta espacio de memoria para los procesos, es
importante asegurar que su consumo se mantiene en unos términos razonables.
En los tiempos en los que 1a memoria era muy cara y, en consecuencia, los equipos
poseían memoria bastante reducida, se producían habitualmente situaciones en las que las
aplicaciones se veían limitadas por el tamaño de la memoria, Para solventar este problema, los
programadores usaban la técnica de los overlays. Esta técnica consiste en dividir el programa en
una serie de fases que se ejecutan sucesivamente, pero estando en cada momento residente en
memoria sólo una fase. Cada fase se programa de manera que, después de realizar su labor,
carga en memoria la siguiente fase y le cede el control. Es evidente que esta técnica no
soluciona el problema de forma general dejando en manos del programador todo el trabajo.
Por ello, se ideo la técnica de la memoria virtual, que permite proporcionar a un proceso de
forma transparente un mapa de memoria considerablemente mayor que la memoria física
existente en el sistema.
A pesar del espectacular abaratamiento de la memoria y la consiguiente disponibilidad
generalizada de equipos con memorias apreciablemente grandes, sigue siendo necesario que el
sistema de memoria, usando la técnica de la memoria virtual, proporcione a los procesos
espacios lógicos más grandes que la memoria realmente disponible. Observe que a la memoria
le ocurre lo mismo que a los armarios: cuanto más grandes son, más cosas metemos dentro de
ellos. La disponibilidad de memorias mayores permite a los programadores obtener beneficio
del avance tecnológico, pudiendo incluir características más avanzadas en sus aplicaciones o
incluso tratar problemas que hasta entonces se consideraban inabordables,
Bibliotecas de objetos
Una biblioteca es una colección de objetos normalmente relacionados entre sí. En el sistema
existe un conjunto de bibliotecas predefinidas que proporcionan servicios a las aplicaciones.
Estos servicios incluyen tanto los correspondientes a un determinado lenguaje de alto nivel (el
API del lenguaje) como los que permiten el acceso a los servicios del sistema operativo (el API
del sistema operativo).
Asimismo, cualquier usuario puede crear sus propias bibliotecas para de esta forma poder
organizar mejor los módulos de una aplicación y facilitar que las aplicaciones compartan
módulos. Así, por ejemplo, un usuario puede crear una biblioteca que maneje números
complejos y utilizar esta biblioteca en distintas aplicaciones.
Bibliotecas dinámicas
La manera de generar el ejecutable comentada hasta ahora consiste en compilar los módulos
fuente de la aplicación y enlazar los módulos objeto resultantes junto con los extraídos de las
bibliotecas correspondientes. De esta forma, se podría decir que el ejecutable es autocontenido:
incluye todo el código que necesita el programa para poder ejecutarse. Este modo de trabajo
presenta varias desventajas:
• El archivo ejecutable puede ser bastante grande ya que incluye, además del código propio
de la aplicación, todo el código de las funciones «externas» que usa el programa.
174 Sistemas operativos. Una visión aplicada
• Todo programa en el sistema que use una determinada función de biblioteca tendrá una
copia del código de la misma, Como ejemplo, el código de la función printf, utilizada en
casi todos los programas escritos en C, estará almacenado en todos los ejecutables que la
usan.
• Cuando se estén ejecutando simultáneamente varias aplicaciones que usan una misma
función de biblioteca, existirán en memoria múltiples copias del código de dicha función
aumentando el gasto de memoria.
• La actualización de una biblioteca implica tener que volver a generar los ejecutables que
la incluyen por muy pequeño que sea el cambio que se ha realizado sobre la misma.
Supóngase que se ha detectado un error en el código de una biblioteca o que se ha
programado una versión más rápida de una función de una biblioteca. Para poder
beneficiarse de este cambio, los ejecutables que la usan deben volver a generarse a partir
de los objetos correspondientes. Observe que esta operación no siempre puede realizarse
ya que dichos objetos pueden no estar disponibles.
Para resolver estas deficiencias se usan las bibliotecas dinámicamente enlazadas (Dinamic
Link Libraries) o, simplemente, bibliotecas dinámicas. Por contraposición, se denominarán
bibliotecas estáticas a las presentadas hasta el momento.
Con este nuevo mecanismo, el proceso de montaje de una biblioteca de este tipo se difiere y
en vez de realizarlo en la fase de montaje se realiza en tiempo de ejecución del programa.
Cuando en la fase de montaje el montador procesa una biblioteca dinámica, no incluye en el
ejecutable código extraído de la misma, sino que simplemente anota en el ejecutable el nombre
de la biblioteca para que ésta sea cargada y enlazada en tiempo de ejecución.
Como parte del montaje, se incluye en el ejecutable un módulo de montaje dinámico que
encargará de realizar en tiempo de ejecución la carga y el montaje de la biblioteca cuando se
haga referencia por primera vez a algún símbolo definido en la misma. En el código ejecutable
original del programa, las referencias a los símbolo de la biblioteca, que evidentemente todavía
pendientes de resolver, se hacen corresponder con símbolos en el modulo de montaje dinámico.
De esta forma, la primera referencia a uno de estos símbolos produce la activación del módulo
que realizará en ese momento la carga de la biblioteca y el proceso de montaje necesario. Como
parte del mismo, se resolverá la referencia a ese símbolo de manera que apunte al objeto real de
la biblioteca y que, por tanto, los posteriores accesos al mismo no afecten al módulo de montaje
dinámico. Observe que este proceso de resolución de referencias afecta al programa que hace
uso de la biblioteca dinámica ya que implica modificar en tiempo de ejecución alguna de sus
instrucciones para que apunten a la dirección real del símbolo. Esto puede entrar en conflicto
con el típico carácter de no modificable que tiene la región de código.
El uso de bibliotecas dinámicas resuelve las deficiencias identificadas anteriormente:
• El tamaño de los archivos ejecutables disminuye considerablemente ya que en ellos no se
almacena el código de las funciones de bibliotecas dinámicas usadas por el programa.
• Las rutinas de una biblioteca dinámica estarán almacenadas únicamente en archivo de la
biblioteca en vez de estar duplicadas en los ejecutables que las usan.
• Cuando se estén ejecutando varios proceso que usan una biblioteca dinámica, éstos
podrán compartir el código de la misma, por lo que en memoria habrá solo una copia de
la misma.
• La actualización de una biblioteca dinámica es inmediatamente visible a los programas
que la usan sin necesidad de volver a montarlos.
Gestión de memoria 175
Con respecto a este ultimo aspecto, es importante resaltar que cuando la actualización
implica un cambio en la interfaz de la biblioteca (p. ej.:una de las funciones tiene un nuevo
parámetro), el programa no debería usar esta biblioteca sino la versión antigua de la misma.
Para resolver este problema de incompatibilidad, en muchos sistemas se mantiene un número de
versión asociado a cada biblioteca. Cuando se produce un cambio en la interfaz, se crea una
nueva versión con un nuevo número. Cuando en tiempo de ejecución se procede a la carga de
una biblioteca, se busca la versión de la biblioteca que coincida con la que requiere el programa,
produciéndose un error en caso de no encontrarla. Observe que durante el montaje se ha
almacenado en el ejecutable el nombre y la versión de la biblioteca que utiliza el programa.
Por lo que se refiere al compartimiento del código de una biblioteca dinámica entre los
procesos que la utilizan en un determinado instante, es un aspecto que hay que analizar más en
detalle. Como se planteó en la sección anterior, si se permite que el código de una biblioteca
pueda estar asociado a un rango de direcciones diferente en cada proceso, surgen problemas con
las referencias que haya en el código de la biblioteca a símbolos definidos en la misma. Ante
esta situación se presentan tres alternativas:
• Establecer un rango de direcciones predeterminado y específico para cada biblioteca
dinámica de manera que todos los procesos que la usen la incluirán en dicho rango dentro
de su mapa de memoria. Esta solución permite compartir el código de la biblioteca, pero
es poco flexible ya que limita el numero de bibliotecas que pueden existir en el sistema y
puede causar que el mapa de un proceso sea considerablemente grande presentando
amplias zonas sin utilizar.
• Reubicar las referencias presentes en el código de la biblioteca durante la carga de la
misma de manera que se ajusten a las direcciones que le han correspondido dentro del
mapa de memoria del proceso que la usa. Esta opción permite cargar la biblioteca en
cualquier zona libre del mapa del proceso. Sin embargo, impide el poder compartir su
código (o, al menos, la totalidad de su código) al estar adaptado a la zona de memoria
donde le ha tocado vivir.
• Generar el código de la biblioteca de manera que sea independiente de la posición (en
ingles se suelen usar las siglas PIC, Position Independent Code). Con esta técnica, el
compilador genera código que usa direccionamientos relativos a un registro (p. ej.: al
contador de programa) de manera que no se ve afectado por la posición de memoria
donde ejecuta. Esta alternativa permite que la biblioteca resida en la zona del mapa que se
considere conveniente y que, además, su código sea compartido por los procesos que la
usan. El único aspecto negativo es que la ejecución de este tipo de código es un poco
menos eficiente que el convencional (Gingell, 1987), pero, generalmente, este pequeño
inconveniente queda compensado por el resto de las ventajas.
El único aspecto negativo del uso de las bibliotecas dinámicas es que el tiempo de ejecución
del programa puede aumentar ligeramente debido a que con este esquema el montaje de la
biblioteca se realiza en tiempo de ejecución. Sin embargo, este aumento es perfectamente
tolerable en la mayoría de los casos y queda claramente contrarrestado por el resto de los
beneficios que ofrece este mecanismo.
Otro aspecto que conviene resaltar es que el mecanismo de bibliotecas dinámicas es
transparente al modo de trabajo habitual de un usuario. Dado que este nuevo mecanismo sólo
atañe a la fase de montaje, tanto el código fuente de un programa como el código objeto no se
en afectados por el mismo. Además, aunque la fase de montaje haya cambiado
considerablemente, los mandatos que se usan en esta etapa son típicamente lo mismos. De esta
forma, el usuario no detecta ninguna diferencia entre usar bibliotecas estática. y dinámicas
excepto, evidentemente, los beneficios antes comentados.
176 Sistemas operativos. Una visión aplicada
En la mayoría de los sistemas que ofrecen bibliotecas dinámicas, el sistema tiene una
versión estática y otra dinámica de cada una de las bibliotecas predefinidas. Dados los
importantes beneficios que presentan las bibliotecas dinámicas, el montador usará por defecto la
versión dinámica, Si el usuario, por alguna razón, quiere usar la versión estática, deberá pedirlo
explícitamente.
Montaje explícito de bibliotecas dinámicas
La forma de usar las bibliotecas dinámicas que se acaba de exponer es la mas habitual: se
especifica en tiempo de montaje que bibliotecas se deben usar y se pospone la carga y el
montaje hasta el tiempo de ejecución. Este esquema se suele denominar enlace dinámico
implícito. Sin embargo no es la única manera de usar las bibliotecas dinámicas.
En algunas aplicaciones no se conoce en tiempo de montaje qué bibliotecas necesitará
programa. Supóngase, por ejemplo, un navegador de Internet que maneja hojas que contienen
archivos en distintos formatos y que usa las funciones de varias bibliotecas dinámicas para
procesar cada uno de los posibles formatos. En principio, cada vez que se quiera dotar al
navegador de la capacidad de manejar un nuevo tipo de formato, sería necesario volver a
montarlo especificando también la nueva biblioteca que incluye las funciones para procesarlo.
Observe que esto sucede aunque se usen bibliotecas dinámicas.
Lo que se requiere en esta situación es poder decidir en tiempo de ejecución que
biblioteca dinámica se necesita y solicitar explícitamente su montaje y carga. El mecanismo de
bibliotecas dinámicas presente en Windows NT y en la mayoría de las versiones de UNIX
ofrece esta funcionalidad, denominada típicamente enlace dinámico explícito. Un programa
que pretenda usar funcionalidad deberá hacer uso de los servicios que ofrece el sistema para
realizar esta solicitud explícita. Observe que, en este caso, no habría que especificar en tiempo
de montaje el nombre de la biblioteca dinámica. Pero, como contrapartida, el mecanismo de
carga y montaje de la biblioteca dinámica deja de ser transparente a la aplicación.
Formato del ejecutable
Como parte final del proceso de compilación y montaje, se genera un archivo ejecutable
que contiene el código máquina del programa. Distintos fabricantes han usado diferentes
formatos para este tipo de archivos. En el mundo UNIX, por ejemplo, uno de los formatos más
utilizados actualmente denominado Executable and Linkable Format (ELF). A continuación, se
presentará de simplificada cómo es el formato típico de un ejecutable.
Como se puede observar en la Figura 4.9, un ejecutable está estructurado como una
cabecera y un conjunto de secciones.
La cabecera contiene información de control que permite interpretar el contenido del
ejecutable. En la cabecera típicamente se incluye, entre otras cosas, la siguiente información:
• Un «número mágico» que identifica al ejecutable. Así, por ejemplo, en el formato ELF,
el primer byte del archivo ejecutable debe contener el valor hexadecimal 7 f y los tres
siguientes los caracteres 'E', 'L' y 'F'.
• La dirección del punto de entrada del programa, esto es, la dirección que se almacenará
inicialmente en el contador de programa del proceso.
• Una tabla que describe las secciones que aparecen en el ejecutable. Por cada una de
ellas, se especifica, entre otras cosas, su tipo, la dirección del archivo donde comienza y
su tamaño.
Observe que en el ejecutable no aparece ninguna sección que corresponda con las variables
locales y parámetros de funciones. Esto se debe a que este tipo de variables presentan unas
características muy diferentes a las de Las variables globales, a saber:
• Las variables globales tienen un carácter estático. Existen durante toda la vida del
programa. Tienen asociada una dirección fija en el mapa de memoria del proceso y, por
tanto, también en el archivo ejecutable puesto que éste se corresponde con la imagen
inicial del proceso. En el caso de que la variable no tenga un valor inicial asignado en el
programa, no es necesario almacenarla explícitamente en el ejecutable, sino que basta
con conocer el tamaño de la sección que contiene este tipo de variables.
• Las variables locales y parámetros tienen carácter dinámico. Se crean cuando se invoca
la función correspondiente y se destruyen cuando termina la llamada. Por tanto, estas
variables no tienen asignado espacio en el mapa inicial del proceso ni en el ejecutable.
Se crean dinámicamente usando para ello la pila del proceso. La dirección que
corresponde a una variable de este tipo se determina en tiempo de ejecución ya que
depende de la secuencia de llamadas que genere el programa Observe que, dada la
.
• Heap. La mayoría de los lenguajes de alto nivel ofrecen la posibilidad de reservar espacio
en tiempo de ejecución. En el caso del lenguaje C se usa la función malloc para ello. Esta
región sirve de soporte para la memoria dinámica que reserva un programa en tiempo de
ejecución. Comienza, típicamente, justo después de la región de datos sin valor inicial (de
hecho, en algunos sistemas se considera parte de la misma) y crece en sentido contrario a
la pila (hacia direcciones crecientes), Se trata de una región privada de lectura/escritura,
sin soporte (se rellena inicialmente a cero), que crece según el programa vaya reservando
memoria dinámica y decrece según la vaya liberando. Normalmente, cada programa
tendrá un único heap. Sin embargo, algunos sistemas, como Win32, permiten crear
múltiples heaps.
En la Aclaración 4.2 se intenta clarificar algunos aspectos de la memoria dinámica.
• Archivos proyectados. Cuando se proyecta un archivo, se crea una región asociada al
mismo. Este mecanismo será realizado con más profundidad al final del capítulo, pero, a
priori, se puede resaltar que se trata de una región compartida cuyo soporte es el archivo
que se proyecta.
• Memoria compartida. Cuando se crea una zona de memoria compartida y se proyecta,
como se analizará detalladamente en el Capitulo 4, se origina una región asociada a la
misma. Se
trata, evidentemente, de una región de carácter compartido, cuya protección la especifica el
programa a la hora de proyectarla.
• Pilas de threads. Como se estudió en el Capítulo 3, cada thread necesita una pila propia
que normalmente corresponde con una nueva región en el mapa. Este tipo de región tiene
las mismas características que la región correspondiente a la pila del proceso.
Gestión de memoria 181
Programa 4.2. Ejemplo del problema de los punteros suelto..
int *p, *q ;
En la Figura 4.11 se muestra un hipotético mapa de memoria que contiene algunos de los
tipos de regiones comentadas en esta sección.
Como puede apreciarse en la figura, la carga de una biblioteca dinámica implicará la
creación de un conjunto de regiones asociadas a la misma que contendrán las distintas secciones
de la biblioteca (código y datos globales).
Hay que resaltar que, dado el carácter dinámico del mapa de memoria de un proceso (se
crean y destruyen regiones, algunas regiones cambian de tamaño, etc.), existirán, en un
determinado instante, zonas sin asignar (huecos) dentro del mapa de memoria del proceso.
Cualquier acceso a estos huecos representa un error y debería ser detectado y tratado por el
sistema operativo.
Por último, hay que recalcar que, dado que el sistema operativo es un programa, su mapa
de memoria contendrá también regiones de código, datos y heap (el sistema operativo también
usa memoria dinámica).
Un esquema simple de gestión de memoria consiste en asignar a cada proceso una zona
contigua de memoria para que en ella resida su mapa de memoria. Dentro de esta estrategia
general hay diversas posibilidades. Sin embargo, dado el alcance y objetivo de este tema, la
exposición se centrará sólo en uno de estos posibles esquemas: la gestión contigua basada en
particiones dinámicas. Se trata de un esquema que se usó en el sistema operativo OS/MVT de
IBM en la década de los sesenta.
Con esta estrategia, cada vez que se crea un proceso, el sistema operativo busca un hueco
en memoria de tamaño suficiente para alojar el mapa de memoria del mismo. El sistema
operativo reservara la parte del hueco necesaria, creara en ella el mapa inicial del proceso y
establecerá una función de traducción tal que las direcciones que genera el programa se
correspondan con la zona asignada.
En primer lugar, se presentará qué hardware de gestión de memoria se requiere para realizar
este esquema para, a continuación, describir cuál es la labor del sistema operativo.
Hardware
• Registro límite. El procesador comprueba que cada dirección que genera el proceso no es
mayor que el valor almacenado en este registro. En caso de que lo sea, se generará una
excepción.
184 Sistemas operativos. Una visión aplicada
• Registro base. Una vez comprobado que la dirección no rebasa el limite permitido, el
procesador le sumará el valor de este registro, obteniéndose con ello la dirección de
memoria física resultante.
Figura 4.12. Estado de la MMU durante la ejecución del proceso 2.
Observe que los registros valla estarán desactivados cuando el procesador está en modo
privilegiado. De esta forma, el sistema operativo podrá acceder a toda la memoria del sistema.
Sin embargo, a veces el sistema operativo necesitará traducir una dirección lógica de un proceso
que recibe como argumento de una llamada al sistema. En ese caso, el mismo deberá aplicar a
esa dirección los registros valla.
El sistema operativo únicamente tendrá que almacenar en el bloque de control de cada proceso
cuales son los valores que deben tener estos dos registros para dicho proceso. Observe que este
par de valores son los que definen la función de traducción que corresponde al proceso y que,
evidente- mente, su almacenamiento apenas consume espacio. Cuando se produzca un cambio
de proceso, el sistema operativo deberá cargar los registros valla del procesador con los valores
correspondiente al proceso que se va a activar.
El sistema operativo mantiene información sobre el estado de la memoria usando una
estructura de datos que identifica qué partes de la memoria están libres. Típicamente usa una
almacena la dirección inicial y el tamaño de cada zona libre o hueco (véase la Aclaración 4
analiza los distintos usos de este término en este entorno). Observe que en la gestión de esta
lista, cada vez que una zona pasa de ocupada a libre hay que comprobar si el nuevo espacio libre
se puede fundir con posibles zonas libres contiguas. Además, deberá mantener una tabla de
regiones para identificar qué partes de la memoria otorgada al proceso están asignadas a
regiones y cuales están libres.
Con esta estrategia, como muestra la figura anterior, según se van ejecutando distintos
procesos, van quedando «fragmentos» en la memoria que, dado su pequeño tamaño, no podrían
ser asignados a ningún proceso. A este problema se le denomina fragmentación externa y
conlleva una mala utilización de la memoria por la progresiva fragmentación del espacio de
almacenamiento. Una posible solución a este problema sería compactar la memoria moviendo
los mapas de memoria de los procesos para que
Gestión de memoria 185
queden contiguos, dejando así el espacio libre también contiguo Esta transferencia implicaría
también el reajuste de los registros valla de acuerdo a la nueva posición de cada proceso. Sin
embargo, esta compactación es un proceso bastante ineficiente.
Política de asignación de espacio
El sistema operativo debe llevar a cabo una política de asignación de espacio. Cuando se precisa
crear el mapa de memoria de un proceso que ocupa un determinado tamaño, esta política decide
cuál de las zonas libres se debería usar, intentando conjugar dos aspectos: un buen
aprovechamiento de la memoria y un algoritmo de decisión eficiente.
Realmente, el problema de la asignación dinámica de espacio es un problema más general
que se presenta también fuera del ámbito de la informática. Se trata, por tanto, de un problema
ampliamente estudiado. Típicamente, existen tres estrategias básicas:
• El mejor ajuste (best-fit). Se elige la zona libre más pequeña donde quepa el mapa del
proceso. A priori, puede parecer la mejor solución. Sin embargo, esto no es así. Por un
lado, se generan nuevos espacios libres muy pequeños. Por otro lado, la selección del
mejor hueco exige comprobar cada uno de ellos o mantenerlos ordenados por tamaño.
Ambas soluciones conducen a un algoritmo ineficiente,
• El peor ajuste (worst-fit). Se elige el hueco más grande, Con ello se pretende que no se
generen nuevos huecos pequeños. Sin embargo, sigue siendo necesario recorrer toda la
lista de huecos o mantenerla ordenada por tamaño.
• El primero que ajuste (first-fit). Aunque pueda parecer sorprendente a priori, ésta suele ser
la mejor política. Es muy eficiente ya que basta con encontrar una zona libre de tamaño
suficiente y proporciona un aprovechamiento de la memoria aceptable.
Una estrategia de asignación interesante es el sistema buddy [Knowlton, 1965]. Está basado
en el uso de listas de huecos cuyo tamaño son potencias de dos, La gestión interna de la
memoria del propio sistema operativo en UNIX 4,3 BSD y en Linux utiliza variantes de este
algoritmo. Dada su relativa complejidad, se remite al lector a la referencia antes citada.
Es interesante resaltar que estas estrategias de asignación también se utilizan en la gestión
del heap, tanto en el de los procesos como en el del propio sistema operativo.
Valoración del esquema contiguo
Una vez realizada esta presentación de los fundamentos de los esquemas de asignación
186 Sistemas operativos. Una visión aplicada
contigua, se puede analizar hasta qué punto cumplen los requisitos planteados al principio del
capítulo:
• Espacios lógicos independientes. Los registros valla realizan la reubicación del mapa de
memoria del proceso a la zona contigua asignada.
• Protección. El uso del registro límite asegura que un proceso no pueda acceder a la
memoria de otros procesos o del sistema operativo, creándose, por tanto, espacios
disjuntos.
• Compartir memoria. Como se comentó al principio del capítulo, la asignación contigua
impide la posibilidad de que los procesos compartan memoria.
• Soporte de las regiones del proceso. Con esta estrategia no es posible controlar si son
correctos los accesos que genera el programa a las distintas regiones de su mapa, ya sea
por intentar realizar una operación no permitida (p. ej.: escribir en la región de código) o
por acceder a una zona no asignada actualmente (hueco). Así mismo, no es posible evitar
que las zonas del mapa que no estén asignadas en un determinado momento no consuman
memoria, Por tanto, hay que reservar desde el principio toda la memoria que puede llegar
a necesitar el proceso durante su ejecución, lo cual conduce a un mal aprovechamiento de
la memoria,
• Maximizar el rendimiento, Como se analizó previamente, este tipo de asignación no
proporciona un buen aprovechamiento de la memoria presentando fragmentación externa.
Además, no sirve de base para construir un esquema de memoria virtual.
• Mapas de memoria grandes para los procesos. Este esquema no posibilita el uso de mapa
grandes, ya que quedan limitados por el tamaño de la memoria física.
ej. debido a que se ha creado uno nuevo), se elige un proceso residente y se copia en swap su
memoria. El criterio de selección puede tener en cuenta aspectos tales como la prioridad del
proceso, el tamaño de su mapa de memoria, el tiempo que lleva ejecutando y, principalmente.
Se debe intentar expulsar (swap out) procesos que estén bloqueados. Cuando se expulsa un
proceso no es necesario copiar toda su imagen al swap. Los huecos en el mapa no es preciso
copiarlos ya que su contenido es intrascendente. Tampoco se tiene que copiar el código, ya que
se puede volver a recuperar directamente del ejecutable.
Evidentemente, un proceso expulsado tarde o temprano debe volver a activarse y cargarse
en memoria principal (swap in). Sólo se deberían volver a cargar aquellos procesos que estén
listos para ejecutar. Esta readmisión en memoria se activará cuando haya espacio de memoria
disponible (p. ej.: debido a que se ha terminado un proceso) o cuando el proceso lleve un cierto
tiempo expulsado. Observe que al tratarse de un sistema de tiempo compartido, se debe repartir
el procesador entre todos los procesos. Por ello, en numerosa ocasiones hay que expulsar un
proceso para poder traer de nuevo a memoria a otro proceso que lleva expulsado un tiempo
suficiente.
En cuanto al dispositivo de swap, hay dos alternativas en la asignación de espacio:
• Preasignación. Al crear el proceso ya se reserva espacio de swap suficiente para
albergarlo.
• Sin preasignación. Sólo se reserva espacio de swap cuando se expulsa el proceso.
Un último aspecto a tener en cuenta es que no debería expulsarse un proceso mientras se
estén realizando operaciones de entrada/salida por DMA vinculadas a su imagen de memoria ya
que esto causaría que el dispositivo accediera al mapa de otro proceso.
4.5. MEMORIA VIRTUAL
En prácticamente todos los sistemas operativos modernos se usa la técnica de memoria virtual.
En esta sección se analizarán los conceptos básicos de esta técnica. En el Capítulo 1 ya se
presentaron los fundamentos de la memoria virtual, por lo que no se volverá a incidir en los
aspectos estudiados en el mismo.
Como se estudió en dicho capítulo, la memoria en un sistema está organizada como una
jerarquía de niveles de almacenamiento, entre los que se mueve la información dependiendo de
la necesidad de la misma en un determinado instante, La técnica de memoria virtual se ocupa de
la transferencia de información entre la memoria principal y la secundaria, La memoria
secundaria está normalmente soportada en un disco (o partición). Dado que, como se verá más
adelante, la memoria virtual se implementa sobre un esquema de paginación, a este dispositivo
se le denomina dispositivo de paginación. También se usa el término dispositivo de swap.
Aunque este término no es muy adecuado, ya que proviene de la técnica del intercambio, por
tradición se usa frecuentemente y se utilizará indistintamente en esta exposición.
4.5.1. Paginación
Como se ha analizado previamente, los sistemas de gestión de memoria basados en asignación
contigua presentan numerosas restricciones a la hora de satisfacer los requisitos que debe
cumplir el gestor de memoria del sistema operativo. La paginación surge como un intento de
paliar estos problemas sofisticando apreciablemente el hardware de gestión de memoria del
procesador aumentado considerablemente la cantidad de información de traducción que se
almacena por e proceso.
Aunque el objetivo de este capítulo no es estudiar en detalle cómo es el hardware de
gestión memoria (MMU) de los sistemas basados en paginación, ya que es un tema que
pertenece a la materia de estructura de computadoras, se considera que es necesario presentar
algunos conceptos básicos del mismo para poder comprender adecuadamente su
funcionamiento. Estos esquemas ya fueron presentados en el Capítulo 1, por lo que en esta
sección no se volverá a incidir en los aspectos estudiados en el mismo.
Como su nombre indica, la unidad básica de este tipo de esquema es la página. La pagina
corresponde con una zona de memoria contigua de un determinado tamaño. Por motivos de
eficiencia en la traducción, este tamaño debe ser potencia de 2 (un tamaño de página de 4 KB es
un valor bastante típico).
El mapa de memoria de cada proceso se considera dividido en páginas. A su vez, la
memoria principal del sistema se considera dividida en zonas del mismo tamaño que se
Gestión de memoria 189
denominan marcos de página. Un marco de página contendrá en un determinado instante una
página de memoria de proceso. La estructura de datos que relaciona cada página con el marco
donde esta almacenada tabla de páginas. El hardware de gestión de memoria usa esta tabla para
traducir todas las direcciones que genera un programa. Como se analizó en el Capítulo 1, esta
traducción consiste en detectar a que pagina del mapa corresponde una dirección lógica y
acceder a la tabla de páginas para obtener el numero de marco donde está almacenada dicha
_
página. La dirección física tendrá un desplazamiento con respecto al principio del marco igual
que el que tiene la dirección con respecto al principio de la página. La Figura 4.13 muestra
cómo es este esquema de traducción.
Típicamente, la MMU usa dos tablas de páginas. Una tabla de páginas de usuario para
traducir las direcciones lógicas del espacio de usuario (en algunos procesadores se corresponden
con direcciones que empiezan por un 0) y una tabla de páginas del sistema para las direcciones
lógicas del espacio del sistema (las direcciones lógicas que empiezan por un 1). Estas últimas
sólo pueden usarse cuando el procesador está en modo privilegiado.
Hay que resaltar que si se trata de un procesador con mapa común de entrada/salida y de
memoria, las direcciones de entrada/salida también se accederán a través de la tabla de páginas.
Para impedir que los procesos de usuario puedan acceder a ellas, estas direcciones de
entrada/salida estarán asociadas a direcciones lógicas del espacio del sistema.
La paginación no proporciona un aprovechamiento óptimo de la memoria como lo haría un
esquema que permitiese que cada palabra del mapa de memoria de un proceso pudiera
corresponder con cualquier dirección de memoria. Sin embargo, esta estrategia, como se analizó
al principio del capítulo, es irrealizable en la práctica dada la enorme cantidad de información
de traducción que implicaría. La paginación presenta una
190 Sistemas operativos. Una visión aplicada
solución más realista permitiendo que cada página del mapa de un proceso se pueda
corresponder con cualquier marco de memoria. Este cambio de escala reduce drásticamente el
tamaño de la tabla de traducción, pero, evidentemente, proporciona un peor aprovechamiento de
la memoria, aunque manteniéndose en unos términos aceptables. Observe que con la paginación
se le asigna a cada proceso un número entero de marcos de pagina, aunque, en general, su mapa
no tendrá un tamaño múltiplo del tamaño del marco. Por tanto, se desperdiciará parte del último
marco asignado al proceso, lo que correspondería con las zonas sombreadas que aparecen en la
Figura 4.14. A este fenómeno se le denomina fragmentación interna e implica que por cada
proceso de desperdiciará, en término medio, la mitad de una página, lo cual es un valor bastante
tolerable.
Cada entrada de la tabla de paginas, además del número de marco que corresponde con esa
página, contiene información adicional tal como la siguiente:
• Información de protección. Un conjunto de bits que especifican qué tipo de accesos
están permitidos. Típicamente, se controla el acceso de lectura, de ejecución y de
escritura.
• Indicación de página válida. Un bit que especifica si esa página es válida, o sea, tiene
traducción asociada, Observe que, en el caso de que no lo sea, la información del número
del marco es irrelevante. Como se analizará más adelante, este bit también se utilizará en
los esquemas de memoria virtual para indicar que la página no está residente en memoria
principal.
El hardware consulta esta información cada vez que realiza una traducción para verificar si
el acceso es correcto. En caso contrario, genera una excepción que activa al sistema operativo.
En la entrada de la tabla de páginas puede haber información adicional, tal como la siguiente:
• Indicación de página accedida. La MMU activa este bit indicador cuando se dirección
lógica que pertenece a esa página.
• Indicación de pagina modificada. La MMU activa este bit indicador cuando se escribe
una dirección lógica que pertenece a esa página.
• Desactivación de cache. Este bit indica que no debe usarse la cache de la memoria
principal para acelerar el acceso a las direcciones de esta página. En sistemas con mapa
común de memoria y de entrada/salida, se activaría en las páginas que contienen
direcciones
Gestión de memoria 191
asociadas a dispositivos de entrada/salida, ya que para estas direcciones no se debe usar la
cache sino acceder directamente al dispositivo.
La tabla de páginas hace la función de traducción que se analizó al principio del capítulo. El
sistema operativo mantendrá una tabla de páginas para cada proceso y se encargará de notificar
al hardware.
en cada cambio de proceso qué tabla tiene que usar dependiendo del proceso que esté
ejecutando, utilizando para ello el registro base de la tabla de páginas o el registro identificador
del espacio de direccionamiento (RIED). En otras palabras, el sistema operativo es el encargado
de definir la función de correspondencia entre paginas y marcos mediante la tabla de páginas, y
el hardware es el encargado de aplicarla. Observe que el formato de la tabla de páginas y de sus
entradas viene fijado por el procesador. Sin embargo, en algunas ocasiones el sistema operativo
quiere almacenar información propia, que no concierne al hardware, asociada a cada página. A
veces, esta información puede incluirse en la propia entrada de la tabla de páginas,
almacenándola en alguna parte que no usa la MMU. Sin embargo, si esto no es posible, el
sistema operativo puede usar su propia tabla de páginas para almacenar esta información.
El sistema operativo mantiene una única tabla de páginas para sí mismo. De esta forma,
todos los procesos comparten el sistema operativo. Cuando el sistema operativo está ejecutando
una llamada al sistema invocada por un proceso, puede acceder directamente a su propio mapa y
al del proceso.
Además de las tablas de páginas, el sistema operativo debe usar una estructura para
almacenar el estado de ocupación de la memoria principal. Se trata de la tabla de marcos de
página que permite conocer qué marcos están libres y cuales están ocupados.
Por último, será necesario que el sistema operativo almacene por cada proceso su tabla de
regiones que contenga las características de cada región especificando qué rango de páginas
pertenecen a la misma.
Observe que el esquema de paginación requiere que el sistema operativo tenga una serie de
estructuras de datos de tamaño considerable para poder mantener la información requerida por
el mismo. Este gasto es mucho mayor que en el esquema de asignación contigua.
Evidentemente, es el precio que hay que pagar para obtener una funcionalidad mucho mayor.
Valoración de la paginación
Una vez realizada esta presentación de los fundamentos de los esquemas de paginación, se
puede analizar cómo cumplen los requisitos planteados al principio del capítulo:
• Espacios lógicos independientes. Cada proceso tiene una tabla de paginas que crea un
espacio lógico independiente para el mismo. La tabla es, por tanto, una función de
traducción que hace corresponder las páginas del mapa de memoria del proceso
192 Sistemas operativos. Una visión aplicada
con los marcos que tiene asignados.
• Protección. La tabla de páginas de un proceso restringe qué parte de la memoria puede ser
accedida por el mismo, permitiendo asegurar que los procesos usan espacios disjuntos.
• Compartir memoria. Bajo la supervisión del sistema operativo, que es el único que puede
manipular las tablas de paginas, dos o mas procesos pueden tener una página asociada al
mismo marco de página. Observe que el compartimiento se realiza siempre con la
granularidad de una página.
• Soporte de las regiones del proceso. La información de protección presente en cada
entrada de la tabla de páginas permite controlar que los accesos a la región son del tipo
que ésta requiere. Asimismo, la información de validez detecta cuándo se intenta acceder
a huecos dentro del mapa del proceso y, además, elimina la necesidad de gastar memoria
física para estos huecos.
• Maximizar el rendimiento. En primer lugar, la paginación, a pesar de la fragmentación
interna, obtiene un buen aprovechamiento de la memoria, ya que elimina la necesidad de
que el mapa de memoria de un proceso se almacene de forma contigua en memoria
principal. Así, cualquier marco que esté libre se puede usar como contenedor de cualquier
página
de cualquier proceso. Por otro lado, y más importante todavía, la paginación puede servir como
base para construir un esquema de memoria virtual.
• Mapas de memoria grandes para los procesos. Gracias a que los huecos no consumen
espacio de almacenamiento, el sistema operativo puede crear un mapa de memoria para el
proceso que ocupe todo su espacio lógico direccionable. De esta forma, habrá suficientes
huecos para que las regiones crezcan o se incluyan nuevas regiones, sin penalizar con ello
el gasto en espacio de almacenamiento. Por otro lado, y más importante todavía, la
paginación permite implementar un esquema de memoria virtual.
Implementación de la tabla de paginas
El esquema básico de paginación que acaba de describirse, aunque funciona de manera correcta
presenta serios problemas a la hora de implementarlo directamente, Estos problemas surgen
debido a la necesidad de mantener las tablas páginas en memoria principal. Esto conlleva
problemas de eficiencia y de consumo de espacio.
Por lo que se refiere a los problemas de eficiencia, dado que para acceder a la posición de
memoria solicitada, la MMU debe consultar la entrada correspondiente de la tabla de páginas,
se producirán dos accesos a memoria por cada acceso real solicitado por el programa. Esta
sobrecargado es intolerable, ya que reduciría a la mitad el rendimiento del sistema. Para
solventar este problema la MMU incluye internamente una especie de cache de traducciones
llamada TLB (Translation, Lookaside Buffer), cuyo modo de operación se mostrará en la siguiente
sección.
Por otro lado, existe un problema de gasto de memoria. Las tablas de páginas son muy
grandes y hay una por cada proceso activo. Como se comentó previamente, la paginación
permite construir mapas de memoria muy grandes para los procesos, ya que los huecos no
consumen espacio. Sin embargo, si se usa todo el espacio de direccionamiento, como es
deseable para conseguir que los procesos no tengan problemas de memoria durante su
ejecución, la tabla de páginas debe tener tantas entradas como páginas hay en el espacio lógico,
aunque muchas de ellas estén marcadas como invalidas al corresponder con huecos. Para
resaltar esta circunstancia, a continuación se plantea un ejemplo.
Sea un procesador con una dirección lógica de 32 bits, un tamaño de página de 4 KB y tal que
cada entrada de la tabla de páginas ocupa 4 bytes. Si se le asigna a cada proceso
Gestión de memoria 193
todo el espacio direccionable, resulta á un mapa de memoria de 2 32 bytes que corresponde con
2 20 páginas. La tabla de páginas de cada proceso ocupa 4 MB ( 2 20 entradas x 4bytes). Por
tanto, se requerirían 4 MB de memoria principal para cada tabla, lo que resulta en un gasto de
memoria inadmisible. Observe que
la mayoría de las entradas de la tabla de páginas de un proceso estarían vacías. Así, por
ejemplo si las regiones de un proceso requieren 16 MB, lo cual es una cantidad bastante
considerable, solo estarían marcadas como válidas 4.096 entradas de las más de un millón que
hay en la tabla de
páginas. Observe que este problema se acentúa enormemente en los procesadores modernos
que usan direcciones de 64 bits.
La solución a este problema son las tablas de paginas multinivel y las tablas invertidas.
Translation Lookaside Buffer (TLB)
Para hacer que un sistema de paginación sea aplicable en la práctica es necesario que 1a
mayoría de los accesos a memoria no impliquen una consulta a la tabla de páginas, sino que
únicamente requieran el acceso a la posición solicitada. De esta forma, el rendimiento será
similar al de un sistema sin paginación.
Como se comentó previamente, esto se logra mediante el uso de la TLB. Se trata de una
pequeña memoria asociativa interna a la MMU que mantiene información sobre las últimas
páginas accedidas, Cada entrada en la TLB es similar a la de la tabla de páginas (número de
marco, protección, bit de referencia, etc.), pero incluye también el numero de la página para
permitir realizar una búsqueda asociativa. Existen dos alternativas en el diseño de una TLB
dependiendo de si se almacenan identificadores de proceso o no.
• TLB sin identificadores de proceso. La MMU accede a la TLB sólo con el número de
página. Por tanto, cada vez que hay un cambio de proceso el sistema operativo debe
invalidar la TLB ya que cada proceso tiene su propio mapa.
• TLB con identificadores de proceso. La MMU accede a la TLB con el número de
página y un identificador de proceso. En cada entrada de la TLB, por tanto, se almacena
también este identificador, La MMU obtiene el identificador de un registro del
procesador. El sistema operativo debe encargarse de asignarle un identificador a cada
proceso y de rellenar este registro en cada cambio de proceso. De esta forma, no es
necesario que el sistema operativo invalide la TLB en cada cambio de proceso, pudiendo
existir en la TLB entradas correspondientes a varios procesos.
Tradicionalmente, la TLB ha sido gestionada directamente por la MMU sin intervención
del sistema operativo. La MMU consulta la TLB y, si se produce un fallo debido a que la
traducción de esa página no está presente, la propia MMU se encarga de buscar la traducción en
la tabla de páginas e insertarla en la TLB. De hecho, la TLB es casi transparente al sistema
operativo, que sólo debe encargarse en cada cambio de proceso de solicitar a la MMU su
volcado y, en caso de que no use identificadores de proceso, su invalidación, Observe que es
necesario realizar un volcado de la TLB a la tabla de páginas, ya que la información de los bits
de página accedida o modificada se actualizan directamente en la TLB, pero no en la tabla de
páginas.
Algunos procesadores modernos (como, por ejemplo, MIPS o Alpha) tienen un diseño
alternativo en el que se traspasa parte de la gestión de la TLB al sistema operativo. A este
esquema se le denomina TLB gestionada por software. La MMU se encarga de buscar la
traducción en la TLB, pero si no la encuentra produce una excepción que activa al sistema
operativo. Este se debe encargar de buscar «a mano» en la tabla de páginas e insertar en la TLB
la traducción. Observe que, con este esquema, la MMU se simplifica considerablemente, ya que
no tiene que saber nada de las tablas de páginas. Además,
194 Sistemas operativos. Una visión aplicada
proporciona mas flexibilidad, ya que el sistema operativo puede definir las tablas de página a su
conveniencia, sin ninguna restricción impuesta por el hardware. Como contrapartida, el sistema
será menos eficiente, ya que parte del proceso de traducción se realiza por software.
Tabla de páginas multinivel
Una manera de afrontar el problema del gasto de memoria de las tablas de páginas es utilizar
tablas de página multinivel, Con este esquema, en vez de tener una unida tabla de páginas por
proceso, hay una jerarquía de tablas. Existe una única tabla de paginas de primer nivel. Cada
entrada de esta tabla apunta a tablas de páginas de segundo nivel. A su vez, las tablas de página
de segundo nivel apuntan a tablas de página de tercer nivel. Así, sucesivamente, por cada nivel
de la jerarquía. Las tablas de páginas del último nivel apuntan directamente a marcos de página.
En la práctica, esta jerarquía se limita a dos o tres niveles.
A la hora de traducir una dirección lógica, el número de página contenido en la misma se
considera dividido en tantas partes como niveles existan En la Figura 4.15 se muestra cómo se
.
Otra alternativa para reducir el gasto en tablas de paginas es usar una tabla invertida. Una tabla
de páginas invertida contiene una entrada por cada marco de página. Cada entrada identifica qué
página está almacenada en ese marco y cuáles son sus características. Para ello, contiene el
número de página y un identificador de proceso al que pertenece la página. Observe que, con
este esquema hay una única tabla de paginas cuyo tamaño es proporcional al tamaño de la
memoria principal. La Figura 4.17 ilustra cómo se realiza una traducción con este esquema.
La MMU usa una TLB convencional, pero cuando no encuentra en ella la traducción debe
acceder a la tabla invertida para encontrarla, Dado que la tabla está organizada por marcos, no
se puede hacer una búsqueda directa. En principio, se deberían acceder a todas las entradas
buscando la página solicitada. Para agilizar esta búsqueda, generalmente la tabla de páginas se
organiza como una tabla hash. En esta exposición no se entrará en más detalles sobre esta
organización (p. ej.: explicar cómo se resuelven las colisiones de la función hash).
Esta organización dificulta el compartimiento de memoria ya que, en principio, no se pueden
asociar dos paginas al mismo marco. Hay algunas soluciones a este problema, pero quedan
fuera del alcance de esta exposición.
Un último punto que hay que resaltar es que la tabla invertida reduce apreciablemente el
gasto de memoria en tablas, ya que sólo almacena información de las páginas válidas, Sin
embargo, como se analizará más adelante, cuando se usa este esquema para implementar
memoria virtual, el sistema operativo debería mantener sus propias tablas de pagina para
guardar información de las páginas que no están presentes en memoria principal.
Para terminar con la paginación, es conveniente hacer notar que hay numerosos aspectos
avanzados sobre este tema que no se han explicado debido al alcance de esta presentación y a
que algunos de ellos son transparentes al sistema operativo. Entre ellos,
Gestión de memoria 197
se puede destacar el tema de cómo se relaciona la paginación con el uso de una cache de
memoria principal, ya que en él puede estar implicado el sistema operativo. Hay básicamente
dos alternativas:
Figura 4.17. Esquema de traducción usando una tabla de páginas invertida.
• Procesadores (p. ej.: PA-RISC) que acceden a la cache usando la dirección virtual (o
parte de ella). Esto permite realizar la búsqueda en la TLB y en la cache en paralelo, pero
obliga a que el sistema operativo tenga que invalidar la cache en cada cambio de proceso
para evitar incoherencias,
• Procesadores (p. ej.: Alpha) que acceden a la cache usando la dirección física (o parte de
ella). Con este esquema el sistema operativo no tiene que invalidar la cache, pero no
permite que el acceso a la TLB y a la cache se hagan en paralelo (aunque si el tamaño de
la cache es igual al de la página, si se podría hacer en paralelo).
4.5.2. Segmentación
Con la paginación, la MMU no sabe nada sobre las distintas regiones de los procesos. Sólo
entiende de paginas. El sistema operativo debe guardar para cada proceso una tabla de regiones
que especifique qué páginas pertenecen a cada región. Esto tiene dos desventajas:
• Para crear una región hay que rellenar las entradas de las páginas pertenecientes a la
región con las mismas características. Así, por ejemplo, si se trata de una región de
código que ocupa diez páginas, habrá que rellenar diez entradas especificando una
protección que no permita modificarlas.
• Para compartir una región, hay que hacer que las entradas correspondientes de dos
procesos apunten a los mismos marcos.
En resumen, lo que se está echando en falta es que la MMU sea consciente de la existencia
de las regiones y que permita tratar a una región como una entidad.
La segmentación es una técnica hardware que intenta dar soporte directo a las regiones.
Para ello, considera el mapa de memoria de un proceso compuesto de múltiples segmentos.
Cada región se almacenará en un segmento.
Se puede considerar que esta técnica es una generalización del uso de los registros valla, pero
utilizando una pareja de registro base y registro límite por cada segmento. La MMU maneja una
tabla de segmentos. Cada entrada de esta tabla mantiene, además de información de protección, el
registro base y límite correspondientes a esa región. Una dirección lógica está formada por un
número de segmento y una dirección dentro del
198 Sistemas operativos. Una visión aplicada
segmento. Como se muestra en la Figura 4.18, la traducción consiste en acceder al numero
de segmento correspondiente y usar los registros valla almacenados en dicha entrada para
detectar si el acceso es correcto y, en caso afirmativo, reubicarlo.
Dado que cada segmento se almacena en memoria de forma contigua, este esquema
presenta fragmentación externa.
El sistema operativo mantendrá una tabla de segmentos por cada proceso y en cada
cambio de proceso irá informando a la MMU de qué tabla debe usar Además, el sistema
.
operativo debe usar una estructura de datos, similar a la utilizada con los esquemas de
asignación contigua, para conocer qué partes de la memoria principal están libres y cuáles
ocupadas.
A pesar de dar soporte directo a los segmentos, la segmentación tal como se ha
descrito en esta sección presenta numerosas deficiencias que hacen que prácticamente no
se use en los sistemas reales.
Valoración de la segmentación
A continuación, se analiza si la segmentación cumple los requisitos planteados al principio
del capítulo:
• Espacios lógico independientes. Cada proceso tiene una tabla de segmentos que
crea espacio lógico independiente para el mismo,
• Protección. La tabla de segmentos de un proceso restringe que parte de la
memoria puede ser accedida por el mismo, permitiendo asegurar que los procesos
usan espacios disjuntos.
• Compartir memoria. Bajo la supervisión del sistema operativo, que es el único
que manipula las tablas de segmentos, dos o más procesos pueden tener un
segmento asociado a la misma zona de memoria.
• Soporte de las regiones del proceso. Este es precisamente el punto fuerte de este
sistema.
• Maximizar el rendimiento. Esta es una de sus deficiencias. Por un lado, presenta
fragmentación externa, por lo que no se obtiene un buen aprovechamiento de la
memoria. Por un lado, y mas importante todavía, esta técnica no facilita la
implementación de esquemas de memoria virtual debido al tamaño variable de los
segmentos.
• Mapas de memoria grandes para los procesos. No contempla adecuadamente esta
Gestión de memoria 199
característica al no permitir implementar eficientemente un sistema de memoria
virtual.
4.5.3. Segmentación paginada
Como su nombre indica, la segmentación paginada intenta aun lo mejor de los dos
esquemas anteriores. La segmentación proporciona soporte directo a las regiones del
proceso y la paginación permite un mejor aprovechamiento de la memoria y una base
para construir un esquema de memoria virtual.
Con esta técnica, un segmento está formado por un conjunto de página, y, por tanto,
no tiene que estar contiguo en memoria. La MMU utiliza una tabla de segmentos, tal que
cada entrada de la tabla apunta a una tabla de paginas. La Figura 4.19 ilustra el proceso de
traducción en este esquema.
La valoración de esta técnica se corresponde con la unión de los aspectos positivos de los
esquemas anteriores:
• Espacios lógicos independientes. Cada proceso tiene una tabla de segmentos que
crea un espacio lógico independiente para el mismo.
• Protección. La tabla de segmentos de un proceso restringe qué parte de la
memoria puede ser accedida por el mismo, permitiendo asegurar que los procesos
usan espacios disjuntos.
• Compartir memoria. Bajo la supervisión del sistema operativo, que es el único
que puede manipular las tablas de segmentos, dos o más procesos pueden tener un
segmento asociado a la misma zona de memoria.
• Soporte de las regiones del proceso, gracias a la segmentación.
• Maximizar el rendimiento, La paginación proporciona un buen aprovechamiento
de la memoria y puede servir como base para construir un esquema de memoria
virtual.
• Mapas de memoria grandes para los procesos. La paginación permite implementar
un esquema de memoria virtual.
200 Sistemas operativos. Una visión aplicada
Es importante resaltar que, aunque la segmentación paginada ofrece más
funcionalidad que la paginación, requiere un hardware más complejo que, además, no
está presente en la mayoría de los procesadores. Por ello, la mayoría de los sistemas
operativos están construidos suponiendo que el procesador proporciona un esquema de
paginación.
4.5.4. Paginación por demanda
Una vez analizados los diversos esquemas hardware, en esta sección se plantea
cómo construir el mecanismo de la memoria virtual tomando como base dichos
esquemas. Como se comentó previamente, estos esquemas también pueden usarse sin
memoria virtual, ya que de por sí proporcionan numerosas ventajas sobre los esquemas de
asignación contigua. Sin embargo, en la actualidad su uso siempre está ligado a la
memoria virtual.
Como se ha analizado en las secciones anteriores, la memoria virtual se construye
generalmente sobre un esquema de paginación, ya sea paginación pura o segmentación
paginada. Por tanto, las unidades de información que se transfieren entre la memoria
principal y la secundaria son páginas. Las transferencias desde la memoria secundaria
hacia la principal se realizan normalmente bajo demanda (paginación por demanda).
Cuando un proceso necesita acceder a una página que no están en memoria principal (a lo
que se denomina fallo de página), el sistema operativo se encarga de transferirla desde la
memoria secundaria. Si al intentar traer la página desde memoria secundaria se detecta
que no hay espacio en la memoria principal (no hay marcos libres), será necesario
expulsar una página de la memoria principal y transferirla a la secundaria. Por tanto, las
transferencias desde la memoria principal hacia la secundaria se realizan normalmente
por expulsión. El algoritmo para elegir qué página debe ser expulsada se denomina
algoritmo de reemplazo y se analizará más adelante.
Dado que se está usando la paginación para construir un esquema de memoria
virtual, se puede usar indistintamente el termino de dirección lógica y el de dirección
virtual para referirse a las direcciones que genera un programa.
Para construir un esquema de memoria virtual sobre un procesador que ofrezca
paginación, se utiliza el bit de la entrada de la tabla de paginas que indica si la pagina es
válida. Estarán marcadas como inválidas todas las entradas correspondientes a las páginas
que no están residentes en memoria principal en ese instante. Para estas páginas, en vez
de guardarse la dirección del marco, se almacenará la dirección del bloque del dispositivo
que contiene la página. Cuando se produzca un acceso a una de estas paginas, se
producirá una excepción (fallo de página) que activará al sistema operativo que será el
encargado de traerla desde la memoria secundaria.
Observe que dado que se utiliza el bit validez para marcar la ausencia de una página
y este mismo bit también se usa para indicar que una página es realmente inválida (una
página que corresponde con un hueco en el mapa), es necesario que el sistema operativo
almacene información asociada a la pagina para distinguir entre esos dos casos.
Por ultimo, hay que comentar que algunos sistemas de memoria virtual usan la
técnica de la prepaginaciòn. En un fallo de página no sólo se traen la página en cuestión,
sino también 1as páginas adyacentes, ya que es posible que el proceso las necesite en un
corto plazo de tiempo. La efectividad de esta técnica va a depender de si hay acierto en
esta predicción.
Tratamiento del fallo de página
La paginación por demanda esta dirigida por la ocurrencia de excepciones de fallo de
página que indican al sistema operativo que debe traer una página de memoria secundaria
a primaria puesto que un proceso la requiere. A continuación, se especifican los pasos
típicos en el tratamiento de un fallo de página:
Gestión de memoria 201
• La MMU produce una excepción y típicamente deja en un registro especial la
dirección que causó el fallo.
• Se activa el sistema operativo que comprueba si se trata de una dirección
correspondiente una página realmente invalida o se corresponde con una página
ausente de memoria. Si 1a pagina es invalida, se aborta el proceso o se le manda
una señal. En caso contrario, se realizan los pasos que se describen a continuación.
• Se consulta la tabla de marcos para buscar uno libre.
• Si no hay un marco libre, se aplica el algoritmo de reemplazo para seleccionar una
página para expulsar El marco seleccionado se desconectará de la página a la que
.
Asignación fija
Se asigna a cada proceso un numero fijo de marcos de página. Normalmente, este tipo de
asignación lleva asociada una estrategia de reemplazo local. El número de marcos
asignados no varía, que un proceso sólo usa para reemplazo los marcos que tiene
asignados.
La principal desventaja de esta alternativa es que no se adapta a las diferente,
necesidades de memoria de un proceso a lo largo de su ejecución Una característica
.
Esta estrategia busca una solución más directa al problema de la hiperpaginación. Se basa
en controlar la frecuencia de fallos de página de cada proceso. Como se ve en la Figura
4.21, se establecen una cuota superior y otra inferior de la frecuencia de fallos de página
de un proceso. Basándose en esa idea, a continuación se describe una estrategia de
asignación dinámica con reemplazo local y control de carga.
MMU como para el sistema operativo. Además, si se trata de una región privada, se libera
el espacio de swap asociada a la misma.
La liberación puede deberse a una solicitud explícita (como ocurre cuando se
desproyecta un de archivo) o a la finalización del proceso que conlleva la liberación de
todas sus regiones. Observe que en POSIX, el servicio exec también produce una
liberación del mapa de un proceso.
Dado que este servicio se usa muy frecuentemente en los sistema UNIX y que, en la
mayoría de los casos, el nuevo mapa apenas se utiliza ya que el proceso hijo realiza una
llamada exec que lo destruye, la mayoría de las versiones de UNIX han optimizado esta
operación de duplicado usando la técnica del copy-on-write (COW).
La técnica COW intenta realizar un duplicado por demanda. En vez de copiar la
región original, se comparte pero marcándola de tipo COW. Mientras los procesos que
usan esta región solo la lean, pueden seguir compartiéndola. Pero, cuando un proceso
intenta modificar una página de esta región, se produce una excepción y el sistema
operativo se encarga de crear una copia privada de la página para ese proceso.
Típicamente, para forzar esta excepción, se modifica la protección de la página para que
sea sólo de lectura. Evidentemente, el sistema operativo almacenará en sus tablas cuál es
la protección real de la pagina.
Observe que puede haber y varios procesos con la misma región duplicada (p. ej.:
un proceso que ha creado tres hijos). Por tanto, asociado a cada página de tipo COW hay
un contador que indica cuántos procesos están compartiéndola. Cada vez que se produce
una excepción por acceso de escritura a una página de este tipo, el sistema operativo,
además de crear una copia privada de la página para el proceso, decrementa el contador
de uso. Cuando el contador indique que sólo hay un proceso asociado a la página, se
puede quitar la marca de COW ya que la página no tiene duplicados.
Como resultado de aplicar la técnica COW, se optimiza considerablemente la
ejecución de un servicio fork, ya que solo es necesario compartir las regiones del padre, o
sea, duplicar su tabla de páginas. Las regiones de carácter compartido son realmente
compartidas, pero en las de tipo privado se trata de un falso compartimiento mediante la
técnica COW.
4.6. ARCHIVOS PROYECTADOS EN MEMORIA
La generalización de la técnica de memoria virtual permite ofrecer a los usuarios una
forma alternativa de acceder a los archivos. Como se ha analizado en la sección anterior,
en un sistema de memoria virtual se hacen corresponder directamente entradas de la tabla
de páginas con bloques del archivo ejecutable. La técnica de proyección de archivos en
memoria plantea usar esa misma idea, pero aplicada a cualquier archivo. -El sistema
operativo va a permitir que un programa solicite que se haga corresponder una zona de su
mapa de memoria con los bloques de un archivo cualquiera, ya sea completo o una parte
del mismo. En la solicitud, el programa especifica el tipo de protección asociada a la
región.
Como se puede observar en la Figura 4.23, el sistema operativo deberá manipular la
tabla de paginas del proceso para que se corresponda con los bloques del archivo
proyectado.
Una vez que el archivo está proyectado, si el programa accede a una dirección de
memoria perteneciente a la región asociada al archivo, estará accediendo al archivo. El
programa ya no tiene que usar los servicios del sistema operativo para leer (read) y
escribir (write) en el archivo. Así si en el ejemplo de la figura el programa lee un byte de
la dirección de memoria 10240, estará leyendo el primer byte del archivo, mientras que, si
escribe un byte en la dirección 10241, estará escribiendo en el segundo byte del archivo.
Observe que el proyectar un archivo no implica que se le asigne memoria principal.
Simplemente, se actualizan las entradas de la tabla de páginas para que referencien al
archivo. El propio mecanismo de memoria virtual será el que se encargue de ir trayendo a
memoria principal los bloques del archivo cuando se produzca un fallo de pagina al
intentar acceder a la región asociada al mismo y de escribirlos cuando la pagina sea
expulsada estando modificada.
Gestión de memoria 211
En el caso de que se quiera proyectar una región sin soporte (región anónima), en
algunos sistemas se puede especificar el valor MAP_ANOM en el parámetro indicador.
Otros sistemas UNIX ofrecen esta opción, pero permiten proyectar el dispositivo /dev/
zero para lograr el mismo objetivo, Esta opción se puede usar para cargar la región de
datos sin valor inicia de una biblioteca dinámica.
Gestión de memoria 213
#include<sys/types .h>
#include <sys/stat .h>
#include<sys/rnman ,h>
#include<sys/rnman ,h>
#include <fcntl .h>
#include<stdio.h
#include <unistd .h>.
if (argc!=3) {
fprintf (stderr, "Uso: %s caracter archivo\n", argv[0]);
return(l);
}
/* Por simplicidad , se supone que el carácter a contar corresponde con el
primero del primer argumento */
carácter = argv [1] [0];
/* Se proyecta el archivo */
if ((org=mmap((caddr_t) 0, bstat.st_size, PROT_READ,
MAP_SHARED, fd, 0)) = = MAP_FAILED) {
perror("Error en la proyección del archivo");
close(fd);
return(l);
}
/* Se cierra el archivo */
close(fd);
/* Bucle de acceso */
p=org;
for (i=0; i<bstat,st_size; i++)
if (*p ++ = = carácter ) contador + +;
/* Se elimina la proyección */
munmap(org, , bstat.st_size);
/* Bucle de copia */
p = org; q = dst;
for (i=0; i<bstat.st_size; i++)
*q++ = *p++ ;
216 Sistemas operativos. Una visión aplicada
#include <windows .
#include <stdio.h>
if (argc!=3){
fprintf (stderr, "Uso: %s carácter archivo\n", argv[0]);
return(l);
}
/*Por simplicidad, se supone que el carácter a contar corresponde con el primero del
primer argumento */
carácter =argv[l] [0];
/* Abre el archivo para lectura */ -
hArch = CreateFile (argv[2], GENERIC_READ, O, NULL,
OPEN_EXISTIMO, FILEATTRIBUTE_NORMAL, NULL);
if (hArch = = INVALID_HANDLE_VALUE) {
fprintf(stderr, "No puede abrirse el archivo\n");
return(l);
}
/* se crea la proyección del archivo */
hProy = CreateFileMapping (hArch, NTJLL, PAGE_READONLY, O, O, NULL);
if (hProy = = INVALID_HANDLE_VALUE) {
fprintf(stderr, "No puede crearse la proyección \n");
return(l);
}
/* se realiza la proyección */
base = MapViewOfFile (hProy, FILE_MAP_READ, 0, 0, 0);
tam = GetFileSize (hArch, NULL);
/* bucle de acceso */
puntero = bas
while (puntero < base + tam)
if (*puntero++= =caracter) contador++;
printf("%d\n", contador);
/* se elimina la proyección y se cierra el archivo */
UnmapViewOfFile (base);
CloseHandle (hProy);
Closehandle (hArch);
return 0;
}
218 Sistemas operativos. Una visión aplicada
if (argc!=3) {
fprintf (stderr, "Uso: %s origen destino \n", argv[0]);
return(l);
}
/* se abre archivo origen */
hEnt = CreateFile (argv[l], GENERIC_READ,0, NULL, OPEN_EXISTING,
FILE_ATTRIBUTE_NORMAL, NULL);
if (hEnt = = INVALID_HANDLE_VALUE) {
fprintf(stderr, "No puede abrirse el archivo origen \n");
return(l);
}
En este modelo todos los procesos concurrentes ejecutan sobre un único procesador. El
sistema operativo se encarga de ir repartiendo el tiempo del procesador entre los
distintos procesos, intercalando la ejecución de los mismos p a d así una apariencia de
ejecución simultánea. En la Figura 5.1 se presenta un ejemplo de ejecución de tres
procesos en un sistema multiprogramado con un único procesador. Como puede verse,
los tres procesos van avanzando su ejecución de forma aparentemente simultánea, pero
sin coincidir en ningún momento sus fases de procesamiento.
Multiprocesador
dado se pueden ejecutar de forma simultánea tantos procesos como procesadores haya.
En la Figura 5.2 se muestra un ejemplo de ejecución de cuatro procesos en un multi-
procesador con dos procesadores.
Multicomputadora
Cada uno de los procesos realiza la suma de los números comprendidos entre ni y
nf. Una vez calculada la suma parcial, acumulan en la variable global sumatotal el
resultado de su parcial. Vamos a suponer que estos dos procesos ejecutan de forma
concurrente en un una única UCP. Hay que hacer notar que estos procesos ligeros
entran dentro de la clase de cooperantes que comparten el acceso a una variable global.
Para ello se va a considerar que el compilador genera para la sentencia en
suma_total =suma_total + suma el siguiente código ensamblador;
Esta sentencia constituye de nuevo una sección crítica que no puede ser ejecutada
de forma simultánea por más de un proceso. Esta sección debe ejecutarse de forma
atómica. Para ello los procesos deben sincronizar sus ejecuciones: unos deben esperar a
ejecutar el código de la sección crítica mientras otro lo esté ejecutando.
Para resolver el problema de la sección crítica es necesario utilizar algún
mecanismo de sincronización que permita a los procesos cooperar entre ellos sin
problemas. Este mecanismo debe proteger el código de la sección critica y su
funcionamiento básico es el siguiente:
• Cada proceso debe solicitar permiso para entrar en la sección crítica, mediante
algún fragmento de código que se denomina de forma genérica entrada en la
sección crítica.
• Cuando un proceso sale de la sección critica debe indicarlo mediante otro
fragmento de código que se denomina salida de la sección crítica. Este fragmento
permitirá que otros procesos entren a ejecutar el código de la sección crítica.
Cualquier solución que se utilice para resolver este problema debe cumplir los tres
requisitos siguientes:
• Espera acotada: debe haber un límite en el número de veces que se permite que
los demás procesos entren a ejecutar código de la sección crítica después de que un
proceso haya efectuado una solicitud de entrada y antes de que se conceda la
suya.
En este problema existe un determinado objeto (Fig. 5.6), que puede ser un archivo, un
registro dentro de un archivo, etc., que va a ser utilizado y compartido por una serie de
procesos con-
currentes. Algunos de estos procesos sólo van a acceder al objeto sin modificarlo,
mientras que otros van a acceder al objeto para modificar su contenido. Esta
actualización implica leerlo, modificar su contenido y escribirlo. A los primeros
procesos se les denomina lectores y a los segundos se les denomina escritores. En este
tipo de problemas existen una serie de restricciones que han de seguirse:
Para resolver los problemas que se han planteado en la sección anterior, y otros
muchos más, el sistema operativo ofrece una serie de servicios que permiten a los
procesos comunicarse y sincronizarse.
• Archivos.
•Tuberías.
•Variables en memoria compartida.
•Paso de mensajes.
•Señales.
•Tuberías,
•Semáforos,
•Mutex y variables condicionales,
•Paso de mensajes.
Este mecanismo, sin embargo, presenta una serie de inconvenientes que hacen que
en general no sea un mecanismo de comunicación ampliamente utilizado. Estos son:
5.3.2. Tuberías
Una operación de escritura sobre una tubería introduce datos en orden FIFO en la
misma. La semántica de esta operación es la siguiente:
Una operación de lectura de una tubería obtiene los datos almacenados en la misma.
Estos datos, además, se eliminan de la tubería. Las operaciones de lectura siguen la
siguiente semántica:
• Si no hay escritores y la tubería está vacía, la operación devuelve fin de archivo (en
este caso la operación no bloquea al proceso).
• Al igual que las escrituras, las operaciones de lectura sobre una tubería son atómicas
(Aclaración 5.3).
Como puede apreciarse, una lectura de una tubería nunca bloquea al proceso si
hay datos disponibles en la misma.
Existen dos tipos de tuberías: sin nombre y con nombre (Aclaración 5.4). Una
tubería sin nombre solamente se puede utilizar entre los procesos que desciendan del
proceso que creó la tubería. Una tubería con nombre se puede utilizar para comunicar
y sincronizar procesos independientes.
A continuación se describe como solucionar algunos de los problemas de
comunicación y sincronización, vistos en la Sección 5.2, mediante el uso de tuberías.
El hecho de que las operaciones de lectura y escritura sobre una tubería sean atómicas
y que la lectura bloquee a un proceso cuando se encuentra vacía la tubería, permite que
este mecanismo sea utilizado para sincroniza procesos. Recuérdese que toda
sincronización implica un bloqueo.
La forma de resolver el problema de la sección crítica mediante tuberías consiste
en crear una tubería en la que se inserta inicialmente, mediante una operación de
escritura, un dato que hace de testigo.
Una vez creada la tubería e insertado el testigo en la misma, los procesos deben
proteger el código correspondiente a la sección crítica de la siguiente forma:
Productor() {
for (;;) {
< Producir un dato >
< Escribir el dato a la tubería >
}
}
Consumidor() {
for (;;) {
< Leer un dato a la tubería >
< Consumir el dato leído >
}
}
Aunque en las secciones anteriores se han presentado dos posibles utilizaciones de las
tuberías uso mas extendido se encuentra en la ejecución de mandatos con tuberías. De
esta forma, se pueden conectar programas sencillos para realizar una tarea más
compleja.
5.3.4. Semáforos
wait (s) {
s = s –1;
if (s < 0)
Bloquear al proceso;
1
}
signal (s) {
s = s + 1;
if ( s <= 0 )
Desbloquear a un proceso bloqueado en la operación wait;
}
Cuando el valor del semáforo es menor o igual que cero, cualquier operación wait
que se realice sobre el semáforo bloqueará al proceso. Cuando el valor del semáforo es
positivo, cualquier proceso que ejecute una operación wait no se bloqueará.
El número de procesos, que en un instante determinado se encuentran bloqueados
en una operación wait, viene dado por el valor absoluto del semáforo si es negativo.
Cuando un proceso ejecuta la operación signal, el valor del semáforo se incrementa.
En el caso de que haya algún proceso bloqueado en una operación wait anterior, se
desbloqueará a un solo proceso.
A continuación se presenta el uso de los semáforos en la resolución de alguno de
los problemas vistos en la Sección 5.2.
wait (s);
Sección crítica;
signal(s);
El valor que tiene que tomar el semáforo inicialmente es 1, de esta forma solo se
permite a un único proceso acceder a la sección crítica. Si el valor inicial del semáforo
fuera, por ejemplo, 2, entonces dos procesos podrían ejecutar la llamada wait sin
bloquearse y por tanto se permitiría que ambos ejecutaran de forma simultánea dentro
de la sección crítica.
En la Figura 5.10 se representa la ejecución de tres procesos (P0 , P1 y P2) que
intentan acceder a una sección crítica. Los tres procesos se sincronizan utilizando un
semáforo con valor inicial 1.
En este problema existen dos tipos de recursos: los elementos situados en el buffer
y los huecos donde situ nuevos elementos. Cada uno de estos recursos se representa
mediante un semáforo.
Figura 5.11.Productor-consumidor con buffer circular,
240 Sistemas operativos. Una visión aplicada
Productor () {
int posicion =;
for (;;) {
Producir un dato;
wait(huecos);
buffer[posición] = dato; /* se inserta en el buffer */
posicion = (posicion + 1) % TAMANYQ_DELBUFFER;
signal. (elementos);
}
}
Consumidor () {
int posicion O;
for(;;) {
wait(elementos);
dato = buffer[posicion]; / * se extrae del buffer */
posicion = (posicíon + 1) % TAMANYO_DEL BUFFER;
signal (huecos);
Consumir el dato extraido;
}
}
En esta sección se presenta una posible solución al problema de los lectores escritores
empleando semáforos. La estructura de los procesos lectores y escritores se muestra en
el Programa 5.4.
Lector( ) {
wait (sem_lectores);
int_lectores = n_lectores + 1;
if (n_lectores = = 1)
wait (sem_recurso);
signal (sem-lectores);
< consultar el recurso compartido >
wait (sem_lectores);
n_lectores = n_lectores _ 1;
if (n-lectores = = 0)
signal (sen_recurso);
signal(sem-lectores);
}
Escritor ( ) {
wait (sem_recurso);
/* se puede modificar el recurso */
signal(sem_recurso);
}
• lock: intenta bloquear el mutex. Si el mutex ya está bloqueado por otro proceso,
el proceso que realiza la operación se bloquea. En caso contrario se bloquea el
mutex sin bloquear al proceso.
• unlock: desbloquea el mutex. Si existen procesos bloqueados en él, se
desbloqueará a uno para de ellos que será el nuevo proceso que adquiera el
mutex. La operación unlock sobre un mutex debe ejecutarla el proceso ligero
que adquirió con anterioridad el mutex mediante la
operacion operación lock. Esto es diferente a lo que ocurre con las
operaciones wait y signal sobre un semáforo.
• c_wait: bloquea al proceso que ejecuta la llamada y le expulsa del mutex dentro
del cual se ejecuta y al que está asociado la variable condicional, permitiendo
que algún otro proceso adquiera el mutex. El bloqueo del proceso y la liberación
del mutex se realiza de forma atómica.
• c_signal: desbloquea a uno o varios procesos suspendidos en la variable
condicional. El proceso que se despierta compite de nuevo por el mutex.
acceso a una sección crítica. En este caso, es necesario un mutex para proteger la
ejecución de dicha sección crítica. Una vez dentro de la sección crítica puede ocurrir
que un proceso no pueda continuar su ejecución dentro de la misma, debido a que no se
cumple una determinada condición, por ejemplo, se quiere insertar elementos en un
buffer común y este se encuentra lleno. En esta situación el proceso debe bloquearse
puesto que no puede continuar su ejecución. Además debe liberar el mutex para
permitir que otro proceso entre en la sección crítica y pueda modificar la situación que
bloqueó al proceso, en este caso eliminar un elemento del buffer común para hacer
hueco.
Para conseguir este funcionamiento es necesario utilizar una o más variables
compartidas que se utilizarán como predicado lógico y que el proceso consultará para
decidir su bloqueo o no. El fragmento de código que se debe emplear en este caso es el
siguiente:
lock(m) ;
/* código de la sección crítica */
while (condicion = = FALSE)
c_wait(c, m) ;
/* resto de la sección crítica */
unlock(m) ;
lock(m) ;
/* código de la sección crítica */
/*se modifica la condición y ésta se hace TRUE */
condicion = TRUE;
c-signal(c);
unlock (m);
En este caso, el proceso que hace cierta la condición ejecuta la operación c_signal
sobre la variable condicional despertando a un proceso bloqueado en dicha variable.
Cuando el proceso ligero que espera en una variable condicional se desbloquea, vuelve
a competir por el mutex. Una vez adquirido de nuevo el mutex debe comprobar si la
situación que le despertó y que le permitía continuar su ejecución sigue cumpliéndose,
de ahí la necesidad de emplear una estructura de control de tipo while, Es necesario
volver a evaluar la condición ya que entre el momento en el que la condición se hizo
cierta y el instante en el que comienza a ejecutar de nuevo el proceso bloqueado en la
variable condicional puede haber ejecutado otro proceso que a su vez puede haber
hecho falsa la condición.
El empleo de mutex y variables condicionales que se ha presentado es similar al
concepto de monitor [Hoare, 1974], y en concreto a la definición de monitor dada para
el lenguaje Mesa [Lampson, 1980].
En la Figura 5.14 se representa de forma grafica el uso de mutex y variables
condicionales entre dos procesos tal y como se ha descrito anteriormente.
Productor-consumidor con mutex y variables condicionales
Consumidor( ) {
int pos = 0;
for(;;) (
lock(mutex);
/* acceder al buffer */
while (n_elementos = = 0) /* si buffer vacio
*/
c_wait(vacio, mutex); /* se bloquea */
dato = buffer[pos];
pos = (pos + 1) % TAMANYQ_DEL_BUFFER;
n_elementos - - ;
if (n_elementos = = (TAMANYO_DEL_BUFFER – 1));
c_signal(lleno); /* buffer no vacio
*/
unlock(mutex>;
< Consumir el dato >
}
}
if (n_elementos = = 1)
c_signal (vacio); /* buffer no vacío */
Cuando el proceso consumidor elimina un elemento del buffer y éste deja de estar
lleno, despierta al proceso productor en caso de que estuviera bloqueado en la variable
condicional lleno. Para ello el proceso consumidor ejecuta:
Lector ( ) {
lock(mutex_lectores);
n_lectores++;
if (n_lectores = = 1)
lock(mutex);
unlock(mutex_lectores>;
Todos los mecanismos vistos hasta el momento necesitan que los procesos que quieren
intervenir en la comunicación o quieren sincronizarse ejecuten en la misma máquina.
Cuando se quiere comunicar y sincronizar procesos que ejecutan en máquinas distintas
es necesario recurrir al paso mensajes. En este tipo de comunicación los procesos
intercambian mensajes entre ellos. Es obvio que este esquema también puede
emplearse para comunicar y sincronizar procesos que ejecutan en la misma máquina,
en este caso los mensajes son locales a la máquina donde ejecutan los procesos
Utilizando paso de mensajes como mecanismo de comunicación entre procesos no
es necesario recurrir a variables compartidas, únicamente debe existir un enlace de
comunicación entre ellos. Los procesos se comunican mediante dos operaciones
básicas:
De acuerdo con estas dos operaciones, las tuberías se pueden considerar en cierta
medida como un mecanismo de comunicación basado en paso de mensajes. Los
procesos pueden enviar un mensaje a otro proceso por medio de una operación de
escritura y puede recibir mensajes de otros a través mediante una operación de lectura.
En este caso, el enlace que se utiliza para comunicar a procesos es la propia tubería.
Existen múltiples implementaciones de sistemas con paso de mensajes. A
continuación se describen algunos aspectos de diseño relativos a este tipo de sistemas.
Los mensajes que envía un proceso a otro pueden ser de tamaño fijo o tamaño
variable. En mensajes de longitud fija la implementación del sistema de paso de
mensajes es mas sencilla, sin embargo, dificulta la tarea del programador ya que puede
obligar a éste a descomponer los mensajes grandes en mensajes de longitud fija más
pequeños.
Flujo de datos
Nombrado
Los procesos que utilizan mensajes para comunicarse o sincronizarse deben tener
alguna forma de referirse unos a otros. En este sentido, la comunicación puede ser
directa o indirecta.
La comunicación es directa cuando cada proceso que desea enviar o recibir un
mensaje de otro debe nombrar de forma explícita al receptor o emisor del mensaje. En
este esquema de comunicación, las operaciones básicas send y receive se definen de
la siguiente manera:
receive(ANY, mensaje);
Sincronización
La comunicación entre dos procesos es síncrona cuando los dos procesos han de ejecutar
los servicios de comunicación al mismo tiempo, es decir, el emisor debe estar ejecutando
la operación send y el receptor ha de estar ejecutando la operación receive. La
comunicación es asíncrona en caso contrario.
En general, son tres las combinaciones más habituales que implementan los distintos
tipos de paso de mensajes.
Almacenamiento
Este aspecto hace referencia a la capacidad del enlace de comunicaciones. El enlace y por
tanto el paso de mensajes pueden:
Una operación de recepción bloqueante permite bloquear al proceso que la ejecuta hasta la
recepción del mensaje. Esta característica permite emplear los mecanismos de paso de
mensajes para sincronizar procesos, ya que una sincronización siempre implica un
bloqueo.
Comunicación y sincronización de procesos 251
Una vez que todos los procesos tienen acceso a la cola, sincronizan su acceso a la
sección crítica ejecutando el siguiente fragmento de código:
receive(cola, testigo);
< Código de la sección crítica >
send(cola, testigo);
De esta forma, el primer proceso que ejecuta la operación receive extrae el mensaje
de la cola y la vacía, de tal manera que el resto de procesos se bloqueará hasta que de
nuevo vuelva a haber un mensaje disponible en la cola. Este mensaje lo inserta el proceso
que lo extrajo mediante la operación send. De esta forma, alguno de los procesos
bloqueados se despertará y volverá a extraer el mensaje de la cola vaciándola.
Productor( ) {
for(;;) {
< Producir un dato >
252 Sistemas operativos. Una visión aplicada
send(Consumidor, dato);
}
}
Consumidor( ) {
for(;;)
receive(Productor, dato);
< Consumir el dato >
}
}
El empleo más típico del paso de mensajes se encuentra en los esquemas cliente-servidor.
En tipo de situaciones el proceso servidor se encuentra en un bucle infinito esperando la
recepción de las peticiones de los clientes (operación receive). Los clientes solicitan un
determinado enviando un mensaje al servidor (operación send).
Cuando el servidor recibe el mensaje de un cliente lo procesa, sirve la petición y
devuelve el resultado mediante una operación send. Según se sirva la petición, los
servidores se pueden clasificar de la siguiente manera:
wait(s) {
s = s – 1;
while (s < 0)
;
}
signal (s) {
s = s + 1;
}
Esta implementación coincide además con la definición original que se dio a los
semáforos. En esta implementación se debe asegurar que las modificaciones del valor
entero del semáforo en las operaciones wait y signal se ejecutan de forma indivisible.
Además, en el caso de la operación wait la comparación debe realzarse también de forma
atómica. Con esta implementación, todo proceso que se encuentra con un valor del
semáforo negativo entra en un bucle en el que evalúa de forma continua el valor del
semáforo. A esta situación se le denomina espera activa.
Cuando se emplea espera activa para bloquear a los procesos, éstos deben ejecutar un
ciclo continuo hasta que puedan continuar . La espera activa es obviamente un problema
en un sistema multiprogramado real, ya que se desperdicia ciclos del procesador en
aquellos procesos que no puede ejecutar y que no realizan ningún trabajo útil.
Para solucionar el problema que plantea la espera activa se puede modificar la
implementación de las operaciones wait y signal, utilizando la que se vio en la Sección
5.7.
wait (s) {
s = s – 1;
if (s < 0)
Bloquear al proceso;
}
signal (s) {
s = s + 1;
if ( s <= 0)
Desbloquear a un proceso bloqueado un la operación wait;
}
Estos conceptos, que se han visto para un semáforo, se pueden aplicar de igual
forma para el resto de mecanismos de sincronización.
Figura 5.17. Acciones realizadas por el sistema operativo cuando se debe bloquear a un
proceso en semáforo.
Comunicación y sincronización de procesos 255
temp=*valor;
*valor = 1; /*True*/
return temp;
}
Figura 5.18. Acciones realizadas por el sistema operativo en una operación signal.
256 Sistemas operativos. Una visión aplicada
while (tast-and-set(&lock))
;
<Sección crítica >
lock = false;
llave = true;
do
swap(lock, llave);
while (llave != false);
<Sección crítica>
lock = false;
La variable lock se comparte entre todos los procesos y su valor inicial debe ser false
.La variable llave es local a cada proceso.
Utilizando la instrucción test-and-set, un semáforo vendría definido por una
estructura que almacena: el valor del semáforo, la lista de procesos bloqueados y el valor
de la variable a utilizar en la instrucción anterior. La definición de las operaciones wait y
signal en este sería la siguiente:
wait(s) {
while (test-and-set (&valors))
;
s = s – 1;
if (s < 0){
valor_s = false;
Bloquear al proceso;
}
else
valor_s = false;
}
signal (s) {
while (test-and-set(&valors))
;
s = s + 1;
Comunicación y sincronización de procesos 257
if ( s <= 0)
Desbloquear a un proceso bloqueado en la operación wait;
valor_s = false;
}
5.6. INTERBLOQUEOS
Proceso P1 Proceso P2
1 wait(P); 2 wait (Q);
3 wait(Q); 4 wait(P);
….. ….
signal(P>; signal(Q);
signal(Q); signal(P);
Proceso. P1 Proceso P2
….. ….
receive (P2, m) receive(P1,m);
send(P2,m) send(P1,m);
En esta sección se presentan los servicios que ofrece POSIX para los distintos
mecanismos comunicación y sincronizacion de procesos que se han ido presentando a lo
largo del c Unicamente se van a trat los mecanismos más adecuados p a la comunicación
y sincronizac~ de procesos. Los servicios de sincronización pura incluyen los semáforos,
los mutex y las var condicionales. Para comunicar procesos se pueden emplear tuberías y
colas de mensajes.
5.7.1. Tuberias
En POSIX existen tuberías sin nombre, o simplemente pipe~, y tuberías con nombre, o
FIFOS.
Un pipe no tiene nombre y, por tanto, sólo puede ser utilizado entre los procesos que
hereden a través de la llamada fork () . La Figura 5.20 muestra lajer quía de procesos que
pue utilizar un mismo pipe.
Para leer y escribir de una tubería en POSIX se utilizan descriptores de archivo. Las
tub sin nombre tienen asociados dos descriptores de archivo. Uno de ellos se emplea para
leer y el para escribir. Un FIFO sólo tiene asociado un descriptor de archivo que se puede
utilizar p a escribir. A continuación se describen los servicios POSIX relacionados con
las tuberías,
Figura 5.20. Jerarquía de proceso. que pueden compartir un mismo pipe en POSJX.
Comunicación sincronización de procesos 259
Esta llamada devuelve dos descriptores de chivos (Fig. 5.21) que se utilizan como
identificadores:
En POSIX, las tuberías con nombre se conocen como FIFO. Los PIFO tienen un nombre
local que lo identifican dentro de una misma máquina. El nombre que se utiliza
corresponde con el de un archivo. Esta característica permite que los PIFO puedan
utilizarse para comunicar y sincronizar procesos de la misma máquina, sin necesidad de
que lo hereden por medio de la llamada fork. El prototipo del servicio que permite cre
una tubería con nombre es el siguiente:
El servicio que permite abrir una tubería con nombre es open. Este servicio también se
emplea para abrir archivos. Su prototipo es el siguiente:
El primer argumento identifica el nombre del PIFO que se quiere abrir y el segundo
la forma en la que se va a acceder al PIFO. Los posibles valores de este segundo
argumento son:
Figura 5.21. Tuberías POSIX entre dos procesos.
260 Sistemas operativos. Una visión aplicada
El servicio open devuelve un descriptor de archivo que se puede utilizar para leer y
escribir del FIFO. En caso de error devuelve -1. La llamada open bloquea al proceso que
la ejecuta hasta; que haya algún otro proceso en el otro extremo del FIFO.
Este servicio cierra un descriptor de archivo asociado a una tubería con o sin nombre.
También se emplea para cerrar cualquier archivo. Su prototipo es:
Permite borrar un FIFO. Esta llamada también se emplea para borrar archivos. Su
prototipo es:
Esta llamada pospone la destrucción del FIFO hasta que todos los procesos que lo
estén utilizando lo hayan cerrado con la función close. En el caso de una tubería sin
nombre, ésta se destruye cuando se cierra el último descriptor que tiene asociado.
La semántica del servicio write aplicado a un pipe es la que se vio en la Sección 5.3.
En POSIX, cuando no hay lectores y se intenta escribir en una tubería, el sistema
operativo envía la señal SIGPIPE al proceso.
Al igual que las lecturas, las escrituras sobre un pipe son atómicas. En general esta
atomicidad se asegura siempre que el número de datos involucrados en la operación sea
menor que el tamaño del pipe.
A continuación se van a emplear las tuberías POSIX para resolver alguno de los
problemas descritos en la Sección 5.2,
Una vez creada la tubería e insertado el testigo en ella, los procesos deben proteger
el código correspondiente a la sección crítica de la siguiente forma:
El Programa 5.8 muestra un fragmento de ejemplo que se puede utilizar para resolver
problemas de tipo productor-consumidor mediante las tuberías que ofrece POSIX. En
este ejemplo se crea un proceso hijo por medio de la llamada fork. A continuación, el
proceso hijo hará las veces productor y el proceso padre de consumidor.
#include <stdio,h>
#include <unistd.h>
struct elemento dato; /* dato a producir */
int fildes[2]; /* tubería */
Aunque en las secciones anteriores se han presentado dos posibles utilizaciones de las
tuberías, uso más extendido se encuentra en la ejecución de mandatos con tuberías. A
continuación se presenta un programa que permite ejecutar el mandato ls│wc. La
ejecución de este mandato supone la ejecución de los programas ls y wc de UNIX y su
conexión mediante una tubería. El código que permite la ejecución de este mandato es el
que se muestra en el Programa 5.9.
void main(void) {
int fd[2];
pid_t pid;
pid = fork( );
switch (pid) {
case -1: /* error */
perror(”Error en el fork”)
exit (0);
case 0: /* proceso hijo ejecuta ls */
close (fd[0]);
close(STDOUT_FILENO);
dup(fd [1])
close(fd [1]);
execlp(”ls”. “ls”, NULL);
perror(”Error en el exec”);
break;
default: /* proceso padre ejecuta wc */
close(fd [1]);
close(STDIN_FILENO);
dup(fd[0])
close(fd[0]);
execlp(”’wc”, “wc”, NULL);
perror(”Error en el exec”);
}
}
El proceso hijo (Fig. 5.22) redirige su salida estándar a la tubería. Por su parte, el
proceso padre redirecciona su entrada estándar a la tubería. Con esto se consigue que el
proceso que ejecuta el programa ls escriba sus datos de salida en la tubería y el proceso
que ejecuta el programa wc lea sus datos de la tubería.
Los pasos que realiza el proceso hijo para redirigir su salida estándar a la tubería son
los siguientes:
Las operaciones wait y signal son dos operaciones genéricas que deben particularizarse en cada
sistema operativo. A continuación se presentan los servicios que ofrece el estándar POSIX para
trabajar con semáforos.
En POSIX un semáforo se identifica mediante una variable del tipo sem_t. El estándar POS IX
define dos tipos de semáforos:
• Semáforos sin nombre. Permiten sincronizar a los procesos ligeros que ejecutan dentro
de un mismo proceso, o a los procesos que lo heredan a través de la llamada fork.
• Semáforos con nombre. En este caso, el semáforo lleva asociado un nombre que sigue
la convención de nombrado que se emplea para archivos. Con este tipo de semáforos se
pueden
sincronizar procesos sin necesidad de que tengan que heredar el semáforo utilizando la
llamada fork.
La diferencia que existe entre los semáforos con nombre y sin nombre es similar a
la que existe entre los pipes y los FIFOS.
Los servicios POSIX para manejar semáforos son los siguientes:
Todos los semáforos en POSIX deben iniciarse antes de su uso. La función sem mit permite
iniciar un semáforo sin nombre. El prototipo de este servicio es el siguiente:
Con este servicio se crea y se asigna un valor inicial a un semáforo sin nombre. El primer
argumento identifica la variable de tipo semáforo que se quiere utilizar. El segundo argumento
indica si el semáforo se puede utilizar para sincronizar procesos ligeros o cualquier otro tipo de
proceso. Si shared es O, el semáforo sólo puede utilizarse entre los procesos ligeros creados
dentro del proceso que inicia el semáforo. Si shared es distinto de O, entonces se puede utilizar
para sincronizar procesos que lo hereden por medio de la llamada fork. El tercer argumento
representa el valor que se asigna inicialmente al semáforo.
Con este servicio se destruye un semáforo sin nombre previamente creado con la llamada
sem_init. Su prototipo es el siguiente:
El servicio sem_open permite crear o abrir un semáforo con nombre. La función que se utiliza
para invocar este servicio admite dos modalidades según se utilice para crear el semáforo o
simplemente abrir uno existente. Estas modalidades son las siguientes:
Cierra un semáforo con nombre, rompiendo la asociación que tenía un proceso con un
semáforo. El prototipo de la función es:
Elimina del sistema un semáforo con nombre. Esta llamada pospone la destrucción del
semáforo hasta que todos los procesos que lo estén utilizando lo hayan cerrado con la función
sem_close. El prototipo de este servicio es:
Operación wait
Operación signal
Este servicio se corresponde con la operación signal sobre un semáforo. El prototipo de este
servicio es:
Los pasos que deberá realizar el proceso consumidor en la solución propuesta son los
siguientes:
Programa 5.10. Código del proceso productor utilizando memoria compartida y semáforos
POSIX.
#include <sys/mmap.h>
#include <stdio.h>
267 Sistemas operativos. Una visión aplicada
#include <pthread.h>
#include <semaphore.h>
sem_t *huecos;
sem_t *elementos;
int buffer; /*puntero al buffer de números enteros */
void main(void){
int shd;
Programa 5.11. Código del proceso consumidor utilizando memoria compartida y semáforos
POSIX.
sem_t *huecos;
sem_t *elementos;
int *buffer ; /* buffer de números enteros */
void main(void){
int shd;
/* se desproyecta el buffer */
munmap(buffer, MAX_BUFFER*sizeof (int));
close(shd);
En esta sección se describen los servicios POSIX que permiten utilizar mutex y variables
condicio-nales.
Para utilizar un mutex un programa debe declarar una variable de tipo pthread mutex_t
(definido en el archivo de cabecera pthread.h) e iniciarla antes de utilizarla.
Comunicación y sincronización de procesos 297
Programa 5.20, Código del proceso productor utilizando semáforos Win32 y memoria
compartida.
#include <windows .
#include <stdio,h>
int main(void)
{
HANDLE huecos, elementos;
HANDLE hIN, hINMap;
int *buffer;
if (buffer = NULL) {
printf (“Error al proyectar el archivo. Error: %x\n”,
GetLastError ( ));
return -1;
}
productor(buffer);
UnmapViewOfFile (buffer);
CloseHaridle (hlnMap);
CloseHandle (hIn);
CloseHandle (huecos);
CloseHandle (elementos);
DeleteFile ( “ALMACEN”);
}
298 Sistemas operativos. Una visión aplicada
/* función productor */
void productor(int *buffer) {
int dato; /* dato a producir */
int posicion = 0; /*posición donde insertar el elemento */
int j;
if (buffer = NULL)
printf (“Error al proyectar el archivo, Error: %x\n”,
Comunicación y sincronización de procesos 299
GetLastError ( );
return -1;
}
consumidor (buffer);
UrnnapViewOfFile (buffer);
CloseHandle (hlnMap);
ClosaHaudle (hIn);
CloseHandle (huecos);
CloseHandle (elementos);
}
/ * función consumidor */
void consumidor(int *buffer) {
int dato; /* dato a producir */
int posicion = 0; /* posición que indica el elemento a extraer */
int j;
}
return;
}
Crear un mutex
HANDLE CreateMutex(LPSECURITY_ATTRIBUTES
lpsa,BOOLfInitialOwner,LPCTSTR lpszMutexName);
Abrir un mutex
Cerrar un mutex
Operación lock
Crear un evento
Destruir un evento
BOOL CloseHandle(HANDLEhObject);
Notificar un evento
Para notificar un evento se pueden utilizar dos servicios:
BOOL SetEvent (HANDLE hEvent);
BOOL PulseEvent (HANDLE hEvent);
HANDLE hEvent;
hEvent = CreateEvent(NULL, /* sin atributos de seguridad */
FALSE, /* evento automático */
WaitForsingleObject(hEvent, INFINITE>;
<Sección crítica >
SetEvent (hEvent);
Como se dijo anteriormente, los eventos de Win32 son similares a las variables
condicionales, sin embargo, los eventos no se encuentran asociados a ningún mutex,
como ocurre con las variables condicionales. A continuación se va a describir cómo
utilizar los mutex y los eventos de Win32 para emular el comportamiento de los mutex y
las variables condicionales,
Para implementar el siguiente fragmento de código (típico cuando se utilizan mutex
y variables condicionales):
lock(m);
/* código de la sección crítica */
while (condicion == FALSE>
c_wait(c, m);
/* resto de la sección crítica */
unlock(m>;
WaitForSingleObject(mutex, INFINITE);
/* código de la sección crítica */
while (condicion = = FALSE) {
ReleaseMutex(mutex); /* se libera el mutex */
WaitForMultipleobjects (2, hHandles, TRUE, INFINITE);
}
/* resto de la sección crítica */
ReleaseMutex (mutex);
HANDLE hHandles[2];
hHandles[0] = mutex;
hHandles [1] = evento;
Comunicación y sincronización de procesos 303
Recuérdese que una operación c_wait sobre una variable condicional bloquea al
proceso y libera de forma atómica el mutex para permitir que otros procesos puedan
ejecutar. Utilizando eventos es necesario en primer lugar liberar la sección crítica
(ReleaseMutex) y esperar a continuación por el mutex y el evento
(waitForMultipleObjects).
Para implementar la siguiente estructura:
lock(m);
/* código de la sección crítica */
/*se modifica la condición y ésta se hace TRUE */
condicion = TRUE;
c_signal(c);
unlock(m);
WaitForSingleObject(mutex, INFINITE>;
/*código de la sección crítica */
/ se modifica la condición y ésta se hace TRUE */
condicion = TRUE;
SetEvent(evento);
ReleaseMutex(mutex);
5.8.5. Mailslots
Los mailslots de Win32 son parecidos a las tuberías con nombre de Win32 y a las colas
de mensajes de POSIX. Sus principales características son:
Las principales funciones relacionadas con los mailslots son las siguientes:
Crear un mailslot
Abrir un mailslot
Cerrar un mailslot
Los únicos atributos que se pueden modificar sobre un mailslot ya creado es el tiempo de
bloqueo de la operación ReadFile. El prototipo de esta función es:
Para obtener los atributos asociados a un mailslot se debe utilizar la siguiente función:
lnterbloqueos 311
Desde el punto de vista del estudio del interbloqueo, los recursos presentes en un
sistema se pueden clasificar siguiendo varios criterios:
• El recurso sigue existiendo después de que un proceso lo use (recurso reutilizable) o rece
una vez utilizado (recurso consumible).
• Los procesos pueden compartir el uso de un recurso o lo deben usar en modo exclusivo
o dedicado.
• Hay un único ejemplar de cada recurso o existen múltiples unidades de cada uno.
• Es factible expropiar el recurso al proceso que lo está utilizando.
Proceso P1 Proceso P2
Solicita(C) Solicita(I)
Solicita (I) Solicita(C)
Uso de los recursos Uso de los recursos
Libera(I) Libera(C)
Libera(C) Libera(I)
Interbloqueos 313
1. P1: solícita (C)
2. P1: solícita (I)
3. P2: solícita (I) —> se bloquea puesto que el recurso no está disponible
4. P1: libera (I) —> se desbloquea P2 ya que el recurso ya está disponible
5. P2: solícita (C) —> se bloquea puesto que el recurso no está disponible
6. P1: libera (C) —> se desbloquea m’2 porque el recurso ya está disponible
7. P2: libera (C)
8. P2: libera (I)
Proceso P1 Proceso P2
Solícita(C) Solícita(C)
Enviar(P2,A) Recíbir(P1, 5)
Libera(C) Libera(C)
Interbloqueos 315
Hasta ahora se ha considerado que cada recurso es una entidad única. Sin embargo, en
un sistema pueden existir múltiples instancias o ejemplares de un determinado recurso.
Una solicitud de ese recurso por parte de un proceso podría satisfacerse con cualquier
ejemplar del mismo. Así, por ejemplo, en un sistema en el que haya cinco impresoras,
cuando un proceso solicita una impresora, se le podría asignar cualquier unidad que
esté disponible. La existencia de múltiples unidades de un mismo recurso también
permite generalizar los servicios de solicitud de forma que un proceso pueda pedir
simultáneamente varios ejemplares de un recurso. Evidentemente, el numero de
unidades solicitadas nunca debería ser mayor que el número de unidades existentes.
Las soluciones al problema del ínterbloqueo que se plantearán en este capítulo serán
aplicables a este modelo general en el que existe un conjunto de recursos, cada uno de
los cuales esta formado por una o más unidades.
Observe que, a veces, puede ser discutible si dos elementos constituyen dos
instancias de un recurso o se trata de dos recursos diferentes. Incluso distintos usuarios
pueden querer tener una visión u otra de los mismos. Considérese, por ejemplo, un
equipo que tiene conectadas dos impresoras láser con la misma calidad de impresión
pero tal que una de ellas es algo mas rápida. Un usuario puede querer usar
indistintamente cualquiera de estas impresoras con lo que preferiría considerarlas como
dos ejemplares del mismo recurso. Sin embargo, otro usuario que necesite con
urgencia imprimir un documento requeriría verlas como dos recursos separados para
poder especificar la impresora más rápida. Lo razonable en este tipo de situaciones
sería proporcionar a los usuarios ambas vistas de los recursos, Sin embargo, las
soluciones clásicas del ínterbloqueo no contemplan esta posibilidad de un doble perfil:
o son recursos independientes o son ejemplares del mismo recurso. En esta exposición,
por tanto, se adoptará también esta restricción.
A los usuarios de un sistema operativo convencional les puede parecer que este
tipo de organización de los recursos no se corresponde con su experiencia de trabajo
habitual en la que, generalmente, hay que solicitar una unidad específica de un recurso.
Sin embargo, aunque no sea de forma evidente, este tipo de situaciones se dan hasta
cierto punto en todos los sistemas operativos. Considérese el caso de la memoria. Se
trata de un único recurso con múltiples unidades: cada palabra que forma parte de la
misma. Cuando un proceso solicita una reserva de memoria de un determinado tamaño,
está solicitando el número de unidades de ese recurso que corresponde con dicho
tamaño. Observe que en este caso existe una restricción adicional, ya que las unidades
asignadas, sean cuales sean, deben corresponder con posiciones de memoria contiguas.
A continuación se muestra un ejemplo de interbloqueo en el uso de la memoria.
Considérese la ejecución de los dos procesos siguientes, suponiendo que se
dispone de 450 KB de memoria:
Proceso P1 Proceso P1
Desde el punto de vista del estudio del ínterbloqueo, en un sistema se pueden distinguir
las siguientes entidades y relaciones:
Estos dos conjuntos de relaciones no pueden tomar cualquier valor sino que deben
cumplir siguientes restricciones de coherencia para que un estado de asignación de
recursos sea válida
• Solicitud (s (R1 [U1], ... , Rn [Un])): permite que un proceso que, evidentemente,
bloqueado pida varias unidades de diferentes recursos (u1 unidades del recurso 1,
u2 des del recurso 2, etc.). Si todos los recursos solicitados están disponibles, se
concederá la petición, asignando al proceso dichos recursos. En caso contrario,
se bloqueara el proceso sin reservar ninguno de los recursos solicitados, aunque
algunos de ellos estén disponibles. El proceso se desbloqueará cuando todos
estén disponibles (como resultado operaciones de liberación), Observe que se
asume un modo de operación que se podría calificar como de todo-o-nada: hasta
que no estén todos los recursos disponibles no se asigna ninguno (el Ejercicio
6.5 plantea al lector analizar las repercusiones de modificar este
comportamiento).
• Liberación (L (R1 [U1] ,..., Rn [Un])): permite que un proceso que,
evidentemente, bloqueado libere varias unidades de diferentes recursos que
tenga asignadas en ese momento. La liberación de estos recursos puede causar
que se satisfagan solicitudes pendientes de otros procesos, provocando su
desbloqueo.
— Aristas de asignación que relacionan recursos con procesos. Una arista entre
un recurso R1 y un proceso Pj indica que el proceso tiene asignada una
unidad de dicho recurso.
— Aristas de solicitud que relacionan procesos con recursos. Una arista entre un
proceso P1y un recurso Rj indica que el proceso está esperando la concesión
de una unidad de dicho recurso.
• Liberación por parte del proceso i de u1 unidades del recurso 1, u2 del recurso 2,
etc. Por cada recurso liberado j se eliminan del grafo tantas aristas desde el nodo
R1 hasta P1 como unidades se hayan dejado libres (u1),
Observe que sólo se añaden aristas en el grafo durante las solicitudes, tanto si se
trata de solicitud como de asignación. En cuanto a la eliminación de aristas, en la
liberación se quitan aristas de asignación, mientras que las de solicitud se retiran en el
desbloqueo de un proceso que realizó una petición.
A continuación se muestran dos ejemplos del uso de un grafo de asignación de
recursos representar un sistema.
En primer lugar, supóngase que en un sistema con 3 recursos, R1 (2 unidades), R2
(3 unida y R3 (2 unidades), se ejecutan tres procesos que realizan la siguiente traza de
peticiones:
Interbloqueos
321
5. P3: solicita(R2[1])
6. P1: solicita (R2 [11 , R3 [2]) →se bloquea, pues uno de los recursos no está
disponible
El grafo que representa la situación del sistema después de ejecutarse esa
secuencia es el siguiente:
ellos por un único ejemplar, donde se ejecutan cuatro procesos que realizan la siguiente
traza de peticiones:
1. P1:solicita(R1)
2. P2:solicita(R2)
3. P2:solicita (R1) → se bloquea, puesto que el recurso no está disponible
4. P3:solicita (R2) → se bloquea, puesto que el recurso no está disponible
5. P4:solicita(R3)
6. P1:solicita (R2) → se bloquea, puesto que el recurso no está disponible
• Liberación por parte del proceso i de u1 unidades del recurso 1, u2 unidades del
recurso 2, etcétera. Por cada recurso liberado j se sustraen de la matriz de
asignación las unidades liberadas: A[j, ]=A[i ,j]- Uj .
Estas estructuras son suficientes para reflejar el estado del sistema. Sin embargo,
para simplificar la especificación de algunos algoritmos que se expondrán más adelante
es útil usar un vector de recursos disponibles D que refleje el numero de unidades de
cada recurso disponibles en un momento dado. Observe que este vector es innecesario,
ya que su valor se puede deducir directamente a partir de la matriz de asignación A y
del vector de recursos existentes E: D [i] = E [i] - Σ[j , i] , para j = 1, ...,p.
Para hacer más concisa la especificación de los algoritmos se utilizará a partir de
ahora la siguiente notación compacta:
• Dada una matriz A, el valor A [i] representa un vector que corresponde con la
fila i-ésima de dicha matriz.
• Dados dos vectores A y B de longitud n, se considera que A <= B si A [i] <= B
[i] para todo j = 1, ..., n.
Si se utiliza este modo de representación para el ejemplo representado en la Figura
6.1, se obtiene como resultado las siguientes estructuras de datos:
Por lo que se refiere al ejemplo con un único ejemplar por recurso, correspondiente a la
Figura 6.3, las matrices resultantes serían:
Una vez establecido el modelo del sistema, parece que ya es momento de intentar
definir más formalmente el interbloqueo para poder así caracterizarlo. Una posible
definición de interbloqueo inspirada en [Tanenbaum, 1992] seria la siguiente:
Estas cuatro condiciones no son todas de la misma índole. Las tres primeras tienen
que ver con aspectos estáticos del sistema, como que características deben tener los
recursos implicados o cómo
Interbloqueos
325
La caracterización del interbloqueo se basa en mirar hacia el futuro del sistema de una
manera «optimista», siguiendo la idea que se expone a continuación.
Dado un sistema con un determinado estado de asignación de recursos, un proceso
cualquiera que no tenga peticiones pendientes (por tanto, desbloqueado) debería
devolver en un futuro más o menos cercano todos los recursos que actualmente tiene
asignados. Esta liberación tendría como consecuencia que uno o más procesos que
estuvieran esperando por estos recursos se pudieran desbloquear. Los procesos
desbloqueados podrían a su vez devolver más adelante los recursos que tuvieran
asignados desbloqueando a otros procesos, y así sucesivamente. Si todos los procesos
del sistema terminan desbloqueados al final de este análisis del futuro del sistema, el
estado actual está libre de interbloqueo. En caso contrario existirá un interbloqueo en el
sistema estando implicados en el mismo lo. procesos que siguen bloqueados al final del
análisis, A este proceso de análisis se le suele denomina reducción. A continuación se
define de una forma más precisa:
Como parte de la reducción, el proceso devolverá los recursos asignados, tanto los
que tenía previamente como los que acaba de obtener, añadiéndolos al sistema
creándose un nuevo estado hipotético. Gracias al aporte de recursos fruto de la
reducción por P, ese nuevo estado podrá a su vez reducirse por uno o más procesos. A
partir del concepto de reducción se puede establecer la condición necesaria y suficiente
p a que se produzca un interbloqueo.
La condición necesaria y suficiente para que un sistema esté libre de interbloqueos
es que exista una secuencia de reducciones del estado actual del sistema que incluya a
todos los procesos del sistema. En caso contrario, hay un interbloqueo en el que están
implicados los procesos que no están incluidos en la secuencia de reducciones.
Observe que, en un determinado paso de una secuencia de reducción, podría haber
varios procesos a los que aplicar la siguiente reducción ya que se satisfacen sus
necesidades de recursos. En esta situación se podría elegir cualquiera de ellos, ya que
el proceso de reducción no depende del orden. Para poder demostrar esta propiedad
sólo es necesario darse cuenta de que el proceso de reducción es acumulativo, esto es,
en cada paso de reducción se mantienen los recursos disponibles
que había hasta entonces, añadiéndose los liberados en la reducción actual. Por tanto, si
en un determinado punto de la secuencia se cumplen las condiciones para poder aplicar
la reducción por un proceso, éstas se seguirán cumpliendo aunque se realice la
reducción por otro proceso.
En la sección que analiza el tratamiento de los interbloqueos basándose en la
detección y recuperación se presentarán algoritmos que se basan en este principio. A
continuación se aplicará los ejemplos planteados hasta ahora.
En el ejemplo representado en la Figura 6,2 se puede identifica la siguiente
secuencia reducciones:
Dado que la secuencia de reducciones (P3 ,P1, P2) incluye a todos los procesos, el
sistema esta libre de interbloqueos.
Por lo que se refiere al ejemplo correspondiente a la Figura 6.3, la secuencia de re-
ducciones sería la siguiente: se puede reducir el estado por P4 que no está pendiente de
ningún recurso liberándose una unidad de R3.
Sólo se puede realizar esta reducción, por tanto, existe un interbloqueo en el
sistema en el están involucrados el resto de los procesos.
Como se verá más adelante, la aplicación directa de este principio lleva a
algoritmos relativamente complejos. Sin embargo, si se consideran sistemas con algún
tipo de restricción, se reduce apreciablemente el orden de complejidad de los
algoritmos. Así, en el caso de un sistema sola unidad de cada recurso, la
caracterización del interbloqueo se simplifica ya que las con necesarias de Coffman
son también suficientes.
Como se vio al principio del capítulo, las técnicas para tratar el interbloqueo pueden
clasificarse en tres categorías:
Antes de analizar en detalle cada una de ellas, es interesante comentar que este tipo
de soluciones se emplea también en otros ámbitos diferentes como puede ser en el
equipo o en el mantenimiento de una enfermedad. Así, por ejemplo, en el caso del
mantenimiento de un equipo, la estrategia basada en la detección y recuperación
consistiría en esperar a que determinado componente para sustituirlo, con la
consiguiente parada del sistema mientras se produce la reparación. Una estrategia
preventiva, sin embargo, reemplazaría periódicamente los componentes del equipo
para asegurar que no se averían. Observe que esta sustitución periódica podría implicar
que se descarten en componentes que todavía estén en buenas condiciones. Para paliar
esta situación, la predicción se basaría en conocer a priori que síntomas muestra un
determinado componente cuando se está acercando al final de su «vida» (p. ej.,
presenta una temperatura excesiva o produce una vibración). Esta estrategia consistiría
en supervisar periódicamente el comportamiento
Lnterbloqueos 327
del componente y proceder a su sustitución cuando aparezcan los síntomas
predeterminados. Aunque, evidentemente, este ejemplo no presenta las mismas
características que el problema de los interbloqueos, permite identificar algunas de las
ideas básicas sobre su tratamiento como, por ejemplo, el mal uso de los recursos que
pueden implicar las técnicas preventivas o la necesidad de un conocimiento a priori que
requieren las estrategias basadas en la predicción.
A continuación, se comentan los tres tipos de estrategias utilizadas para tratar el
interbloqueo:
• Detección y recuperación: Se podría considerar que este tipo de estrategias
conlleva una visión optimista del sistema. Los procesos realizan sus peticiones
sin ninguna restricción pudiendo, por tanto, producirse interbloqueos. Se debe
supervisar el estado del sistema para detectar el interbloqueo mediante algún
algoritmo basado en las condiciones analizadas en la sección anterior. Observe
que la aplicación de este algoritmo supondrá un coste que puede afectar al
rendimiento del sistema. Cuando se detecta, hay que eliminarlo mediante algún
procedimiento de recuperación que, normalmente, conlleva una pérdida del
trabajo realizado hasta ese momento por algunos de los procesos implicados.
• Prevención: Este tipo de estrategias intenta eliminar el problema de raíz fijando
una serie de restricciones en el sistema sobre el uso de los recursos que aseguran
que no se pueden producir interbloqueos. Observe que estas restricciones se
aplican a todos los procesos por igual, con independencia de qué recursos use
cada uno de ellos. Esta estrategia suele implicar una infrautilización de los
recursos puesto que un proceso, debido a las restricciones establecidas en el
sistema, puede verse obligado a reservar un recurso mucho antes de necesitarlo.
• Predicción (en ingles, se suele usar el término avoidance): Esta estrategia evita el
interbloqueo basándose en un conocimiento a priori de qué recursos va a usar
cada proceso. Este conocimiento permite definir algoritmos que aseguren que no
se produce un interbloqueo. Como ocurre con las estrategias de detección, a la
hora de aplicar esta técnica es necesario analizar la repercusión que tiene la
ejecución del algoritmo de predicción sobre el rendimiento del sistema. Además,
como sucede con la prevención, generalmente provoca una infrautilización de
los recursos.
Existe una cuarta alternativa que consiste en no realizar ningún tratamiento, o sea,
ignorar los interbloqueos. Aunque parezca sorprendente a priori, muchos sistemas
operativos usan frecuentemente esta estrategia de «esconder la cabe a debajo del ala»,
denominada «política del avestruz». Esta opción no es tan descabellada si se tiene en
cuenta, por un lado, las restricciones que se han ido identificando a lo largo del
capitulo que limitan considerablemente el tratamiento general de los interbloqueos en
un sistema real y, por otro, las consecuencias negativas que conllevan las técnicas de
tratamiento (como la baja utilización de los recursos o el coste de los algoritmos de
tratamiento). Observe que ignorar el problema trae como consecuencia que, cuando se
produce un interbloqueo, los procesos implicados seguirán indefinidamente
bloqueados y, lo que puede ser más grave todavía, los recursos involucrados quedan
permanentemente inutilizables. En la Sección 6.9 se analizará cuáles pueden ser las
repercusiones de esta situación dependiendo de diversos factores.
En las siguientes secciones se estudian en detalle las tres estrategias presentadas:
detección y recuperación, prevención y predicción.
Esta técnica de tratamiento de los interbloqueos presenta, como su nombre indica, dos
fases:
• Fase de detección: Debe ejecutarse un algoritmo que determine si el estado
actual del sistema esta libre de interbloqueos y que, en caso de que no lo este,
identifique qué procesos.
328 Sistemas operativos. Una visión aplicada
están implicados en el interbloqueo. Dado que, como se analizará más adelante, los
algoritmos de detección pueden tener una repercusión apreciable sobre el rendimiento
del sistema un aspecto importante es establecer con qué frecuencia se ejecutará dicho
algoritmo. En e caso de que el algoritmo detecte un interbloqueo, se activará la fase de
recuperación d sistema.
• Fase de recuperación: Una vez detectado el interbloqueo, se debe aplicar una
acción que lo elimine. Como se analizara más adelante, esto implica
generalmente abortar la ejecución algunos de los procesos implicados liberando
de esta forma los recursos que tuvieran asignados. Debe existir, por tanto, un
algoritmo que determine a qué procesos se les aplica esa medida drástica.
Mientras (D! = ø) {
No hay interbloqueo
Si no
Los procesos en el conjunto P-S están en un interbloqueo
• N={P1,P2,P3,R1(2),R2(3),R3(2)}
• A = {R1→P1, R1→P1,R2→P2, P2 →R1 ,R2→P3, R2→P3, P1 →R2,P1→R3, P1→R3}
El resultado es el siguiente:
Es relativamente directo trasladar las ideas expuestas para el caso de una representación
mediante un grafo a una matricial. Por ello, la exposición que trata este caso se hará de
una forma más sucinta. Por lo que se refiere a la operación de reducción aplicada a una
representación matricial, se podría definir de la siguiente forma:
Un sistema se puede reducir por un proceso Pi si los recursos disponibles satisfacen
sus necesidades:
S[i] <=D (recuerde que esta notación compacta equivale a S[i, j] <=D[j] para j = 1, ..., r)
D = D + A[i]
Repetir {
Busca, Pi tal que S[i] <=D;
Si Encontrado {
Reducir grafo por Pi : D = D + A[i]
Añadir Pi a S;
Continuar = cierto;
}
else
Continuar = falso;
}Mientras (Continuar)
Si (S = =P)
/* si la secuencia contiene todos los procesos del sistema (P) */
No hay ínterbloqueo
332 Sistemas operativos. Una visión aplicada
Si no
Los procesos en el conjunto P-S están en un interbloqueo
El resultado es el siguiente:
1. Estado inicial: S = 0.
2. Se puede reducir por P3 ya que S[3] <= D([012]<=[002]),dando como resultado:
D = D + A[3] = [0 0 2] + [0 2 0] = [0 2 2]
D = D + A[1] = [0 2 2] + [2 0 1] = [2 2 2]
D = D + A[2] = [0 1 0] + [2 2 2] = [2 2 3]
•Se puede realizar una supervisión continua del estado del sistema con respecto a
la asignación de recursos para comprobar que está libre de interbloqueos. Observe
que un interbloqueo sólo puede aparecer cuando no puede satisfacerse una petición
de un proceso. Por tanto, sólo sería necesario ejecutar el algoritmo en ese
momento. Hay que tener en cuenta también que el algoritmo de detección queda
simplificado en esta situación puesto que, una vez que se detecte que el proceso
que realizo la petición que activó el algoritmo no está involucrado en un
interbloqueo, se puede detener la búsqueda. Por tanto, en cuanto aparezca dicho
proceso en una secuencia de reducción, el sistema está libre de interbloqueos. La
viabilidad de esta alternativa dependerá de con qué frecuencia se active el
algoritmo y del tiempo que consuma su ejecución, que dependerá del numero de
procesos y recursos existentes en el sistema.
• Se puede realizar una suspensión periódica. Ésta sería la opción adecuada
cuando, dadas las características del sistema, la repercusión sobre el rendimiento
del sistema de la ejecución del algoritmo por cada petición insatisfecha fu ra
intolerable. El valor del período debe reflejar un compromiso entre dos factores:
debe ser suficientemente alto para que el tiempo de ejecución del algoritmo no
afecte apreciablemente al rendimiento del sistema, pero suficientemente bajo para
que sea aceptable el tiempo que pasa entre que se produce un interbloqueo y su
detección. Este valor dependerá de las características del sistema y de las
peticiones que realizan los procesos activos en un momento dado, siendo, por
tanto, difícil de determinar. Observe que el algoritmo podría también activarse
cuando se detecta algún síntoma que pudiera indicar un posible interbloqueo. Por
ejemplo, cuando el grado de utilización del procesador baja de un determinado
umbral.
334 Sistemas operativos. Una visión aplicada
Una vez detectado un interbloqueo es necesario tomar una serie de medidas para
eliminarlo, esto es recuperar al sistema del mismo. Para ello se deberían seleccionar uno
o más de lo: procesos implica dos y quitarles algunos de los recursos que tienen
asignados de forma que se rompa el interbloqueo Habría que hacer que los procesos
elegidos «retrocedan en el tiempo su ejecución», al menos hasta justo antes de que
solicitasen dichos recursos. Este «viaje hacia atrás en el tiempo» es complicado puesto
que implica restaurar el estado del proceso tal como estaba en ese instante previo. Esta
operación solo sería factible, pero no fácil de implementar , en sistemas que tengan algún
mecanismo d puntos de recuperación, lo que no es habitual en los sistemas de propósito
general. Observe que, su embargo, esta estrategia podría ser adecuada p a el atamiento de
interbloqueos en una base de datos con transacciones, gracias al carácter atómico de las
mismas. Dada esta dificultad, lo más habitual e realizar «un retroceso total» abortando
directamente los procesos elegidos, con la consiguiente pérdida del trabajo realizado por
los mismos.
El algoritmo de recuperación, por tanto, tomaría como punto de partida el conjunto
de procesos que están implicados en interbloqueos, tal como ha determinado el algoritmo
de detección, e iría sucesivamente abortando procesos de este conjunto hasta que los
interbloqueos desaparezcan de sistema, Observe que después de abortar un proceso
habría que volver a aplicar el algoritmo de detección para ver si siguen existiendo
interbloqueos y, en caso afirmativo, qué procesos están implicados en los mismos.
El criterio, a la hora de seleccionar qué procesos del conjunto se abortarán, debería
intentar minimizar el coste asociado a la muerte prematura de los mismos, En esta
decisión pueden intervenir numerosos factores tales como la prioridad de lo procesos
implicados, el número de recursos que tiene asignados cada proceso o el tiempo que lleva
ejecutando cada proceso.
Un último aspecto a destacar es que si se realiza una supervisión continua del
sistema (o sea, se aplica el algoritmo de detección siempre que se produce una petición
que no puede satisfacerse), se podría tomar la decisión de abortar precisamente al
proceso que ha realizado la petición que ha generado el interbloqueo. No es un método
óptimo, ya que este proceso puede tener gran prioridad o llevar mucho tiempo
ejecutando, pero es eficiente ya que elimina la necesidad de aplicar nuevamente el
algoritmo de detección.
Esta condición establece que para que se produzca un interbloqueo, los recursos
implicados en mismo deben ser de uso exclusivo. Para asegurar que no se puede
satisfacer esta condición, habría que conseguir que todos los recursos del sistema fueran
de tipo compartido. Sin embargo, como se comen-
Ínterbloqueos 335
tó previamente, esto no es posible puesto que hay recursos que son intrínsecamente de
carácter exclusivo. Por tanto, esta primera condición no permite definir estrategias de
prevención.
Esta condición identifica que para que ocurra un interbloqueo tiene que haber procesos
que tengan asignados recursos pero que estén bloqueados esperando por otros recursos.
Una primera estrategia de prevención basada en asegurar que no se cumple esta
condición consistiría en hacer que cada programa al principio de su ejecución solicitase
simultáneamente todos los recursos que va a necesitar. De esta forma se evita el
interbloqueo ya que el proceso sólo se bloquea esperando recursos al principio cuando no
tiene ninguno asignado. Una vez satisfecha la solicitud, el programa ya no se bloqueara
en espera de recursos puesto que dispone de todos los que necesita,
Como ejemplo, supóngase un programa que necesita usar cuatro recursos (A, B, C y
D) en distintos intervalos de tiempo a lo largo de su ejecución de acuerdo con el
diagrama de la Fig a 6.8.
Siguiendo esta estrategia de prevención, el programa debería solicitar todos los
recursos al principio, aunque realmente la mayoría de ellos sólo los necesite en fases
posteriores del programa, como se aprecia a continuación:
Figura 6.8. Diagrama de uso de recursos a lo largo del tiempo del programa ejemplo.
336 Sistemas operativos. Una visión aplicada
• t6 :Libera(C).
• (t7.t8): sólo utiliza D.
• t8: Libera(D),
Esta estrategia conlleva una tasa muy baja de utilización de los recursos, Observe
que, por ejemplo, el recurso D está reservado desde el instante de tiempo t1 hasta el t8
aunque realmente solo se usa en el intervalo de t7 hasta t8. Además, esta solución retrasa
considerablemente el inicio programa, ya que éste tiene que esperar que todos los
recursos estén libres para comenzar cuando en realidad podría comenzar en cuanto
estuviese disponible el recurso A.
Una estrategia más refinada consistiría en permitir que un proceso pueda solicitar un
recurso solo si no tiene ninguno asignado. Con esta segunda alternativa, un programa
sólo se vería obligado a pedir simultáneamente dos recursos si se solapa en el tiempo el
uso de los mismos. En el ejemplo anterior, la solicitud del recurso D puede realizarse en
el momento que realmente se necesita puesto que dicho recurso no se usa
simultáneamente con ningún otro. Sin embargo, el resto de recursos deben seguir
pidiéndose al principio.
Aunque esta nueva política supone una mejora sobre la anterior, sigue presentando
los misa problemas. Así, por ejemplo, el recurso C seguirá estando desaprovechado en el
intervalo de tiempo entre t1 y t4. Observe que, aunque el recurso A y el e no se usan de
forma simultanea, se piden vez puesto que el uso de ambos se solapa con el del recurso
B. Se produce, por tanto, un cie transitivo a la hora de determinar que recursos se pedirán
juntos.
Otra alternativa más «agresiva» es que, ante una petición por parte de un proceso de
un recurso que está asignado a otro, se le quite el recurso a su actual poseedor y se le
asigne al solicitante. El reemplazo de una página en un sistema con memoria virtual se
puede catalogar como una aplicación de esta estrategia, ya que el proceso que causa el
fallo de página le está «robando» el marco a otro proceso,
Por último, es importante recordar que la expropiación de recursos conlleva algún
tipo de salvaguarda de información de estado del recurso y una posterior restauración de
dicha información. Hay que tener en cuenta que estas operaciones tienen un coste que
puede afectar al rendimiento del sistema.
La última condición plantea la necesidad de que exista una lista circular de dependencias
entre procesos para que exista el interbloqueo. De manera intuitiva se ha podido apreciar
en los ejemplos planteados hasta ahora que a esta situación se llega debido a que los
procesos piden los recursos en diferente orden.
Basándose en esa idea, una estrategia de prevención es el método de las
peticiones ordenadas, Esta estrategia requiere establecer un orden total de los
recursos presentes en el sistema y fijar la restricción de que un proceso debe pedir
los recursos que necesita en orden creciente. Observe que esta restricción hace
que un proceso tenga que pedir algunos recursos de forma anticipada.
En el caso del ejemplo de la Figura 6.8, si el orden fijado p a los recursos es A < B
<C <D, el programa podría solicitar los recursos justo en el momento que los necesita (A
en t1, B en t2 ,C en t4 y D en t7). Sin embargo, si el orden establecido es el inverso (D < C
<B <A), el programa debería solicitar en el instante t1 sucesivamente los recursos D, C, B
y A, lo que causaría una infrautilización de los mismos. Observe que sólo sería necesario
pedir en orden aquellos recursos que se usan de forma solapada (directamente o debido a
un cierre transitivo debido a un tercer recurso). Esto es, un proceso sólo podrá solicitar
recursos cuyo orden sea mayor que el de los que tiene actualmente asignados. Así, en el
ejemplo, la solicitud del recurso D puede realizarse en el momento en que realmente se
necesita (t7).
Un aspecto fundamental de este método es asignar un orden a los recursos de manera que
se corresponda con el orden de uso más probable por parte de la mayoría de los
programas.
En el Ejercicio 6,16 se plantea al lector demostrar que este método asegura que no se
produce la condición de espera circular y, por tanto, evita el interbloqueo.
Proceso P1 Proceso P2
Solicita(C) Solicita(I)
Solicita(I) Solicita(C)
Uso de los recursos Uso de los recursos
Libera(I) Libera(C)
Libera(C) Libera(I)
338 Sistemas operativos. Una visión aplicada
Se considera que un determinado estado es seguro si, suponiendo que todos los procesos
solicitan en ese momento sus necesidades máximas, existe al menos un orden secuencial
de ejecución de los procesos tal que cada proceso pueda obtener sus necesidades
máximas. Así, para que un estado sea seguro tiene que haber, en primer lugar, un proceso
cuyas necesidades máximas puedan satisfacerse. Cuando, hipotéticamente, este proceso
terminase de ejecutar devolvería todos sus recursos (o sea, sus necesidades máximas).
Los recursos disponibles en ese instante podrían permitir que se satisficieran las
necesidades máximas de al menos un proceso que terminaría liberando sus recursos, lo
que a su vez podría hacer que otro proceso obtuviera sus necesidades máximas.
Repitiendo este proceso, se genera u a secuencia de ejecución de procesos tal que cada
uno de ello, puede obtener sus necesidades máximas. Si esta secuencia incluye todos los
procesos del sistema, el estado es seguro. En caso contrario es inseguro.
El lector habrá podido apreciar que este proceso de análisis «mirando hacia el
futuro» es similar al usado para la reducción de un sistema en el algoritmo de detección
de interbloqueos. La única diferencia es que en el algoritmo de reducción se tienen en
cuenta sólo las peticiones actuales de los procesos mientras que en este algoritmo se
consideran también como peticiones las necesidades máximas de cada proceso. Esta
similitud permite especificar una segunda definición del estado seguro:
puesto que en ese momento ninguno de los dos procesos puede satisfacer sus necesidades
máximas (el primer proceso no podría obtener la impresora, ni el segundo la cinta).
Es importante resaltar que este tipo de algoritmos tienen un carácter «conservador»
debido a que los datos que se poseen a priori sobre el uso de recursos de cada proceso no
incluye información sobre la utilización real de los mismos. Esto puede hacer que se
consideren como inseguros estados que realmente nunca pueden llevar a un interbloqueo.
Así, por ejemplo, considérese el siguiente ejemplo que tiene una estructura similar al
anterior:
Proceso P1 Proceso P2
Solicita(C) Solicita(I)
Uso del recurso C Solicita(C)
Libera(C) Uso de los recursos
Solicita(I) Libera(C)
Uso del recurso I Libera(I)
Libera(I)
En este caso no puede haber nunca interbloqueo, pero, sin embargo, la información
sobre el uso máximo de recursos por cada proceso es la misma que en el ejemplo
anterior. Por tanto, la situación que corresponde con que cada proceso haya obtenido su
primer recurso se considerará como un estado inseguro.
Se puede, por tanto, afirmar que una condición necesaria, pero no suficiente, para
que un sistema evolucione hacia un interbloqueo es que su estado actual sea inseguro.
Los algoritmos de predicción se basan en evitar que el estado del sistema se convierta en
inseguro eliminando de esta forma la posibilidad del interbloqueo.
Una vez identificado el concepto de estado seguro es relativamente directo establecer una
estrategia de predicción. Cada vez que un proceso realice una solicitud de recursos que
estén disponibles, se calcula provisionalmente el nuevo estado del sistema resultante de
esa petición y se aplica el algoritmo para determinar si el nuevo estado es seguro. Si lo
es, se asignan los recursos solicitados haciendo que el estado provisional se convierte en
permanente. En caso de que no lo sea, se bloquea al proceso sin asignarle los recursos
quedando, por tanto, el sistema en el estado previo.
Dado que el sistema esta inicialmente en estado seguro, puesto que ningún recurso
está asignado, este algoritmo asegura que el sistema siempre se encuentra en un estado
seguro eliminando, por tanto, el interbloqueo.
A continuación se plantean algoritmos de predicción para los dos tipos de
representación considerados: el grafo de recurso y la representación matricial. Observe
que no se trata de algoritmos nuevos ya que, como se ha explicado previamente, se
aplican los algoritmos de detección de interbloqueos ya presentados. Por ello, la
exposición de los mismos no será exhaustiva.
Además de las aristas de asignación y las de solicitud, sería necesario un nuevo tipo de
arista que refleje las necesidades máximas de cada proceso:
cuenta las aristas de necesidad. Como se aprecia en la figura, no hay ciclos, por lo que el
estado es seguro y puede hacerse permanente.
Si a continuación el segundo proceso solicita la impresora, al estar disponible, se
genera el estado provisional representado en la Figura 6.11. El grafo resultante de
transformar la arista de necesidad en una arista de asignación presenta un ciclo, por lo
que hay un interbloqueo y el estado es inseguro. Por tanto, no se asignaría el recurso y se
bloquearía al proceso restaurando el estado previo (el que corresponde con la Figura
6.10).
Observe que, como se comentó previamente, esta misma situación se produciría
también en el ejemplo modificado de los procesos donde no podría haber interbloqueo.
prestado, lo que permitiría a otro cliente obtener sus necesidades y así sucesivamente.
Como puede apreciar, este algoritmo tiene las mismas características que los algoritmos
de predicción presentados hasta el momento. La única diferencia es que utiliza una
representación matricial modelar el sistema.
Dijkstra propuso una versión de este algoritmo aplicable sólo a un único tipo de
recurso múltiples unidades [Dijkstra, 1965]. Habermann lo generalizó para múltiples
recursos [Habermann 1969].
Este algoritmo requiere utilizar, además de la matriz de solicitud S y la de
asignación A, una nueva matriz que contenga las necesidades de los procesos:
• Cuando se satisface una solicitud, se restarán las unidades pedida: de cada recurso
matriz de necesidad y se sumaran a la matriz de asignación. Observe que una
petición puede satisfacerse por el momento no altera esta matriz, sólo modifica la
de solicitud mando las unidades correspondientes a la misma. En el momento que
se pueda alterará la matriz de necesidad.
• Cuando se produce una liberación de recursos, se sustraen de la matriz de
asignación unidades liberadas y se añaden a la matriz de necesidad.
else
Continuar = falso;
} Mientras (Continuar)
Si (S = =P)
/* si la secuencia contiene todos los procesos del sistema (P) */
El estado es seguro
Si no
El estado no es seguro
1. Estado inicial: S = 0
2. Se puede reducir por P3 ya que N[3] <= D ([1 1 l]<=[2 1 1]), dando como
resultado:
D = D + A[3] = [2 1 1] + [1 0 1] = [3 1 2]
344 Sistemas operativos. Una visión aplicada
D = D + A[1] = [3 1 2] + [1 1 0] = [4 2 2]
5. Se añade el proceso a la secuencia de reducción: S = { P3,P1} y se pasa a la
siguiente iteración.
6. Reducción por P2 dado que N[2] <=D([2 2 0]<= [4 2 2]),queda como resultado:
D = D +A[2] = [4 2 2] + [0 1 2] = [4 3 4]
• Recursos internos del sistema. Son recursos que el sistema operativo necesita
para llevar a cabo su labor. La reserva y liberación de este tipo de recursos se
realiza desde el código del sistema operativo y, generalmente, el uso del recurso
está comprendido dentro de la ejecución de una única llamada al sistema. Por
tanto, el bloqueo del proceso se produce cuando éste está ejecutando dentro del
sistema operativo. Algunos ejemplos de este tipo de recursos son un semáforo
interno del sistema operativo que permite controlar el acceso concurrente a la tabla
de procesos, un descriptor interno de un chivo que una llamada al sistema necesita
usar en modo exclusivo o un buffer de la cache de bloques del sistema de chivos,
• Recursos de usuario. Se corresponden con recursos que usan las aplicaciones de
usuario para realizar su trabajo. La reserva y liberación de este tipo de recursos se
hace, por tanto, desde el código de las aplicaciones. Se pueden considerar como
ejemplos de este tipo de recursos un semáforo utilizado por un conjunto de
procesos de usuario cooperantes para sincronizar su ejecución o un dispositivo
dedicado como una unidad de cinta.
En este capítulo se presentan los conceptos básicos de entrada/salida (FIS), se describe brevemente el
hardware de E/S y su visión lógica desde el punto de vista del sistema operati vo, se muestra cómo se
organizan los módulos de E/S en el sistema operativo y los servicios de E/S que proporciona éste.
El capítulo tiene tres objetivos básicos: mostrar al lector dichos conceptos desde el punto de vista del
sistema, los servicios de E/S que da el sistema operativo y los aspectos de diseño de los sistemas de
E/S. Para alcanzar este objetivo el capítulo se estructura en los siguientes grandes apartados:
• Introducción.
• Caracterización de los dispositivos de E/S.
• Arquitectura del sistema de E/S.
• Interfaz de aplicaciones.
• Almacenamiento secundario.
• Almacenamiento terciario.
• El reloj.
• El terminal.
• La red.
• Servicios de E/S.
7.1. INTRODUCCIÓN
El corazón de una computadora lo constituye la UCP. Esta unidad se encarga de procesar los datos y las
instrucciones para conseguir el fin deseado por una aplicación. Ahora bien, esta unidad no serviría de nada
sin otros dispositivos que almacenaran los datos y que permitieran interactuar con los usuarios y los
programadores de las computadoras. Los primeros son básicamente dispositivos de almacenamiento
secundario (discos) y terciario (cintas y sistemas de archivo). Los segundos son los denominados
dispositivos periféricos de interfaz de usuario, porque generalmente están fuera de la computadora y se
conectan a ella mediante cables, y son los teclados, ratones, micrófonos, cámaras y cualquier otro
dispositivo de E/S que se le ocurra conectar a una computadora. La Figura 7.1 muestra una arquitectura
típica de una computadora personal con sus dispositivos principales de E/S.
Todos estos dispositivos de E/S se pueden agrupar en tres grandes grupos:
• Dispositivos de interfaz de usuario. Se llama así a los dispositivos que permiten la comuni cación
entre los usuarios y la computadora. Dentro de este grupo se incluyen todos los dispositivos que sirven
para proporcionar interfaz con el usuario, tanto para entrada (ratón, teclado, etc.) como para salida
(impresoras, pantalla, etc.). Existen periféricos menos habi tuales, pero más sofisticados, tales como
un escáner, lectores de huella digital, lectores de cinta magnética, instrumentos musicales digitales
(MIDI), etc.
• Dispositivos de almacenamiento. Se usan para proporcionar almacenamiento no volátil de datos y
memoria. Su función primordial es abastecer de datos y almacenamiento a los pro gramas que se
ejecutan en la UCP. Según su capacidad y la inmediatez con que se puede acceder a los datos
almacenados en estos dispositivos, se pueden dividir en almacenamiento secundario (discos y
disquetes) y terciario (cintas).•
• Dispositivos de comunicaciones. Permiten conectar a la computadora con otras computa doras a
través de una red. Los dos tipos de dispositivos más importantes de esta clase son los
módem, para comunicación vía red telefónica, y las tarjetas de interfaz a la red, para conec tar la
computadora a una red de área local.
El gran problema de todos estos dispositivos de E/S es que son muy lentos. Piense que mien tras la UCP
procesa instrucciones a casi 1 GHz y la memoria RAM tiene un tiempo de acceso de nanosegundos, los
dispositivos de E/S más rápidos tienen una velocidad de acceso del orden de milisegundos (Fig. 7.2). Esta
diferencia en la velocidad de acceso, y el hecho de que las aplicacio nes son cada vez más interactivas y
necesitan más E/S, hace que los sistemas de E/S sean el cuello de botella más importante de los sistemas de
computación y que todos los sistemas operativos dediquen un gran esfuerzo a desarrollar y optimizar todos
los mecanismos de E/S. Piense, por ejemplo, que el mero hecho de seguir el curso de un ratón supone
inspeccionar su posición varias veces por segundo. Igualmente, los dispositivos de comunicaciones
interrumpen continuamente el flujo de ejecución de la UCP para comunicar la llegada de paquetes de datos.
El sistema de E/S es la parte del sistema operativo que se ocupa de facilitar el manejo de los dispositivos de
EIS ofreciendo una visión lógica simplificada de los mismos que pueda ser usada por otros componentes
del sistema operativo (como el sistema de archivos) o incluso por el usuario. Mediante esta visión lógica se
ofrece a los usuarios un mecanismo de abstracción que oculta todos los detalles relacionados con los
dispositivos físicos, así como del funcionamiento real de los mis mos. El sistema operativo debe controlar
el funcionamiento de todos los dispositivos de EIS para alcanzar los siguientes objetivos:
• Facilitar el manejo de los dispositivos de E/S. Para ello debe ofrecer una interfaz entre los
dispositivos y el resto del sistema que sea sencilla y fácil de utilizar.
• Optimizar la E/S del sistema, proporcionando mecanismos de incremento de prestaciones donde
sea necesario.
• Proporcionar dispositivos virtuales que permitan conectar cualquier tipo de dispositivo físi co sin
que sea necesario remodelar el sistema de E/S del sistema operativo.
• Permitir la conexión de dispositivos nuevos de E/S, solventando de forma automática su instalación
usando mecanismos del tipo plug&plav.
En este capítulo se caracterizan los componentes que constituyen el hardware de E/S de una computadora,
se define la arquitectura del sistema de E/S de una computadora y se estudian algunos de los componentes
más importantes del sistema de E/S, ta’es como os sistemas de a to secundario y terciario, los terminales,
los relojes, los dispositivos de red, etc. Para terminar se muestran los servicios de E/S más habituales en
sistemas operativos, con ejemplos de programación que involucran llamadas al sistema de E/S
La visión del sistema de E/S puede ser muy distinta dependiendo del nivel de detalle necesario en su
estudio. Para los programadores, el sistema de E/S es una caja negra que lee y escribe datos en dispositivos
externos a través de una funcionalidad bien definida. Para los fabricantes de dispositi vos, un dispositivo es
un instrumento muy complejo que incluye cientos o miles de componentes electrónicos o electromecánicos.
Los diseñadores de sistemas operativos se encuentran en un lugar intermedio entre los dos anteriores. Les
interesa la funcionalidad del dispositivo, aunque a un nivel de detalle mucho más grande que la
funcionalidad que espera el programador de aplicaciones, pero también les interesa conocer la interfaz
física de los dispositivos y su comportamiento interno para poder optimizar los métodos de acceso a los
mismos.
En esta sección se estudia brevemente cómo se conecta un dispositivo de E/S a una computa dora y se
lleva a cabo una caracterización de los dispositivos de E/S según sus métodos y tamaño de acceso, su forma
de programación, etc.
7.2.1. Conexión de un dispositivo de E/S a una computadora
La Figura 7.3 muestra el esquema general de conexión de periféricos a una computadora IDe Miguel,
1998]. En el modelo de un periférico se distinguen dos elementos:
• Periféricos o dispositivos de E/S. Elementos que se conectan a la unidad central de proceso a
través de las unidades de entradalsalida. Son el componente mecánico que se conecta a la
computadora.
• Controladores de dispositivos o unidades de E/S. Se encargan de hacer la transferencia de
información entre la memoria principal y los periféricos. Son el componente electrónico a través
del cual se conecta el dispositivo de E/S. Tienen una conexión al bus de la computa dora y otra para
el dispositivo (generalmente mediante cables internos o externos).
Los controladores son muy variados, casi tanto como los dispositivos de E/S. Muchos de ellos, como
los de disco, pueden controlar múltiples dispositivos. Otros, como los de canales de E/S, incluyen su propia
UCP y bus para controlar la E/S por programa y evitar interrupciones en la UCP de la computadora. De
cualquier forma, en los últimos años ha existido un esfuerzo importante de estandarización de los
dispositivos, lo que permite usar un mismo controlador para dispositivos de distintos fabricantes. Un buen
ejemplo lo constituyen los dispositivos SCSI (SrnaIl Computer Svstern interftice), cuyos controladores
ofrecen una interfaz común independientemente de que se trate de un disco, una cinta, un CD-ROM, etc.
Otro buen ejemplo son los controladores IDE (In tegrated Drive Electronics), que suelen usarse para
conectar los discos en todas las computadoras personales. En cualquier caso, y sea como sea el controlador,
su misión es convertir los datos del formato interno del dispositivo a uno externo que se ofrezca a través de
una interfaz de programa ción bien definida.
El controlador es el componente más importante desde el punto de vista del sistema operativo. ya que
constituye la interfaz del dispositivo con el bus de la computadora y es el componente que se ve desde la
UCP. Su programación se lleva a cabo mediante una interfaz de muy bajo nivel que proporciona acceso a
una serie de registros del controlador (Fig. 7.3), incluidos en el mapa de E/S de la computadora, que se
pueden acceder mediante instrucciones de máquina de E/S. Hay tres registros importantes en casi todos los
controladores: registro de datos, estado y control. El re gistro de datos sirve para el intercambio de datos.
En él irá el controlador cargando los datos leídos y de él irá extrayendo los datos para su escritura en el
periférico. Un bit del registro de estado sirve para indicar que el controlador puede transferir una palabra.
En las operaciones de lectura esto significa que ha cargado en el registro de datos un nuevo valor, mientras
que en las de escritura significa que necesita un nuevo dato. Otros bits de este registro sirven para que el
controlador indique los problemas que ha encontrado en la ejecución de la última operación de E/S. El
registro de control sirve para indicarle al controlador las operaciones que ha de realizar. Los distintos bits
de este registro indican distintas acciones que ha de realizar el periférico. Para empezar una operación de
E/S, la UCP tiene que escribir sobre los registros anteriores los datos de la operación a través de una
dirección de E/S o de memoria asignada únicamente al controlador. Este modelo vale tanto para los
terminales o la pantalla como para los discos.
Las características del controlador son muy importantes, ya que definen el aspecto del pe riférico para
el sistema operativo. Atendiendo a las características del hardware de los dispositivos, se pueden observar
los siguientes aspectos distintivos:
• Dirección de E/S. En general hay dos modelos de direccionamiento de E/S, los que usan puertos y
los que proyectan los registros en memoria.
• Unidad de transferencia. Los dispositivos suelen usar unidades de transferencia de tamaño fijo.
Hay dos modelos clásicos de dispositivos: de caracteres y de bloques.
• Interacción computadora-controlador. La computadora tiene que interaccionar con la
computadora para realizar las operaciones de E/S y saber cuándo terminan.
Para empezar una operación de E/S, la UCP tiene que escribir sobre los registros anteriores los datos de la
operación a través de una dirección de E/S o de memoria asignada únicamente al controlador. Según se
haga de una u otra forma, se distingue entre dispositivos conectados por puertos o proyectados en memoria.
El modelo de dispositivos por puertos es clásico en las arquitecturas de Intel. En ellas, cuando se
instala un dispositivo, a su controlador se le asigna un puerto de E/S, una interrupción
hardware y un vector de interrupción. La Figura 7.4 muestra las direcciones de E/S asignadas a algunos de
los dispositivos de E/S de una computadora persona! con el sistema operativo Windows 2000. Para efectuar
una operación de E/S la UCP ejecuta operaciones por o portout con la dirección de puerto del dispositivo y
con parámetros para indicar qué registro se quiere manipular. Todas las operaciones de entradalsalida
(pantalla gráfica, impresoras, ratón, discos, etc.) se realizan usando esas dos instrucciones de lenguaje
máquina con los parámetros adecuados. El problema de este tipo de direccionamiento es que exige conocer
las direcciones de E/S y programar las instruc ciones especiales de E/S, lo que es significativamente distinto
del modelo de memoria de la compu tadora.
El otro modelo de direccionamiento de E/S es el modelo proyectado en memoria. Este mo delo, típico
de las arquitecturas de Motorola, asigna a cada dispositivo de E/S un rango de di recciones de memoria a
través de las cuales se escribe sobre los registros del controlador. En este modelo no hay instrucciones
específicas de E/S, sino que las operaciones se llevan a cabo mediante instrucciones máquina de manejo de
memoria, lo que permite gestionar un mapa único de direccio nes de memoria. Sin embargo, para no tener
conflictos con otros accesos a memoria y para optimi zar las operaciones, se reserva una zona de memoria
física para asignar las direcciones de E/S.
fuerza la existencia de accesos de un tamaño determinado. Un disco, por ejemplo, se divide en sectores de
512 bytes o de 1 KB, siendo un sector la unidad mínima de transferencia que el con trolador del disco
puede manejar.
Los dispositivos de caracteres, como los terminales, impresoras, tarjetas de red, módems, etcétera, no
almacenan información en bloques de tamaño fijo. Gestionan flujos de caracteres de forma lineal y sin
ningún tipo de estructura de bloque. Un teclado es un buen ejemplo de estos dispositivos. Está conectado a
una UART (Universal Asvnchronous Receiver/Transmiter) que recibe un carácter del teclado cada vez que
se pulsa una tecla. No es posible leer un bloque de teclas de un golpe o buscar dentro del dispositivo por
ninguna unidad. Un terminal por línea serie también es un dispositivo de caracteres. Su controlador se
limita a enviar al periférico el flujo de caracteres que debe representar en la pantalla y a recibir del mismo
los caracteres tecleados por el usuario.
Un controlador de dispositivo o unidad de E/S se encarga de controlar uno o más dispositivos de! mismo
tipo y de intercambiar información entre ellos y la memoria principal o unidad central de proceso de la
computadora. El controlador debe encargarse además de sincronizar la velocidad del procesador con la del
periférico y de detectar los posibles errores que se produzcan en el acceso a los periféricos. En el caso de un
controlador de disco, éste debe encargarse de convertir un flujo de bits procedente del disco a un bloque de
bytes detectando y corrigiendo, si es posible, los errores que se produzcan en esta transferencia. Una vez
obtenido el bloque y comprobado que se encuentra libre de errores, deberá encargarse de transferirlo a
memoria principal.
La información entre los controladores de dispositivo y la unidad central de proceso o me moria
principal se puede transferir mediante un programa que ejecuta continuamente y lee o escribe los datos del
(al) controlador. Con esta técnica, que se denomina E/S programada, la transferencia de información entre
un periférico y el procesador se realiza mediante la ejecución de una instruc ción de E/S. Con esta técnica,
es el procesador el responsable de extraer o enviar datos entre el procesador y el controlador de dispositivo,
lo que provoca que el procesador tenga que esperar mientras se realiza la transferencia entre el periférico y
el controlador. Dado que los periféricos son sensiblemente más lentos que el procesador, éste deberá
esperar una gran cantidad de tiempo hasta que se complete la operación de E/S. En este caso no existe
ningún tipo de concurrencia entre la E/S y el procesador ya que éste debe esperar a que finalice la
operación.
Aunque esta técnica es muy antigua, ya que proviene del tiempo en que los controladores no tenían
interrupciones, actualmente los canales de E/S y algunos multiprocesadores usan esta técnica para evitar
que lleguen a la UCP de la computadora muchas interrupciones de E/S. En ambos casos, la técnica es la
misma: dedicar una UCP especial para la E/S. La forma de hacerlo es muestrear continuamente los
registros de estado de los controladores para ver si están disponibles y, en ese caso, leer o escribir los
registros. Imagine un canal de E/S al que hay conectados múltiples buses de E/S que, a su vez, tienen
múltiples dispositivos de E/S. Si la UCP quiere escribir en uno de ellos, debe mirar su registro de estado
hasta que los bits indiquen que no está ocupado. Cuando esto ocurra, escribirá un bloque en los registros del
controlador y esperará hasta que los bits de estado indiquen que está disponible. Imagine que quiere leer de
otro controlador, deberá esperar a que los bits de estado le indiquen que está disponible, programar la
operación y esperar a que se indique que los datos están disponibles. Evidentemente, incluso aunque la
UCP esté controlando varios dispositivos de E/S, siempre existe pérdida de ciclos debido a la existencia de
las esperas. Sin embargo, existen situaciones en que esto no es así. En algunos sistemas de tiempo real,
como por
ejemplo un satélite, la velocidad de E/S es tan rápida (byte/microsegundos) que sería imposible efectuarla
con interrupciones, debido al coste de tratar cada interrupción. En estos casos, la E/S programada es la
técnica de elección.
Un bucle de E/S programada en la que se controlan las lecturas y escrituras sobre múltiples dispositivos
podría tener la estructura que se muestra en el Programa 7. 1. Como se puede observar, el bucle hace un
muestreo de todos los dispositivos en orden, siempre que tengan peticiones de E/S pendientes. Este criterio
de muestreo se puede alterar usando una prioridad distinta para cada dispo sitivo, por ejemplo.
Con E/S programada el procesador tiene que esperar hasta que el controlador esté listo para recibir o
enviar datos, y mientras tanto no realiza ningún trabajo útil. Empleando E/S dirigida por interrupciones el
procesador envía la orden de E/S al controlador de dispositivo y no espera a que éste se encuentre listo para
enviar o transmitir los datos, sino que se dedica a otras tareas hasta que llega una interrupción del
dispositivo que indica que se ha realizado la operación solicitada.
El modelo de interrupciones está íntimamente ligado a la arquitectura del procesador. Casi todas las
UCP actuales incluyen interrupciones vectorizadas y enmascarables. Es decir, un rango de interrupciones
entre 0 y 255, por ejemplo, alguna de las cuales se pueden inhibir temporalmente para no recibir
interrupciones de su vector correspondiente. Cada interrupción se asigna a un dis positivo, o un rango de
ellos en caso de un controlador SCSI o una cadena de dispositivos tipo daisv chain, que usa el vector
correspondiente para indicar eventos de E/S a la UCP. Cuando se programa una operación en un
dispositivo, como por ejemplo una búsqueda en un disco, éste contesta con un ACK indicando que la ha
recibido, lo que no significa que haya terminado. En este caso existe concurrencia entre la E/S y el
procesador, puesto que éste se puede dedicar a ejecutar código de otro proceso, optimizando de esta forma
el uso del procesador. Al cabo de un cierto tiempo, cuando el disco ha efectuado la búsqueda y las cabezas
del disco están sobre la posición deseada, genera una interrupción (poniendo un 1 en el vector
correspondiente). La rutina de tratamiento de la interrup ción se encargará de leer o enviar el dato al
controlador. Obsérvese que tanto la tabla de interrupcio nes como la rutina de tratamiento de la interrupción
se consideran parte del sistema operativo. Esto suele ser así por razones de seguridad; en concreto, para
evitar que los programas que ejecuta un usuario puedan perjudicar a los datos o programas de otros
usuarios. Véase el Capítulo 1 para ver más en detalle cómo se trata una interrupción.
Las computadoras incluyen varias señales de solicitud de interrupción, cada una de las cuales tiene una
determinada prioridad. En caso de activarse al tiempo varias de estas señales, se tratará la de mayor
prioridad, quedando las demás a la espera de ser atendidas. Además, la computadora incluye un mecanismo
de inhibición selectiva que permite detener todas o determinadas señales de interrup ción. Las señales
inhibidas no son atendidas hasta que pasen a estar desinhibidas. La información de inhibición de las
interrupciones suele incluirse en la parte del registro de estado que solamente es modificable en nivel de
núcleo, por lo que su modificación queda restringida al sistema operativo.
¿Quién asigna las interrupciones a los dispositivos? Normalmente, el sistema operativo se hace cargo de
esa asignación cuando instala el dispositivo. Ahora bien, también suele existir la posibilidad de que el
administrador fije las interrupciones manualmente (Advertencia 7.1). La Fi gura 7.5 muestra la asignación
de interrupciones a dispositivos en un PC con Windows 2000.
ADVERTENCIA 7.1
Nunca asigne interrupciones manualmente si no tiene experiencia con el sistema
operativo y la arquitec tura de la computadora. Si origina conflictos entre
interrupciones, varios dispositivos usarán el mismo
¿ Quien proporciona la rutina de tratamiento de interrupción? Las rutinas de nterrupc suelen tener
dos partes: una genérica y otra particular para el dispositivo.La parte genérica pernite:
1. Capturar la interrupción.
2. Salvaguardar el estado del procesador.
3. Activar la rutina de manejo de la interrupción.
4. Indicar al planificador que debe poner lista para ejecutar la rutina particular.
5. Desactivar la interrupción (Advertencia 7.2).
ADVERTENCIA 7.2
Es importante desactivar las interrupciones después de activar su tratamiento para evitar que
se presenten nuevas interrupciones antes de terminar el tratamiento y perder alguna de ellas.
Un caso especial en la arquitectura Intel es la controladora gráfica, que se encarga de gestionar la salida
a los dispositivos de mapas de bits (pantallas gráficas). Estas controladoras suelen tener su propia memoria,
sobre la cual se llevan a cabo las operaciones de E/S. Aunque la memoria de la controladora se escribe
también a partir de un puerto de E/S, sus prestaciones son muy altas (na nosegundos), por lo que el
tratamiento de las operaciones de E/S se desvía del estándar en el sistema operativo, ya que estos
dispositivos no interrumpen, por lo que se efectúa E/S programada.
Observe que aunque la controladora gráfica tiene asociada una dirección de E/S en la Figura 7.4, no tiene
una interrupción asociada en la Figura 7.5.
Los pasos a seguir en una operación de E/S con DMA son los siguientes:
1. Programación de la operación de E/S. Se indica al controlador la operación, los datos a transferir y
la dirección de memoria sobre la que se efectuará la operación.
2. El controlador contesta aceptando la petición de E/S.
3. El controlador le ordena al dispositivo que lea (para operación de lectura) una cierta
cantidad de datos desde una posición determinada del dispositivo a su memoria interna. 7.3.
4. Cuando los datos están listos, el controlador los copia a la posición de memoria que tiene en sus
registros, incrementa dicha posición de memoria y decrementa el contador de datospendientes de
transferir.
5. Los pasos 3 y 4 se repiten hasta que no quedan más datos por leer.
6. Cuando el registro de contador está a cero, el controlador interrumpe a la UCP para in dicar que la
operación de DMA ha terminado.
Canales de EIS con DMA
Un canal de E/S se puede mejorar si se incluye el concepto de DMA que permite al controlador ejecutar
instrucciones de E/S. Con estos sistemas, las instrucciones de EIS se almacenan en me moria principal y
son ejecutadas ordenando al procesador del canal que ejecute un programa en memoria. Dicho programa se
encarga de designar dispositivos y zonas de memoria de E/S.
Hay dos tipos principales de canales de E/S: canal selector y canal multiplexor. Ambos pueden
interaccionar con varios dispositivos de E/S, pero mientras el canal selector sólo puede transferir datos de
un dispositivo a la vez, el canal multiplexor puede transferir datos de varios dispositivos simultáneamente.
Las caches de datos, tan populares en sistemas operativos, han irrumpido en el mundo de los contro’adores
de disco con mucha fuerza. La idea es aprovechar la memoria interna de los controladores para leer los
datos por adelantado, evitando muchas operacines de usqueda en el disco y sobre todo los tiempos de
latencia necesarios para esperar a que los datos pasen de nuevo bajo las cabezas del disco [Biswas, 19931.
La proximidad espacial permite optimizar la E/S en el ámbito de controlador, ya que en lugar de leer un
sector, o un grupo de ellos, se leen pistas enteras en cada vuelta de disco, lo que permite traer múltiples
bloques de datos en una única operación. En los canales de E/S, donde suele haber mucha memoria interna,
se guardan en memoria varias pistas por cada dispositivo de E/S.
Estos mecanismos permiten optimizar mucho la E/S, especialmente en operaciones de lectura con un
comportamiento conocido. Para evitar afectar al rendimiento de las operaciones que no responden a
patroues de proximidad espacial predecibles, los controladores incluyen instrucciones para desactivar este
mecanismo, siempre que el sistema operativo lo crea conveniente.
El sistema de entradalsalida está construido como un conjunto de manejadores apilados, cada uno de los
cuales está asociado a un dispositivo de entradalsalida (archivos, red, etc.). Ofrece a las aplicaciones y
entornos de ejecución servicios genéricos que permiten manejar los objetos de en trada/salida del sistema.
A través de ellos se puede acceder a todos los manejadores de archivos y de dispositivos tales como discos,
cintas, redes, consola, tarjetas de sonido, etc.
En esta sección se estudia la estructura y los componentes del sistema de E/S y el software del sistema de
É/S.
7.3.1. Estructura y componentes del sistema de E/S
La arquitectura del sistema de entrada/salida (Fig. 7.7) es compleja y está estructurada en capas, cada una
de las cuales tiene una funcionalidad bien definida:
• Interfaz del sistema operativo para entrada/salida. Proporciona servicios de E/S síncrona y
asíncrona a las aplicaciones y una interfaz homogénea para poderse comunicar con losmanejadores
de dispositivo ocultando los detalles de bajo nivel.
• Sistemas de archivos. Proporcionan una interfaz homogénea, a través del sistema de ar chivos
virtuales, para acceder a todos los sistemas de archivos que proporciona el sistema operativo (FFS,
SV, NTFS, FAT, etc.). Permite acceder a los manejadores de los dispositi vos de almacenamiento
de forma transparente, incluyendo en muchos casos, como NFS o NTFS, accesos remotos a través
de redes. En algunos sistemas, como Windows NT, los servidores para cada tipo de sistema de
archivos se pueden cargar y descargar dinámica- mente como cualquier otro manejador.
• Gestor de redes. Proporciona una interfaz homogénea para acceder a todos los sistemas de red que
proporciona el sistema operativo (TCP/IP, Novell, etc.). Además, permite acceder a
• los manejadores de cada tipo de red particular de forma transparente.
• Gestor de bloques. Los sistemas de archivos y otros dispositivos lógicos con acceso a nivel de
bloque se suelen limitar a traducir las operaciones del formato del usuario al de bloques que
entiende el dispositivo y se las pasan a este gestor de bloques. El gestor de bloques admite
únicamente operaciones a nivel de bloque e interacciona con la cache de bloques para optimi zar la
E/S.
• Gestor de cache. Optimiza la entradalsalida mediante la gestión de almacenamiento inter medio en
memoria para dispositivos de E/S de tipo bloque [ 1985]. Aunque en el Capítulo 8 se comenta con
más detalle la estructura de la cache de bloques, es importante saber que su tamaño varía
dinámicamente en función de la memoria RAM disponible y que los bloques se escriben a los
dispositivos según una política bien definida, que en UNIX y WINDOWS NT es la de escritura
retrasada.
• Manejadores de dispositivo. Proporcionan operaciones de alto nivel sobre los dispositivos y las
traducen en su ámbito interno a operaciones de control de cada dispositivo particular. Como ya se
ha dicho, los manejadores se comunican con los dispositivos reales mediante puertos o zonas de
memoria especiales.
Cada uno de los componentes anteriores se considera un objeto del sistema, por lo que habi tualmente
todos los sistemas operativos permiten modificar el sistema operativo de forma estática o dinámica para
reemplazar, añadir o quitar manejadores de dispositivos. Sin embargo, habitualmen te, y por razones de
seguridad, no se permite a las aplicaciones de usuario acceder directamente a los dispositivos, sino a través
de la interfaz de llamadas al sistema operativo.
Una vez examinada la arquitectura de E/S de una computadora y las técnicas posibles de transferen cia
entre el procesador y los periféricos, en esta sección se va a presentar la forma en la que estructura el
sistema operativo el software de gestión de E/S. Este software se organiza en una serie de capas que se
muestran en la Figura 7.8. Estas capas se corresponden, en general, con los niveles de la arquitectura de
E/S.
Como puede verse en dicha figura, los procesos de usuario emiten peticiones de entrada/salida al
sistema operativo. Cuando un proceso solicita una operación de E/S, el sistema operativo prepara dicha
operación y bloquea al proceso hasta que se recibe una interrupción del controlador del dispositivo
indicando que la operación está completa. Las peticiones se procesan de forma estruc turada en las
siguientes capas:
• Manejadores de interrupción.
• Manejadores de dispositivos o drivers.
• Software de EIS independiente de los dispositivos. Este software está formado por la parte de alto
nivel de los manejadores, el gestor de cache, el gestor de bloques y el servidor de archivos.
• Interfaz del sistema operativo. Llamadas al sistema que usan las aplicaciones de usuario.
El uso de capas conlleva la realización de varias copias de datos, alguna de las cuales son inevita bles.
En algunos casos, la copia que se realiza en el núcleo del sistema operativo puede ser innecesaria, por lo
que existen mecanismos para acceder directamente a los controladores desde la interfaz de E/S del sistema
a los manejadores. Sin embargo, y como norma general, esa copia existe siempre.
El sistema operativo estructura el software de gestión de E/S de esta forma para ofrecer a los usuarios
una serie de servicios de E/S independientes de los dispositivos. Esta independencia implica que deben
emplearse los mismos servicios y operaciones de E/S para leer datos de un disquete, de un disco duro, de un
CD-ROM o de un teclado, por ejemplo. Como se verá más adelante, el servicio read de POSIX puede
utilizarse para leer datos de cualquiera de los dispositi vos citados anteriormente. Además, la estructuración
en capas permite hacer frente a la gestión de errores que se pueden producir en el acceso a los periféricos en
el nivel de tratamiento más adecua do. A continuación, se describe más en detalle cada uno de los
componentes.
Manejadores de interrupción
Los manejadores de interrupción se encargan de tratar las interrupciones que generan los controla dores de
dispositivos una vez que éstos están listos para la transferencia de datos o bien han leído o escrito los datos
de memoria principal en caso de acceso directo a memoria. Para tratar dicha interrupción se ejecuta el
correspondiente manejador de interrupción cuyo efecto es el de salvar los registros, comunicar el evento al
manejador del dispositivo y restaurar la ejecución de un proceso (que no tiene por qué ser el interrumpido).
En la sección anterior se mostró más en detalle cómo se trata una interrupción.
Los manejadores de interrupción suelen hacer algo más que comunicar el evento al manejador de
dispositivo. Cuando una interrupción ocurre muy frecuentemente, caso del reloj, o cuando la cantidad de
información a transferir es muy pequeña, caso del teclado, sería muy costoso comunicar siempre el evento
al manejador de dispositivo asociado. En estos casos, el propio manejador de interrupción registra la
ocurrencia del evento, bien mediante el incremento de una variable global para el reloj o la acumulación de
caracteres en un buffer del teclado. La notificación al manejador se hace únicamente cada cierto número de
ocurrencias del evento, en el caso del reloj, o activando unflag que indica que hay datos en el buffer del
teclado.
Manejadores de dispositivos
Cada dispositivo de E/S, o cada clase de dispositivos, tiene un manejador asociado en el sistema operativo.
Dicho manejador incluye: código independiente del dispositivo para proporcionar al nivel superior del
sistema operativo una interfaz de alto nivel y el código dependiente del dis positivo necesario para
programar el controlador del dispositivo a través de sus registros y man datos. La tarea de un manejador de
dispositivo es aceptar peticiones en formato abstracto, de la parte del código de E/S independiente del
dispositivo, traducir dichas peticiones a términos que entienda el controlador, enviar al mismo las órdenes
adecuadas en la secuencia correcta y esperar a que se cumplan. La Figura 7.9 muestra un diagrama de flujo
con las operaciones de un manejador.
Todos los manejadores tienen una lista de peticiones pendientes por dispositivo donde se encolan las
peticiones que llegan de niveles superiores. El manejador explora la lista de peticiones, extrae una petición
pendiente y ordena su ejecución. La política de extracción de peticiones de la lista es dependiente de
manejador y puede ser FIFO, con pr etc. Una cz enviada la pet al controlador, el manejador se bloquea o no,
dependiendo de la velocidad del dispositivo. Para los lentos (discos) se bloquea esperando una interrupción.
Para los rápidos (pantalla, discos RAM, etcétera) responde inmediatamente. Después de recibir el fin de
operación, controla la existencia de errores y devuelve al nivel superior el estado de terminación de la
operación. Si tiene operaciones pendientes en la cola de peticiones, atiende a la siguiente, en caso de que le
toque ejecutar después de la operación de E!S. En caso contrario se bloquea.
En los sistemas operativos modernos, como Windows NT [Solomon, 19981, los manejadores se
agrupan en clases. Para cada clase existe un manejador genérico que se encarga de las operacio nes de E/S
para una clase de dispositivos, tales como el CD-ROM, el disco, la cinta o un teclado. Cuando se instala un
dispositivo particular, como por ejemplo el disco SEAGATE S300, se crea una instanclación de manejador
de c eoii ‘ius pai tiiiciro o dc c objetn. Todaç laç. funciones comunes al manejador de una clase se llevan a
cabo en el manejador genérico y las
particulares en el del objeto. De esta forma se crea un apilamiento de manejadores que refleja muy bien qué
operaciones son independientes del dispositivo y cuáles no.
peticiones para él y, si existen, las traslada a su cola de peticiones particular ordenadas según la política
SCAN, por ejemplo. Este mecanismo permite optimizar la E/S al conceder a cada me canismo la
importancia que, ajuicio de los diseñadores del sistema operativo, se merece. En el caso de Windows NT,
por ejemplo, el ratón es el dispositivo de E/S más prioritario del sistema. La razón que hay detrás de esta
política es conseguir un sistema muy interactivo. En otros sistemas, como UNIX, las operaciones de disco
son más prioritarias que las del ratón para poder desbloquear rápidamente a los procesos que esperan por la
E/S. Sea cual sea el criterio de planificación, todos los sistemas de E/S planifican las actividades en varios
lugares.
Por último, este nivel proporciona gestión de errores para aquellos casos que el manejador de
dispositivo no puede solucionar. Un error transitorio de lectura de un bloque se resuelve en el manejador
reintentando su lectura. Un error permanente de lectura no puede ser resuelto y debe ser comunicado al
usuario para que tome las medidas adecuadas. En general, todos los sistemas operativos incluyen alguna
forma de control de errores internos y de notificación al exterior en caso de que esos errores no se puedan
resolver. Imagine, por ejemplo, que una aplicación quiere leer de un dispositivo que no existe. El sistema de
E/S verá que el dispositivo no está y lo notificará a los niveles superiores hasta que el error llegue a la
aplicación. Sin embargo, es importante resaltar que los sistemas operativos son cada vez más robustos y
cada vez incluyen más control y reparación de errores, para lo cual usan métodos de paridad, checksums,
códigos correctores de error, etc. Además, la información que proporcionan cuando hay un error es cada
vez mayor. En Windows NT, por ejemplo, existen monitores que permiten ver el comportamiento delas
operaciones de E/S.
Las aplicaciones tienen acceso al sistema de E/S a través de las llamadas al sistema operativo relacionadas
con la gestión de archivos y con la E/S, como íoctl por ejemplo. En muchos casos, las aplicaciones no
acceden directamente a las llamadas del sistema, sino a utilidades que llaman al sistema en representación
del usuario. Las principales utilidades de este estilo son:
• Las bibliotecas de los lenguajes, como la libc. so de C, que traducen la petición del usua rio a
llamadas del sistema, convirtiendo los parámetros allí donde es necesario. Ejemplos de utilidades
de biblioteca en C son fread, fwríte o printf. Las bibliotecas de enlace dinámico (DLL) de
Windows. Por ejemplo, Kernel32 .dll incluye llamadas para la ges tión de archivos y otros
componentes de E/S.
• Los demonios del sistema, como los de red o los spooler de las impresoras. Son programas
privilegiados que pueden acceder a recursos que las aplicaciones normales tienen vetados. Así, por
ejemplo, cuando una aplicación quiere acceder al puerto de telnet, llama al de monio de red (inetd)
y le pide este servicio. De igual forma, cuando se imprime un archivo, no se envía directamente a la
impresora, sino que se envía a un proceso spooler que lo copia a unos determinados directorios y,
posteriormente, lo imprime.
Esta forma de relación a través de representantes existe principalmente por razones de se guridad y de
control de acceso. Es fácil dejar que un proceso spooler, generalmente desarrollado por el fabricante del
sistema operativo y en el que se confía, acceda a la impresora de forma controlada, lo que evita problemas
de concurrencia, filtrando los accesos del resto de los usuarios.
La interfaz de E/S de las aplicaciones es la que define el modelo de E/S que ven los usuarios, por lo
que, cuando se diseña un sistema operativo, hay que tomar varias decisiones relativas a la funcionalidad que
se va a ofrecer al mundo exterior en las siguientes cuestiones:
cación, que sigue ejecutando su código. Es responsabilidad de la aplicación preguntar por el estado de la
operación de EIS, usando una llamada al sistema especial para realizar esta consulta (alo walt), o cancelarla
si ya no le interesa o tarda demasiado (aiocancel). En Windows se puede conseguir este mismo efecto
indicando, cuando se crea el archivo, que se desea E/S no bloqueante (FILE_FLAG y usando las llamadas
ReadFileEx y WriteFileEx.
Este modelo de programación es más complejo, pero se ajusta muy bien al modelo de algunos sistemas
que emiten peticiones y reciben la respuesta después de un cierto tiempo. Un programa que esté leyendo
datos de varios archivos, por ejemplo, puede usarlo para hacer lectura adelantada de datos y tener los datos
de un archivo listos en memoria en el momento de procesarlos. Un programa que escuche por varios
canales de comunicaciones podría usar también este modelo (Consejo de programación 7.1).
Es interesante resaltar que, independientemente del formato elegido por el usuario, el sistemaoperativo
procesa siempre las llamadas de E/S de forma no bloqueante, o asíncrona, para permitir la implementación
de sistemas de tiempo compartido.
Indicaciones de error
Las operaciones del sistema operativo pueden fallar debido a cuestiones diversas. Es importante decidir
cómo se va a indicar al usuario esos fallos.
En UNIX, por ejemplo, las llamadas al sistema que fallan devuelven —l y ponen en una variable global
errno el código de error. La descripción del error se puede ver en el archivo /usr/include/sys/errno.h o
imprimirlo en pantalla mediante la función perrorO. A con tinuación, se muestran algunos códigos de error
de UNIX junto con sus descripciones
#define EPERNM 1 /* Not super-user */
#define ENOENT 2 /* No such file or directory */
#define ESRCH 3 /* No such process */
#define EINTR 4 /* interrupted system cali */
#define ElO 5 /* I/O error */
#define ENXIO 6 /* No such device or address */
#define E2BIG 7 /*k Arg iist too long */
#define ENOEXEC 8 /* Exec format error */
#define EBAOF 9 /* Bad file number */
En Windows se devuelven más códigos de error en las llamadas a función, e incluso en algu nos
parámetros de las mismas. Igualmente, se puede obtener más información del error mediante la función
GetLastError ().
Uso de estándares
Proporcionar una interfaz de usuario estándar garantiza a los programadores la portabilidad de sus
aplicaciones, así como un comportamiento totalmente predecible de las llamadas al sistema en cuanto a
definición de sus prototipos y sus resultados. Actualmente, el único estándar definido para la interfaz de
sistemas operativos es POSIX (Portable Operating Systeni interface) [ 19881, basado principalmente en la
interfaz del sistema operativo UNIX. Todos los sistemas operativos modernos proporcionan este estándar
en su interfaz, bien como interfaz básica (en el caso de UNIX y LINUX) o bien como un subsistema POSIX
(caso de Windows) que se ejecuta sobre la interfaz básica (Win32).
No se hace más énfasis en la interfaz POSIX porque se va estudiando a lo largo de los distintos
capítulos.
En esta sección se tratan los principales aspectos relativos a estos dos componentes, así como algunos
otros relativos a tolerancia a fallos y fiabilidad. Los componentes que conforman los nive les superiores del
sistema de E/S (sistemas de archivos y caches) se estudian en el Capítulo 8.
7.5.1. Discos
Los discos son los dispositivos básicos para llevar a cabo almacenamiento masivo y no volátil de datos.
Además se usan como plataforma para el sistema de intercambio que usa el gestor de me moria virtual. Son
dispositivos electromecánicos (HARD DISK) u optomecánicos (CD-ROM y DVD), que se acceden a nivel
de bloque lógico por el sistema de archivos y que, actualmente, se agrupan en dos tipos básicos, atendiendo
a la interfaz de su controlador:
• Dispositivos SCSI (Small Computer System Inteiface), cuyos controladores ofrecen una interfaz
común independientemente de que se trate de un disco, una cinta, un CD-ROM, etc. Un controlador
SCSI puede manejar hasta ocho discos y puede tener una memoria interna de varios MB.
• Dispositivos IDE (Integrated Drive Electronics), que suelen usarse para conectar los discos en
todas las computadoras personales. Actualmente estos controladores se han extendido al sistema
EIDE, una mejora de IDE que tiene mayor velocidad de transferencia. Puede mane jar hasta cuatro
discos IDE. Es barato y muy efectivo.
Y a tres tipos básicos atendiendo a su tecnología de fabricación:
• Discos duros (Winchester). Dispositivos de gran capacidad compuestos por varias super ficies
magnetizadas y cuyas cabezas lectoras funcionan por efecto electromagnético. Actual mente su
capacidad máxima está en los 30 GB, pero se anuncian discos de 100 GB y más.
• Discos ópticos. Dispositivos de gran capacidad compuestos por una sola superficie y cuyas
cabezas lectoras funcionan por láser. Actualmente su capacidad máxima está en los 700 MB. Hasta
hace muy poco, la superficie se agujereaba físicamente y no se podían regrabar. Sin embargo,
actualmente existen discos con superficie magnética regrabables.
• Discos extraíbles. Dispositivos de poca capacidad similares a un disco duro, pero cuyas cabezas
lectoras se comportan de forma distinta. En este tipo se engloban los disquetes (floppies), discos
ZIP y JAZZ.
Independientemente del tipo al que pertenezcan, las estructuras física y lógica de todos los discos son
muy similares, como se muestra a continuación.
Todos los detalles expuestos en esta sección, concernientes a la estructura física de los discos,
no son visibles desde el exterior debido a que el controlador se encarga de ofrecer una visión lógica del
dispositivo como un conjunto de bloques, según se describe en la sección siguiente.
Estructura lógica de los discos
Una vez que el disco ha sido formateado en el ámbito físico, se procede a crear su estructura lógica, que es
la realmente significativa para el sistema operativo. Como parte del formato físico sc crea un sector
especial, denominado sector O, aunque no siempre es el primero del disco, que se reserva para incluir en él
la información de distribución lógica del disco en subconjuntos denominados volúmenes o particiones. Esta
información de guarda en una estructura denominada tabla de par ticiones (Fig. 7. 13). Una partición es una
porción contigua de disco delimitada por un sector inicial y final. No existe ninguna limitación más para
crear particiones, si bien algunos sistemas operativos exigen tamaños de partición mínimos en algunos
casos. En el caso de la Figura 7.13, el dispositivo /dev/hda se ha dividido en dos particiones primarias
usando la utilidad fdisk de LINUX:
• Una de intercambio (sivap), llamada /dev/hda
• Una extendida (que tiene el sistema de archivos ext2 de LINUX), llamada /dev/hda2.
A su vez, la partición extendida se ha dividido en tres subparticiones lógicas /dev/hda5.
/dev/hda6 y /dev/hda7.
en memoria. Cuando ha terminado salta a la dirección O de memoria (donde puso el núcleo) y se arranca el
sistema operativo.
La segunda tarea importante que ) a ca ia operac de Yomia 6gko es ‘ta detecc de ¡os bloques lógicos
defectuosos y su inclusión en una lista de bloques defectuosos. Estos bloques no son asignados nunca por el
sistema de E/S, para lo que se marcan siempre como ocupados y no se liberan nunca. Ahora bien, ¿cómo se
sabe que un bloque es defectuoso? Un bloque es defectuoso porque alguno de los sectores que lo componen
son defectuosos. ¿Cómo se sabe que un sector es defectuoso? Pues se sabe porque cuando se efectúa el
formateo físico se crea una estructura de sector que contiene, al menos, tres elementos: cabecera, área de
datos y cola. La cabecera incluye, entre otras cosas, el número de sector y un código de paridad. La cola
suele incluir el número de sector y un código corrector de errores (ECC, Error Correcting Code). Para
verificar el estado del sector se escribe una información y su ECC. A continuación se lee y se recalcula su
ECC. Si el sector está defectuoso, ambos ECC serán distintos, lo que indica que el ECC es incapaz de
corregir los errores existentes en el sector. En ese instante, el bloque al que pertenece el sector se incluirá en
la lista de bloques defectuosos.
La tercera tarea consiste en elaborar una lista de bloques de repuesto para el caso en que algún bloque del
dispositivo falle durante el tiempo de vida del mismo. Los discos están sujetos a rozamiento, suciedad y
otros elementos que pueden dañar su superficie. En este caso, algunos bloques que antes eran válidos
pasarán a la lista de bloques defectuosos. Para evitar que se reduzca el tamaño del dispositivo y para ocultar
este defecto en el ámbito del controlador, se suplanta este bloque por uno de los de la lista de repuesto, que
a todos los efectos sustituye al anterior sin tener que modificar en absoluto el manejador.
7.5.2. El manejador de disco
El manejador de disco se puede ver como una caja negra que recibe peticiones de los sistemas de archivos y
del gestor de bloques y las traslada a un formato que entiende el controlador del dis positivo. Sin embargo,
el diseñador de sistemas operativos debe entrar en los detalles del interior de un controlador y determinar
sus funciones principales, entre las que se incluyen:
1. Proceso de la petición de E/S de bloques.
2. Traducción del formato lógico a mandatos del controlador.
3. Inserción de la petición en la cola del dispositivo, llevando a cabo la política de planifica ción de disco
pertinente (FIFO, SJF, SCAN, CSCAN, EDF, etc.).
4. Envío de los mandatos al controlador, programando el DMA.
5. Bloqueo en espera de la interrupción de E/S.
6. Comprobación del estado de la operación cuando llega la interrupción.
7. Gestión de los errores, si existen, y resolverlos si es posible.
8. Indicación del estado de terminación al nivel superior del sistema de E/S.
En LINUX y Windows NT (Fig. 7.8), el paso 1 se lleva a cabo en un manejador para la clase de dispositivo
disco, pero independiente del tipo de disco en particular, denominado manejador genérico. Sin embargo, el
paso 2 se lleva a cabo en un manejador dependiente del dispositivo, denominado manejador particular.
¿Cómo distingue el manejador el tipo de dispositivo y el dispositivo en particular? Los distingue porque en
la petición de E/S viene información que lo indica. En el caso de UNIX y LINUX, por ejemplo, en cada
descriptor de archivo hay dos números, denominados número primario (majornumber) y número secundario
(minornumber) [ 19861, que indican el tipo de dispositivo (p. ej.: disco) y el número de dispositivo (p. ej.: 3
para hda3). En Windows NT hay conceptos equivalentes.
A continuación, se inserta la petición en una cola de peticiones pendientes. Dependiendo del diseño del
manejador, existe una cola global para cada tipo de dispositivo, una cola para dispositivo particular o
ambas. De cualquier forma, una vez insertadas las peticiones en las colas, el manejador se encarga de
enviarlas al controlador cuando puede ejecutar operaciones porque este último está libre y se bloquea en
espera de la interrupción del dispositivo que indica el fin de la operación de E/S. Esta operación puede
terminar de forma correcta, en cuyo caso se indica al nivel superior eJ estado de terminación, o de forma
incorrecta, en cuyo caso hay que analizar los errores para ver si se pueden resolver en el manejador o deben
comunicarse al nivel superior.
A continuación, se estudia más en detalle la estructura de un manejador de disco, así como las
técnicas de planificación de disco y de gestión de errores en el manejador de disco.
Estructura de un manejador de disco
Los manejadores de disco actuales están compuestos en realidad por un conjunto de manejadores apilados,
como se muestra en la Figura 7.14, que refleja una estructura similar a la de los ma nejadores de disco de
LINUX [ 19961. En Windows NT esta tendencia es todavía más acusa da, ya que los manejadores están
diseñados como objetos y existe herencia de propiedades y com portamiento.
En cada nivel de la pila se lleva a cabo una funcionalidad específica, que es más dependiente del dispositivo
a medida que se profundiza en la jerarquía. En el caso de LINUX, el manejador de dispositivos de bloque
incluye operaciones genéricas como open, close, read y write para dispositivos de tipo bloque. Este
manejador accede a dos módulos:
• Módulo de planificación, que se encarga de ordenar las peticiones de bloque a un dis positivo con política
CSCAN.
• Manejador de disco, que se encarga de proporcionar una interfaz común a todos los dis positivos y
demultiplexar las peticiones a cada tipo de dispositivo en particular.
Cuando le llega una operación de cerrar un dispositivo, el planificador mira si tiene peticiones pendientes y
«encola» la petición de desconexión del dispositivo hasta que hayan terminado. Una vez procesadas las
peticiones, el planificador las redirige al manejador de tipo de dispositivo ade cuado (IDE, CD-ROM, SCSI,
floppy, etc.), usando para ello el major number, que se encarga de llevar a cabo las operaciones específicas
para ese dispositivo y de enviarlas al dispositivo espe cífico, usando el minor number.
Uno de los manejadores de tipo de dispositivo existente en LINUX es el de dispositivos IDE, algunas de
cuyas operaciones se indican a continuación:
bloc k_read, /* operación de lectura de bloque */
block_write, /* operación de escritura de bloque */
ide_octl, /* ioct1 */
ide_open, /* abrir */
ide_release, /* cerrar */
block_fsync, /* sincronización */
ide_check_media_change, /* comprobar el medio */
revalidate_disk, /* vuelca datos a disco */
ide_requests, /* llamadas del planificador */
Como se puede ver, el manejador proporciona muy pocas funciones de alto nivel. Además de las típicas de
lectura y escritura, merece la pena resaltar las de control del dispositivo (ide_ioctl), las de sincronización (bl
ock_f sync), las de comprobación del medio (ide_check_medi a_change). Internamente, el manejador IDE
se estructura en dos niveles:
1. Nivel independiente de dispositivo, definido por algunas de las funciones de la interfaz.Estas
funciones acaban llamando a funciones internas de bajo nivel. Una de las más un- portantes es la
autodetección de los desplazamientos de bloques en el disco a partir de los datos de la tabla de
particiones.
2. Nivel dependiente de dispositivo. Funciones de bajo nivel que se encargan de contactar con el
controlador del dispositivo. Algunas de estas funciones son:
• ide_setup, que calcula los datos del disco a partir de la BIOS.
• controller_busy, que comprueba si el controlador está libre u ocupado.
• Status_OK, que comprueba el estado del disco.
• ide_out, que emite los mandatos al controlador para escribir en el disco.
• reset_controller y reset_hd, que reinician el controlador y el dispositivo respec tivamente.
• recalibrate, que ordena al controlador recalibrar el motor del disco.
• identify intr, que lleva a cabo el tratamiento de interrupción.
El Programa 7.2 muestra una versión simplificada de la rutina del manejador IDE que escribe datos al
controlador del dispositivo. Observe que es similar al programa canal que se mostró en el Programa 7.1.
Consiste básicamente en una operación de inicio del controlador para cargar el registro de datos, la
dirección de memoria y el contador de datos. Un bucle que escribe los datos, incrementando el contador de
memoria, y una etapa de fin de escritura.
ascensor. El fundamento de la política básica del ascensor, denominada SCAN, consiste en mover las
cabezas de un extremo a otro del disco, sirviendo todas las peticiones que van en ese sentido. Al volver se
sirven todas las del sentido contrario. Con esta política, el ejemplo anterior, en el que las cabezas están en el
cilindro 6 con movimiento ascendente y las peticiones encoladas son 20, 2, 56 y 7, causaría los siguientes
desplazamientos, asumiendo un disco de 70 cilindros:
Desplazamientos = (7—6) + (20 —7) + (56—20) +(70 — 56)+ (56— 2)= 1 + 13 + 36 + 14 +
+54=118
Como se puede ver, el número de desplazamientos es menor que el FCFS, pero considerable mente mayor
que el SSF, debido fundamentalmente al último desplazamiento que obliga a recorrer el disco entero. El
comportamiento de este algoritmo es óptimo cuando las peticiones se distribuyen uniformemente por todo
el disco, cosa que casi nunca ocurre. Por ello se optimizó para mejorar el tiempo de búsqueda aprovechando
una propiedad de los discos que también tienen los ascensores:
es mucho más costoso subir un edificio parando que ir de un golpe de arriba abajo, o viceversa. E! ascensor
de las torres Sears de Chicago, por ejemplo, sube los 110 pisos sin parar en menos de 2 minutos, mientras
que parando dos o tres veces tarda más de 10. Esto es lógico, porque los motores tienen que frenar, acelerar
y ajustarse al nivel de los pisos en que para el ascensor. En un disco pasa lo mismo: cuesta casi lo mismo ir
de un extremo a otro que viajar entre dos pistas. Por ello se puede mejorar el tiempo de respuesta del disco
usando una versión de la política del ascensor que viaje en un solo sentido. Con esta política, denominada
CSCAN (Cvclic Scan), las cabezas se mueven del principio al final del disco, atienden las peticiones en ese
sentido sin parar y vuelven al principio sin atender peticiones. Con esta política, el número de
desplazamientos del ejemplo anterior sería:
Desplazamientos = (7—6) + (20—7) + (56—20) + (70—56) + 70 + (2—0) = 1 + 13 + 36 +
+ 14+70+2= 136
Muy alto, como puede observar. Sin embargo el resultado es engañoso, ya que los desplaza mientos
realmente lentos, con paradas en cilindros, son 66. El tiempo de respuesta de este algoritmo es pues mucho
menor que el del SCAN y casi similar al de SSF. En dispositivos con muchas peticiones de E/S, esta
política tiene un rendimiento medio superior a las otras.
La política CSCAN todavía se puede optimizar evitando el desplazamiento hasta el final del disco, es decir,
volviendo de la última petición en un sentido a la primera en el otro. En el caso del ejemplo se iría de 56 a 2
con un desplazamiento rápido. Los desplazamientos del ejemplo con esta política, denominada LOOK [
1998], serían:
Desplazamientos = (7—6) + (20—7) + (56—20) + (56—2) 1 + 13 + 36 + 54 = 104
donde los desplazamientos realmente lentos son 50.
El algoritmo CSCAN es el más usado actualmente. Se usa en prácticamente todas las ver siones de UNIX,
LINUX y Windows, debido a que da el mejor rendimiento en sistemas muy cargados. Sin embargo, su
rendimiento depende mucho de la distribución de las operaciones de E/S por el disco y de la situación de
los bloques que se acceden con más frecuencia. Por ello, suele ser una técnica habitual en sistemas
operativos situar en el centro del disco aquellos datos que se acceden más a menudo.
Estos algoritmos, sin embargo, no resuelven el problema de algunas aplicaciones modernas que requieren
un tiempo de respuesta determinado. Es el caso de las aplicaciones de tiempo real y multimedia, en las que
es importante realizar las operaciones de E/S antes de que termine un plazo
determinado (deadline). Para este tipo de sistemas se pueden usar otras técnicas de planificación, como la
política EDF (Earliest Deadline First), SCAN-EDF o SCAN-RT. Para tratar de satisfacer los requisitos de
sistemas de propósito general y los de multimedia se han propuesto algoritmos que optimi zan
simultáneamente geometría y tiempo de respuesta, tales como Cello y 2-Q [ 20001.
Gestión de errores
Otra de las funciones básicas del manejador de disco es gestionar los errores de EIS producidos en el
ámbito del dispositivo. Estos errores pueden provenir de:
• Las aplicaciones. Por ejemplo, petición para un dispositivo o sector que no existe.
• Del controlador. Por ejemplo, errores al aceptar peticiones o parada del controlador.
• De los dispositivos. Por ejemplo, fallos transitorios o permanentes de lectura o escritura y fallos en la
búsqueda de pistas.
Algunos de ellos, como los errores transitorios, se pueden resolver en el manejador. Otros, como los errores
de aplicación o fallos permanentes del dispositivo, no se pueden resolver y se deben comunicar al nivel
superior de E/S.
Los errores transitorios pueden ser debidos a la existencia de partículas de polvo en la su perficie del disco
cuando se efectúa la operación de E/S, a pequeñas variaciones eléctricas en la transmisión de datos o a
radiaciones que afecten a la memoria del controlador, entre otras cosas. Esos errores se detectan porque el
ECC de los datos no coincide con el calculado y se resuelven repitiendo la operación de E/S. Si después de
un cierto número de repeticiones no se resuelve el problema, el manejador concluye que la superficie del
disco está dañada y lo comunica al nivel superior de E/S. Otro tipo de errores transitorios tiene su origen en
fallos de búsqueda debidos a que las cabezas del disco están mal calibradas. Se puede intentar resolver este
problema recalibrando el disco, lo que puede hacerse mediante la operación del controlador reca1íbra
Los errores permanentes se tratan de distintas formas. Ante errores de aplicación el ma nejador tiene poco
que hacer. Si se pide algo de un dispositivo o bloque que no existe, lo único que se puede hacer es devolver
un error. Ante errores del controlador, lo único factible es tratar de reiniciar el controlador mediante sus
instrucciones específicas para ello. Si al cabo de un cierto número de repeticiones no se resuelve el
problema, el manejador concluye que la superficie del disco o el controlador están dañados y lo comunica
al nivel superior de E/S. Ante errores permanen tes de la superficie del dispositivo, lo único que se puede
hacer es sustituir el bloque por uno de repuesto, si existe una lista de bloques de repuesto, y comunicar el
error al nivel superior.
por el sistema operativo que muestra una interfaz de disco similar al de cualquier disco de dis positivo
secundario. El manejador de esos dispositivos incluye llamadas open, read, write, etc., a nivel de bloque y
se encarga de traducir los accesos del sistema de archivos a posiciones de memoria dentro del disco RAM.
Las operaciones de transferencia de datos son copias de memoria. No tienen ningún hardware especial
asociado y se implementan de forma muy sencilla. Pero tienen un problema básico: si falla la alimentación
se pierden todos los datos almacenados.
Los discos sólidos son sistemas de almacenamiento secundario no volátiles fabricados co locando chips de
memoria RAM en placas. Las placas se conectan al bus del sistema y se acceden a la misma velocidad que
la memoria principal (nanosegundos). Hay una diferencia fundamental entre estos sistemas y los discos
RAM: tienen hardware, y puede que un controlador, propio. La interfaz sigue siendo la de un dispositivo de
bloques, encargándose el manejador de traducir pe ticiones de bloque a memoria. Las transferencias, sin
embargo, se pueden convertir en operaciones de lectura o escritura a puertos, dependiendo de la instalación
del disco sólido.
Los discos en chips son la última tendencia en discos sólidos implementados con memoria. Combinan
memoria flash de alta densidad y una interfaz sencilla, proyectada en memoria o a través de puertos, para
proporcionar almacenamiento secundario en un chip que se parece a una memoria ROM de 32 pines.
Usando estos sistemas se pueden crear discos de estado sólido con almacena miento no volátil con una
capacidad de hasta 256 MB. Además, estos chips se pueden combinar en placas para proporcionar varios
GB de capacidad, como por ejemplo la PCM-3840 de Advantech. Una vez instalados en el sistema, se ven
como un objeto más del sistema de E/S que se manipula a través del manejador correspondiente, por lo que
proporciona las mismas operaciones que cualquier otro dispositivo de almacenamiento secundario. De tal
forma que cuando se crea sobre el disco un sistema de archivos, se puede montar en el árbol de nombres sin
ningún problema.
ficiente, hay que modificar el manejador, o el gestor de bloques, para tener almacenamiento fiable, de
forma que las operaciones de escritura y de lectura sean fiables.
Una escritura fiable supone escribir en ambos discos con éxito. Para ello se escribe primero en un disco.
Cuando la operación está completa, se escribe en el segundo disco. Sólo si ambas tienen éxito se considera
que la operación de escritura ha tenido éxito. En caso de que una de las dos escrituras falle, se considera un
error parcial. Si ambas fallan, se considera que hay fallo total del almacenamiento estable.
En el caso de la lectura fiable, basta con que uno de los dispositivos esté disponible. Ahora bien, si se
quiere verificar el estado de los datos globales, habrá que leer ambos dispositivos y comparar los datos. En
caso de error, habrá que elegir alguno de ellos según los criterios definidos por el sistema o la aplicación.
Este tipo de redundancia tiene dos problemas principales:
• Desperdicia el 50 por 100 del espacio de almacenamiento.
• Reduce mucho el rendimiento de las operaciones de escritura. Ello se debe a que una es critura no se
puede confirmar como válida hasta que se ha escrito en ambos discos espejo, lo
que significa dos operaciones de escritura.
Sin embargo, tiene la ventaja de ser una técnica barata y sencilla de implementar. Además, si se lee
simultáneamente de ambos discos, se puede incrementar mucho el rendimiento del sistema. En Windows
NT, por ejemplo, existen manejadores para proporcionar almacenamiento estable en el ámbito del sistema y
de forma transparente al usuario.
Dispositivos RAID
Una técnica más actual para proporcionar fiabilidad y tolerancia a fallos consiste en usar dispositi vos
RAID (Redundant Array of Independent Disks) a nivel hardware [ 19951 o software EChen, 1995]. Estos
dispositivos usan un conjunto de discos para almacenar la información y otro conjunto para almacenar
información de paridad del conjunto anterior (Fig. 7.15). En el ámbito físico se ven como un único
dispositivo, ya que existe un único controlador para todos los discos. Este controlador se encarga de
reconfigurar y distribuir los datos como es necesario de forma transparente al sistema de FIS.
Se han descrito hasta siete niveles de RAID, pero solamente los cinco primeros están realmen te operativos.
Estos niveles son los siguientes:
• RAID 1. Son discos espejo en los cuales se tiene la información duplicada. Tiene los pro blemas y las
ventajas del almacenamiento estable.
• RAID 2. Distribuye los datos por los discos, repartiéndolos de acuerdo con una unidad de distribución
definida por el sistema o la aplicación. El grupo de discos se usa como un disco lógico, en el que se
almacenan bloques lógicos distribuidos según la unidad de reparto.
• RAID 3. Reparte los datos a nivel de bit por todos los discos. Se puede añadir bits con códigos correctores
de error. Este dispositivo exige que las cabezas de todos los discos estén
sincronizadas, es decir, que un único controlador controle sus movimientos.
• RAID 4. Reparto de bloques y cálculo de paridad para cada franja de bloques, que se al macena en un
disco fijo. En un grupo de cinco discos, por ejemplo, los cuatro primeros serían de datos y el quinto de
paridad. Este arreglo tiene el problema de que el disco de paridad se convierte en un cuello de botella y un
punto de fallo único.
• RAID 5. Reparto de bloques y paridad por todos los discos de forma cíclica. Tiene la ventaja de la
tolerancia a fallos sin los inconvenientes del RAID 4. Actualmente existen múltiples
dispositivos comerciales de este estilo y son muy populares en
fiabilidad.
La Figura 7.15 muestra un dispositivo de tipo RAID 5, donde toda la paridad se reparte por todos los discos
de forma cíclica. La paridad se calcula por hardware en el controlador haciendo el X-OR de los bloques de
datos de cada franja. Esto conlieva problemas si las escrituras no llenan todos los discos de datos (escrituras
pequeñas), ya que hay que leer los datos restantes para calcular la paridad. Sin embargo, los RAID
proporcionan un gran ancho de banda para lecturas y escrituras grandes (Prestaciones 7.1).
Los sistemas de almacenamiento secundario están bien para acceso rápido a datos y programas, sin
embargo tienen tres problemas serios:
1. Poca capacidad.
2. Alto coste.
3. No se pueden extraer de la computadora.
La tecnología de almacenamiento terciario no ha evolucionado mucho en los últimos años. Los dispositivos
de elección son los CD-ROM, los DVD y, sobre todo, las cintas magnéticas. En cuanto al soporte usado, se
usan jukeboxes y sistemas robotizados para las cintas.
Los jukeboxes son torres de CD-ROM o DVD similares a las máquinas de música que se ven en algunos
bares y salas de baile. Cuando se quiere leer algo, las cabezas lectoras suben o bajan por la torre,
seleccionan el disco adecuado y lo leen. Este método es adecuado para bases de datos medianas o centros
de distribución de música o de películas. Sin embargo, estos dispositivos se usan principalmente como
discos WORM ( Write Once ReadMany), lo que significa que es difícil o costoso rescribir información
sobre ellos. Además, tienen poca capacidad, ya que un CD-ROM almacena 700 MB y un DVD unos 18
GB.
Hasta ahora, la alternativa como sistema de almacenamiento son las cintas magnéticas, que son más baratas,
igual de rápidas y tienen más capacidad (Tabla 7.1). Estas cintas se pueden mani pular de forma manual o
mediante robots que, en base a códigos de barras, las almacenan una vez escritas y las colocan en las
cabezas lectoras cuando es necesario.
Un buen ejemplo de sistema de almacenamiento terciario lo constituye el existente en el CERN (Centro
Europeo para la Investigación Nuclear), donde los datos de los experimentos se almacenan en cintas
magnéticas que controlan un sistema de almacenamiento controlado por un robot. Cuando se va a procesar
un experimento, sus datos se cargan en el almacenamiento se cundario. La gran ventaja de este sistema es
que el un único robot puede manipular un gran número
de cintas con pocas unidades lectoras. Su gran desventaja es que los datos no están inmediatamente
disponibles para los usuarios, que pueden tener que esperar segundos u horas hasta que se instalan en el
sistema de almacenamiento secundario.
Una tecnología novedosa para el almacenamiento secundario y terciario la constituyen las SAN (Storage
Area Networks), que son redes de altas prestaciones a las que se conectan directa mente dispositivos de
almacenamiento. Presentan una interfaz uniforme para todos los dispositivos y proporcionan un gran ancho
de banda. Actualmente empiezan a ser dispositivos de elección para sistemas de almacenamiento
secundarios y terciarios de altas prestaciones.
En sistemas de altas prestaciones, como el descrito más adelante, se usan servidores de EIS
muy complejos, incluidos multiprocesadores, para crear sistemas de almacenamiento terciario cuyo tiempo
de respuesta es muy similar a los sistemas de almacenamiento secundario.
Desde el punto de vista del sistema operativo, el principal problema de estos sistemas de almacena miento
terciario es que se crea una jerarquía de almacenamiento secundario y terciario, por la que deben viajar los
objetos de forma automática y transparente al usuario. Además, para que los usua rios no estén
descontentos, se debe proporcionar accesos con el mismo rendimiento del nivel más rápido y el coste
aproximado del nivel más bajo.
La existencia de un sistema de almacenamiento terciario obliga al diseñador del sistema opera tivo a tomar
cuatro decisiones básicas relacionadas con este sistema:
• ¿Qué estructura de sistema de almacenamiento terciario es necesaria?
• ¿Cómo, cuándo y dónde se mueven los archivos del almacenamiento secundario al terciario?
• ¿Cómo se localiza un archivo en el sistema de almacenamiento terciario?
• ¿Qué interfaz de usuario va a estar disponible para manejar el sistema de almacenamiento terciario?
Los sistemas de almacenamiento terciario existentes en los sistemas operativos actuales, tales como UNIX,
LINUX y Windows, tienen una estructura muy sencilla consistente en un nivel de dispositivos extraíbles,
tales como cintas, disquetes o CD-ROM. Estos dispositivos se tratan exacta mente igual que los
secundarios, exceptuando el hecho de que los usuarios o administradores deben insertar los dispositivos
antes de trabajar con ellos. Solamente en grandes centros de datos se pue den encontrar actualmente
sistemas de almacenamiento terciario con una estructura compleja, como la de HPSS que se estudia en la
sección siguiente.
La cuestión de la migración de archivos del sistema secundario al terciario, y viceversa, depende
actualmente de las decisiones del administrador (en el caso de las copias de respaldo) o de los propios
usuarios (en el caso de archivos personales). En los sistemas operativos actuales no se define ninguna
política de migración a sistemas terciarios, dado que estos sistemas pueden no existir en muchas
computadoras. Sin embargo, se recomienda a los administradores tener una plani ficación de migración
para asegurar la integridad de los datos del sistema secundario y para migrar aquellos archivos que no se
han usado durante un período largo de tiempo.
La política de migración define las condiciones bajo las que se copian los datos de un nivel de la jerarquía
a otro, u otros. En cada nivel de la jerarquía se puede aplicar una política distinta. Además, en el mismo
nivel se puede aplicar una política distinta dependiendo de los datos a migrar. Imagine que se quiere mover
un archivo de usuario cuya cuenta de acceso a la computadora se ha cerrado. Las posibilidades de volver a
acceder a estos datos son pequeñas, por lo que lo más proba
Digitalización realizada con propósito académico
390 Sistemas Operativos. Una visión aplicada
ble es que la política los relegue al último nivel de la jerarquía de EIS (p. ej.: cintas extraíbles). Imagine
ahora que se quiere migrar un archivo de datos del sistema que se accede con cierta frecuencia, lo más
probable es que la política de migración decida copiarlo a un dispositivo de alta integridad y disponibilidad,
como un RAID. En los sistemas automatizados, como HPSS, hay mo nitores que rastrean los archivos del
sistema de almacenamiento secundario y crean estadísticas de uso de los mismos. Habitualmente, los
archivos usados son los primeros candidatos para la política de migración.
Cómo y dónde migrar los archivos depende mucho de la estructura del sistema de almacena miento
terciario. Existen dos opciones claras para mantener los archivos en almacenamiento terciario:
• Usar dispositivos extraíbles y mantenerlos o/j-line.
• Usar dispositivos extraíbles o no, pero mantenerlos en-une.
En el primer caso, los archivos se copian en el sistema terciario y se eliminan totalmente del secundario. En
el segundo se copian en el sistema terciario pero se mantienen enlaces simbólicos desde el sistema
secundario, de forma que los archivos estén automáticamente accesibles cuando se abren. Un caso especial
lo constituyen las copias de respaldo, en las que se copian los datos a un terciario extraíble por cuestiones
de seguridad y no de prestaciones. En este caso, los datos siguen estando completos en el sistema
secundario de almacenamiento. Con cualquiera de las opciones, es habitual comprimir los datos antes de
copiarlos al sistema terciario, para aumentar la capacidad del mismo. La compresión se puede hacer
transparente a los usuarios incorporando herramientas de compresión al proceso de migración.
La localización de archivos en un sistema de almacenamiento terciario es un aspecto muy importante de
los mismos. En un sistema operativo de una instalación informática convencional, lo normal es que el
usuario deba preguntar al administrador del sistema por ese archivo si éste lo ha migrado a un sistema
terciario extraíble, ya que no estará en el almacenamiento secundario. En el caso de que el sistema terciario
sea capaz de montar dinámicamente los dispositivos extraíbles (robots de cintas,jukehoxes, etc.), se pueden
mantener enlaces desde el sistema secundario al ter ciario, por lo que se migrará el archivo
automáticamente (en cuestión de segundos). Un sistema terciario de altas prestaciones como HPSS intenta
que los usuarios no puedan distinguir si los archivos están en el sistema secundario o terciario, tanto por la
transparencia de nombres COfl1() por el rendimiento. Para ello usa servidores de nombres, localizadores de
archivos y, si es necesario, bases de datos para localizar los archivos.
La interfaz de usuario de los sistemas de almacenamiento terciario puede ser la misma que la del sistema
secundario, es decir, las llamadas al sistema de POSIX o Win32 para manejar dispositi vos de EIS. Sin
embargo, es habitual que los sistemas operativos incluyan mandatos, tales conio el tar de UNIX o el backup
de Windows, para llevar a cabo copias de archivos en dispositivos extraíbles de sistema terciario. Por
ejemplo:
Hace una copia de los datos del usuario jesús al dispositivo de cinta rrntO de una computado ra UNIX.
Igualmente:
Hace una copia de todos los sistemas de archivos de una computadora UNIX al dispositivo de cinta rmt0.
Estos mandatos permiten hacer copias totales de tos datos o parciales, es decir, copiar sólo los archivos
modificados desde la copia anterior. En los sistemas de almacenamiento terciario de alto rendimiento, como
HPSS, se encuentran interfaces muy sofisticadas para configurar y manipular los datos, como se muestra a
continuación.
El sistema de almacenamiento de altas prestaciones (HPSS, High Performance Storage Svstern) [ 19991 es
un sistema de E/S diseñado para proporcionar gestión de almacenamiento jerár quico, secundario y
terciario, y servicios para entornos con necesidades de almacenamiento me dianas y grandes. Está pensado
para ser instalado en entornos de EIS con alto potencial de creci miento y muy exigentes en términos de
capacidad, tamaño de archivos, velocidad de transferencia, número de objetos almacenados y número de
usuarios. Se distribuye como parte de IJ(I (Lfls trihuted Computing Environment).
Uno de los objetivos de diseño primarios de HPSS fue mover los archivos grandes de dis positivos de
almacenamiento secundario a sistemas terciarios, que pueden ser incluso sistemas de E/S paralelos, a
velocidades mucho más altas que los sistemas de archivo tradicionales (cintas. jukehoxes. etc.), de forma
más fiable y totalmente transparente al usuario. El resultado del diseño fue un sistema de almacenamiento
de altas prestaciones con las siguientes característi cas (Fig. 7.16):
• Arquitectura distribuida a través de redes, siempre que es posible, para proporcionar escala bilidad y
paralelismo.
• Jerarquías múltiples de dispositivos que permiten incorporar todo tipo de dispositivos ac tuales (RAID,
SAN, jukebox, cintas, etc.) y experimentar con medios de almacenamiento nuevos. Los dispositivos se
agrupan en clases, cada una de las cuales tiene sus propios servicios. Existen servicios de migración entre
clases para mover archivos de una clase de dispositivo a otra.
• Transferencia de datos directa entre los clientes y los dispositivos de almacenamiento. sin copias
intermedias de memoria. Para ello se usan reubicadores de archivos que se encargan
de las transferencias de archivos de forma distribuida.
• Velocidad de transferencia muy alta, debido a que los reubicadores extraen los datos directa mente de los
dispositivos y los transmiten a la velocidad de éstos (p. ej.: 5() MB/segundo
para algunos RAID).
• Interfaz de programación con acceso paralelo y secuencial a los dispositivos de E/S. Diseño interno
multithread que usa un protocolo FTP (File Tran,sfer Protocol) paralelo.
• Uso de componentes estandarizados que le permiten ejecutar sobre POSIX sin ninguna mo- dificación.
Está escrito en ANSI C e incorpora varios estándares del IEEE para sistemas de
almacenamiento.
• Uso de transacciones para asegurar la integridad de los datos y de Kerberos (Capítulo 9) como sistema de
seguridad.
Estructura de HPSS
La Figura 7. 16 muestra una estructura muy simplificada de HPSS. Básicamente se pueden distin guir cinco
módulos principales en el sistema de almacenamiento terciario:
• Interfaz. Utilidades para administrar y controlar el sistema de almacenamiento y para de finir políticas de
actuación.
• Servidor de nombres. Traduce nombres de usuario a identificadores de objetos HPSS, tales como
archivos o directorios. También proporciona control de acceso a los objetos.
• Localizador de archivos. Una vez resuelto el nombre, este módulo se encarga de localizar el archivo
físicamente mediante los descriptores proporcionados por el sistema de nombres.
• Reubicador de archivos. Se encarga de la transferencia de datos desde el origen al destino. Interacciona
con el servidor de nombres y el localizador de archivos para determinar si el origen y el destino son
correctos. Usa un modelo de trabajadores, en el que se crea un trabajador para cada transferencia de datos,
que realiza directamente entre el dispositivo origen y el destino.
•Gestor del sistema de almacenamiento terciario. Proporciona la jerarquía de objetos de
almacenamiento, traduce las peticiones de la interfaz de usuario a sus correspondientes dis positivos físicos
y proporciona toda la funcionalidad de gestión del sistema de E/S, incluyendo instalación, configuración,
terminación y accesos a dispositivos. Incluye también facilidades de monitorización que permiten conocer
la situación del sistema de almacenamiento y la
dpon de recursos en las d clases de d Por ú incluye fac dades de acceso a los datos.
El sistema de almacenamiento físico incluye volúmenes físicos y virtuales que pueden estar en
cualquier tipo de soporte (discos, RAID, cintas, robots de cintas, jukeboxes, SAN, etc.). Los vo lúmenes
virtuales son internos a HPSS y se forman agrupando varios volúmenes físicos bajo una
misma entidad, sobre la cual se reparten los datos. Sobre ellos se proyectan los segmentos de
almacenamiento, entidades asociadas a una clase de almacenamiento y con localización de archivos
transparentes. Estas clases de almacenamiento se organizan en jerarquías a través de las cuales pueden
migrar los archivos de acuerdo con la disponibilidad de recursos y la política de migración definida.
7.7. EL RELOJ
oscilaciones producidas por un cristal de cuarzo, genera periódicamente interrupciones (a cada una de estas
interrupciones del reloj se las suele denominar en inglés tick). Este elemento está conectado generalmente a
una línea de interrupción de alta prioridad del procesador debido a la importancia de los eventos que
produce.
La mayoría de estos temporizadores permiten programar su frecuencia de interrupción. Típi camente
contienen un registro interno que actúa como un contador que se decrementa por cada oscilación del cristal
generando una interrupción cuando llega a cero. El valor que se carga en este contador determina la
frecuencia de interrupción del temporizador, que se comporta, por tanto, como un divisor de frecuencia.
Además de ser programable la frecuencia de interrupción, estos dispositivos frecuentemente presentan
varios modos de operación seleccionables. Suelen poseer un modo de «un solo disparo» en el que cuando el
contador llega a cero y se genera la interrupción, el temporizador se desactiva hasta que se le reprograme
cargando un nuevo valor en el contador. Otro típico modo de operación es el de «onda cuadrada» en el que
al llegar a cero el contador y generar la interrupción el propio temporizador vuelve a recargar el valor
original en el contador sin ninguna intervención externa.
Hay que resaltar que generalmente un circuito de este tipo incluye varios temporizadores independientes, lo
que permite, en principio, que el sistema operativo lo use para diferentes labores. Sin embargo, en muchos
casos no todos ellos son utilizables para esta misión ya que no están conectados a líneas de interrupción del
procesador.
Un ejemplo típico de este componente es el circuito temporizador 8253 que forma parte de un PC estándar.
Tiene tres temporizadores pero sólo uno de ellos está conectado a una línea de in terrupción (en concreto, a
la línea IRQ número O). Los otros están destinados a otros usos. Por ejemplo, uno de ellos está conectado al
altavoz del equipo. La frecuencia de entrada del circuito es de 1,193 MHz. Dado que utiliza un contador
interno de 16 bits, el temporizador se puede programar en el rango de frecuencias desde 18,5 Hz (con el
contador igual a 65536) hasta 1,193 MHz (con el contador igual a 1). Cada temporizador puede
programarse de forma independiente presentando diversos modos de operación, entre ellos, el de «un solo
disparo» y el de «onda cuadrada».
Otro elemento hardware presente en prácticamente la totalidad de los equipos actuales es un reloj
alimentado por una batería (denominado en ocasiones reloj CMOS) que mantiene la fecha y la hora cuando
la máquina está apagada.
Dado que la labor fundamental del hardware del reloj es la generación periódica de interrupciones, el
trabajo principal de la parte del sistema operativo que se encarga del reloj es el manejo de estas
interrupciones. Puesto que, como se analizará a continuación, las operaciones asociadas al trata miento de
una interrupción de reloj pueden implicar un trabajo considerable, es preciso establecer un compromiso a la
hora de fijar la frecuencia de interrupción del reloj de manera que se consiga una precisión aceptable en la
medición del tiempo, pero manteniendo la sobrecarga debida al trata miento de las interrupciones en unos
términos razonables. Un valor típico de frecuencia de interrup ción, usado en muchos sistemas UNIX, es de
100 Hz (o sea, una interrupción cada 10 ms).
Hay que resaltar que, dado que las interrupciones del reloj son de alta prioridad, mientras se procesan no se
aceptan interrupciones de otros dispositivos menos prioritarios. Se debe, por tanto. minimizar la duración
de la rutina de tratamiento para asegurar que no se pierden interrupciones de menor prioridad debido a la
ocurrencia de una segunda interrupción de un dispositivo antes de que se hubiera tratado la primera. Para
evitar esta posibilidad, muchos sistemas operativos dividen el trabajo asociado con una interrupción de reloj
en dos partes:
Gestión de temporizadores
En numerosas ocasiones un programa necesita esperar un cierto plazo de tiempo antes de realizar una
determinada acción. El sistema operativo ofrece servicios que permiten a los programas es tablecer
temporizaciones y se encarga de notificarles cuando se cumple el plazo especificado (en caso de UNIX
mediante una señal). Pero no sólo los programas de usuario necesitan este meca nismo, el propio sistema
operativo también lo requiere. El módulo de comunicaciones del sistema operativo, por ejemplo, requiere
establecer plazos de tiempo para poder detectar si un mensaje se pierde. Otro ejemplo es el manejador del
disquete que, una vez arrancado el motor del mismo, requiere esperar un determinado tiempo para que la
velocidad de rotación se estabilice antes de poder acceder al dispositivo.
Dado que en la mayoría de los equipos existe un único temporizador (o un número muy reducido de ellos),
es necesario que el sistema operativo lo gestione de manera que sobre él puedan crearse los múltiples
temporizadores que puedan requerirse en el sistema en un determinado momento.
El sistema operativo maneja generalmente de manera integrada tanto los temporizadores de los procesos de
usuario como los internos. Para ello mantiene una lista de temporizadores activos. En cada elemento de la
lista se almacena típicamente el número de unidades de tiempo (para facilitar el trabajo, generalmente se
almacena el número de interrupciones de reloj requeridas) que falta para que se cumpla el plazo y la
función que se invocará cuando éste finalice. Así, en el ejemplo del disquete se corresponderá con una
función del manejador de dicho dispositivo. En el caso de una temporización de un programa de usuario, la
función corresponderá con una rutina del sistema operativo encargada de mandar la notificación al proceso
(en UNIX, la señal).
Existen diversas alternativas a la hora de gestionar la lista de temporizadores. Una organiza ción típica
consiste en ordenar la lista de forma creciente según el tiempo que queda por cumplirse el plazo de cada
temporizador. Además, para reducir la gestión asociada a cada interrupción, el plazo de cada temporizador
se guarda de forma relativa a los anteriores en la lista. Así se almacenan las unidades que quedarán
pendientes cuando se hayan cumplido todas las temporizaciones corres pondientes a elementos anteriores
de la lista. Con este esquema se complica la inserción, puesto que es necesario buscar la posición
correspondiente en la lista y reajustar el plazo del elemento situado a
continuación de la posición de inserción. Sin embargo, se agiliza el tratamiento de la interrupción 1 7.8 ya
que sólo hay que modificar el elemento de cabeza, en lugar de tener que actualizar todos los
temporizadores.
En último lugar hay que resaltar que generalmente la gestión de temporizadores es una de las operaciones
que no se ejecutan directamente dentro de la rutina de interrupción sino, como se comentó previamente, en
una rutina de menor prioridad. Esto se debe a que esta operación puede conllevar un tiempo considerable
por la posible ejecución de las rutinas asociadas a todos aquellos temporizadores que se han cumplido en la
interrupción de reloj en curso.
Contabilidad y estadísticas
Puesto que la rutina de interrupción se ejecuta periódicamente, desde ella se puede realizar un muestreo de
diversos aspectos del estado del sistema llevando a cabo funciones de contabilidad y estadística. Es
necesario resaltar que, dado que se trata de un muestreo del comportamiento de una determinada variable y
no de un seguimiento exhaustivo de la misma, los resultados no son exactos, aunque si la frecuencia de
interrupción es suficientemente alta, pueden considerarse aceptables.
Dos de las funciones de este tipo presentes en la mayoría de los sistemas operativos son las siguientes:
• Contabilidad del uso del procesador por parte de cada proceso.
• Obtención de perfiles de ejecución.
Por lo que se refiere a la primera función, en cada interrupción se detecta qué proceso está ejecutando y a
éste se le carga el uso del procesador en ese intervalo. Generalmente, el sistema operativo distingue a la
hora de realizar esta contabilidad si el proceso estaba ejecutando en modo usuario o en modo sistema.
Algunos sistemas operativos utilizan también esta información para implementar temporizadores virtuales,
en los que el reloj sólo «corre» cuando está ejecutando el proceso en cuestión, o para poder establecer
límites en el uso del procesador.
Con respecto a los perfiles, se trata de obtener información sobre la ejecución de un programa que permita
determinar cuánto tiempo tarda en ejedutarse cada parte del mismo. Esta información permite que el
programador detecte los posibles cuellos de botella del programa para poder así optimizar su ejecución.
Cuando un proceso tiene activada esta opción, el sistema operativo toma una muestra del valor del contador
de programa del proceso cada vez que una interrupción en $ cuentra que ese proceso estaba ejecutando.
La acumulación de esta información durante toda la ejecución del proceso permite que el sistema operativo
obtenga una especie de histograma de las direcciones de las instrucciones que ejecuta el programa.
7.8. EL TERMINAL
Se trata de un dispositivo que permite al usuario comunicarse con el sistema y que está presente en todos
los sistemas de propósito general actuales. Está formado típicamente por un teclado que permite introducir
información y una pantalla que posibilita su visualización.
Hay una gran variedad de dispositivos de este tipo, aunque en esta sección se analizan los dos más típicos:
los terminales serie y los proyectados en memoria. Por lo que se refiere al tipo de información usada por el
terminal, esta exposición se centra en la información de tipo texto, de jando fuera de la misma el
tratamiento de información gráfica, puesto que la mayoría de los sis temas operativos no dan soporte a la
misma.
En primer lugar se expondrá cómo es el modo de operación básico de un terminal con indepen dencia del
tipo del mismo. A continuación, se analizarán las características hardware de los termi nales. Por último, se
estudiarán los aspectos software identificando las labores típicas de un maneja dor de terminal.
7.8.1. Modo de operación del terminal
El modo de operación básico de todos los terminales es bastante similar a pesar de su gran diversi dad. La
principal diferencia está en qué operaciones se realizan por hardware y cuáles por software. En todos ellos
existe una relativa independencia entre la entrada y salida.
Entrada
Cuando el usuario pulsa una tecla en un terminal, se genera un código de tecla que la identifica. Este código
de tecla debe convertirse en el carácter ASCII correspondiente teniendo en cuenta el estado de las teclas
modificadoras (típicamente, Control, Shift y Alt). Así, por ejemplo, si está pulsada la tecla Shift al teclear la
letra “a”, el carácter resultante será “A”.
Salida
Una pantalla de vídeo está formada por una matriz de pixels. Asociada a la misma existe una memoria de
vídeo que contiene información que se visualiza en la pantalla. El controlador de vídeo es el encargado de
leer la información almacenada en dicha memoria y usarla para refrescar el contenido de la pantalla con la
frecuencia correspondiente. Para escribir algo en una determinada posición de la pantalla sólo es necesario
modificar las direcciones de memoria de vídeo correspon dientes a esa posición.
Cuando un programa solicita escribir un determinado carácter ASCII en la pantalla, se debe obtener el
patrón rectangular que representa la forma de dicho carácter, lo que dependerá del tipo de fuente de texto
utilizado. El controlador visualizará dicho patrón en la posición correspondiente de la pantalla.
Además de escribir caracteres, un programa necesita realizar otro tipo de operaciones, tales
como borrar la pantalla o mover el cursor a una nueva posición. Este tipo de operaciones están
generalmente asociadas a ciertas secuencias de caracteres.
Cuando un programa escribe una de estas secuencias, no se visualiza información en la pan talla sino que se
lleva a cabo la operación de control asociada a dicha secuencia. Típicamente, por razones históricas, estas
secuencias suelen empezar por el carácter Escape.
Terminales serie
En este tipo de terminales, como se puede apreciar en la Figura 7.18, el terminal se presenta ante el resto
del sistema como un único dispositivo conectado, típicamente a través de una línea serie RS-232. al
controlador correspondiente denominado UART (Universal Asvnchronous Receiver Transmitter,
Transmisor-Receptor Universal Asíncrono). Además de la pantalla y el teclado, el terminal tiene algún tipo
de procesador interno que realiza parte de la gestión del terminal y que permite también al usuario
configurar algunas de las características del mismo. Para poder dialogar con el terminal, se deben
programar diversos aspectos de la UART tales como la velocidad de transmisión o el número de bits de
parada que se usarán en la transmisión.
Al igual que ocurre con los terminales proyectados en memoria, la entrada se gestiona me diante
interrupciones. Cuando se pulsa una tecla, el terminal envía a través de la línea serie el carácter pulsado. La
UART genera una interrupción al recibirlo. A diferencia de los terminales proyectados en memoria, el
carácter que recoge de la UART ya es el código ASCII de la tecla pulsada puesto que el procesador del
terminal se encarga de pasar del código de la tecla al código ASCII y de comprobar el estado de las teclas
modificadoras.
Para la visualización de información en este tipo de terminales se debe cargar el código ASCII del carácter
deseado en un registro de la UART y pedir a ésta que lo transmita. Una vez
transmitido, lo que puede llevar un tiempo considerable debido a las limitaciones de la transmisión serie, la
UART produce una interrupción para indicar este hecho. Por lo que se refiere al terminal, cuando recibe el
carácter ASCII se encarga de obtener su patrón y visualizarlo en la pantalla, manejando asimismo las
secuencias de escape.
Software de entrada
Como se comentó antes, la lectura del terminal está dirigida por interrupciones. En el caso de un terminal
proyectado en memoria, el manejador debe realizar más trabajo ya que debe convertir el
código de tecla en el código ASCII correspondiente. Como contrapartida, este esquema propor ciona más
flexibilidad al poder ofrecer al usuario la posibilidad de configurar esta traducción a su conveniencia.
Una característica que debe proporcionar todo manejador de terminal es el «tecleado anti cipado» (en
inglés, tvpe ahead). Esta característica permite que el usuario teclee información antes de que el programa
la solicite, lo que proporciona al usuario una forma de trabajo mucho más cómoda. Para implementar este
mecanismo, se requiere que el manejador use una zona de alma cenamiento intermedio de entrada para
guardar los caracteres tecleados hasta que los solicite un proceso.
Otro aspecto importante es la edición de los datos de entrada. Cuando un usuario teclea unos datos puede,
evidentemente, equivocarse y se requiere, por tanto, un mecanismo que le permita corregir el error
cometido. Surge entonces la cuestión de quién se debe encargar de proporcionar esta función de edición de
los datos introducidos. Se presentan, al menos, dos alternativas. Una posibilidad es que cada aplicación se
encargue de realizar esta edición. La otra alternativa es que sea el propio manejador el que la lleva a cabo.
Para poder analizar estas dos opciones es necesario tener en cuenta los siguientes factores:
• La mayoría de las aplicaciones requieren unas funciones de edición relativamente sencillas.
• No parece razonable hacer que cada programa tenga que encargarse de tratar con la edición de su
entrada de datos. Un programador desea centrarse en resolver el problema que le concierne y, por
tanto, no quiere tener que ocuparse de la edición.
• Es conveniente que la mayoría de las aplicaciones proporcionen al usuario la misma forma de
editar la información.
• Hay aplicaciones, como por ejemplo los editores de texto, que requieren unas funciones de edición
complejas y sofisticadas.
Teniendo en cuenta estas condiciones, la mayoría de los sistemas operativos optan por una solución que
combina ambas posibilidades:
• El manejador ofrece un modo de operación en el que proporciona unas funciones de edición
relativamente sencillas, generalmente orientadas a líneas de texto individuales. Este suele ser el
modo de trabajo por defecto puesto que satisface las necesidades de la mayoría de las aplicaciones.
En los sistemas UNIX, este modo se denomina elaborado ya que el ma nejador procesa los
caracteres introducidos.
• El manejador ofrece otro modo de operación en el que no se proporciona ninguna función de
edición. La aplicación recibe directamente los caracteres tecleados y será la encargada
de realizar las funciones de edición que considere oportunas. En los entornos UNIX se califica a este modo
como crudo ya que no se procesan los caracteres introducidos. Esta forma de trabajo va a ser la usada por
las aplicaciones que requieran tener control de la edición.
Por lo que se refiere al modo orientado a línea, hay que resaltar que una solicitud de lectura de una
aplicación no se puede satisfacer si el usuario no ha introducido una línea conipleta, aunque se hayan
tecleado caracteres suficientes. Observe que esto se debe a que, hasta que no se completa una línea, el
usuario todavía tiene las posibilidades de editarla usando los caracteres de edición correspondientes.
Con respecto al modo crudo, en este caso no existen caracteres de edición aunque, como se verá a
continuación, pueden existir otro tipo de caracteres especiales. Cuando un programa solicita datos, se le
entregan aunque no se haya tecleado una línea completa. De hecho, en este modo el manejador ignora la
organización en líneas realizando un procesado carácter a carácter.
En el modo elaborado existen unos caracteres que tienen asociadas funciones de edición, pero éstos no son
los únicos caracteres que reciben un trato especial por parte del manejador. Existe un conjunto de caracteres
especiales que normalmente no se le pasan al programa que lee del terminal, como ocurre con el resto de
los caracteres, sino que activa alguna función del manejador. Estos caracteres se pueden clasificar en las
siguientes categorías:
• Caracteres de edición. Tienen asociadas función de edición tales como borrar el último carácter tecleado,
borrar la línea en curso o indicar el fin de la entrada de datos. Estos caracteres sólo se procesan si el
terminal está en modo línea. Supóngase, por ejemplo, que el carácter backspace tiene asociada la función de
borrar el último carácter tecleado. Cuando el usuario pulsa este carácter, el maiiejador lo detecta y no lo
encola en la zona donde almacena la línea en curso, sino que elimina de dicha zona el último carácter
encolado. Dentro de esta categoría, es conveniente analizar cómo se procesa el carácter que indica el final
de una línea. Observe que, estrictamente, un cambio de línea implica un retorno de carro para volver al
principio de la línea actual y un avance de la línea para pasar a la siguiente. Sin embargo, no parece que
tenga sentido obligar a que el usuario teclee ambos caracteres. Así, en los sistemas UNIX, el usuario puede
teclear tanto un retorno de carro como un carácter de nueva línea para indicar el final de la línea. El
manejador se encarga de mantener esta equivalencia y, por convención, en ambos casos entrega un carácter
de nueva línea al programa que lee del terminal.
• Caracteres para el control de procesos. Todos los sistemas proporcionan al usuario algún carácter para
abortar la ejecución de un proceso o detenerla temporalmente.
• Caracteres de control de flujo. El usuario puede desear detener momentáneamente la sa lida que genera
un programa para poder revisarla y, posteriormente, dejar que continúe apareciendo en la pantalla. El
manejador gestiona caracteres especiales que permiten rea lizar estas operaciones.
• Caracteres de escape. A veces el usuario quiere introducir como entrada de datos un ca rácter que está
definido como especial. Se necesita un mecanismo para indicar al manejador que no trate dicho carácter,
sino que lo pase directamente a la aplicación. Para ello, gene ralmente, se define un carácter de escape cuya
misión es indicar que el carácter que viene a continuación no debe procesarse. Evidentemente, para
introducir el propio carácter de escape habrá que teclear otro carácter de escape justo antes.
Por último hay que resaltar que la mayoría de los sistemas ofrecen la posibilidad de cambiar
qué carácter está asociado a cada una de estas funciones o incluso desactivar dichas funciones si se
considera oportuno.
Software de salida
La salida en un terminal no es algo totalmente independiente de la entrada. Por defecto, el inane jador hace
eco de todos los caracteres que va recibiendo en las sucesivas interrupciones del teclado. Así, la salida que
aparece en el terminal es una mezcla de lo que escriben los programas y del eco de los datos introducidos
por el usuario. Esta opción se puede desactivar, en cuyo caso el manejador no escribe en la pantalla los
caracteres que va recibiendo.
A diferencia de la entrada, la salida no está orientada a líneas de texto, sino que se escriben
directamente los caracteres que solicita el programa, aunque no constituyan una línea (Aclara ción 7.1).
El software de salida para los terminales serie es más sencillo que para los proyectados en memoria. Esto se
debe a que en los primeros el propio terminal se encarga de realizar muchas labores liberando al manejador
de las mismas. Por ello se estudiarán estos dos casos de I separada.
Terminal serie
En este tipo de terminal la salida está dirigida por interrupciones. Cuando un programa solicita escribir una
cadena de caracteres. el manejador los copia en un espacio de almacenamiento in termedio de salida. A
continuación, el manejador copia el primer carácter en el registro corres pondiente de la UART y le pide a
ésta que lo envíe al terminal. Cuando la UART genera la interrupción de fin de transmisión, el manejador
copia en ella el segundo carácter y así sucesi vamente.
Cuando recibe el carácter a través de la línea serie, el propio terminal se encarga de todas las labores
implicadas con la presentación del carácter en pantalla. Esto incluye aspectos tales como la obtención del
patrón que representa al carácter y su visualización, el manejo de caracteres que tienen alguna presentación
especial (p. ej.: el carácter campanada), la manipulación de la posición del cursor o el manejo e
interpretación de las secuencias de escape.
Terminal proyectado en memoria
La salida en este tipo de terminales implica leer del espacio del proceso los caracteres que éste desea
escribir, realizar el procesado correspondiente y escribir en la memoria de vídeo el resultado del mismo. No
se requiere, por tanto, el uso de interrupciones o de un espacio de almacenamiento de salida. Si la pantalla
está en modo alfanumérico, en la memoria de vídeo se escribe el carácter a visualizar, siendo el propio
controlador de vídeo el que se encarga de obtener el patrón que lo representa. En el caso del modo gráfico,
el propio manejador debe obtener el patrón y modificar la memoria de vídeo de acuerdo al mismo.
A diferencia de los terminales serie, en este caso el manejador debe encargarse de la presen tación de los
caracteres. Para la mayoría de ellos, su visualización implica simplemente la actua lización de la memoria
de vídeo. Sin embargo, algunos caracteres presentan algunas dificultades específicas como, por ejemplo, los
siguientes:
• Un tabulador implica mover el cursor el número de posiciones adecuadas.
• El carácter campanada (control-G) requiere que el altavoz del equipo genere un sonido.
• El carácter de borrado debe hacer que desaparezca de la pantalla el carácter anterior.
• Los caracteres de salto de línea pueden implicar desplazar el contenido de la pantalla una línea
hacia arriba cuando se introducen estando el cursor en la línea inferior. El manejador debe escribir
en el registro correspondiente del controlador de vídeo para realizar esta ope ración.
Por último, hay que recordar que en este tipo de terminales, el manejador debe encargarse de interpretar las
secuencias de escape, que normalmente requerirán modificar los registros del con trolador que permiten
mover el curso o desplazar el contenido de la pantalla.
7.9. LA RED
El dispositivo de red se ha convertido en un elemento fundamental de cualquier sistema informá tico. Por
ello, el sistema operativo ha evolucionado para proporcionar un tratamiento más exhaus tivo y sofisticado
de este dispositivo.
Se trata de un dispositivo que presenta unas características específicas que generalmente im plican un
tratamiento diferente al de otros dispositivos. Así, muchos sistemas operativos no propor cionan una
interfaz basada en archivos para el acceso a la red, aunque sí lo hacen para el resto de dispositivos. En
Linux, por ejemplo, no hay archivos en /dev que representen a los dispositivos de red. Los manejadores de
estos dispositivos de red se activan automáticamente cuando en el arranque del sistema se detecta el
hardware de red correspondiente, pero no proporcionan acceso directo a los programas de usuario.
Típicamente, el software de gestión de red del sistema operativo se organiza en tres niveles:
• Nivel de interfaz a las aplicaciones.
• Nivel de protocolos. Este nivel, a su vez, puede estar organizado en niveles que se corres ponden
con la pila de protocolos.
• Nivel de dispositivo red.
Con respecto al nivel superior, una de las interfaces más usadas es la que corresponde con los sockets del
UNIX BSD, que incluso se utiliza en sistemas Windows ( Winsock). Esta interfaz, que se describirá en el
Capítulo 10, tiene servicios específicos que sólo se usan para acceder a la red (como, por ejemplo, connect,
bind, accept y sendto), aunque usa descriptores de archivo para representar a las conexiones y permite
utilizar servicios convencionales de archivo (como read, write y close). Se puede considerar que se trata de
un nivel de sesión de OS!.
El nivel intermedio consta de una o más capas que implementan los niveles de transporte y de red de OS! (o
los niveles TCP e IP en el caso de Internet). Este nivel se encarga también de funciones de encaminamiento.
En el nivel inferior están los manejadores de los dispositivos de red que se corresponden con el nivel de
enlace de OS!. En este nivel puede haber manejadores para distintos tipos de hardware de red (Ethernet,
SLIP, etc.).
Todos estos niveles trabajan de manera independiente entre sí, lo que facilita la coexistencia de distintos
protocolos y dispositivos de red. Para lograr esta independencia se definen interfaces estándar entre los
distintos niveles.
La información viajará del nivel superior a los inferiores como resultado de una llamada de una aplicación
solicitando transferir un mensaje. El flujo inverso de información se activa con la ocurrencia de una
interrupción del dispositivo de red que indica la llegada de un mensaje.
Según la información va pasando por los distintos niveles se va añadiendo y eliminando in formación de
control. Un aspecto fundamental para conseguir una implementación eficiente del software de gestión de
red es intentar reducir lo máximo posible el número de veces que se copia la información del mensaje.
La Figura 7. 19 muestra cómo están organizados los distintos niveles de software del sistema operativo que
gestiona la red.
Servicios de entrada/salida
La mayoría de los sistemas operativos modernos proporcionan los mismos servicios para trabajar con
dispositivos de entrada/salida que los que usan con los archivos. Esta equivalencia es muy beneficiosa ya
que proporciona a los programas independencia del medio con el que trabajan. Así, para acceder a un
dispositivo se usan los típicos servicios para abrir, leer, escribir y cerrar archivos.
Sin embargo, en ocasiones es necesario poder realizar desde un programa alguna operación dependiente del
dispositivo. Por ejemplo, suponga un programa que desea solicitar al usuario una contraseña a través del
terminal. Este programa necesita poder desactivar el eco en la pantalla para
que no pueda verse la contrasefia mientras se teclea. Se requiere, por tanto, algún mecanismo para poder
realizar este tipo de operaciones dependiendo del dispositivo. Existen al menos dos posibi lidades no
excluyentes:
• Permitir que este tipo de opciones se puedan especificar como indicadores en el propio servicio
para abrir el dispositivo.
• Proporcionar un servicio que permita invocar estas opciones dependientes del dispositivo.
Debido al tratamiento diferenciado que se da al reloj, se presentan separadamente los servicios relacionados
con el mismo de los correspondientes a los dispositivos de entrada/salida conven cionales.
En cuanto a los servicios del reloj, se van a especificar de acuerdo a las tres categorías antes planteadas:
fecha y hora, temporizaciones y contabilidad. Con respecto a los servicios destinados a dispositivos
convencionales, se presentarán de forma genérica haciendo especial hincapié en los relacionados con el
terminal.
Servicio de fecha y hora
El servicio para obtener la fecha y hora es time, cuyo prototipo es el siguiente:
time_t time (time_t *t)
Esta función devuelve el número de segundos transcurridos desde el 1 de enero de 1970 en UTC. Si el
argumento no es nulo, también lo almacena en el espacio apuntado por el mismo.
Algunos sistemas UNIX proporcionan también el servicio gettimeofday que proporciona una precisión de
microsegundos.
La biblioteca estándar de C contiene funciones que transforman el valor devuelto por time a un formato
más manejable (año, mes, día, horas, minutos y segundos) tanto en UTC, la función gmtime, como en
horario local, la función localtime.
Para cambiar la hora y fecha se proporciona el servicio stime, cuyo prototipo es:
mt stime (timet *t)
Esta función fija la hora del sistema de acuerdo al parámetro recibido, que se interpreta como el número de
segundos desde el 1 de enero de 1970 en UTC. Se trata de un servicio sólo disponible para el superusuario.
En algunos sistemas UNIX existe la función settimeofday que permite realizar la misma función pero con
una precisión de microsegundos.
Todas estas funciones requieren el archivo de cabecera time . h. Como ejemplo del uso de estas funciones
se presenta el Programa 7.3 que imprime la fecha y la hora en horario local.
Programa 7.3. Programa que imprime la fecha y hora actual.
#include <stdio.h>
#inciude <time.h>
mt mamo
timet tiempo;
struct tm *fecha.
tiempo= time (NULL); fechas localtime(&tiempo)
/* hay que ajustar el año ya que lo devuelve respecto a 1900 */ printf (“%02d/%02d/%04d
%02d:%02d:%02d\n”,
fecha->tmmday, fecha->tm_mon, fecha->tm_year+1900, fecha->tmhour, fecha—>tmmin, fecha->tmsec)
return 0;
Servicios de temporización
El servicio alarm permite establecer un temporizador en POSIX. El plazo debe especiflcarse en segundos.
Cuando se cumple dicho plazo, se le envía al proceso la señal SIGALRM. Sólo se permite un temporizador
activo por cada proceso. Debido a ello, cuando se establece un temporizador, se desactiva automáticamente
el anterior. El prototipo de esta función es el siguiente:
unsigned mt alarm (unsigned mt segundos);
El argumento especifica la duración del plazo en segundos. La función devuelve el número
de segundos que le quedaban pendientes a la alarma anterior, si había alguna pendiente. Una alarma con un
valor de cero desactiva un temporizador activo.
En POSIX existen otro tipo de temporizadores que permiten establecer plazos con una mayor
resolución y con modos de operación más avanzados. Este tipo de temporizadores se activa con la función
setitimer.
Servicios de contabilidad
POSIX define diversas funciones que se pueden englobar en esta categoría. Esta sección va a presentar una
de las más usadas. El servicio times que devuelve información sobre el tiempo de ejecución de un proceso y
de sus procesos hijos. El prototipo de la función es el siguiente:
clockt times (struct tms *info)
ble Esta función rellena la zona apuntada por el puntero recibido como argumento con informa ción sobre
el uso del procesador, en modo usuario y en modo sistema, tanto del propio proceso como de sus procesos
hijos. Además, devuelve un valor relacionado con el tiempo real en el sistema
de (típicamente, el número de interrupciones de reloj que se han producido desde el arranque del
sistema). Observe que este valor no se usa de manera absoluta. Normalmente, se compara el valor
devuelto por dos llamadas a times realizadas en distintos instantes para determinar el tiempo real
transcurrido entre esos dos momentos.
El Programa 7.4 muestra el uso de esta llamada para determinar cuánto tarda en ejecutarse un programa que
recibe como argumento. La salida del programa especifica el tiempo real, el tiempo de procesador en modo
usuario y el tiempo de procesador en modo sistema consumido por el programa especificado.
Programa 7.4. Programa que muestra el tiempo real, el tiempo en modo usuario y en modo sistema que se
consume durante la ejecución de un programa.
#include <stdio.h> #include <unistd.h> #include <time.h> #include <sys/times.h>
int main(int argc, char *argv struct tms Infolnicio, InfoFin; clock_t tinicio, tfin; long tickporseg;
if (argc<2)
fprintf(stderr, “Uso: %s programa [ argv
exit(l)
/ obtiene el número de interrupciones de reloj por segundo /
tickporseg= sysconf (_SC_CLK_TCK);
t_inicio= times (&Infolnicio)
if (fork()==O)
execvp(argv &argv
perror (“error ej ecutando el programa”)
exit(l)
wait(NULL);
t_fin= times(&InfoFin)
printt(”Tiempo real: %7.2f\n”, (float) (tfin — t inicio) /tickporseg)
printf( de usuario: %7.2f\n”,
(float) (InfoFin. tms_cutime— Infolnicio.tmscutime) /tickporseg)
printf(”Tiempo de sistema: %7.2f\n”,
(float) (InfoFin.tmscstime— Infolnicio.tms_cstime) /tickporseg)
return O;
}
Servicios de entrada/salida sobre dispositivos
Corno ocurre en la mayoría de los sistemas operativos, se utilizan los mismos servicios que para acceder a
los archivos. En el caso de POSIX, por tanto, se trata de los servicios open, read, write y close. Estas
funciones se estudian detalladamente en el Capítulo 8.
Es necesario, sin embargo, un servicio que permita configurar las opciones específicas de cada dispositivo o
realizar operaciones que no se pueden expresar como un read o un write (corno, por ejemplo, rebobinar una
cinta). En UNIX existe la función ioctl, cuyo prototipo es el siguiente:
intiocti (mt descriptor, intpeticion, ..j;
El primer argumento corresponde con un descriptor de archivo asociado al dispositivo corres pondiente. El
segundo argumento es el tipo de operación que se pretende realizar sobre el dis positivo, que dependerá del
tipo de dispositivo. Los argumentos restantes, normalmente sólo Uflo, especifican los parámetros de la
operación que se pretende realizar.
El uso más frecuente de esta función es para trabajar con terminales. Sin embargo, aunque esta función se
incluya en prácticamente todas las versiones de UNIX, el estándar POSIX no la define. En el caso del
terminal, POSIX especifica un conjunto de funciones destinadas sólo a este tipo de dispositivo. Las dos más
frecuentemente usadas son tcgetattr y tcsetattr, destinadas a obtener los atributos de un terminal y a
modificarlos, respectivamente. Sus prototipos son los siguientes:
int tcgetattr (mt descriptor, struct termios *atrjb);
int tcsetattr (mt descriptor, mt opcion, struct termios *atrib);
La función tcgetattr obtiene los atributos del terminal asociado al descriptor especificado. La función
tcsetattr modifica los atributos del terminal que corresponde al descriptor pasado como parámetro. Su
segundo argumento establece cuándo se producirá el cambio: inmediatamente o después de que la salida
pendiente se haya transmitido.
La estructura termios contiene los atributos del terminal que incluye aspectos tales como el tipo de
procesado que se realiza sobre la entrada y sobre la salida, los parámetros de transmisión en el caso de un
terminal serie o la definición de qué caracteres tienen un significado especial. Dada la gran cantidad de
atributos existentes (más de 50), en esta exposición no se entrará en detalles sobre cada uno de ellos,
mostrándose simplemente un ejemplo de cómo se usan estas funciones. Como ejemplo, se presenta el
Programa 7.5 que lee una contraseña del terminal desac tivando el eco en el mismo para evitar problemas
de seguridad.
Se van a presentar clasificados en las mismas categorías que se han usado para exponer los servicios
POSIX.
Servicios de fecha y hora
El servicio para obtener la fecha y hora es GetSystemTime, cuyo prototipo es el siguiente:
BOOL GetSystemTime (LPSYSTEMTIME tiempo)
Esta función devuelve en el espacio asociado a su argumento la fecha y hora actual en una estructura
organizada en campos que contienen el año, mes, día, hora, minutos, segundos y mi lisegundos. Los datos
devueltos corresponden con el horario estándar UTC. La función GetLocal Time permite obtener
información según el horario local.
La función que permite modificar la fecha y hora en el sistema es SetSystemTime, cuyo prototipo es:
BOOL SetSystemTime (LPSYSTEMTIME tiempo);
Esta función establece la hora del sistema de acuerdo al parámetro recibido que tiene la misma
estructura que el usado en la función anterior (desde el año hasta los milisegundos actuales).
Como ejemplo se plantea el Programa 7.6 que imprime la fecha y hora actual en horario local.
Tiempo.wMinute, Tiempo.wSecond);
return O;
}
Servicios de temporización
La función setTimer permite establecer un temporizador con una resolución de milisegundos. Un proceso
puede tener múltiples ternporizadores activos simultáneamente. El prototipo es:
UINT SetTimer (HWND ventana, UINT evento, UINT plazo,
TIMERPROC funcion);
Esta función devuelve un identificador del temporizador y recibe como parámetros un iden tificador de la
ventana asociada con el temporizador (si tiene un valor nulo no se le asocia a ninguna), un identificador del
evento (este parámetro se ignora en el caso de que el temporizador no esté asociado a ninguna ventana), un
plazo en milisegundos y la función que se invocará cuando se cumpla el plazo.
Servicios de contabilidad
En Win32 existen diversas funciones que se pueden encuadrar en esta categoría. Como en el caso de
POSIX, se muestra como ejemplo el servicio que permite obtener información sobre el tiempo de ejecución
de un proceso. Esta función es GetProcessTimes y su prototipo es el siguiente:
BOOL GetProcessTimes (HANDLE proceso, LPFILETIME t_creacion,
LPFILETIME t_fin, LPFILETIME tsistema,
LPFILETIME tusuario);
Esta función obtiene para el proceso especificado su tiempo de creación y finalización, así como cuánto
tiempo de procesador ha gastado en modo sistema y cuánto en modo usuario. Todos estos tiempos están
expresados como centenas de nanosegundos transcurridas desde el 1 de enero de 1601 almacenándose en
un espacio de 64 bits. La función FileTimeToSystemTime permite transformar este tipo de valores en el
formato ya comentado de año, mes, día, hora, minutos, segundos y milisegundos.
Como ejemplo del uso de esta función, se presenta el Programa 7.7 que imprime el tiempo que tarda en
ejecutarse el programa que recibe como argumento especificando el tiempo real de ejecución, así como el
tiempo de procesador en modo usuario y en modo sistema consumido por dicho programa.
Programa 7.7. Programa que muestra el tiempo real, el tiempo en modo usuario y en modo sistema que se
consume durante la ejecución de un programa.
finclude <windows . h> #include <stdio.h>
fdefine MAX 255
mt main (mt argc, LPTSTR argv [ ])
}
int i;
BOOL result; STARTUPINFO Infolnicíal; PROCESS_INFORMATION InfoProc union
LONGLONG numero;
FILETIME tiempo;
TiempoCreacion, TiempoFin, TiempoTranscurrido;
FILETIME TiempoSistema, TiempoUsuario;
SYSTEMTIME TiempoReal, TiempoSistema, TiempoUsuario;
CHAR mandato
/* Obtiene la línea de mandato saltándose el primer argumento */ sprintf(mandato,”%s”, argv{l]);
for (i=2; i<argc; i++)
sprintf (mandato, “%s %s”, mandato, argv
GetStartuplnfo(&]info
result= CreateProcess(NULL, mandato, NULL, NULL, TRUE, NORMAL PRIORITY CLASS, NULL,
NULL, &Infolnicial,
&InfoProc)
if (! result)
fprintf(stderr, “error creando el proceso\n”);
return(l);
WaitForSingleObject(InfoProc.hProcess, INFINITE);
GetProcessTixnes(InfoProc.hProcess, &TiempoCreación. tiempo, &TiempoFin.tiempo, &TiempoSístema,
&TiempoUsuario);
TiempoTranscurrido numero= TiempoFin .numero— TiempoCreación numero;
FileTimeToSystemTime(&TiempoTranscurrido.tiempo, &TiempoReal); FileTimeToSystemTime
(&TiempoSistema, &TiempoSistema) FileTimeToSysteinTirne(&Tiempousuario, &TiempoUsuario); príntf
(“Tiempo real: %02d:%02d:%02d:%03d\n”,
TiempoReal .wHour, TiempoReal .wMinute, TiempoReal .wSecond, TiempoReal .wMilliseconds);
printf (“Tiempo de usuario: %02d:%02d:%02d:%03d\n”, TiempoUsuario.wHour, TiempoUsuario
.wMinute,
TiempoUsuario.wSecond, TiempoUsuario.wMilliseconds); printf (“Tiempo de sistema:
%02d:%02d:%02d:%03d\n”,
TiempoSistema.wHour, TiempoSistema.wMinute,
TiempoSistema.wSecond, TiempoSistema.wMilliseconds);
return O;
}
Servicios de entradalsalida
Al igual que en POSIX, para acceder a los dispositivos se usan los mismos servicios que se utilizan para los
archivos. En este caso, createFile, CloseHandie, ReadFile y WriteFile.
Sin embargo, como se ha analizado previamente, estos servicios no son suficientes para cubrir
todos los aspectos específicos de cada tipo de dispositivo. Centrándose en el caso del terminal, Win32
ofrece un servicio que permite configurar el modo de funcionamiento del mismo. Se de nomina
SetConsoleMode y su prototipo es el siguiente:
BOOL SetConsoleMode (HANDLE consola, DWORD modo);
Esta función permite configurar el modo de operación de una determinada consola. Se pueden especificar,
entre otras, las siguientes posibilidades: entrada orientada a líneas (ENABLE_LINE_IN PUT), eco activo
(ENABLE_ECHO_INPUT), procesamiento de los caracteres especiales en la salida
(ENABLE_PROCESSED_OUTPUT) y en la entrada (ENABLE_PROCESSED_INPUT).
Es importante destacar que para que se tengan en cuenta todas estas opciones de configuración hay que usar
para leer y escribir del dispositivo las funciones ReadConsole y WriteConsole, respectivamente, en vez de
utilizar ReadFile y WriteFile. Los prototipos de estas dos nuevas funciones son casi iguales que las
destinadas a archivos:
BOOL ReadConsole (HANDLE consola, LPVOID mem, DWORD a_leer,
LPDWORD leidos, LPVOID reservado);
BOOL WriteConsole (HANDLE consola, LPVOID mem, DWORD a_escribir,
LPVOID escritos, LPVOID reservado);
El significado de los argumentos de ambas funciones es el mismo que los de ReadFile y WriteFile,
respectivamente, excepto el último parámetro que no se utiliza.
Como muestra del uso de estas funciones, se presenta el Programa 7.8 que lee la información del terminal
desactivando el eco del mismo.
Programa 7.8. Programa que lee del terminal desactivando el eco.
#include <windows . h> #include <stdio.h> #define TAMMAX 32
mt main (mt argc, LPTSTR argv E])
HANDLE entrada, salida;
DWORD leídos, escritos;
BOOL result;
BYTE clave [
entrada= CreateFile(”CONIN$”, GENERIC_READ GENERIC_WRITE, O, NULL, OPENALWAYS,
FILE_ATTRIBUTE NORMAL, NULL);
if (entrada == INVALID HANDLE VALUE)
fprintf (stderr, “No puede abrirse la consola para lectura\n”);
return(l);
}
través de una instrucción de EIS. En los segundos, lo hace sobre direcciones de memoria asignadas
única mente al controlador.
Según la unidad de acceso, los dispositivos pueden ser bloques o de caracteres.
La información entre los controladores de dispositivo y la unidad central de proceso o memoria
principal se puede transferir mediante un programa que ejecuta con tinuamente. técnica que se
denomina E/S programada, o programando el dispositivo y esperando a que notifi que el fin de la
operación, técnica que se denomina E/S por interrupciones.
El DMA supone una mejora importante al incrementar la concurrencia entre la UCP y la E/S. Con
esta técnica, el controlador del dispositivo se encarga de efectuar la transferencia de datos a
memoria, liberando de este tra bajo a la UCP.
La arquitectura del sistema de entrada/salida es comple ja y está estructurada en capas, cada una de
las cuales tiene una funcionalidad bien definida.
El software de E/S del sistema operativo se estructura en las siguientes capas: manejadores de
interrupción, manejadores de dispositivos o drivers, software de E/S independiente de los
dispositivos e interfaz del sistema operativo.
Cada dispositivo de E/S. o cada clase de dispositivos, tiene un manejador asociado en el sistema
operativo. Dicho manejador incluye: código independiente del dispositivo para proporcionar al
nivel superior del sis tema operativo una interfaz de alto nivel y el código dependiente del
dispositivo necesario para programar el controlador del dispositivo a través de sus registros y
mandatos.
La mayor parte del sistema de E/S es software indepen diente de dispositivo.
La interfaz de E/S de las aplicaciones lo constituyen las bibliotecas de E/S y los procesos demonio.
La interfaz de E/S de las aplicaciones es la que define el modelo de E/S que ven los usuarios en
cuanto a nom bres. control de acceso, bloqueos, indicaciones de error y uso de estándares.
El sistema de almacenamiento secundario se usa para guardar los programas y datos en dispositivos
rápidos, de forma que sean fácilmente accesibles a las aplicacio nes a través del sistema de
archivos.
Los discos son los dispositivos básicos para llevar a cabo almacenamiento masivo y no volátil de
datos. Sus controladores más populares son SCSI e IDE. Los dis cos pueden ser duros, ópticos o
extraíbles.
Un disco duro es un dispositivo de gran capacidad com puesto por varias superficies magnetizadas
y cuyas ca bezas lectoras funcionan por efecto electromagnético. Su formato físico lo orgafliLa en
cilindros, pistas y sectores.
Una partición es una porción contigua de disco delimi tada por un sector inicial y final. La
información de dis tribución lógica del disco en subconjuntos denominados volúmenes o
particiones se almacena en una estructura denominada tabla de particiones.
El formato lógico de la partición crea un sistema de archivos dentro de dicha partición.
En LINUX y Windows NT existe un manejador gené rico para la clase de dispositivo disco y un
manejador dependiente del dispositivo para cada tipo de disco en particular.
En los discos es fundamental usar políticas de planifi cación que minimicen el movimiento de
cabezas para obtener un buen rendimiento medio del disco.
La política de planificación de disco CSCAN es la más usada en todos los sistemas operativos.
Para aquellos usuarios interesados en ver otros enfoques a los sistemas de E/S. se recomiendan los libros de
Silberschatz [ 19981, Stallings IStallings. 19981 y Tanenhaum [ 19921. Todos ellos son libros generales de
sistemas operativos que muestran una panorámica del sistema de E/S. Para una visión más detallada del
sistema de E/S del sistema operativo Windows, se puede consultar el libro de Solomon [ 19981.
Para ampliar conocimientos sobre el terna de los manejadores de dispositivo y especialmente de los de los
dispositivos de almacenamiento secundario y terciario del sistema operativo UNIX, se recomiendan los
libros de Goodheart IGoodheart. 19941. Bach Bach. 19861 y lMcKusick, 19961. Para el sistema operativo
LINUX se puede consultar el libro de Beck IBeck. 19981, titulado Linux Kernel internais. Para saber más
acerca de los manejadores del sistema operativo Windows NT, se pueden consultar los libros de Solomon
[Solomon, 19981, Nagar [Nagar, 19971 y Dekker [Dekker, 19991.
Para ver cómo es realmente el código de los manejadores de dispositivo, es recomendable el libro de
sistemas operativos basado en MINIX Tanenbaum, 19971, que incluye el listado completo de este sistema
operativo.
En cuanto a los servicios de entradalsalida, en [Stevens, 19921 se presentan los servicios de POSIX y en
[Hart, 1997] los de Win32.
7.13. EJERCICIOS
7.1 Calcule las diferencias en tiempos de acceso entre los distintos niveles de la jerarquía de EIS.
Razone la respuesta.
7.2 ¿Qué es el controlador de un dispositivo? ¿Cuáles son sus funciones?
7.3 ¿Es siempre mejor usar sistemas de E/S por inte rrupciones que programados? ¿Por qué?
7.4 ¿Qué ocurre cuando llega una interrupción de EIS? ¿Se ejecuta siempre el manejador del
dispositivo? Razone la respuesta.
7.5 Imagine un sistema donde sólo hay llamadas de E/S bloqueantes. En este sistema hay 4
impresoras,3 cintas y 3 trazadores. En un momento dado hay 3 procesos en ejecución A, B y C que
tienen la siguiente necesidad de recursos actual y futura:
I C T I C T
A l l O 1 1 2
B 1 0 1 0 1 1
C I I I 2 2 2
Determinar si el estado actual es seguro. Deter minar si las necesidades futuras se pueden satisfa
cer, usando el algoritmo del banquero. ¿Iría todo mejor con E/S no bloqueante?
7.6 Indique dos ejemplos en los que sea mejor usar E/S no bloqueante que bloqueante.
7.7 ¿Qué problemas plantea a los usuarios la E/S blo queante? ¿Y la no bloqueante?
7.8 ¿Se le ocurre alguna estructura para el sistema de E/S distinta de la propuesta en este capítulo? Razone
la respuesta.
7.9 ¿Es mejor tener un sistema de E/S estructurado por capas o monolítico? Explique las ventajas y des
ventajas de ambas soluciones?
7.10 ¿En qué componentes del sistema de E/S se llevan a cabo las siguientes tareas?
a) Traducción de bloques lógicos a bloques del dispositivo.
b) Escritura de mandatos al controlador del dispositivo.
c) Traducir los mandatos de E/S a mandatos del dispositivo.
d) Mantener una cache de bloques de E/S.
7.11 ¿En que consiste el DMA? ¿Para que sirve?
medio de búsqueda es de 6 mseg., calcule el má ximo número de dispositivos que el controlador podría
explotar de forma eficiente si hay un 20 por 1(X) de operaciones de búsqueda y un 80 por lOO de
transferencias, con un tamaño medio de 6 KB, repartidas uniformemente por los ocho dispositivos.
7.18. ¿Cuáles son las principales diferencias, desde el punto de vista del sistema operativo, entre un sis
tema de copias de respaldo y un sistema de alma cenamiento terciario complejo como HPSS?
7.19. Suponga que los dispositivos extraíbles, como las cintas, fueran tan caros como los discos. ¿Tendría
sentido usar estos dispositivos en la jerarquía de almacenamiento?
7.20. Suponga un gran sistema de computación al que se ha añadido un sistema de almacenamiento ter
ciario de alta capacidad. ¿De qué forma se puede saber si los archivos están en el sistema secundario o en el
terciario? ¿Se podrían integrar todo el árbol de nombres? Razone la respuesta.
7.2 1. En algunos sistemas, como por ejemplo Linux, se almacena en una variable el número de interrup
ciones de reloj que se han producido desde el arra nque del equipo, devolviéndolo en la llamada ti mes. Si
la frecuencia de reloj es de lOO Hz y se usa una variable de 32 bits, ¿cuánto tiempo tardará en deshordarse
ese contador? ¿Qué consecuencia puede tener ese desbordamiento?
7.22. ¿Qué distintas cosas puede significar que una fun ción obtenga un valor elevado en un perfil de eje
cución de un programa?
7.23. Proponga un método que permita a un sistema ope rativo proporcionar un servicio que ofrezca tempo
rizaciones de una duración menor que la resolu ción del reloj.
7.24. Algunos sistemas permiten realizar perfiles de eje cución de! propio sistema operativo. ¿De qué par
tes del código del sistema operativo no podrán ob tener perfiles?
7.25. Escriba el pseudocódigo de una rutina de interrup ción de reloj.
7.26. Suponga un sistema que no realiza la gestión de temporizadores directamente desde la rutina
deinterrupción sino desde una rutina que ejecuta con menor prioridad que las interrupciones de todos los
dispositivos. ¿En qué situaciones puede tomar un valor negativo el contador de un temporiza dor?
7.27. Analice para cada uno de estos programas si en su consumo del procesador predomina el tiempo gas
tado en modo usuario o en modo sistema.
• Un compilador.
• Un programa que copia un archivo.
• Un intérprete de mandatos que sea un programa que comprime un archivo.
• Un programa que resuelve una compleja fórmula matemática.
7.28. Enumere algunos ejemplos de situaciones proble máticas que podrían ocurrir si un usuario cambia la
hora del sistema retrasándola. ¿Podría haber pro blemas si el cambio consiste en adelantarla?
7.29. Escriba el pseudocódigo de las funciones de lectu ra, escritura y manejo de interrupciones para un
terminal serie.
7.30. Lo mismo que el ejercicio anterior pero en e! caso de un terminal proyectado en memoria.
7.31. Enumere ejemplos de tipos de programas que re quieran que el terminal esté en modo carácter (modo
crudo).
7.32. Escriba un programa usando servicios POSIX que lea un único carácter del terminal.
7.33. Realice el mismo programa utilizando servicios Win32.
En este capítulo se presentan los conceptos relacionados con archivos y directorios. El capí tulo
tiene tres objetivos básicos: mostrar al lector dichos conceptos desde el punto de vista de
usuario, los servicios que da el sistema operativo y los aspectos de diseño de los sistemas de
archivos y del servidor de archivos. De esta forma se pueden adaptar los contenidos del tema a
distintos niveles de conocimiento.
Para alcanzar este objetivo el capítulo se estructura en las siguientes grandes secciones:
• Visión de usuario del sistema de archivos.
• Archivos.
• Directorios.
• Servicios de archivos y directorios.
• Sistemas de archivos.
• El servidor de archivos.
419
Desde el punto de vista de los usuarios y las aplicaciones, los archivos y directorios son los elemen tos
centrales del sistema. Cualquier usuario genera y usa información a través de las aplicaciones que ejecuta
en el sistema. En todos los sistemas operativos de propósito general, las aplicaciones y sus datos se
almacenan en archivos no volátiles, lo que permite su posterior reutilización. La visión que los usuarios
tienen del sistema de archivos es muy distinta de la que tiene el sistema operativo en el ámbito interno.
Como se muestra en la Figura 8.1, los usuarios ven los archivos como un conjunto de información
estructurada según sus necesidades o las de sus aplicaciones, mientras que el sistema operativo los
contempla como conjuntos de datos estructurados según sus necesidades de almacenamiento y
representación. Además, puede darse la circunstancia de que distintos usuarios vean un mismo archivo de
forma distinta [ 19811. Un archivo de empleados, por ejemplo, puede tratarse como un conjunto de
registros indexados o como un archivo de texto sin ninguna estructura. Cuando en un sistema existen
múltiples archivos, es necesario dotar al usuario de algún mecanismo para estructurar el acceso a los
mismos. Estos mecanismos son los directorios, agrupa ciones lógicas de archivos que siguen criterios
definidos por sus creadores o manipuladores. Para facilitar el manejo de los archivos, casi todos los
sistemas de directorios permiten usar nombres lógicos, que, en general, son muy distintos de los
descriptores físicos que usa internamente el sistema operativo.
Cualquiera que sea la visión de los archivos, para los usuarios su característica principal es que no están
ligados al ciclo de vida de una aplicación en particular. Un archivo y un directorio tienen su propio ciclo de
vida. Para gestionar estos objetos, todos los sistemas operativos de propósito general incluyen servicios de
archivos y directorios [ 19961, junto con programas de utilidad que facilitan el uso de sus servicios [ 19841
y Horspool, 19921. El servidor de archivos es la parte del sistema operativo que se ocupa de facilitar el
manejo de los dispositivos periféricos, ofreciendo una visión lógica simplificada de los mismos en forma de
archivos. Median te esta visión lógica se ofrece a los usuarios un mecanismo de abstracción que oculta
todos los detalles relacionados con el almacenamiento y distribución de la información en los dispositivos
periféricos, así como el funcionamiento de los mismos. Para ello se encarga de la organización,
almacenamiento, recuperación, gestión de nombres, coutilización y protección de los archivos de un
sistema.
8.2. ARCHIVOS
Las aplicaciones de una computadora necesitan almacenar información en soporte permanente, tal como
discos o cintas. Dicha información, cuyo tamaño puede variar desde unos pocos bytes hasta
terabytes, puede tener accesos concurrentes desde varios procesos. Además, dicha información tiene su
ciclo de vida que normalmente no está ligado a una única aplicación.
En esta sección se va a estudiar la visión externa del sistema de archivos. Para ello se mostrará el concepto
de archivo, la gestión de nombres de archivos, las estructuras de archivo posibles, las semánticas de acceso,
las semánticas de coutilización y los servicios que proporcionan los sistemas operativos para gestionar
archivos.
• Protección: información de control de acceso que define quién puede hacer qué sobre el archivo, la
palabra clave para acceder al archivo, el dueño del archivo, su creador, etc.
• Tamaño del archivo: número de bytes en el archivo, máximo tamaño posible para el archi vo, etc.
• Información temporal: tiempo de creación, de último acceso, de última actualización, etc. Esta
información es muy útil para gestionar, monitorizar y proteger los sistemas de archivos.
• Información de control del archivo: que indica si es un archivo oculto, de sistema, normal o
directorio, cerrojos, etc.
El sistema operativo debe proporcionar, al menos, una estructura de archivo genérico que dé soporte a todos
los tipos de archivos mencionados anteriormente, un mecanismo de nombrado. facilidades para proteger los
archivos y un conjunto de servicios que permita explotar el almacena miento secundario y el sistema de E/S
de forma sencilla y eficiente [ 1987]. Dicha estructura debe incluir los atributos deseados para cada archivo,
especificando cuáles son visibles y cuáles están ocultos a los usuarios. La Figura 8.2 muestra tres formas de
describir un archivo: nodo-i de UNIX, registro de MFT en Windows NT y entrada de directorio de MS-
DOS. Todas ellas sirven como mapas para acceder a la información del archivo en los dispositivos de
almacenamiento.
El nodo-i de UNIX [ Bach, 1986] contiene información acerca del propietario del archivo, de su grupo, del
modo de protección aplicable al archivo, del número de enlaces al archivo, de valores de fechas de creación
y actualización, el tamaño del archivo y el tipo del mismo. Además incluye un mapa del archivo mediante
apuntadores a bloques de dispositivo que contienen datos del archi vo. A través del mapa de bloques del
nodo-i se puede acceder a cualquiera de sus bloques con un número muy pequeño de accesos a disco.
Cuando se abre un archivo, su nodo-i se trae a memoria. En este proceso se incrementa la información del
nodo-i almacenada en el disco con datos referen tes al uso dinámico del mismo, tales como el dispositivo en
que está almacenado y el número de veces que el archivo ha sido abierto por los procesos que lo están
usando.
El registro de MFT de Windows NT [Solomon, 1998] describe el archivo mediante los si guientes
atributos: cabecera, información estándar, descriptor de seguridad, nombre de archivo y datos (Fig. 8.2). A
diferencia del nodo-i de UNIX, un registro de Windows NT permite almacenar hasta 1,5 KB de datos del
archivo en el propio registro, de forma que cualquier archivo menor de ese tamaño debería caber en el
registro. Si el archivo es mayor, dentro del registro se almacena infor mación del mapa físico del archivo
incluyendo punteros a grupos de bloques de datos (Vclusters),
cada uno de los cuales incluye a su vez datos y punteros a los siguientes grupos de bloques. Cuando se abre
el archivo, se trae el registro a memoria. Si es pequeño, ya se tienen los datos del archivo. Si es grande hay
que acceder al disco para traer bloques sucesivos. Es interesante resaltar que en este sistema todos los
accesos a disco proporcionan datos del archivo, cosa que no pasa en UNIX. donde algunos accesos son sólo
para leer información de control.
En el caso de MS-DOS [Patterson, 19891, la representación del archivo es bastante más senci lla debido
principalmente a ser un sistema operativo monoproceso y monousuario. En este caso, la información de
protección no existe, limitándose a unos atributos mínimos que permiten ocultar el archivo o ponerlo como
de sólo lectura. El nombre se incluye dentro de la descripción, así como los atributos básicos y el tamaño
del archivo en KB. Además, se especifica la posición del inicio del archivo en la tabla FAT (file allocation
table), donde se almacena el mapa físico del archivo.
Un ejemplo de la primera opción fue el sistema operativo TOPS-20, que proporcionaba distin tos tipos de
archivos en su ámbito interno y ejecutaba operaciones de forma automática dependien do del tipo de
archivo. Por ejemplo, si se modificaba un archivo con código fuente Pascal, y exten sión .pas, el sistema
operativo recompilaba automáticamente la aplicación creando una nueva versión de la misma. La segunda
opción tiene un exponente claro en UNIX, sistema operativo para el que las extensiones del nombre no son
significativas, aunque sí lo sean para las aplicaciones externas. Por ello, UNIX no almacena entre los
atributos de un archivo ninguna información acerca del tipo del mismo, ya que este sistema operativo
proporciona un único tipo de archivo cuyo mode lo se basa en una tira secuencial de bytes. Unicamente
distingue algunos formatos, como los archi vos ejecutables, porque en el propio archivo existe una cabecera
donde se indica el tipo del mismo mediante un número, al que se denomina número mágico. Por supuesto,
esta característica está totalmente oculta al usuario. Por ejemplo, un compilador de lenguaje C [Kernighan,
1978] puede necesitar nombres de archivos con la extensión . c y la aplicación compress puede necesitar
nom bres con la extensión . z. Sin embargo, desde el punto de vista del sistema operativo no existe ninguna
diferencia entre ambos archivos. Windows tampoco es sensible a las extensiones de archi vos, pero sobre l
existen aplicaciones del sistema (como el explorador) que permiten asociar dichas extensiones con la
ejecución de aplicaciones. De esta forma, cuando se activa un archivo con el ratón, se lanza
automáticamente la aplicación que permite trabajar con ese tipo de archivos.
ción pueda ser interpretada. Desde el punto de vista del usuario, la información de un archivo puede
estructurarse como una lista de caracteres, un conjunto de registros secuencial o indexado, etcétera
[Stal1ings, 1988]. Desde el punto de vista de algunas aplicaciones, como por ejemplo un compilador, un
archivo de biblioteca está formado por una serie de módulos acompañados por una cabecera descriptiva
para cada módulo. La Figura 8.4 muestra algunas de estas estructuras de archivo.
Una cuestión distinta es si el sistema operativo debe proporcionar funcionalidad para múltiples estructuras
de archivos en el ámbito interno. A priori, un soporte más extenso facilita las tareas de programación de las
aplicaciones. Sin embargo, esta solución tiene dos serios inconvenientes:
• La interfaz del sistema operativo se complica en exceso.
• El diseño y la programación del propio sistema operativo son mucho más complejos.
Es por ello que los sistemas operativos más populares, como UNIX o Windows, proporcionan una
estructura interna de archivo y una interfaz de programación muy sencillos pero polivalentes, permitiendo a
las aplicaciones construir cualquier tipo de estructura para sus archivos sin que el sistema operativo sea
consciente de ello. Con la estructura de archivo que proporciona POSIX, una tira secuencial de bytes,
cualquier byte del archivo puede ser accedido directamente si se conoce su desplazamiento desde el origen
del archivo. La traslación desde estas direcciones lógicas a direc ciones físicas de los dispositivos que
albergan el archivo es distinta en cada sistema operativo, pero se basa en el mapa del archivo almacenado
como parte de los atributos del archivo. La Figura 8.5 muestra la estructura lógica y física de un archivo en
el sistema operativo UNIX.
Todos los sistemas operativos deben reconocer al menos un tipo de archivo: sus propios archi vos
ejecutables. La estructura de un archivo ejecutable está íntimamente ligada a la forma de gestio nar la
memoria y la E/S en un sistema operativo. En algunos sistemas, como VMS Kenah, 19881, los archivos
ejecutables se reconocen por su extensión. En otros, como en UNIX, porque así se
indica en el número mágico que identifica el tipo de archivo. Aunque existen distintos fii de archivos
ejecutables, como el ELF, la Figura 8.6 muestra un ejemplo simplificado de estructura de un archivo
ejecutable en el sistema operativo UNIX IChristian, 19881. Como puede verse, el siste ma operativo espera
que dicho formato incluya, al menos, cinco secciones: cabecera, texto, datos, información de carga y tabla
de símbolos. Dentro de la cabecera está la información necesaria para que el sistema operativo pueda
interpretar la estructura del ejecutable y encontrar cada uno de sus elementos (número mágico, tamaño de
las otras secciones, opciones de ejecución, etc.). Cada siste ma operativo usa un número mágico
característico para reconocer sus ejecutables.
Para poder utilizar la información almacenada en un archivo, las aplicaciones deben acceder a la misma y
almacenarla en memoria. Hay distintas formas de acceder a un archivo [ l9 aunque no todos los sistemas
operativos proporcionan todas ellas. Para una aplicación, elegir ade cuadamente la forma de acceder a un
archivo suele ser un aspecto importante de diseño, ya que, en muchos casos, el método de acceso tiene un
impacto significativo en el rendimiento de la misma. Dependiendo de que se pueda saltar de una posición a
otra de un archivo, se distinguen dos métodos de acceso principales: acceso secuencial y acceso directo.
Cuando se usa el método de acceso secuencial, lo único que se puede hacer es leer los bytes del archivo en
orden, empezando por el principio. No puede saltar de una posición del archivo a otra o leerlo desordenado.
Si se quiere volver atrás, hay que volver al principio y releer todo el archivo hasta el punto deseado. Las
operaciones más comunes son lecturas y escrituras. En una lectura, un proceso lee una porción del archivo,
como resultado de la cual se actualiza el apuntador de posición de dicho archivo a la siguiente posición de
lectura. En una escritura, un proceso puede añadir información al archivo y avanzar hasta el final de los
datos nuevos. Este modo de acceso. muy fácil de implementar, se usa muy frecuentemente en aplicaciones
que necesitan leer los archi vos completos y de forma contigua, como ocurre con editores y compiladores.
La forma de acceso secuencial se basa en un modelo de archivo almacenado en cinta magnética, pero
funciona igual mente bien en dispositivos de acceso directo. El principal problema de este método es su
falta de flexibilidad cuando hay que acceder de forma no secuencial a los datos. Para tratar de paliarlo, el
sistema MVS incluye archivos ISAM (Indexed Sequential Access Method), es decir, archivos se cuenciales
a partir de los cuales se crea un índice que indica la posición de determinados elementos y que se usa para
acceder a ellos rápidamente sin tener que estudiar todos los que hay delante de ellos. Imagine que tiene un
archivo de clientes ordenado por orden alfabético y quiere buscar a Juan y a Pepe. Deberá leer todos los
nombre y ver si son ellos. Con el método ISAM existe un archivo de índice que le dice, por ejemplo, dónde
empiezan los clientes cuyo nombre comienza por A, por B, etc. Para leer los datos de Juan puede ir
directamente a la posición del índice para la J y luego comparar los datos para buscar Juan dentro de ese
bloque. ¡Observe que, en cualquier caso, es necesario leer los datos hasta Juan!
Con la llegada de los dispositivos de acceso directo (como los discos magnéticos), surgió la forma de
acceso directo, o aleatorio [London, 19731, a un archivo. El archivo se considera como un conjunto de
registros, cada uno de los cuales puede ser un byte. Se puede acceder al mismo desordenadamente
moviendo el apuntador de acceso al archivo a uno u otro registro. Esta forma de acceso se basa en un
modelo de archivo almacenado en disco, ya que se asume que el dispositivo se puede mover aleatoriamente
entre los distintos bloques que componen el archivo. Para proporcio nar este método de acceso a las
aplicaciones, los sistemas operativos incluyen llamadas del sistema de archivos con las que se puede
modificar la posición dentro del archivo (seek) o en las que se puede especificar el número de registro o
bloque a leer o escribir, normalmente relativos al princi pio del archivo. El sistema operativo relaciona estos
números relativos con números absolutos en los dispositivos físicos de almacenamiento. Este método de
acceso es fundamental para la imple mentación de muchas aplicaciones.. Las bases de datos, por ejemplo,
usan fundamentalmente archi vos de este tipo. Imagine que tiene la lista de clientes anterior en un
dispositivo que permite acceso directo. En lugar de leer los datos hasta Juan basta con leer la posición en el
índice y saltar hasta dicha posición. Actualmente, todos los sistemas operativos usan esta forma de acceso,
mediante la cual se puede también acceder secuencialmente al archivo de forma muy sencilla, Igualmente,
sobre sistemas de acceso directo se pueden construir fácilmente otros métodos de acceso como los de
índice, registros de tamaño fijo o variable, etc. (Prestaciones 8. 1).
El uso de cualquiera de las formas de acceso anteriores no resuelve el problema del uso concurrente de un
archivo, sobre todo en el caso de que alguno de los procesos que lo accede esté modificando la información
existente en dicho archivo. En situaciones de coutilización de un archivo, las accio nes de un proceso
pueden afectar a la visión que los otros tienen de los datos o a los resultados de su aplicación. La semántica
de coutilización [Levy, 19901 especifica qué ocurre cuando varios proce sos acceden de forma simultánea
al mismo archivo y especifica el momento en el que las modifica ciones que realiza un proceso sobre un
archivo pueden ser observadas por los otros. Es necesario que el sistema operativo defina la semántica de
coutilización que proporciona para que las aplica ciones puedan estar seguras de que trabajan con datos
coherentes. Piense qué ocurriría si varios usuarios modificasen simultáneamente los mismos registros de
reservas de un tren sin ningún con trol. El estado final de la base de datos de reservas sería totalmente
impredecible. A continuación se describen las tres semánticas de coutilización más clásicas en los sistemas
operativos actuales: semántica de UNIX, de sesión y de archivos inmutables.
La semántica de UNIX consiste en que cualquier lectura de archivo vea los efectos de todas las escrituras
previas sobre ese archivo. En caso de accesos concurrentes de lectura, se deben obte ner los mismos datos.
En caso de accesos concurrentes de escritura, se escriben los datos en el orden
de llegada al sistema operativo, que puede ser distinto al que piensan los usuarios. Con esta semán- 8 tica
cada proceso trabaja con su propia imagen del archivo y no se permite que los procesos inde pendientes
compartan el apuntador de posición dentro de un archivo. Este caso sólo es posible para procesos que
heredan los archivos a través del servicio fork. En este caso, la coutilización no sólo afecta a los datos, sino
también a los metadatos del archivo, ya que una operación de lectura o escritura modificará el apuntador de
posición de acceso al archivo. Si los usuarios quieren estar seguros de que los datos se escriben sin
concurrencia, o en el orden correcto, deben usar cerrojos para bloquear los accesos al archivo.
El principal problema de la semántica de UNIX es la sobrecarga que genera en el sistema operativo, que
debe usar cerrojos a nivel interno, para asegurar que las operaciones de un usuario no modifican los
metadatos de otros y que las operaciones de escritura de los usuarios se realizan en su totalidad. Para relajar
esta política se definió la semántica de sesión [Walker, 19831, que permite que las escrituras que realiza
un proceso sobre un archivo se hagan sobre su copia y que no sean visibles para los demás procesos que
tienen el archivo abierto hasta que se cierre el archivo o se emita una orden de actualización de la imagen
del archivo. Sólo en esas situaciones los cambios realizados se hacen visibles para futuras sesiones. El
principal problema de esta semántica es que cada archivo tiene temporalmente varias imágenes distintas,
denominadas versiones. Imagine que se están modificando los datos de los clientes de una empresa
simultáneamente en varias sedes de la misma. Cuando se termina la actualización en cada una de ellas se
pide actualizar la versión defini tiva. En caso de que haya procesos que han trabajado ya con el mismo
cliente, se pueden encontrar con que su copia está obsoleta sin saberlo. Es más, pueden escribir su copia
después y guardar los
datos obsoletos. Por ello, en caso de que un proceso necesite acceder a los datos que escribe otro proceso,
ambos deben sincronizarse explícitamente abriendo y cerrando el archivo, o forzando actualizaciones de la
versión, lo que puede ser poco eficiente en aplicaciones formadas por un conjunto de procesos cooperantes.
Este tipo de semánticas se utilizan en algunos sistemas de archi vos con versiones de archivos y en sistemas
de archivos distribuidos (Aclaración 8. 1).
directorio contiene tantas entradas como archivos son accesibles a través de él, siendo la función principal
de los directorios presentar una visión lógica simple al usuario, escondiendo los detalles de implementación
del sistema de directorios. Un ejemplo de visión lógica del esquema de directo rios de Windows NT, en este
caso un esquema jerárquico, puede verse en la Figura 8.7, donde los archivos se representan mediante
iconos gráficos y los directorios se representan mediante carpetas. Esta representación permite visualizar
gráficamente la estructura de los directorios a través de aplicaciones del sistema, en este caso Microsoft
Explorer. Además permiten visualizar con prefe rencia ciertos tipos de archivos, como ejecutables o
archivos de procesadores de textos, y asociarlos con aplicaciones que se ejecutan de forma automática
cuando se pulsa con el ratón sobre dichos archivos.
Cuando se abre un archivo, el sistema operativo busca en el sistema de directorios hasta que encuentra la
entrada correspondiente al nombre del archivo. A partir de dicha entrada, el sistema operativo obtiene el
identificador interno del archivo y, posiblemente, algunos de los atributos del mismo. Esta información
permite pasar del nombre de usuario al objeto archivo que maneja el sistema operativo. Todas las
referencias posteriores al archivo se resuelven a través de su descriptor (nodo-i, registro MFT, etc.).
Al igual que un archivo, un directorio es un objeto y debe ser representado por una estructura de datos. Una
cuestión importante de diseño es decidir qué información debería ir asociada a una entrada del directorio.
La Figura 8.8 muestra varias entradas de directorio usadas en sistemas opera tivos. Como puede verse en la
figura, hay dos alternativas principales:
• Almacenar los atributos del archivo en su entrada del directorio.
• Almacenar únicamente el identificador del descriptor de archivo (en UNIX, el nodo-i) y colocar los
atributos del objeto archivo dentro de la estructura de datos asociada a su des criptor.
Los sistemas operativos modernos usan la última solución, porque tiene varias ventajas que la primera. Sin
embargo, existen sistemas operativos, como CPíM o MS-DOS, que almacenan atribu tos del archivo en su
entrada del directorio. CP/M [ Zaks, 1980] tiene un único directorio, en el que cada entrada incluye toda la
información suficiente para acceder al archivo asociado (Fig. 8.8). Por tanto, una vez encontrado el nombre
del archivo dentro del directorio, se dispone de sus atributos, su tipo y un número máximo de bloques de
disco asociados al archivo. Si se necesitan más bloques de datos es necesario asignar una nueva entrada de
directorio y fijar su posición dentro del archivo (1 a, 2. etc.) mediante el campo extendido. Esta solución
sólo permite esquemas de nombres de un único nivel. MS-DOS [Norton, 1988] tiene entradas de directorio
de 32 bytes que contienen el nombre del archivo, sus atributos, valores de tiempos y el primer bloque de
disco del archivo. A partir de este bloque, el sistema de archivos accede a una tabla de bloques del
dispositivo (FAT), dentro de la cual puede acceder a bloques sucesivos del archivo por hallarse
encadenados mediante una lista. La principal diferencia entre esta solución y la de CPÍM es que en MS-
DOS una entrada del directorio puede a su vez representar a otro directorio, con lo que se pueden definir
esquemas jerárquicos de nombres. Además, el límite en la extensión del archivo ya no está incluido en la
entrada del directorio, sino que depende del tamaño de la FAT.
En el diseño del sistema operativo UNIX se adoptó la segunda alternativa, por lo que la entrada de
directorio es una estructura de datos muy sencilla (Fig. 8.8) que contiene únicamente el nombre del archivo
asociado a ella y el identificador del descriptor de archivo, número de nodo-i, usado por el sistema
operativo [ 19941. Toda la información relativa a los atributos del archivo se almacena en su nodo-i. El uso
de una entrada de directorio como la de UNIX tiene varias ventajas:
• La entrada de directorio no se ve afectada por los cambios de atributos del archivo.
• Los nodos-i pueden representar a su vez directorios o archivos, con lo que se pueden cons truir esquemas
de nombres jerárquicos de forma sencilla.
Independientemente de cómo se defina la entrada de un directorio, es necesario organizar todas las entradas
de directorio para poder manejar los archivos existentes en un sistema de almacenamiento de forma sencilla
y eficiente. La forma de estructurar dichas entradas varía de unos sistemas a otros dependiendo de las
necesidades de cada sistema.
En sistemas operativos antiguos, como CP/M, se usaron estructuras de directorio de nivel único y
directorios con dos niveles (Fig. 8.9). En la primera existe un único directorio que contie ne todas las
entradas de archivos. Es fácil entender e implementar, pero asignar nombre a un archi vo nuevo no es fácil
por la dificultad de recordar todos los nombres o la imposibilidad de ver los de otros usuarios. En CP/M,
para evitar este problema, el número máximo de archivos que podía haber en un sistema de archivos estaba
significativamente limitado. Esto reduce el problema de gestión de nombres, pero limita el número de
archivos en un dispositivo de almacenamiento. Cuando creció la capacidad de los dispositivos de
almacenamiento, se resolvió el problema anterior extendiendo la estructura a un directorio de dos niveles,
donde cada usuario disponía de su propio directorio, reduciendo así una parte de la confusión inherente a
los directorios de nivel único. Cuando se daba de alta un nuevo usuario en el sistema, las utilidades de
administración del sistema
operativo creaban el directorio para los archivos del usuario con un nombre fijado con criterios internos al
sistema. Cuando el usuario entra al sistema, se le ponía dentro de su directorio. Para acceder a sus archivos
podía hacer dos cosas: especificar sólo el nombre del archivo relativo a su directorio (p. ej.: claves) o
especificar el nombre completo del archivo incluyendo dispositivo. directorio del usuario y nombre de
archivo (p. ej.: C: \miguel\c laves). Esta estructura mejoraba la seguridad al aislar a los usuarios, pero no se
evitaba otros problemas, tales como la gestión de nombres propios de un usuario, la imposibilidad de
agrupar los archivos de un mismo usuario con distintos criterios o el uso compartido de archivos.
Supongamos, por ejemplo, que un alumno tiene varios archivos de prácticas. Todos ellos estarían bajo el
mismo directorio, pero no podría agrupar los de las prácticas de sistemas operativos o las de arquitectura de
computadoras. Suponga ahora que la practica se lleva a cabo por un grupo de alumnos, ¿Corno pueden
compartir los archivos de la misma? Con esta estructura sería necesario copiar los archivos en los
directorios de todos ellos, con el peligro consiguiente de incoherencias entre las distintas copias, o crear un
nuevo usuario (p. ej.: grupo-l) y poner en su directorio los archivos compartidos. Esta solución era la
adoptada para permitir que todos los usuarios vieran las utilidades del sistema operativo sin tener que hacer
múltiples copias: crear un usuario especial, denominado sistema, en cuyo directorio se incluían dichas
utilidades con permisos de lectura y ejecución para todos los usuarios.
A medida que la capacidad de los dispositivos se fue incrementando, fueron también creciendo el número
de archivos almacenados por los usuarios en el sistema de archivos. Con lo que el problema de la
complejidad del nombrado, paliado por la estructura de dos niveles, volvió a parecer
a nivel de usuario. Fue pues necesario generalizar la estructura de dos niveles para obtener una estructura
jerárquica más general que permitiera a los usuarios ordenar sus archivos con criterios lógicos en sus
propios subdirectorios, sin depender de las limitaciones de los niveles de la estructura de directorios
[Organick, 1972], lo que llevó a la estructura de árbol. Una estructura de árbol representa todos los
directorios y subdirectorios del sistema partiendo de un directorio raíz, exis tiendo un camino único (path)
que atraviesa el árbol desde la raíz hasta un archivo determinado. Los nodos del árbol son directorios que
contiene un conjunto de subdirectorios o archivos. Las hojas del árbol son siempre archivos. Normalmente,
cada usuario tiene su propio directorio home a partir del cual se cuelgan sus subdirectorios y archivos y en
el que le sitúa el sistema operativo cuando entra a su cuenta. Este directorio lo decide el administrador, o
los procesos de creación de nuevos usuarios, cuando el usuario se da de alta en el sistema y está
almacenado junto con otros datos del usuario en una base de datos o archivo del sistema operativo. En el
caso de UNIX, por ejemplo, el archivo /etc/password contiene una línea por usuario del sistema, similar a la
siguiente:
miguel: * :Miguel: /users/miguel: /etc/bin
donde el directorio home es /users/miguel. MS-DOS y Windows NT tienen registros de usua rios que
también definen el directorio home.
Los usuarios pueden subir y bajar por el árbol de directorios, mediante servicios del sistema operativo,
siempre que tengan los permisos adecuados. Por ello, tanto el propio usuario como el sistema operativo
deben conocer dónde están en cada instante. Para solventar este problema se definió el concepto de
directorio de trabajo, que es el directorio en el que un usuario se encuentra en un instante determinado.
Para crear o bonar un archivo o directorio se puede indicar su nombre relativo al directorio de trabajo o
completo desde la raíz a las utilidades del sistema que llevan a cabo estas operaciones. Un problema
interesante con este tipo de estructura es cómo borrar un directorio no vacío. Hay dos soluciones posibles:
• Un directorio no se bona si no está vacío. Si tiene archivos o subdirectorios, el usuario debe borrarlos
previamente. Esta es la solución adoptada habitualmente en las llamadas a los sistemas operativos.
• Un directorio, y todo el subárbol de directorios que cuelga de él, es borrado, aunque el subárbol no esté
vacío. Esta solución existe en UNIX y Windows NT, aunque no como llamada al sistema sino como
mandato de usuario. Para evitar que un usuario borre archivos por error se solicita una confirmación del
usuario, vía opción en el mandato UNIX o confir mación en un menú gráfico en Windows NT. Si la
respuesta es afirmativa, se borra todo el subárbol recursivamente.
La estructura de árbol es muy general, pero no proporciona los servicios requeridos en algunos entornos.
Por ejemplo, puede ser interesante que varios programadores trabajando en el mismo proyecto compartan
archivos o subdirectorios llegando a los mismos por sus respectivos directorios de usuario para no tener
problemas de seguridad y protección. Esta forma de acceso no existe en la estructura de árbol porque exige
que a un archivo se llegue con único nombre. El modelo descrito, sin embargo, rompe la relación uno a uno
entre el nombre y el archivo, al requerir que un mismo archivo pueda ser accedido a través de varios
caminos. Este problema puede resolverse generali zando la estructura del árbol de directorio para
convertirla en un grafo acíclico (Fig. 8. 1 1) en el cual el mismo archivo o subdirectorio puede estar en dos
directorios distintos, estableciendo una relación unívoca nombre-archivo. La forma más habitual de
compartir archivos es crear un enlace al archivo compartido [Bach, 1986] de uno de los dos tipos
siguientes:
• Físico. Un apuntador a otro archivo o subdirectorio, cuya entrada de directorio tiene el mismo descriptor
de archivo (en UNIX, el nodo-i) que el archivo enlazado. Ambos nombres apuntan al mismo archivo.
Resolver cualquiera de los nombres de sus enlaces nos devuelve el descriptor del archivo.
• Simbólico. Un nuevo archivo cuyo contenido ese! nombre del archivo enlazado. Resolver el nombre del
enlace simbólico no da el descriptor del destino, sino el descriptor del archivo en el que está el nombre del
destino. Para acceder al destino, hay que abrir el archivo del enlace, leer el nombre del destino y resolverlo.
Para tener constancia de los enlaces físicos que tiene un archivo, se ha añadido un nuevo atributo al nodo-i
denominado contador de enlaces. Cuando se crea un enlace a un archivo, se incrementa en su nodo-i del
archivo un contador de enlaces físicos. Cuando se rompe el enlace, se decrementa dicho contador. La
existencia de enlaces introduce varios problemas en este tipo de estructura de directorio:
• Existen varios nombres para el mismo archivo. Si se quiere recorrer todo el árbol, es impor tante evitar los
bucles (Advertencia 8.1).
• El borrado de archivos se complica, ya que un mismo archivo puede ser borrado por varios caminos. Es
necesario pues determinar cuándo se puede borrar el archivo. En UNIX, el archivo no se borra hasta que no
existe ninguna referencia al mismo, lo que significa que el valor del contador de enlaces es cero. Para ello,
cuando se borra un archivo, se borra la entrada de directorio que referencia al archivo y se decrementa su
contador de enlaces. Sólo en el caso de que el contador de enlaces sea cero y de que nadie tenga abierto el
archivo se borra el archivo realmente y se liberan sus recursos.
Para evitar los problemas anteriores, algunos sistemas operativos, como MS-DOS, no permi ten la
existencia de directorios compartidos o enlaces.
El nombre absoluto de un archivo proporciona todo el camino a través del árbol de directo rios desde la
raíz hasta el archivo. Por ejemplo, en UNIX, un nombre absoluto de uno de los archivos existentes en la
Figura 8.11 sería /users/míguel/claves. Este nombre indica al siste ma de archivos que a partir del directorio
raíz (1) se debe atravesar el directorio users y, dentro de este último, el subdirectorio miguel para llegar al
archivo claves. En MS-DOS, dicho nombre absoluto se representaría como C: \users\miguel\claves. Un
nombre absoluto es autoconteni do, en el sentido de que proporciona al sistema de archivos toda la
información necesaria para llegar al archivo, sin que tenga que suponer o añadir ninguna información de
entorno del proceso o interna al sistema operativo. Algunas aplicaciones necesitan este tipo de nombres
para asegurar que sus programas funcionan independiente del lugar del árbol de directorios en que estén
situados. Por ejemplo, un compilador de lenguaje C, en una máquina que ejecuta el sistema operativo
UNIX, necesita saber que los archivos con definiciones de macros y tipos de datos están en el directorio
/usr/include. Es necesario especificar el nombre absoluto porque no es posible saber en qué directorio del
árbol instalará cada usuario el compilador.
La Figura 8.12 muestra, para el sistema operativo UNIX, las tablas que almacenan algunos de los
directorios especificados en la Figura 8.1 1. Como puede verse, el directorio raíz tiene un núme ro de nodo-
i predefinido en UNIX, el 2. A partir de sus entradas se puede interpretar cualquier nombre absoluto. Por
ejemplo, el nombre absoluto /users/miguel/claves se interpretaría de la siguiente forma:
1. Se traen a memoria las entradas existentes en el archivo con nodo-i 2.
2. Se busca dentro de ellas el nombre users y se extrae su nodo-i, el 342.
3. Se traen a memoria las entradas del archivo con nodo-i 342.
4. Se busca dentro de ellas el nombre miguel y se extrae su nodo-i, el 256.
5. Se repite el proceso con este nodo-i hasta que se encuentra el archivo claves y se obtiene su nodo-i, el
758.
La interpretación de estos nombres en MS-DOS sería similar, pero, en lugar de usar el nodo-i para acceder
a los bloques que contienen entradas de directorios, se usa la tabla FAT, por lo que los números de nodo-i
reseñados en el ejemplo se sustituirían por números de bloques de la FAT.
¿Cómo se sabe cuándo parar la búsqueda? Hay tres criterios bien definidos:
• Se ha encontrado el archivo cuyo nombre se ha especificado, en cuyo caso se devuelve el nodo-i del
archivo.
• No se ha encontrado el archivo y estamos en el último subdirectorio especificado en el nombre absoluto
(miguel). Este caso devuelve error.
sistema de archivos a otro sin que sea aparente en ningún momento el nombre del dispositivo físico o lógico
que almacena el sistema de archivos. Las dos llamadas al sistema de UNIX que realizan estas operaciones
son mount y umount [ 19851. La operación de montado permite conectar un sistema de archivos,
almacenado en un volumen o partición, a una entrada de directorio del árbol de directorios existente. A
partir de dicha operación, el sistema de archivos en el nuevo dispositivo aparece como un subárbol del árbol
de directorios, sin que exista diferencia con el resto del mismo. Sus archivos y directorios son accesibles a
través del nombre lógico. Por ejemplo, para montar /dev/hda3 de forma que se construya un árbol de
directorios como el de la Figura 8.12 se ejecuta ría el siguiente mandato:
mount /dev/hda3 /users
Desmontar (umount) un sistema de archivos es sencillo. Por ejemplo, para desconectar el
dispositivo /dev/hda3 montado en el directorio /users del sistema de archivos raíz bastaría con ejecutar el
mandato:
umount /users
Si no se está usando ningún archivo o directorio del sistema de archivos existente en
/dev/hda3, el sistema operativo lo desconecta. A partir de ese instante, el subárbol de directorios del
dispositivo no aparecerá en la jerarquía de directorios y sus datos no estarán accesibles.
Las operaciones anteriores tienen dos ventajas:
1. Ofrecen una imagen única del sistema.
2. Ocultan el tipo de dispositivo que está montado sobre un directorio.
Sin embargo, también tienen inconvenientes:
1. Complican la traducción de nombres lógicos de archivos.
2. Dan problemas cuando se quiere establecer un enlace físico entre dos archivos. Debido a estos
problemas, en UNIX sólo se puede establecer un enlace físico entre dos archivos que se encuentran en el
mismo sistema de archivos. Nunca de un archivo a otro existente en un sistema de archivos distinto.
En la Sección 8.6, dedicada al servidor de archivos, se explica con más detalle cómo se imple mentan las
operaciones anteriores.
Un archivo es un tipo abstracto de datos. Por tanto, para que esté completamente definido, es necesario
definir las operaciones que pueden ejecutarse sobre un objeto archivo. En general, los sistemas operativos
proporcionan operaciones para crear un archivo, almacenar información en él y recuperar dicha
información más tarde.
En la mayoría de los sistemas operativos modernos los directorios se implementan como archi vos que
almacenan una estructura de datos definida: entradas de directorios. Por ello, los servicios de archivos
pueden usarse directamente sobre directorios. Sin embargo, la funcionalidad necesaria para los directorios
es mucho más restringida que la de los archivos, por lo que los sistemas operati vos suelen proporcionar
servicios específicos para satisfacer dichas funciones de forma eficiente y sencilla.
En esta sección se muestran los servicios genéricos más frecuentes para archivos y directorios. A
continuación, se estudia la concreción de dichos servicios propuesta en el estándar POSIX [IEEE, 19881, y
en Win32, y se muestran ejemplos de uso de dichos servicios.
Usando servicios de POSIX se pueden consultar los atributos de un archivo. Estos atributos son una parte
de la información existente en el descriptor interno del archivo (nodo-i). Entre ellos se encuentran el
número de nodo-i, el sistema de archivos al que pertenece, su dispositivo, tiempos de creación y
modificación, número de enlaces físicos, identificación de usuario y grupo, tamaño óptimo de acceso, modo
de protección, etc. El modo de protección es especialmente importante porque permite controlar el acceso
al archivo por parte de su dueño, su grupo y el resto del mundo. En POSIX, estos permisos de acceso se
especifican usando máscaras de 9 bits con el siguiente formato:
dueño grupo mundo
rwx rwx rwx
Variando los valores de estos bits, se pueden definir los permisos de acceso a un archivo. Por ejemplo, 755
indica rwxr-xr-x. En el Capítulo 9 se estudia este tema con más profundidad.
En esta sección se describen los principales servicios de archivos descritos en el estándar POSIX [IEEE,
1988]. Estos servicios están disponibles en prácticamente todos los sistemas operati vos modernos.
Crear un archivo
Este servicio permite crear un nuevo objeto archivo. El prototipo de la llamada es:
int creat(const char *path, modet mode)
Su efecto es la creación de un archivo con nombre path y modo de protección mode. El resultado es un
descriptor de archivo interno al proceso que creó el archivo y que es el descriptor de archivo más bajo sin
usar en su tabla de descriptores. El archivo queda abierto sólo para escritura. En caso de que el archivo
exista, se trunca. En caso de que el archivo no pueda ser creado, devuelve -1 y pone el código de error
adecuado en la variable errrno.
Borrar un archivo
Este servicio permite borrar un archivo indicando su nombre. Si el archivo no está referenciado por ningún
nombre más (lo que en UNIX equivale a decir que el contador de los enlaces del nodo-i es cero) y nadie lo
tiene abierto, esta llamada libera los recursos asignados al archivo, por lo que queda inaccesible. Si el
archivo está abierto, se pospone su eliminación hasta que todos los procesos lo hayan cerrado. El prototipo
de este servicio es:
int unlink(const char *path)
El argumento path indica el nombre del archivo a borrar.
Abrir un archivo
Este servicio establece una conexión entre un archivo y un descriptor de archivo abierto, interno al proceso
que lo ha abierto. El resultado de su ejecución es el descriptor de archivo libre más bajo de su tabla de
descriptores. El prototipo de la llamada es:
int open(const char *path, mt oflag, /* modo t mode */ ..) ;
El argumento path define el nombre del archivo a abrir. El argumento of lag permite especi ficar qué tipo de
operación se quiere hacer con el archivo: lectura (O_RDONLY), escritura (O_WRONLY), lectura-escritura
(O_RDWR). añadir información nueva (O_ APPEND), creación, trunca do, escritura no bloqueante, etc. En
caso de especificar creación del archivo (O_CREAT) se debe especificar el modo de protección del mismo,
siendo el efecto de la llamada equivalente al servicio creat. Por ejemplo, creat (“archivo”, 0751) es
equivalente a operi (“archivo”, O_WRONLY O_CREAT (O_TRUNC, 0751). Si el archivo no existe, no se
puede abrir con las caracte rísticas especificadas o no se puede crear, la llamada devuelve -l y un código de
error en la variable errno.
Cerrar un archivo
La llamada close libera el descriptor de archivo obtenido cuando se abrió el archivo, dejándolo disponible
para su uso posterior por el proceso. El prototipo de la llamada es el siguiente:
int close(int fildes);
Si la llamada termina correctamente, se liberan los posibles cerrojos sobre el archivo fijados por el proceso
y se anulan las operaciones pendientes de E/S asíncrona. Además, si ningún proceso lo tiene abierto (es
decir, en UNIX el contador de aperturas del nodo-i es cero) se liberan los recursos del sistema operativo
ocupados por el archivo, incluyendo posibles proyecciones en me moria del mismo.
Leer datos de un archivo
Este servicio permite a un proceso leer datos de un archivo, que debe abrirse previamente, y copiar- los a su
espacio de memoria. El prototipo de la llamada es:
ssize_t read(int fildes, void *buf, sizet nbyte);
El descriptor de archivo se indica en fildes, la posición de memoria donde copiar los datos se especifica en
el argumento buf y el número de bytes a leer se especifica en nbyte. La lectura se lleva a cabo a partir de la
posición actual del apuntador de posición del archivo. Si la llamada se ejecuta correctamente, devuelve el
número de bytes leídos realmente, que pueden ser menos que los pedidos, y se incrementa el apuntador de
posición del archivo con esa cantidad. Si se intenta leer más allá del fin de archivo, la llamada devuelve un
cero. Si se intenta leer en una posición interme dia de un archivo que no ha sido escrita previamente, la
llamada devuelve bytes con valor cero.
Escribir datos a un archivo
Esta llamada permite a un proceso escribir en un archivo una porción de datos existente en el espacio de
memoria del proceso. Su prototipo es:
ssize_t write(int fildes, const void *buf, size_t nbyte);
El descriptor de archivo se indica en fildes, la posición de memoria donde copiar los datos se especifica en
el argumento buf y el número de bytes a escribir se especifica en nbyte. La escritura se lleva a cabo a partir
del valor actual del apuntador de posición del archivo. Si la llamada se ejecuta correctamente, devuelve el
número de bytes escritos realmente y se incrementa el valor del apuntador de posición del archivo. Si la
escritura va más allá del fin de archivo, se incrementa el tamaño del mismo. Si se especificó O_APPEND
en la apertura del archivo, antes de escribir se pone el apuntador de posición al final del archivo, de forma
que siempre se añade la información al final.
Cambio del apuntador de un archivo
Esta llamada permite cambiar el valor del apuntador de posición de un archivo abierto, de forma que
posteriores operaciones de E/S se ejecuten a partir de esa posición. Su prototipo es:
off_t lseek(int fildes, offt offset, mt whence);
El descriptor de archivo se indica en Ludes, el desplazamiento se indica en offset y el lugar de referencia
para el desplazamiento se indica en whence. Hay tres formas de indicar la posición de referencia para el
cambio de apuntador: SEEK_SET, el valor final del apuntador es offset; SEEK CUR, el valor final del
apuntador es el valor actual más offset; SEEK el valor final es la posición de fin de archivo más offset. Si la
llamada se ejecuta correctamente. devuelve el nuevo valor del apuntador de posición del archivo. Esta
llamada permite ir más allá del fin del archivo, pero no modifica el tamaño del mismo. Para que esto ocurra
hay que escribir algo en dicha posición.
rrespondiente a la representación de ese objeto archivo. Al igual que en POSIX, los procesos pue den
obtener manejadores de objetos estándar para entradalsalida (GetstdHandle, Set StdHand— le). El objetivo
de estos descriptores estándares es poder escribir programas que sean independien tes de los archivos sobre
los que han de trabajar.
Usando servicios de Win32 se pueden consultar los atributos de un archivo. Estos atributos son una parte de
la información existente en el manejador del objeto. Entre ellos se encuentran el nombre, tipo y tamaño del
archivo, el sistema de archivos al que pertenece, su dispositivo, tiempos de creación y modificación,
información de estado, apuntador de posición del archivo, información sobre cerrojos, protección, etc. El
modo de protección es especialmente importante porque permite controlar el acceso al archivo por parte de
los usuarios. Cada objeto archivo tiene asociado un descriptor de seguridad, que se describe detalladamente
en el Capítulo 9.
A continuación, se muestran los servicios más comunes para gestión de archivos que propor ciona Win32 [
19971. Como se puede ver, son similares a los de POSIX, si bien los prototipos de las funciones que los
proporcionan son bastante distintos.
Borrar un archivo
Este servicio permite borrar un archivo indicando su nombre. Esta llamada libera los recursos asignados al
archivo. El archivo no se podrá acceder nunca más. El prototipo de este servicio es:
BOOL DeleteFile(LPCTSTR lpszFileName);
El nombre del archivo a borrar se indica en lpszFileName. Devuelve TRUE en caso de éxito o FALSE en
caso de error.
Cerrar un archivo
La llamada CloseHandie libera el descriptor de archivo obtenido cuando se abrió el archivo, dejándolo
disponible para su uso posterior. El prototipo de la llamada es el siguiente:
BOOL CloseHandle(HANDLE hObject);
Si la llamada termina correctamente, se liberan los posibles cerrojos sobre el archivo fijados por el proceso,
se invalidan las operaciones pendientes y se decrementa el contador del manejador del objeto. Si el
contador del manejador es cero, se liberan los recursos ocupados por el archivo. Dv TR en caso de éxito o
FALSE en caso de error.
Para ilustrar el uso de los servicios de archivos que proporciona el sistema operativo se presenta en esta
sección el ejemplo de copia de un archivo sobre otro, pero usando llamadas de Win32.
El código fuente en lenguaje C que se corresponde al ejemplo propuesto se muestra en el Programa 8.2.
Para ver más ejemplos de programación, consulte [ Hart, 1997] y [Andrews, 1996].
Para ilustrar el uso de las funciones de conveniencia de servicios de archivos que proporciona Win32 se
resuelve también en esta sección el ejemplo de copia de un archivo sobre otro COfl la llamada CopyFile. El
código fuente en lenguaje C que se corresponde al ejemplo propuesto se muestra en el Programa 8.3. Como
se puede ver, comparando con el Programa 8.2, esta función se encarga de abrir y crear los archivos, leer y
escribir los datos y cerrar los archivos (Prestaciones 8.2).
Programa 8.3. Copia de un archivo sobre otro usando funciones de conveniencia de Win32.
finclude <windows . h>
#include <stdio.h>
mt main (mt argc, LPCTSTR argv [
if (argc 3)
fprintf (stderr, “Uso: copiar archivol archivo2 \n”fl;
return -1;
if (!CopyFile (aigv argv FALSE)) {
fprintf (stderr, “Error de copia: %x \n”, GetLastError());
}
return O;
}
Un objeto directorio está formado básicamente por un conjunto de entradas que relacionan nombres y
archivos y las operaciones para manejar dichas entradas. Estas entradas pueden tener diferente estructura,
pero en cualquier caso deben poder ser creadas, borradas, abiertas, cerradas y leídas. Además, es importante
poder recorrer la estructura de directorios y cambiar nombres de archivos. En algunos sistemas, como
UNIX, se puede también crear y romper enlaces a archivos y directo ri os.
A continuación, se hace una breve descripción de los principales servicios genéricos para directorios.
• Crear un directorio. Crea un objeto directorio y lo sitúa en el lugar del árbol de directorios donde
se especifique en el nombre, absoluto o relativo, del nuevo directorio. En el caso de POSIX, se
añaden automáticamente al nuevo directorio las entradas “.“ y
• Borrar un directorio. Elimina el objeto directorio de forma que nunca más pueda ser acce sible y
borra su entrada del árbol de directorios. Habitualmente, y salvo casos especiales. sólo se puede
borrar un directorio vacío (sin entradas).
• Abrir un directorio. Abre el archivo que contiene el directorio para leer los datos del mismo. Al
igual que un archivo, un directorio debe ser abierto para poder manipular su contenido.
• Cerrar un directorio. Cierra el archivo que contiene el directorio, liberando los recursos de
memoria y del sistema operativo relativos al mismo.
• Leer un directorio. Extrae la siguiente entrada de un directorio abierto. Devuelve una es tructura
de datos como la que define la entrada de directorio. Por tanto, es específica de cada interfaz o
sistema operativo.
• Cambiar directorio. Este servicio permite al usuario cambiar su directorio de trabajo.
• Enlazar. Permite acceder a un archivo o directorio existente mediante un nuevo nombre. Existe
una operación inversa que permite desenlazar una entrada de un directorio. No están disponibles en
todos los sistemas operativos, aunque sí en el estándar POSIX.
Los servicios anteriores son los más comunes en distintos sistemas operativos, si bien existen algunos otros
que no vamos a .describir en este libro. Se remite al lector a los manuales de cada sistema operativo en
particular para ver información acerca de otras llamadas.
dicha gestión, y evitar el problema de gestión de las entradas de directorio, el estándar POSIX define los
servicios específicos que debe proporcionar un sistema operativo para gestionar los di rectorios. En general,
se ajustan a los servicios genéricos descritos en la sección anterior. A conti nuación se describen los
servicios de directorios más comunes del estándar POSIX.
Crear un directorio
El servicio mkdir permite crear un nuevo directorio en POSIX. Su prototipo es:
int mkdir (const char *path, mode_t mode);
Esta llamada al sistema crea el directorio especificado en path con el modo de protección especificado en
mode. El dueño del directorio es el dueño del proceso que crea el directorio. En caso de éxito devuelve un
cero. En caso de error un -1.
Borrar un directorio
El estándar POSIX permite borrar un directorio especificando su nombre. El prototipo de la llama da es:
int rmdir (const char *path);
El directorio se borra únicamente cuando está vacío. Para borrar un directorio no vacío es obligatorio borrar
antes sus entradas. Esta llamada devuelve cero en caso de éxito y —l en caso de error. El comportamiento
de la llamada no está definido cuando se intenta borrar el directorio raíz o el directorio de trabajo. Si el
contador de enlaces del directorio es mayor que cero, se decrementa dicho contador y se borra la entrada
del directorio, pero no se liberan los recursos del mismo hasta que el contador de enlaces es cero.
Abrir un directorio
La función opendir abre el directorio de nombre especificado en la llamada y devuelve un identi ficador de
directorio. Su prototipo es.
DIR *opendir(const char *dirname);
El apuntador de posición indica a la primera entrada del directorio abierto. En caso de error
devuelve NULL.
Cerrar un directorio
Un directorio abierto, e identificado por dirp, puede ser cerrado ejecutando la llamada:
int closedir (DIR *dirp);
En caso de éxito devuelve O y -l en caso de error.
Leer un directorio
Este servicio permite leer de un directorio abierto, obteniendo como resultado la siguiente entrada del
mismo. Su prototipo es:
struct dirent *readdir (DIR *dirp);
En caso de error, o de alcanzar el final del directorio, devuelve NULL. Nunca devuelve entradas cuyos
nombres están vacíos.
Cambiar de directorio
Para poder viajar por la estructura de directorios, POSIX define la llamada chdir, cuyo prototipo es:
int chdir (const char *path);
El directorio destino se especifica en path. Si se realiza con éxito, esta llamada cambia el directorio de
trabajo, es decir, el punto de partida para interpretar los nombres relativos. Si falla, no se cambia al
directorio especificado.
Crear un enlace a un directorio
POSIX permite que un archivo o directorio pueda ser accedido usando nombres distintos. Para ello,
proporciona las llamadas link y symlink para enlazar un archivo o directorio a otro usando enlaces físicos o
simbólicos, respectivamente. Sus prototipos son:
int link (const char *exmstmng, const char *new);
int symlink (const char *exjstjng, const char *new);
La llamada link establece un enlace físico desde una nueva entrada de directorio, new, a un archivo ya
existente, existing. Ambos nombres deben pertenecer al mismo sistema de archivos. En caso de éxito, crea
la nueva entrada de directorio, incrementa el contador de enlaces del nodo-i del directorio o archivo
existente y devuelve un cero.
La llamada syinlink establece un enlace simbólico desde una nueva entrada de directorio, new, a un archivo
ya existente, existing. No es necesario que ambos nombres pertenezcan al mismo sistema de archivos. En
caso de éxito, crea la nueva entrada de directorio del enlace y devuelve un cero.
En caso de error, las llamadas no crean el enlace y devuelven -1.
En esta sección se presentan dos pequeños programas en lenguaje C que muestran las entradas de un
directorio, cuyo nombre se recibe como argumento.
El Programa 8.4 muestra dichas entradas por la salida estándar del sistema. Para ello, el pro grama ejecuta
la siguiente secuencia de acciones:
1. Muestra el directorio actual.
2. Imprime el directorio cuyo contenido se va a mostrar.
3. Abre el directorio solicitado.
4. Mientras existan entradas en el directorio, lee una entrada e imprime el nombre de la misma.
5. Cierra el directorio.
El código fuente en lenguaje C que se corresponde al ejemplo propuesto se muestra en el
Programa 8.4.
Programa 8.4. Programa que muestra las entradas de un directorio usando llamadas POSIX.
#include <sys/types .h> #include <dirent .h> #include <stdio.h> #include <error.h>
*define TAMANYOALM 1024
void main (mt argc, char **argv)
DIRP *dirp; struct dirent *dp; char almacen /* Comprueba que el número de
En caso contrario, termina
if (argc 2)
fprintf (stderr, “Uso: mi_ls directorio\n”);
exit(1)
/* Obtener e imprimir el directorio actual */ getcwd (almacen, TAMANYO_ALM);
printf (“Directorio actual: %s \n”, almacen); /* Abrir el directorio recibido como argumento *1 dirp =
opendir (argv [ 1] );
if (dírp == NULL) {
fprintf (stderr, “No se pudo abrir el directorio: %s \n”,
argv [ 1]);
perror ();
exit (1);
}
else
{
printf (“Entradas en el directorio: %s \n”. argv /* Toer el directorio entrada a entrada */
while ((dp = readdir(dirp)) MILL)
printf (“%s\n”, dp->d_name); /* Imprimir nombre* /
closedir (dirp);
}
exit (O);
}
Obsérvese que la ejecución de este programa ejemplo no cambia el directorio de trabajo ac tual. Por ello, si
se usan nombres absolutos, y se tienen los permisos adecuados, se pueden ver los contenidos de cualquier
directorio sin movernos del actual. Además del nombre, la estructura de directorio incluye otra información
que puede verse sin más que añadir las instrucciones para impri mir su contenido. El mandato ls de UNIX
se implementa de forma similar al ejemplo.
El Programa 8.5 copia el contenido del directorio a un archivo, cuyo nombre se recibe como parámetro.
Para ello, ejecuta acciones similares a las del Programa 8.4, pero además redirige el descriptor de salida
estándar hacia dicho archivo. El mandato ls > archivo de UNIX se imple menta de forma similar al ejemplo.
Esta llamada al sistema crea el directorio especificado en lpPathName con el modo de protec ción
especificado en lpSecurityAt tributes. El nombre del directorio puede ser absoluto para el dispositivo en que
está el proceso o relativo al directorio de trabajo. En caso de éxito devuelve
TRUE.
Borrar un directorio
Win32 permite borrar un directorio especificando su nombre. El prototipo de la llamada es:
BOOL RemoveDirectory (LPCSTR lpszPath);
El directorio lpszpath se borra únicamente cuando está vacío. Para borrar un directorio no
vacío es obligatorio borrar antes sus entradas. Esta llamada devuelve TRUE en caso de éxito.
Leer un directorio
En Win32 hay tres servicios que permiten leer un directorio: FindFirstFile, FindNextFiie y FindClose. Su
prototipos son:
HANDLE FindFirstFile (LPCSTR lpFileName,
LPWin32_FIND_DATA lpFindFileData);
BOOL FindNextFi1e(HAJ hFindFile,
LPWin32_FIND_DATA lpFindFileData);
BOOL FindClose(HANDLE hFindFile);
FindFirstFile es equivalente al opendir de POSIX. Permite obtener un manejador para buscar en un
directorio. Además, busca la primera ocurrencia del nombre de archivo especificado en lpFileName.
FindNextFile es equivalente al readdir de POSIX, permite leer la siguiente entrada de archivo en un
directorio. FindClose es equivalente a closedir de POSIX y permite cerrar el manejador de búsqueda en el
directorio.
Para ilustrar el uso de los servicios de archivos que proporciona Win32, se resuelve en esta sección un
ejemplo que muestra las entradas del directorio de trabajo. El código fuente, en lenguaje C, del ejemplo
propuesto se muestra en el Programa 8.6.
Programa 8.6. Programa que muestra las entradas del directorio de trabajo usando llamadas Win32.
*include <windows . h>
*inclLude <direct.h> #include <stdio.h>
#define LONGITUD NOMBRE MAX_PATH + 2
mt main (mt argc, LPTSTR argv {])
BOOL Flags [ LPTSTR pSlash, pNombreArchivo; mt i, IndiceArchivo; /* Almacén para el nombre del
directorio */ TCHAR Almacenpwd [ DWORD CurDirLon; / Manejador para el directorio */ HANDLE
SearchHandle; Win32_FINDDATA FindData;
/* Obtener el nombre del directorio de trabajo *1
CurDirLon = GetCurrentDirectory (LONGITUD_NOMBRE, Almacenpwd);
if (CurDirLon == O) printf(”Eallo al obtener el directorio. Error: %x\n”, GetLastError ) return —1;
if (CurDirLon > LONGITUD_NOMBRE) printf( de directorio demasiado largo. Error: %x\n”,
GetLastError () );
return -1;
/* Todo está bien. Leer e imprimir entradas / / Encontrar el \ del final del nombre, si lo hay. Si no, añadirlo
y restaurar el directorio de trabajo */ pSlash = strrchr (Almacenpwd, ‘\\‘); if (pSlash NULL) {
*pSlash = ‘\O’;
El sistema de archivos permite organizar la información dentro de los dispositivos de almacena miento
secundario en un formato inteligible para el sistema operativo. Habitualmente, cuando se instala el sistema
operativo, los dispositivos de almacenamiento están vacíos. Por ello, previa mente a la instalación del
sistema de archivos es necesario dividir física o lógicamente los discos en particiones o volúmenes
[Pinkert, 1989]. Una partición es una porción de un disco ala que se la dota de una identidad propia y que
puede ser manipulada por el sistema operatn’() como una entidad lógica independiente. Admite formato,
instalación de sistemas de archivos, comproba ciones, etc. Este objeto no es utilizable directamente por la
parte del sistema operativo que gestio na los archivos y directorios, que debe instalar un sistema de archivos
dentro de dicha partición (Aclaración 8.3). Además, en el caso de discos de arranque del sistema, los
sistemas operativos exigen que existan algunas particiones dedicadas a propósitos específicos de los
mismos, tales como arranque del sistema (partición raíz), intercambio de páginas de memoria virtual
(partición de intercambio), etc. La Figura 8.13 muestra la diferencia entre partición y disco. Un disco puede
dividirse en varias particiones o puede contener una única partición. Además, algunos sistemas operativos
modernos permiten construir particiones extendidas que engloban varias unidades de disco.
Una vez creadas las particiones, el sistema operativo debe crear las estructuras de los sistemas de archivos
dentro de esas particiones. Para ello se proporcionan mandatos como format o mkfs al usuario. Los
siguientes mandatos de UNIX crean dos sistemas de archivos, uno para intercambio y otro para datos,
dentro de dos particiones del disco duro a: /dev/hda2 y /dev/hda3:
#mkswap -c /dev/hda2 20800
#mkfs —c /dev/hda3 —b 8192 123100
El tamaño del sistema de archivos, por ejemplo 20800, se define en bloques. Un bloque se define como una
agrupación lógica de sectores de disco y es la unidad de transJ mínima que usa el sistema de archivos. Se
usan para optimizar la eficiencia de la entradalsalida de los dispositi vos secundarios de almacenamiento.
Aunque todos los sistemas operativos proporcionan un tamaño de bloque por defecto, en UNIX, los
usuarios pueden definir el tamaño de bloque a usar dentro de un sistema de archivos mediante el mandato
mkfs. Por ejemplo, -b 8192 define un tamaño de bloque de 8 KB para /dev/hda3 (Prestaciones 8.3). El
tamaño de bloque puede variar de un sistema de archivos a otro, pero no puede cambiar dentro del mismo
sistema de archivos. En mu chos casos, además de estos parámetros, se puede definir el tamaño de la
agrupación, es decir, el conjunto de bloques que se gestionan como una unidad lógica de gestión del
almacenamiento. El problema que introducen las agrupaciones, y los bloques grandes, es la existencia de
fragmentación interna. Por ejemplo, si el tamaño medio de archivo es de 6 KB, un tamaño de bloque de 8
KB introduce una fragmentación interna media de un 25 por 100. Si el tamaño de bloque fuera de 32 KB, la
fragmentación interna alcanzaría casi el 80 por 100.
Todos los sistemas operativos de propósito general incluyen un componente, denominado servidor de
archivos, que se encarga de gestionar todo lo referente a los sistemas de archivos. Este componente se
estudia en detalle en la Sección 8.6.
Cuando se crea un sistema de archivos en una partición de un disco, se crea una entidad lógica
autocontenida con espacio para la información de carga del sistema de operativo, descripción de su
estructura, descriptores de archivos, información del estado de ocupación de los bloques del sistema de
archivos y bloques de datos Goodheart, 1994]. La Figura 8.14 muestra las estructuras de un sistema de
archivos para MS-DOS, UNIX y Windows NT, así como la disposición de sus distintos componentes,
alwacenado en una partición.
En UNIX, cada sistema de archivos tiene un bloque de carga (Boot) que contiene el código que ejecuta el
programa de arranque del programa almacenado en la ROM de la computadora. Cuando se arranca la
máquina, el iniciador ROM lee el bloque de carga del dispositivo que almace na al sistema operativo, lo
carga en memoria, salta a la primera posición del código y lo ejecuta. Este código es el que se encarga de
instalar el sistema operativo en la computadora, leyéndolo desde el disco. No todos los sistemas de archivos
necesitan un bloque de carga. En MS-DOS o UNIX, por ejemplo, sólo los dispositivos de sistema, es decir,
aquellos que tienen el sistema opera tivo instalado contienen un bloque de carga válido. Sin embargo, para
mantener la estructura del sistema de archivos uniforme, se suele incluir en todos ellos un bloque reservado
para carga. El
sistema operativo incluye un número, denominado número mágico, en dicho bloque para indicar que es un
dispositivo de carga. Si se intenta cargar de un dispositivo sin número mágico, o con un valor erróneo del
mismo, el monitor ROM lo detecta y genera un error.
A continuación del bloque de carga está la metainformación del sistema de archivos (superblo que, nodos-
i,...). La metainformación describe el sistema de archivos y la distribución de suis componentes. Suele
estar agrupada al principio del disco y es necesaria para acceder al sistema de archivos. El primer
componente de la metainformación en un sistema de archivos UNIX es el superbloque (el Bloque de
Descripción del Dispositivo en Windows NT), que contiene la informa ción que describe toda la estructura
del sistema de archivos. La información contenida en el super bloque indica al sistema operativo las
características del sistema de archivos dónde están los distin tos elementos del mismo y cuánto ocupan.
Para reducir el tamaño del superbloque, sólo se indica la información que no puede ser calculada a partir de
otra. Por ejemplo, si se indica que el tamaño del bloque usado es 4 KB, que el sistema tiene 16 K nodos-i y
que el nodo-i ocupa 512 bytes, es sencillo calcular que el espacio que ocupan los nodos-i en el sistema de
archivos es 2.048 bloques. Asimis mo, si se usan mapas de bits para representar el estado de ocupación de
los nodos-i, necesitaremos 16 KB, lo que significa que el mapa de bits de los nodos-i ocuparía 4 bloques del
sistema de archivos. La Figura 8.15 muestra una parte del superbloque de un sistema de archivos de
LINUX. Como se puede ver, además de la información reseñada, se incluye información común para todos
los sistemas de archivos que proporciona el sistema operativo y una entrada para cada tipo de archivos en
particular (MINIX, MS-DOS, ISO, NFS, SYSTEM V, UFS, genérico, etc.). En este caso se incluye
información de gestión tal como el tipo del dispositivo, el tamaño de bloque, núme
ro mágico, tipo de archivo, operaciones sobre el superbloque y de cuota de disco y apuntadores a los tipos
de archivo que soporta. Para cada uno de ellos se incluye una estructura de datos para su superbioque
particular, el máximo tamaño de archivo posible, la protección que se aplica al sistema de archivos, etc.
Además, para optimizar aspectos como la búsqueda de espacio libre, se incluye información sobre la
situación del primer bloque libre y del primer descriptor de archivos libre. Como ejemplo de superbloque
particular se muestra el de MINIX.
Cuando arranca la computadora y se carga el sistema operativo, el superbioque del dispositivo de carga, o
sistema de archivos raíz, se carga en memoria en la tabla de superbioques. A medida que otros sistemas de
archivos son incorporados a la jerarquía de directorios (en UNIX se dice que son montados) sus
superbloques se cargan en la tabla de superbloques existente en memoria. La forma de enlazar unos con
otros se verá más adelante.
Tras el superbioque, el sistema de archivos incluye información de gestión de espacio en el disco. Esta
información es necesaria por dos razones: para permitir al servidor de archivos imple- mentar distintas
políticas de asignación de espacio y para reutilizar los recursos liberados para nuevos archivos y directorios.
Normalmente, los sistemas de archivos incluyen dos mapas de espa cio libre:
• información de bloques de datos, en la que se indica si un bloque de datos esta ibre o no. En caso de que
el espacio de datos se administre con agrupaciones para optimizar ‘la gestión de espacio libre, esta
información se refiere a as agrupaciones (Prestaciones .4).
• Información de la descripción física de los archivos, como nodos-i en UNIX o registros de Windows
NT, en la que se indica si un descriptor de archivo está libre o no.
Existen distintas formas de representar el espacio existente en un sistema de archivos. Las más populares
son los mapas de bits y las listas de recursos libres. Estos mecanismos se estudian en detalle en una sección
posterior.
Después de los mapas de recursos del sistema de archivos, se encuentran los descriptores físicos de
archivos. Estos descriptores, sean nodos-i de UNIX o registros de Windows NT, tienen una estructura y
tamaño variable dependiendo de cada sistema operativo, según se vio en secciones anteriores. Por ejemplo,
en LINUX ocupa 128 bytes EBokhari, 19951 y en Windows NT el registro ocupa todo un bloque de 4 KB.
El tamaño del área de descriptores de archivo es fácilmente calcula ble si se conoce el tamaño del nodo-i y
el número de nodos-i disponibles en el sistema de archivos. Normalmente, cuando se crea un sistema de
archivos, el sistema operativo habilita un número de descriptores de archivo proporcional al tamaño del
dispositivo. Por ejemplo, en LINUX se crea un nodo-i por cada 2 bloques de datos. Este parámetro puede
ser modificado por el usuario cuando crea un sistema de archivos, lo que en el caso de UNIX se hace con el
mandato mkfs (Advertencia 8.2).
El último componente del sistema de archivos son los bloques de datos. Estos bloques, bien tratados de
forma individual o bien en grupos, son asignados a los archivos por el servidor de archivos, que establece
una correspondencia entre el bloque y el archivo a través del descriptor del archivo. Tanto si se usan
bloques individuales como agrupaciones, el tamaño de la unidad de acceso que se usa en el sistema de
archivos es uno de los factores más importantes en el rendi miento de la entrada/salida del sistema
operativo. Puesto que el bloque es la mínima unidad de transferencia que maneja el sistema operativo,
elegir un tamaño de bloque pequeño, por ejemplo 5 1 2 bytes, permite aprovechar al máximo el tamaño del
disco. Así, el archivo prueba de 1,2 KB ocuparía 3 bloques y sólo desperdiciaría 1/2 bloque o el 20 por 100
del espacio de disco si todos los archivos fuesen de ese tamaño. Si el bloque fuese de 32 KB, el archivo
ocuparía un único bloque y desperdiciaría el 90 por 100 del bloque y del espacio de disco. Ahora bien,
transferir el archivo prueba, en el primer caso, necesitaría la transferencia de 3 bloques, lo que significa
buscar cada bloque en el disco, esperar el tiempo de latencia y hacer la transferencia de datos. Con bloques
de 32 KB sólo se necesitaría una operación. La Figura 8.16 muestra la relación entre tamaño de bloque,
velocidad de transferencia y porcentaje de uso del sistema de archivos, con un tamaño medio de archivo de
14 KB. Como puede verse, los dos últimos parámetros son contra dictorios, por lo que es necesario adoptar
una solución de compromiso que proporcione rendi mientos aceptables para ambos. En el caso del
dispositivo cuyos resultados se muestran en la figura, el tamaño de bloque puede estar entre 4 KB y 8 KB.
Es interesante resaltar que esta curva cambia con la tecnología de los discos y con el tamaño medio de los
archivos, que ha cambiado desde 1 KB en los sistemas UNIX de hace 15 años hasta los 14 KB medidos en
estudios más actuales. Además, el uso masivo de información multimedia tenderá a incrementar mucho el
tamaño medio de los archivos en un futuro próximo, por lo que es necesario evaluar los parámetros
cuidadosamente y
ajustarlos al tipo de almacenamiento que se llevará a cabo en cada dispositivo (general, científico,
multimedia, etc.).
Como se puede ver en la Figura 8.14, el sistema de archivos de Windows NT [ Nagar, 1997] tiene una
estructura similar al de UNIX, pero los descriptores físicos de archivos ocupan mucho más espacio en la
partición. Esto se debe a que los descriptores de Windows NT tienen un tamaño de 4 KB y no unos pocos
bytes como en UNIX. Esta estrategia permite almacenar datos en el descriptor de archivos, lo que puede
optimizar el acceso a los archivos pequeños al evitar accesos a disco para obtener el descriptor y después
los datos. Esta cuestión se estudia en detalle en la Sección 8.6.
En algunos sistemas operativos se incluyen sistemas de archivos con una estructura diferente a las
presentadas en la sección anterior. Los objetivos de estos nuevos sistemas de archivos son variados e
incluyen optimizaciones del rendimiento de la entradalsalida, incrementar la fiabilidad u ofrecer
información acerca de objetos internos del sistema operativo (como los procesos). La estructura de sistema
de archivos mostrada anteriormente tiene varios problemas:
• La metainformación del sistema de archivos (superbioque, nodos-i,...) está agrupada al prin 1 cipio
del disco y es única. Ello tiene dos consecuencias. Primero, el tiempo de búsqueda de bloques es
muy largo. Segundo, si se conompe algún bloque de metainformación, todo el sistema de archivos
queda inutilizado. El sistema FFS (fast file system) de UNIX y el EXT2 e (extended file system)
de LINUX resuelven este problema de forma similar.
• El sistema de archivos no se puede extender a varias particiones de forma natural, con lo que el
tamaño máximo de un archivo está limitado por la partición. Por ejemplo, en una partición de 2 GB
de UNIX, ése sería el máximo tamaño de archivo, aun cuando el sistema pudiera manejar archivos
de mayor tamaño. Los sistemas de archivos como los de los dispositivos RAID, los sistemas de
archivos paralelos o los sistemas de archivos con bandas de Win dows NT resuelven este
problema.
• No se explotan adecuadamente las distintas características de las operaciones de lectura y de
escritura con distintos tamaños. Un problema especialmente importante son las escrituras más
pequeñas que un bloque, habitualmente denominadas escrituras parciales. Para que la información
quede coherente, hay que leer la información del bloque, modificarla en memo ria y escribirla de
nuevo al disco. Dado que en los sistemas de propósito general la mayoría de las escrituras son
pequeñas, la estructura de sIstema de archIvos tradIcIonal es muy poco eficiente para este tipo de
operaciones. El sistema LFS (log structureed file system) resuelve este problema.
• En los antiguos sistemas operativos, la información de los procesos estaba oculta a los usuanos y
sólo se podía ver mediante mandatos del sistema operativo o usando monitores. Los sistemas
operativos modernos incluyen un sistema de archivos de tipo especial, denominado proc, dentro
del cual incluyen directorios con la información de cada proceso identificada mediante el pid. Estos
sistemas de archivos sólo existen en memoria y se crean cuando arranca el sistema operativo. La
información de cada proceso se construye dinámicamente cuando es necesario.
Fast File System (FFS)
La primera version del FFS apareció en 1984 como parte del UNIX-BSD, desarrollado en la Uni versidad
de Berkeley en 1984 [ McKusick, 1984]. Actualmente se ha convertido en el formato
estándar de gran parte de versiones del sistema operativo UNIX. El objetivo de este sistema de archivos es
doble: reducir tiempos de búsqueda en el disco e incrementar la fiabilidad. Para ello se divide la partición
en varias áreas, denominadas grupos de cilindros o de bloques. Cada grupo de cilindros contiene una
copia del superbioque, nodos-i y mapas de bits para los bloques de ese cilindro. La motivación para usar
grupos de cilindros es repartir los datos y asociar a dichos datos la metainformación correspondiente, de
forma que esté más cercana a los bloques referenciados en ella. Además, la replicación del superbioque
permite restaurar posibles fallos en uno de los super bloques. La Figura 8. 17 muestra la disposición del
sistema de archivos en una partición.
Cuando se crea el sistema de archivos, el administrador debe especificar el tamaño de los grupos de
cilindros, el número de nodos-i dentro de cada grupo y el tamaño del bloque. El servidor de archivos usa
valores por defecto en otro caso. Además de los grupos de cilindros, el FFS incluyó en su momento otras
optimizaciones:
• El servidor de archivos intenta asignar los bloques de un archivo cercanos a su nodo- y dentro del mismo
grupo de cilindros. Además, los nodos-i de los archivos se intentan colocar
en el mismo grupo de cilindros que el directorio donde se encuentran.
• Los nodos-i de los archivos creados se distribuyen por toda la partición, para evitar la con gestión de un
único grupo de cilindros.
• El tamaño de bloque por defecto se aumentó de 1 KB, usado normalmente hasta ese momen to, hasta 4
KB.
Con estas optimizaciones. el FFS consiguió duplicar el rendimiento del servidor de archivos que usaba
UNIX System V, la versión más popular de UNIX del momento. Sin embargo, la funcio nalidad interna del
servidor de archivos se complicó considerablemente, debido fundamentalmente a dos problemas:
• Cuando se llena un grupo de bloques, hay que colocar los datos restantes en otros grupos. Ello conlleva
tener una política de dispersión de bloques e información de control extra para saber dónde están dichos
bloques.
• Al incrementar el tamaño del bloque se incrementa la fragmentación interna. En 1984, el tamaño medio de
archivo en UNIX era de 1,5 KB FOusterhout, 1985}, lo que significaba que, si se dedicaba un bloque de 4
KB a un archivo, más del 50 por 100 del bloque quedaba sin usar. Pasa solventar este problema fue
necesario introducir el concepto de fragmento de un bloque.
Un fragmento es una porción de bloque del sistema de archivos que se puede asignar de fbi-ma
independiente. Obsérvese que cuando hay fragmentos, no siempre es cierto que la unidad mínima de
asignación es un bloque, por lo que es necesario gestionar también dichos fragmentos. La gestión de
fragmentos está muy relacionada con la asignación de bloques nuevos a un archivo. Cuando un archivo
crece, necesita más espacio del servidor de archivos, en cuyo caso existen dos posibilidades:
• El archivo no tiene ningún bloque fragmentado. En este caso, silos datos ocupan un bloque o más,
se le asignan bloques completos. Si los datos se ajustan al tamaño de los bloques, la operación
termina aquí. En caso de que al final quede una porción de datos menor que un bloque, se asigna al
archivo los fragmentos de bloque que necesite para almacenar dicha porción de datos.
• El archivo tiene un bloque fragmentado al final. En este caso, si los datos ocupan más que el
tamaño de bloque restante, se asigna al archivo un nuevo bloque, se copian los fragmentos al
principio del bloque y los datos restantes a continuación. En esta situación ya se puede aplicar el
caso 1. En caso de que los datos a almacenar no llenen un bloque, se asignan más fragmentos al
archivo.
Observe que un archivo sólo puede tener un bloque fragmentado al final, ya que el último será el único
bloque sin llenar totalmente. Por tanto, el servidor de archivos sólo debe mantener informa ción de
fragmentos para ese último bloque. Para seguir la pista a los fragmentos, el FFS mantiene una tabla de
descriptores de fragmentos, en la que se indica el estado de los fragmentos en los bloques fragmentados.
Como resultado de esta evolución, los sistemas de entradalsalida disponen actualmente de grandes
almacenes intermedios en memoria que permiten optimizar las operaciones de lectura de forma
espectacular. Esta optimización no se puede aplicar en la misma medida a las operaciones de escritura,
porque para mantener la fiabilidad del sistema es necesario escribir los datos a los discos, al menos, en
períodos determinados. Las escrituras parciales son especialmente ineficientes, ya que es necesario leer el
bloque afectado, modificarlo en memoria y escribirlo posteriormente a disco. La idea básica de LFS
[Douglis, 1989] y [Ousterhout, 1989] es hacer todas las operaciones de escritura de forma secuencial en un
archivo de registro intermedio del disco y, posteriormente, escribirlas en cualquier otro formato que sea
necesario. Periódicamente, el sistema recolecta las escrituras pendientes en los almacenes de memoria, los
agrupa en un segmento único de datos y los escribe a disco secuencialmente al final del registro.
Esta política permite explotar de forma óptima el ancho de banda del disco, pero presenta problemas de
rendimiento graves cuando hay que buscar elementos dentro del registro de forma aleatoria. Por ejemplo, si
se quiere leer el bloque 342 del nodo-i 45, es necesario buscar el nodo-i dentro del registro. Una vez
obtenido, se calcula la posición del bloque de forma habitual. Como el sistema de archivos no tiene una
estructura con grupos de datos situados en lugares fijos, es imposi ble calcular la posición del nodo-i. En el
peor de los casos, se deberá recorrer el registro completo para encontrarlos. Para aliviar este problema, LFS
mantiene en el disco, y en memoria, un mapa de nodos-i, ordenados por número de nodo-i, a bloques del
registro. Estos detalles, y las operaciones de control de bloques libres, complican mucho las operaciones de
mantenimiento del sistema de archivos [Blackwell 1995]. Es necesario mantener información de control de
segmentos, un resu men de contenido por segmento y control de distintas versiones del mismo archivo.
Hasta el momento se han estudiado los archivos y directorios desde el punto de vista del usuario de un
sistema operativo. Los usuarios necesitan saber cómo se manipulan los archivos, cómo se estruc turan en
directorios, cuál es el método de nombrado usado por el sistema operativo, las operaciones
La importancia de una buena gestión de los archivos y directorios se ha subestimado a menudo. Desde el
punto de vista de los usuarios, los directorios son una forma de organización de la infor mación y los
archivos son flujos de datos de los que en general se requiere velocidad y aleatori edad en los accesos. Para
satisfacer estas demandas, los servidores de archivos tienen una estructura intema que, en general, permite
acceder a los distintos dispositivos del sistema mediante archivos de distintos tipos, escondiendo estos
detalles a los usuarios.
Un servidor de archivos está compuesto por varias capas de software [Goodheart, 1994] y [ Goscinski,
1991]. Cada capa usa las características de los niveles inferiores para crear un nivel más abstracto, hasta
llegar a los servicios que se proporcionan a los usuarios. La Figura 8.19 muestra la arquitectura de un
servidor de archivos como el del sistema operativo LINUX.
El sistema de archivos virtual es el encargado de proporcionar la interfaz de llamadas de entrada/salida
del sistema y de pasar al módulo de organización de archivos la información necesa ria para ejecutar los
servicios pedidos por los usuarios. Dentro de este nivel se suele incluir: manejo de directorios, gestión de
nombres, algunos servicios de seguridad, integración dentro del servidor de archivos de distintos tipos de
sistemas de archivos y servicios genéricos de archivos y directo rios. Para ello, en casi todos los sistemas
operativos se usa una estructura de información que incluye las características mínimas comunes a todos los
sistemas de archivos subyacentes y que enlaza con un descriptor de archivo de cada tipo particular. Por
ejemplo, en UNIX esta estructura se denomina nodo-v (por nodo virtual). El nodo virtual es un objeto que
contiene información genéri ca útil, independientemente del tipo de sistema de archivos particular al que
representa el objeto. Esta información incluye:
• Atributos, tales como estado, información de protección, contadores de referencia, informa ción
acerca del tipo de sistema de archivos subyacente al que en realidad pertenece el objeto, etcétera.
• Un apuntador al nodo-i real del objeto (existente en su sistema de archivos específico).
• Un apuntador a las funciones que realmente ejecutan los servicios específicos de cada siste ma de
archivos.
La Figura 8.20 muestra la estructura de la información dentro de un nodo-y. Dentro del siste ma de archivos
virtuales se incluyen operaciones que son independientes del tipo de sistema de archivos, tales como el
mantenimiento de una cache de nombres, gestión de nodos virtuales, gestión de bloques en memoria, etc.
Cuando las operaciones son específicas del tipo de sistema de archivos subyacente, el sistema de archivos
virtual se limita a traducir los parámetros necesarios y a llamar a la operación adecuada del tipo de archivos
afectado, cuyo servicio es provisto por el módulo de organización de archivos.
El módulo de organización de archivos proporciona el modelo del archivo del sistema opera tivo y los
servicios de archivos. Es en este nivel donde se relaciona la imagen lógica del archivo con su imagen física,
proporcionando algoritmos para trasladar direcciones lógicas de bloques a sus correspondientes direcciones
físicas. Además, en este nivel se gestiona el espacio de los sistemas de archivos, la asignación de bloques a
archivos y el manejo de los descriptores de archivo (nodos-i de UNIX o registros de Windows NT). Puesto
que un mismo sistema operativo puede dar servicio para varios tipos de archivos, existirá un módulo de este
estilo por cada tipo de archivo soportado (UNIX, AFS. Windows NT, MS-DOS, EFS, MINIX, etc.). Dentro
de este nivel también se propor cionan servicios para pseudoarchi vos, tales como los del sistema de
archivos proc.
Las llamadas de gestión de archivos y de directorios particulares de cada sistema de archivos se resuelven
en el módulo de organización de archivos. Para ello se usa la información existente en el nodo-i del archivo
afectado por las operaciones. Para realizar la entrada/salida de datos a disposi tivos de distintos tipos, este
nivel se apoya en un servidor de bloques, que proporciona entra da/salida independiente de los dispositivos
a nivel de bloques lógicos.
El servidor de bloques se encarga de emitir los mandatos genéricos para leer y escribir blo ques a los
manejadores de dispositivo. La FIS de bloques de archivo, y sus posibles optimizacio -
nes, se lleva a cabo en este nivel del servidor de archivos. Las operaciones se traducen a llamadas de los
manejadores de cada tipo de dispositivo específico y se pasan al nivel inferior del sistema de archivos. Esta
capa oculta los distintos tipos de dispositivos, usando nombres lógicos para los mismos. Por ejemplo,
/dev/hda3 será un dispositivo de tipo hard disk (hd), cuyo nombre princi pal es a y en el cual se trabaja
sobre su partición 3. Los mecanismos de optimización de la FIS. como la cache de bloques, se incluye en
este nivel.
El nivel inferior incluye los manejadores de dispositivo. Existe un manejador por cada dispo sitivo, o
clase de dispositivo, del sistema. Su función principal es recibir órdenes de EIS de alto nivel, tal como
move_to_block 234, y traducirlas al formato que entiende el controlador del dispositivo, que es dependiente
de su hardware. Habitualmente, cada dispositivo tiene una cola de peticiones pendientes, de forma que un
manejador puede atender simultáneamente a varios disposi tivos del mismo tipo. Por tanto, una de las
principales funciones de los manejadores de dispositivos es recibir las peticiones de entradalsalida y
colocarlas en el lugar adecuado de la cola de peticiones del dispositivo afectado. La política de inserción en
cada cola puede ser diferente, dependiendo del tipo de dispositivo o de la prioridad de los dispositivos. Para
un disco, por ejemplo, se suele usar la política CSCAN.
La Figura 8.21 muestra el flujo de datos en el servidor de archivos debido a una llamada read, así
omnb1snperaLzinnasna ar1aspara diíibn fl El usuario ve tun vPctnr de hyte yue san
colectivamente descritos mediante un descriptor de archivo, un apuntador de posición en el archivo y el
número de bytes a leer. Los datos a leer pueden no estar alineados con el principio de un bloque lógico y el
número de bytes pedidos puede no ser múltiplo del tamaño de bloque lógico. Cuando el sistema de archivos
virtual recibe la petición de lectura, comprueba el tipo de sistema de archivos al que pertenece el archivo (p.
ej.: FES) y llama a la rutina de lectura particular del mismo. El módulo servidor de FFS comprueba ‘la
dirección de’l apuntador y e’l tamaño de buffer y ca’icu ‘ius rnoques a leer. Como puede verse en la figura,
es habitual que sólo se necesite un fragmento del bloque inicial y final de la petición. Sin embargo, puesto
que el sistema de archivos trabaja con bloques, es necesario leer ambos bloques completos. Una vez
calculados los bloques, se envía la petición al servidor de bloques. A continuación se solicitan los bloques
al manejador de disco. Una vez terminada la opera ción de lectura, los bloques se copian al espacio del
usuario.
Para crear un nuevo archivo, las aplicaciones llaman al sistema de archivos virtual mediante la llamada al
sistema crea Con esta llamada, el sistema crea un descriptor virtual para el nuevo archivo, en el que incluye
la información de protección del mismo. El módulo de organización de archivos del tipo requerido, a
petición del sistema de archivos virtual, se encarga de crear un des criptor de archivo de ese tipo,
incluyendo en él la información recibida del nivel superior. A conti nuación modifica la estructura de los
directorios. Para ello lee la información del directorio donde se quiere crear el archivo y la trae a memoria.
Para ello llama al módulo de organización de archi vos correspondiente al directorio (los directorios no son
sino archivos especiales), que a su vez se encarga de llamar al gestor de bloques para leer los bloques del
directorio a memoria. Si todo es correcto, la actualiza con la entrada del nuevo directorio y la escribe
inmediatamente al disco. La escritura del directorio hace un recorrido similar al de la lectura, pero los
bloques van de memoria al disco.
En este momento ya existe el nuevo objeto archivo. En el caso de UNIX, el archivo está vacío y, por tanto,
no tiene ningún bloque asociado. En el caso de Windows NT, el archivo ya dispone de la parte de datos de
su registro para almacenar información válida. El descriptor asignado al archivo es el primero que se
encuentra libre en el mapa de bits, o lista de descriptores libres, del sistema de archivos al que pertenece el
archivo creado. Para trabajar con dicho archivo es necesario empezar una sesión abriendo el archivo (open).
La implementación de las llamada open en un sistema operativo multiproceso, como UNIX, en el que
varios procesos pueden abrir y cerrar el mismo archivo simultáneamente, es más complicada que en
sistemas operativos monoproceso como MS-DOS. Si los procesos pueden compartir un mismo archivo,
¿qué valor tendrá en cada momento
el apuntador de posición del archivo? Si los procesos son independientes, cada uno debe tener su propio
apuntador de posición. ¿Dónde se almacena dicho valor? La solución más obvia es ponerlo en el nodo-y
que representa al archivo, dentro de la tabla de nodos-v [Goodheart, 1994]. Dicha tabla almacena en
memoria los nodos-v de los archivos abiertos. En ella se almacena la información del nodo-y existente en el
disco y otra que se usa dinámicamente y que sólo tiene sentido cuando el archivo está abierto. El problema
es que, si sólo hay un campo de apuntador, cada operación de un proceso afectaría a todos los demás. Una
solución a este problema podría ser la inclusión de un apuntador por proceso con el archivo abierto. Pero
entonces, ¿cuál sería el tamaño del nodo-y? Y ¿cuál debería ser el número de apuntadores disponibles? Se
puede concluir que esa información no se puede incluir en el nodo-y sin crear problemas de diseño e
implementación importantes en el sistema operativo. Parece pues necesario desacoplar a los procesos que
temporalmente usan el objeto de la representación del objeto en sí.
Una posible solución para desacoplar a los procesos que usan el archivo de la representación interna del
mismo podría ser incluir la información relativa al archivo dentro del bloque de descripción del proceso
(BCP). En este caso, dentro del BCP de un proceso se incluiría una tabla de archivos abiertos (tdaa) con
sus descriptores temporales y el valor del apuntador de posición del archivo para ese proceso. El tamaño de
esta tabla define el máximo número de archivos que cada proceso puede tener abierto de forma simultánea.
La Figura 8.22 muestra las tablas de descriptores de archivos abiertos por varios procesos en el sistema
operativo UNIX. El descriptor de archivo fd indica el lugar de tabla. La tdaa se rellena de forma ordenada,
de forma que siempre se ocupa la primera posición libre de la tabla. Cuando se realiza una operación open,
el sistema de archivos busca desde la posición o hasta que encuentra una posición libre, siendo ésa la
ocupada. Cuando se cierra un archivo (close), se marca como nula la correspondiente posición de la tdaa.
En los sistemas UNIX cada proceso tiene tres descriptores de archivos abiertos por defecto. Estos descrip
tores ocupan las posiciones O a 2 y reciben los siguientes nombres:
• Entrada estándar, fd = O.
• Salida estándar, fd = 1.
• Error estándar, fd = 2.
El objetivo de estos descriptores estándar es poder escribir programas que sean independientes de los
archivos sobre los que han de trabajar. En efecto, uno de los elementos del BCP que se conserva cuando se
cambia el programa de un proceso (con el servicio POSIX exec) es la tabla de descriptores de archivo. Por
tanto, basta con que un proceso coloque adecuadamente los descripto res estándar y que luego invoque la
ejecución del mencionado programa, para que éste utilice los archivos previamente seleccionados.
Con la daa, el nodo-i queda libre de los problemas anteriores, pero surgen problemas cuando dos o más
procesos comparten el mismo archivo y su apuntador de posición. Esta situación se da cuando se ejecuta
una llamada fork con semántica POSIX, llamada de la que nace un nuevo proceso hijo que comparte con el
padre su tdaa, lo que debe incluir el apuntador de posición de los archivos. Ahora bien, al duplicar el BCP
si el hijo y el padre hacen operaciones de EIS distintas, los apuntadores difieren porque cada uno tiene su
propio apuntador. Para solucionar este problema, algunos sistemas operativos, como UNIX, introducen una
tabla intermedia entre la tabla de archi vos del BCP y la tabla de nodos-i (Fig. 8.22). Dicha tabla incluye,
entre otras cosas:
• La entrada del nodo-i del archivo abierto en la tabla de nodos-i.
• El apuntador de posición correspondiente al proceso, o procesos. que usan el archivo durante esa
sesión.
• El modo de apertura del archivo.
La introducción de esta tabla permite resolver los problemas anteriores, ya que cada proceso puede tener
sus propios descriptores de archivo, evitando tener dicha información en el nodo-i, y permite que varios
procesos puedan compartir no sólo el mismo archivo, sino también el mismo apuntador de posición dentro
de un archivo.
Un problema similar al anterior surge cuando se implementan otras llamadas. Por ejemplo, un proceso
puede bloquear todo o parte de un archivo, siendo esa información propia del proceso pero a su vez
compartida con sus posibles procesos hijos. Un caso similar ocurre si se permite a los procesos proyectar
archivos en memoria. Normalmente, todos estos casos se resuelven introdu ciendo nuevas tablas
intermedias que desacoplen los procesos de la descripción del archivo en sí (nodo-i), al estilo de las tablas
anteriores.
Cuando la aplicación quiere añadir información al archivo, el servidor de archivos debe deci dir dos cosas:
1. Cómo hacer corresponder los bloques de disco con la imagen del archivo que tiene la aplicación.
2. Cómo asignar bloques de disco libres para almacenar la información del archivo.
A continuación, se presentan las soluciones más frecuentes a estos dos problemas.
Una de las cuestiones más importantes del diseño y la implementación de un servidor de archivos es cómo
asignar los bloques de disco a un archivo y cómo hacerlos corresponder con la imagen del archivo que tiene
la aplicación. Este problema se resuelve con lo que tradicionalmente se conoce como mecanismos de
asignación [Koch, 1987]. En distintos sistemas operativos se han propuesto varias políticas, existiendo dos
variantes claras:
el tamaño total del archivo cuando se crea, puede ser necesario buscar un nuevo hueco de bloques
consecutivos cada vez que el archivo crece [ 19891. Además, la necesidad de buscar huecos contiguos
origina una gran fragmentación externa en el disco, ya que hay muchos huecos no utilizables debido a la
política de asignación. Sería pues necesario com pactar el disco muy frecuentemente. Debido a estas
desventajas, ningún sistema operativo moderno usa este método, a pesar de que la representación interna
del archivo es muy senci lla: basta con conocer el primer bloque del archivo y su longitud.
• Asignación de bloques no contiguos. Con este método se asigna al archivo el primer bloque que se
encuentra libre. De esta forma se elimina el problema de la fragmentación externa del disco y el de la
búsqueda de huecos. Además, los archivos pueden crecer mientras exista espacio en el disco. Sin embargo,
este método complica la implementación de la imagen de archivo que usa el servidor de archivos. La razón
es que se pasa de un conjunto de bloques contiguos a un conjunto de bloques dispersos, debiendo conocer
dónde están dichos blo ques y en qué orden deben recorrerse.
Para resolver el problema de mantener el mapa de bloques discontiguos de un archivo, casi todos los
sistemas operativos han propuesto usar una lista de bloques, una lista en combinación con un índice o un
índice multinivel para optimizar el acceso. En una lista enlazada desde cada bloque de un archivo existe un
apuntador al siguiente bloque del mismo. En el descriptor del archivo se indica únicamente el primer
bloque del archivo. Este método tiene varias desventajas:
• No es adecuado para accesos aleatorios, ya que hay que leer todos los bloques para recorrer la
cadena de enlaces hasta el destino.
• Puesto que el apuntador al bloque siguiente ocupa espacio (digamos 4 bytes) y están inclui dos en
el archivo, el cálculo de la longitud real del archivo es más complicado.
• La inclusión de los apuntadores en los bloques de datos hace que el tamaño de éstos deje de ser
múltiplo de 2 (cosa que ocurre habitualmente), complicando mucho el cálculo del núme ro de
bloque en el que está un determinado byte del archivo.
• Es muy poco fiable, ya que la pérdida de un bloque del archivo supone la pérdida de todos los datos
del archivo que van detrás de dicho bloque.
Las desventajas de la lista enlazada se pueden eliminar si se quitan los apuntadores de los bloques del
archivo y se almacenan en un índice enlazado gestionado por el servidor de archivos. Cuando se crea un
sistema de archivos, se almacena en una parte especial del mismo una tabla que contiene una entrada por
cada bloque de disco y que está indexada por número de bloque. Usando esta tabla, cada vez que se crea un
archivo se incluye en su descriptor el descriptor de la tabla que apunta al primer bloque del archivo. A
medida que se asignan nuevos bloques al archivo se apunta a ellos desde la última entrada de la tabla
asociada al archivo. Esta es la solución usada en la FAT (file allocation table) de los sistemas operativos
MS-DOS y OS/2, que se muestra en la Fi 8.23. La gran desventaja de esta solución es que la FAT puede
ocupar mucho espacio si el dispositivo es grande. Por ejemplo, un disco de 4 GB, con 4 KB como tamaño
de bloque, necesitaría una FAT con 1 Mega entradas. Si cada entrada ocupa 4 bytes, la FAT ocuparía 4
MB. Para buscar un bloque de un archivo muy disperso podría ser necesario recorrer toda la FAT y, por
tanto, tener que traer todos los bloques de la FAT a memoria. Imagine qué pasaría si la computadora tuviese
ocho dispositivos como éste: se necesitarían 32 MB de memoria sólo para las FAT. Este método es pues
inviable si la FAT no puede estar continuamente en memoria [ 19831, lo cual ocurre en cuanto los dispo
sitivos alcanzan un tamaño medio. Para aminorar este problema, los bloques se juntan en agrupa ciones, lo
que permite dividir el tamaño de la FAT (Prestaciones 8.5). Si se usaran grupos de 4 bloques, el tamaño de
la FAT anterior se reduciría a 1 MB.
Los problemas anteriores pueden resolver estos problemas de forma eficiente mediante el uso de un índice
multinivel cuyos bloques son apuntados desde el nodo-i que describe al objeto archi vo, como los de UNIX
y LINUX. Con esta solución, cada archivo tiene sus bloques de índice que incluyen apuntadores a los
bloques de disco del archivo. El orden lógico se consigue mediante la inserción de los apuntadores en orden
creciente, a partir del primero, en los bloques de índices. Por ejemplo, el byte 5672 de un archivo,
almacenado en un sistema de archivos que usa bloques de 4 KB, se encontrará en el segundo apuntador del
índice. La ventaja de usar índices es que basta con traer a memoria el bloque de índices donde está el
apuntador a los datos para tener acceso al bloque de datos. Además, si un apuntador de bloque ocupa 4
bytes y el bloque es de 4 KB, con un único acceso a disco tendremos 1 .024 apuntadores a bloques del
archivo. Existe sin embargo un proble ma: el espacio extra necesario para los bloques de índices. Imagine
que un archivo tiene 1 byte. Necesita un bloque de índices asociado a su bloque de datos. Sin embargo, sólo
usa una entrada del bloque de índices (4 bytes) y 1 byte del bloque de datos. Ese problema fue resuelto en
UNIX BSD combinando un sistema de índices puros con un sistema de índices multinivel, que es el que se
usa actualmente en UNIX y LINUX. La Figura 8.24 muestra un ejemplo del nodo-i de UNIX con sus
bloques de índice. Como puede verse, cada descriptor de archivo (nodo-i) tiene varios apuntadores directos
a bloques de datos y tres apuntadores a bloques de índices de primero, segundo y tercer nivel. Este método
tiene dos ventajas:
• Permite almacenar archivos pequeños sin necesitar bloques de índices.
• Permite accesos aleatorios a archivos muy grandes con un máximo de tres accesos a bloques de índices.
Sin embargo, sigue teniendo una desventaja: hay que acceder al nodo-i para tener las direccio nes de los
bloques de disco y luego leer los datos. Los sistemas operativos tipo UNIX tratan de paliar este problema
manteniendo los nodos-i de los archivos abiertos en una tabla de memoria.
Para evitar ese acceso extra, Windows NT almacena datos en el mismo descriptor de archivo. De esta
forma, muchos archivos pequeños pueden leerse completamente con un único acceso a o e servidor de
archivos mantiene una estructura jerárquica en forma de árbol, donde en cada bloque se almacenan datos y
apuntadores aXosb\oques s S\ el archivo es muy grande, algunos de estos bloques pueden a su vez estar
llenos de apuntadores a nuevos bloques. Este esquema permite un acceso muy rápido a los datos, ya que
cada acceso trae datos, pero complica la implementación del modelo de archivos en el servidor de archivos
porque el primer bloque necesita un cálculo de dirección especial [Nagar, 1997].
El espacio de los dispositivos debe ser asignado a los objetos de nueva creación y a los ya existentes que
requieran más espacio de almacenamiento. Es pues necesario conocer el estado de ocupación de los bloques
de los dispositivos para poder realizar las operaciones de asignación de forma efi ciente Oldehoeft, 19851.
Por ello, todos los sistemas de archivos mantienen mapas de recursos, habitualmente construidos como
mapas de bits o listas de recursos libres.
Los mapas de bits, o vectores de bits, incluyen un bit por recurso existente (descriptor de archivo, bloque o
agrupación). Si el recurso está libre, el valor del bit asociado al mismo es 1, si está ocupado es O. Por
ejemplo, sea un disco en el que los bloques 2, 3, 4, 8, 9 y 10 están ocupados y el resto libres, y en el que los
descriptores de archivo 2, 3 y 4 están ocupados. Sus mapas de bits serían:
MB de bloques: 1100011100011....
La principal ventaja de este método es que es fácil de implementar y sencillo de usar. Además es muy
eficiente si el dispositivo no está muy lleno o muy fragmentado, ya que se encuentran zonas contiguas muy
fácilmente. Sin embargo, tiene dos inconvenientes importantes: es difícil e inefi ciente buscar espacio si el
dispositivo está fragmentado y el mapa de bits ocupa mucho espacio si el dispositivo es muy grande. Por
ejemplo, un sistema de archivos de 4 GB, con un tamaño de bloque de 4 KB, necesita 1 MB para el mapa
de bits de bloques. Para que la búsqueda sea eficiente, los mapas de bits han de estar en memoria, ya que
sería necesario recorrer casi todo el mapa de bits para encontrar hueco para un archivo. Imagine que un
sistema tuviera montados ocho dispositivos como el anterior, necesitaría 1 MB de memoria sólo para los
mapas de bits. Si se aplicara una agrupación de 4 bloques, el tamaño final del mapa de cada dispositivo
sería de 256 KB (32 KB), lo que equivale a 256 KB para los ocho dispositivos. Estas cantidades, con ser
grandes, son mucho menores que los 32 MB y 8 MB que serían respectivamente necesarios con la FAT de
MS-DOS.
Las listas de recursos libres permiten resolver el problema de forma completamente distinta. La idea es
mantener enlazados en una lista todos los recursos disponibles (bloques o descriptores de archivos)
manteniendo un apuntador al primer elemento de la lista. Este apuntador se mantiene siempre en memoria.
Cada elemento de la lista apunta al siguiente recurso libre de ese tipo. Cuando el servidor de archivos
necesita recursos libres, recorre la lista correspondiente y desenlaza elemen tos, que ya no estarán libres.
Como el lector puede comprender, este método no es eficiente, excep to para dispositivos muy llenos y
fragmentados, donde las listas de bloques libres son muy peque ñas. En cualquier otro caso, recorrer las
listas requiere mucha entrada/salida. La FAT del sistema operativo MS-DOS es una lista enlazada. La
Figura 8.25 muestra un dispositivo cuyos bloques libres se mantienen en una lista con una entrada por
bloque libre (caso A). Este método se puede optimizar incluyendo dentro de la lista la dirección de un
bloque libre y el número de bloques consecutivos al mismo que también están libres. El caso B de la Figura
8.25 muestra la lista de bloques libres del mismo dispositivo anterior optimizada de la forma descrita.
Una posible optimización de la gestión de bloques libres es reunir los bloques en agrupaciones y mantener
mapas de bits o listas de recursos libres para ellas. Por ejemplo, si en el dispositivo anterior se usan
agrupaciones de 64 KB (16 bloques), el mapa de bits se reduce a 8 KB. Sin embargo, esto complica la
política de gestión de espacio libre en el servidor de archivos [Akyurek, 1995] y [Davy, 1995]. Los sistemas
operativos UNIX, LINUX y Windows NT usan este método. Igualmente, se puede usar la agrupación de
bloques en las listas de recursos libres. Obviamente, cuando se usan agrupaciones, la mínima unidad que se
puede asignar es una agrupación, por lo que es muy importante decidir cuál va a ser el tamaño de la misma.
Cuanto mayor sea, más grande puede ser la fragmentación interna del dispositivo. Para paliar en parte este
problema, los sistemas que usan agrupaciones suelen usar también el mecanismo de gestión de fragmentos
descrito en la sección del Fast File Svstem (FFS).
Los dispositivos de entradalsalida son habitualmente más lentos que la UCP y los CCCSOS a memo ria.
Cada acceso a un dato en memoria cuesta pocos nanosegundos, mientras que acceder a un bloque de disco
cuesta varios milisegundos. La mayoría de los servidores de archivos tratan de reducir esta diferencia, de
seis órdenes de magnitud, optimizando los mecanismos de que disponen para acceder a los datos.
Prácticamente todos los parámetros del servidor de archivos son suscepti bles de optimización. Ya se ha
visto que la asignación de bloques libres se puede optimizar usando grupos de bloques, que las estructuras
de datos en uso (como nodos-i o superbloques) se guardan en tablas de memoria y que la correspondencia
de los bloques lógicos con los físicos se puede optimi zar mediante el uso de índices de múltiple nivel.
También se ha visto que existen diferentes estruc turas de sistema de archivos que permiten optimizar
distintos tipos de accesos.
Además de los métodos anteriores, los sistemas operativos incluyen mecanismos de incremen to del
rendimiento de la entradalsalida basados en el uso de almacenamiento intermedio de datos de
entradalsalida en memoria principal. Estos mecanismos son de dos tipos:
• Discos RAM, cuyos datos están almacenados sólo en memoria LTanenbaum, 19971. Estos discos
aceptan todas las operaciones de cualquier otro sistema de archivos y son gestionados por el
usuario. Excepto por su rapidez, el usuario no percibe ninguna diferencia cori cual quier otro tipo
de disco. Estos pseudodispositivos se usan habitualmente para almacena miento temporal o para
operaciones auxiliares del sistema operativo. Su contenido es volátil, ya que se pierde cuando se
apaga el sistema.
• Cache de datos, instaladas en secciones de memoria principal controladas por el sistema operativo,
donde se almacenan datos para optimizar accesos posteriores. Es importante ob servar que este
mecanismo se basa en la existencia de proximidad espacial y temporal en las referencias a los
datos de entradalsalida [ 1985]. Al igual que ocurre con las ins trucciones que ejecuta un programa,
el sistema operativo asume que los datos de uii archivo que han sido usados recientemente serán
reutilizados en un futuro próximo. 1-lay dos caches importantes dentro del servidor de archivos:
cache de nombres y cache de bloques.
Windows NT incluye otro mecanismo de incremento de prestaciones para incrementar la ca pacidad de los
dispositivos de almacenamiento. Se trata de la compresión de datos de los archivos y directorios de
usuario.
Cache de bloques
La técnica más habitual para reducir el acceso a los dispositivos es mantener una colección de bloques
leídos o escritos, denominada cache de bloques, en memoria principal durante un cierto período de tiempo
[Braunstein, 19891 y [Smith, 19921. Aunque los bloques estén en memoria, el servidor de archivos
considera su imagen de memoria válida a todos los efectos, por lo que es necesario mantener la coherencia
entre dicha imagen y la del disco. Como se vio anteriormente, el flujo de datos de entradalsalida de los
dispositivos de bloque pasa siempre a través de la cache de bloques. Cuando se lee un archivo, el servidor
busca primero en la cache. Sólo aquellos bloques no encontrados se leen del dispositivo correspondiente.
Cuando se escribe un archivo, los datos se escriben primero en la cache y posteriormente, si es necesario,
son escritos al disco. La Figura 8.26
muestra un esquema del flujo de datos en el servidor de archivos cuando hay una cache de bloques. Como
puede verse, el número de accesos al dispositivo se reduce drásticamente si hay aciertos en la cache. La tasa
de aciertos depende mucho del comportamiento de las aplicaciones que se ejecutan sobre el sistema
operativo. Si éstas no respetan la proximidad espacial o temporal de las referencias en sus patrones de
acceso, o si ejecutan peticiones de entradalsalida tan grandes que sustituyen todos los bloques de la cache
constantemente, la tasa de aciertos es tan baja que en muchas aplica ciones conviene desactivar la cache de
bloques. Esta opción está disponible en los sistemas operati vos de propósito general más populares, como
UNIX o Windows NT. En el caso de UNIX, si se akwe ‘ d s de. baques como si fuera de caracteres, los
accesos a este dispositivo no pasan por la cache. En Windows NT se puede especificar si se desea usar la
cache o no en la llamada de creación y apertura del archivo.
El formato de la cache de bloques es complejo [ 1996] y [ 1994]. La mayoría de los servidores de archivos
usan listas doblemente encadenadas con hashing para optimizar la búsqueda y la inserción de bloques. Estas
listas conectan estructuras de datos que contienen, entre otras cosas:
• La identificación del bloque.
• Los atributos del bloque (datos, especial, etc.).
• El tipo de sistema de archivos al que pertenece el bloque.
• El tamaño del bloque referenciado.
• Un apuntador a los datos del bloque.
Esta última característica es fundamental para permitir que la cache pueda manejar bloques de datos de
distintos tamaños. El tamaño de la cache puede ser fijo o variable. En las versiones anti guas de UNIX, la
cache era una estructura definida como un vector de bloques. Sus dimensiones eran, por tanto, fijadas en la
instalación del sistema. En los sistemas operativos modernos, la cache es una estructura dinámica y su
tamaño es mayor o menor dependiendo de la memoria que deja libre el resto del sistema operativo.
Digitalización realizada con propósito académico
484 Sistemas Operativos. Una visión aplicada
La gestión de la cache se puede llevar a cabo usando varios algoritmos, pero lo habitual es comprobar si el
bloque a leer está en la cache. En caso de que no esté, se lee del dispositivo y se copia a la cache. Si la
cache está llena, es necesario hacer hueco para el nuevo bloque reemplazando uno de los existentes. Existen
múltiples políticas de reemplazo que se pueden usar en una cache de bloques, tales como el FIFO (First in
First Out), segunda oportunidad, MRU (Most Recently Used), LRU (Least Recently Used), etc. La política
de reemplazo más frecuentemente usada es la LRU. Esta política reemplaza el bloque que lleva más tiempo
sin ser usado, asumiendo que no será referenciado próximamente. Los bloques más usados tienden a estar
siempre en la cache y, por tanto, no van al 1 jj d pialítica pii crear problemas de fiabilidad en el sistema de
archivos si la computadora falla. Imagine que se creó un directorio con tres archivos que están siendo
referenciados constantemente El bloque del directorio estará siempre en la cache. Si la computado ra falla,
esa entrada de directorio se habrá perdido. Imagine que el bloque se ha escrito, pero su imagen en la cache
ha cambiado antes del fallo. El sistema de archivos queda inconsistente. Por ello, la mayoría de los
servidores de archivos distinguen entre bloques especiales y bloques de datos. Los bloques especiales,
tales como directorios, nodos-i o bloques de apuntadores, contienen información crucial para la coherencia
del sistema de archivos, por lo que es conveniente salva guardar la información en disco tan pronto como
sea posible. Sin embargo, con un criterio LRU puro, los bloques de este tipo que son muy usados irían a
disco con muy poca frecuencia.
Para tratar de solventar el problema anterior, el sistema de archivos puede proporcionar distin tas políticas
de escritura a disco de los bloques de la cache que tienen información actualizada (se dice que están
sucios). En el caso de MS-DOS, los bloques se escriben a disco cada vez que se modifica su imagen en la
cache de bloques. Esta política de escritura se denomina de escritura
inmediata (write-through). Con esta política no hay problema de fiabilidad, pero se reduce ci rendimiento
del sistema porque si un bloque se puede volcar varias veces a disco. Imagine que un usuario escribe un
bloque byte a byte. Con política de escritura inmediata se escribiría el bloque a disco cada vez que se
modifique un byte. En el lado opuesto está la política de escritura diferida (write-back), en la que sólo se
escriben los datos a disco cuando se eligen para su reemplazo por falta de espacio en la cache. Esta política
optimiza el rendimiento, pero genera los problemas de fiabilidad anteriormente descritos. Si los bloques de
datos se gestionan con política LRU pura, también se origina un problema de fiabilidad. Imagine que se
crea un archivo pequeño cuyos blo ques se usan de forma habitual. Sus datos estarán siempre en la cache.
Si la computadora falla, los datos del archivo se habrán perdido.
Para tratar de establecer un compromiso entre rendimiento y fiabilidad, algunos sistemas ope rativos, como
UNIX, usan una política de escritura retrasada (delaved-write), que consiste en escribir a disco los
bloques de datos modificados en la cache de forma periódica cada cierto tiempo (30 segundos en UNIX).
De esta forma se reduce la extensión de los posibles daños por pérdida de datos. En el caso de UNIX, estas
operaciones son ejecutadas por un proceso de usuario denominado sync. Además, para incrementar todavía
más la fiabilidad, los bloques especiales se escriben inme diatamente al disco. Una consecuencia de la
política de escritura retrasada es que. a diferencia de MS-DOS. en UNIX no se puede quitar un disco del
sistema sin antes volcar los datos de la cache. En caso contrario se perderían datos y el sistema de archivos
se quedaría inconsistente o corrupto [ 19931. Por último, en algunos sistemas operativos se aplica un nuevo
criterio de escritura, denominado escritura al cierre (write-on-close). Con esta política, cuando se cierra un
archivo, se vuelcan al disco los bloques del mismo que tienen datos actualizados. Esta política suele ser
com plementaria de las otras y permite tener bloques de la cache listos para ser reemplazados sin tener que
escribir al disco en el momento de ejecutar la política de reemplazo, con lo que se reduce el tiempo de
respuesta de esta operación. En la mayoría de los casos, el sistema operativo ejecuta esta política en
background, es decir, marca los bloques y los vuelca a disco cuando tiene tiempo para ello.
Compresión de datos
Esta razón depende mucho del grado de dispersión de los datos a almacenar. Si los datos están muy
dispersos, gran parte del archivo está lleno de ceros, la razón de compresión es alta y se reduce
considerablemente el tamaño del archivo. Si los datos no son dispersos, en cuyo caso se dice que son
densos, la razón de compresión será peor.
El gran problema de comprimir un archivo es mantener mecanismos de asignación y de mapas de bloques
que sean compatibles con los formatos no comprimidos. Observe que el usuario puede pensar que sus datos
ocupan n KB y que un usuario experto puede incluso intentar optimizar la entrada/salida en base al tamaño
de bloque. En Wiindows NT, si se compime un archivo, las peticiones que hace el usuario llegan a la cache
de bloques con el mapa de bloques como si fuera descomprimido. Es a partir de este momento donde se
incluye, y oculta, 1a compresión. Para ello, en el MFT del archivo se asignan bloques únicamente para los
que tienen datos comprimidos. Los bloques que se han comprimido se marcan como vacíos y no se les
asigna bloques. De esta forma. cuando se pide el bloque 36, por ejemplo, de un archivo comprimido se mira
en el MFT si estaba lleno de ceros o no. Si lo estaba, se le devuelve al usuario un bloque lleno de ceros. En
otro caso se accede al bloque comprimido donde se encuentra el bloque 36, se descomprime y se devuelve
al usuario la parte que está pidiendo.
Windows NT proporciona la llamada al sistema GetVolumelnformatiOn para ver si un volumen está
comprimido o no. Además, se puede ver el tamaño real de un archivo comprimido usando la llamada de
Win32 GetCompressedFileSiZe (Advertencia 8.3).
Una vez descrita la arquitectura del servidor de archivos y sus mecanismos de asignación de bloques y de
incremento de prestaciones, se puede pasar a estudiar en detalle cómo se interpreta un nombre y cómo se
resuelve dicho problema cuando para interpretar el nombre hay que pasar a un sistema de archivos
montado. Para ello se usa como caso de estudio el sistema operativo
UNIX.
La Figura 8.27 muestra un ejemplo de montaje de un sistema de archivos en un directorio de otro sistema
de archivos. Como se puede ver, en el montaje se usan dos estructuras de datos de forma primordial: la
tabla de nodos-i y la tabla de superbloques del sistema. Esta última tabla contiene apuntadores a los
superbloques de los sistemas de archivos montados y es fundamental para ocultar el punto de montaje de un
dispositivo, como /dev/hda3, sobre un directorio, como /home/root/distr/lib
La implementación del montado de sistemas de archivos es sencilla cuando se dispone, como en UNIX, de
las tablas de estructuras de datos adecuadas. Cuando se monta un sistema de archivos. se trae su
superbloque a memoria y se colocan en él dos apuntadores: uno al nodo-i del directorio raíz del sistema de
archivos montado y otro al nodo-i del directorio sobre el que está montado. Además se indica en el nodo-i
del directorio sobre el que se monta que tiene un sistema de archivos colgando de él y se incluye la entrada
de la tabla de superbloques en la que se almacenó el superblo que del sistema de archivos montado. En la
operación de desmontado se desconectan dichos apun tadores [Goodheart, 1994] y [ McKusick, 1996].
El concepto de sistema de archivos montados, tal como se ha explicado aquí, no existe en Windows NT,
por lo que la solución adoptada es muy distinta a la de UNIX. En este caso, en función del nombre de
dispositivo lógico al que se quiere acceder, se busca en la tabla de superblo ques y se cambia directamente
al sistema de archivos de este dispositivo. En un sistema de este estilo es típico tener múltiples unidades
lógicas accesibles a nivel local o remoto. Una unidad logica esun dispositivo de almacenamiento sobre el
que hay instalado un sistema de archivos, bien sea de Windows o de cualquier otro tipo. El usuario, o el
programador de sistema, debe saber en qué unidad logica (C:\, D:\, E:\, J:\,...) está el archivo que busca, ya
que pueden existir archivos con el mismo nombre que sólo se pueden discriminar añadiendo la unidad
lógica al nombre. C: \pepe y D: \pe por ejemplo, çon irchivo digtinto En Windows NT, ia unidad es
LuIIsustancIal al nombre absoluto de un archivo. Los nombres relativos lo son siempre dentro de una
unidad lógica.
La destrucción de un sistema de archivos es a menudo mucho peor que la destrucción de una computadora.
La recuperación de los datos de un sistema de archivos muy dañado es una operación difícil, lenta y muchas
veces imposible {Anyawun, 19861. En algunos casos, la destrucción de ciertos datos archivados, como la
lista de clientes de una empresa o su contabilidad, pueden causar un daño irreparable a la organización
afectada, lo que en el caso de las empresas puede llevar a la quiebra o el cese de actividades. ¿Imagina qué
podría ocurrir si una universidad perdiera todos los expedientes de sus alumnos por un fallo del sistema de
a’macenamiento? Podría costar años recupe rarlos del soporte en pape’, suponiendo que éste exista. En esta
sección se muestra cómo afrontan los servidores de archivos estos problemas, aunque muchas soluciones a
los problemas de fiabilidad y recuperación son externas al sistema operativo y entran en los campos de
administración del sistema, seguridad, etc.
Existen dos razones fundamentales por las que se pueden perder los datos de un sistema de archivos:
Copias de respaldo
Si un dispositivo de almacenamiento falla, los datos se perderán irremisiblemente. Por ello es necesario
hacer copias de respaldo (backups) de los sistemas de archivo con cierta frecuencia Frish, 19961. Las
copias de respaldo consisten en copiar los datos de un dispositivo a otro de forma total o parcial. Las copias
totales suelen requerir mucho tiempo y espacio extra, por lo que una
En los sistemas donde se necesita mucha disponibilidad, se puede almacenar la información de forma
redundante en múltiples discos. Además, en caso de que se necesite fiabilidad, se puede añadir información
de paridad para poder reconstruir los datos en caso de fallo de una unidad de almacenamiento.
La técnica clásica de almacenamiento redundante es usar discos espejo [Tanenbaum, 1992], es decir, dos
discos que contienen exactamente lo mismo. En este caso, toda la información se escribe en ambos discos,
pero se lee sólo de uno. En caso de que una lectura falle, siempre se tiene la otra copia de los datos. Este
tipo de redundancia tiene dos problemas principales:
• Desperdicia el 50 por 100 del espacio de almacenamiento.
Las técnicas anteriores no sirven de mucho si los sistemas de archivos quedan en estado incoherente debido
a fallos de la computadora o a operaciones inadecuadas de los usuarios. Por ejemplo, su ponga que un
usuario de un sistema UNIX apaga la computadora mediante el interruptor eléctrico sin ejecutar
previamente los procedimientos de apagado del sistema operativo. En este caso, toda la información nueva
de los bloques de la cache modificados durante los 30 segundos anteriores se
habrá perdido. Este problema es especialmente crítico si algunos de los bloques perdidos contienen datos de
directorios o nodos-i, ya que la imagen del archivo o directorio afectado existente en el disco estará
incoherente. Imagine el caso de un archivo escrito frecuentemente. Se le han asignado bloques nuevos y se
han marcado como ocupados. Su nodo-i está en la cache y el mapa de bits también. Si se apaga la
computadora cuando se ha escrito el nodo-i pero no el mapa de bits, habrá bloques marcados como libres en
el disco que estarán asignados al nodo-i de un archivo. Este problema puede existir incluso en sistemas que
usan escritura inmediata a disco, ya que la mayoría de las aplicaciones del sistema de archivos implican la
actualización de varias estructuras de infor mación. Para tratar de resolver este tipo de problemas, los
servidores de archivos proporcionan operaciones para comprobar, y a ser posible recuperar, la coherencia
de los datos. Estas operaciones se acceden mediante un programa de utilidad, que en el caso del sistema
operativo UNIX se denomina fsck [Foxley 1985].
3. Se comprueba que los mapas de bits de bloques se corresponden con los bloques asigna dos a archivos.
4. Se comprueba que ningún bloque esté asignado a más de un archivo.
5. Se comprueba el sistema de directorios del sistema de archivos, para ver que un mismo nodo-i no está
asignado a más de un directorio.
Para llevar a cabo las comprobaciones del estado de los bloques, el programa lleva a cabo las siguientes
acciones:
1. Construye dos tablas, cada una con un contador para cada bloque. La primera indica las veces que un
bloque es referenciado desde los nodos-i. La segunda indica si un bloque está libre u ocupado.
2. Lee los nodos-i de cada archivo e incrementa los contadores de los bloques referenciados.
3. Lee los mapas de bits de bloques e incrementa el contador de los que están libres.
A continuación compara ambas tablas. La Figura 8.29 muestra varios estados posibles de los bloques de un
sistema de archivos:
1. Si el sistema de archivos está coherente, los contadores de las tablas tendrán un 1 en una u otra
tabla, pero no en ambas a la vez (caso 1 de la figura).
2. En caso contrario, puede ocurrir que un bloque ocupado no esté asignado a un archivo (caso 2 de la
figura). Se dice que ése es un bloque perdido o sin propietario. En este caso es posible que exista
pérdida de información en algún archivo, por lo que la herramienta de recuperación los almacena
en un directorio predefinido, que en UNIX es típicamente lost+found. Si el usuario es afortunado,
la información le permitirá recuperar los datos perdidos. A continuación se indica que el bloque
está libre.
3. Otra anomalía posible es que un bloque ocupado esté referenciado desde dos archivos (caso 3 de la
figura). En este caso se dice que éste es un bloque reutilizado. La solución correcta en este caso es
Un procedimiento similar al anterior se usa para verificar los mapas de bits de los nodos-i
(Recordatorio 8.2).
Por último, la utilidad de recuperación comprueba el estado de los directorios. Para ello usa una tabla de
contadores de nodos-i que indican los enlaces existentes a cada nodo-i. Para calcular dicho número, el
programa recorre todo el árbol de directorios e incrementa el contador de cada nodo-i cuando encuentra un
enlace al mismo. Cuando ha terminado, compara los contadores con el número de enlaces que existe en el
nodo-i almacenado en disco. Si ambos valores no coinciden, se ajusta el del nodo-i al valor calculado.
Dada la importancia que para algunos sistemas tiene la coherencia de los datos almacenados en el sistema
de archivos y la disponibilidad de los mismos, algunos servidores de archivos incluyen servicios orientados
a satisfacer estas necesidades. Aunque existen múltiples mecanismos de este tipo, los tres más populares
son la actualización atómica, las transacciones y la replicación.
Un servidor de archivos que proporciona actualización atómica [Goscinski, 1991], o indivisi ble, asegura a
los usuarios que sus operaciones están libres de interferencia con las de otros usuarios y que la operación se
realiza completamente o no tiene ningún efecto en el sistema. Esta semántica todo o nada permite asegurar
que una operación no tenga efecto a no ser que se complete satisfacto riamente. Existen varias formas de
implementar esta semántica. Algunas muy populares son usar mecanismos de almacenamiento estable,
archivos de registro o versiones de archivos. De esta for ma, todas las operaciones se pueden ejecutar en
estado provisional, hasta que el sistema está seguro de que concluyen satisfactoriamente. En ese momento
se convierten en definitivas. En caso de fallo, se descartan las acciones provisionales.
En muchos casos no basta con asegurar al usuario que una operación sea atómica. La razón es que el
usuario puede querer que un conjunto de operaciones relacionadas se ejecuten de forma atómica. En estos
casos, el servidor de archivos puede ofrecer servicios de transacciones [Gray, 1981]. Un servidor de
archivos transaccional permite ejecutar operaciones atómicas que agrupan a varias operaciones de
entradalsalida y que se ejecutarán con semántica todo o nada. Desde el punto de vista del usuario, una
transacción es una secuencia de operaciones que definen un paso único para transformar los datos de un
estado incoherente a otro. Todas las operaciones que forman parte de una transacción se agrupan entre dos
etiquetas, tales como begin y endtrans, que
definen el principio y el fin de la operación. Una vez más, todo sistema con atomicidad debe ser capaz de
deshacer un conjunto de operaciones en caso de fallo. La reversibilidad es consustancial a los sistemas
atórnicos. Los servidores de archivos transaccionales deben resolver además problemas de aislamiento de
operaciones, serialización, control de concurrencia, etc. Todos ellos se escapan del ámbito de este libro, por
lo que se refiere al lector interesado en bibliografía específica del tema.
La replicación es un mecanismo importante para incrementar el rendimiento de las lecturas del servidor de
archivos y la disponibilidad de los datos. Consiste en mantener varias copias de los datos y otros recursos
del sistema [Bereton, 1986]. Silos datos están replicados, en dos servidores o dispositivos distintos, se
puede dar servicio a los usuarios aunque uno de ellos falle. Además, si varios servidores de archivos
procesan los mismos datos, las posibilidades de error se reducen drásticamente. Sin embargo, proporcionar
replicación transparente en los servidores de archivos no es inmediato. Para que los usuarios no sean
conscientes de que existen varias copias de los datos, el servidor de archivos debe proporcionar acceso a los
mismos a nivel lógico, y no físico. Cuando exista una petición de lectura, el usuario debe recibir un único
conjunto de datos. Además, el sistema debe asegurar que la actualización de los datos se lleva a cabo en
todas las réplicas en un tiempo aceptable. Para satisfacer estos requisitos se han propuesto dos modelos
arquitectónicos básicos: copia primaria y gestión colectiva (Fig. 8.30). En el modelo de copia primaria,
todos los servicios de escritura se piden a un servidor maestro de réplicas. Este gestor se encarga de
propagar
las operaciones a los esclavos que tienen las réplicas. El mayor problema de este modelo es que el maestro
es un cuello de botella y un punto de fallo único. Como puede verse en la figura, con este modelo todas las
escrituras deben ejecutarse en el primario, que posteriormente se encarga de actualizar las réplicas de otros
gestores. En el modelo de gestión colectiva, todos los servidores son paritarios y no existe la relación
maestro-esclavo. Las peticiones de lectura y escritura se sirven en cualquier servidor, pero las últimas
deben ser propagadas a todos los servidores con copia de los datos afectados. Como puede verse en la
figura, con este modelo, las escrituras pueden ir a cual quier gestor de réplicas, pero éste debe propagar las
modificaciones a todos los gestores de réplicas restantes. Este modelo es más eficiente y tolerante a fallos,
pero su diseño e implementación es muy complicada.
Existe mucha bibliografía sobre sistemas de archivos y directorios que puede servir como lectura
complemen taria a este libro. [Silberschatz, 1998], [ 19981 y [Tanenbaum, 1997] son libros generales de
sistemas operativos en los que se puede encontrar una explicación completa del tema con un enfoque
docente.
[Grosshans, 1986] contiene descripciones de las estructuras de datos que maneja el sistema de archivos y
presenta aspectos de acceso a archivos. Con esta información, el lector puede tener una idea clara de lo que
es un archivo y de cómo valorar un sistema de archivos. [Folks, 1987] incluye abundante información
sobre estructuras de archivo, mantenimiento, búsqueda y gestión de archivos. [Abernathy, 1973] describe
los princi pios de diseño básico de un sistema operativo, incluyendo el sistema de archivos. En [McKusick,
1996] se estudia el diseño del Fast File Svstem con gran detalle, así como las técnicas de optimización
usadas en el mismo. [Smith, 19941 estudia la influencia de la estructura del sistema de archivos sobre el
rendimiento de las operaciones de entrada/salida. [Staelin, 1988] estudia los tipos de patrones de acceso
que usan las aplicaciones para acceder a los archivos. Esta información es muy importante si se quiere
8.9. EJERCICIOS
8.1. ¿Se puede emular el método de acceso aleatorio con el secuencial? ¿Y viceversa? Explique las ven
tajas e inconvenientes de cada método.
8.2. ¿Cuál es la diferencia entre la semántica de coutili zación UNIX y la de versiones? ¿Podría emularse la
semántica UNIX con la de versiones?
8.3. ¿Podrían establecerse enlaces al estilo de los UNIX en Windows NT? ¿Por qué?
8.4. ¿Es UNIX sensible a las extensiones del nombre de archivo? ¿Lo es Windows NT?
8.5. ¿Cuál es la diferencia entre nombre absoluto y re lativo? lndique dos nombres relativos para
/users/miguel/datos. Indique el directorio respecto al que son relativos.
8.6. ¿Cuál es la ventaja de usar un grafo acíclico frente a usar un árbol como estructura de los directorios?
¿Cuál puede ser su principal problema?
8.7. En UNIX existe una aplicación mv que permite re- nombrar un archivo. ¿Hay alguna diferencia entre
implementarla usando link y unlink y hacerlo copiando el archivo origen al destino y luego bo rrando este
último?
8.8. Modifique el Programa 8.1 para que en lugar de copiar un archivo sobre otro lea un archivo y lo saque
por la salida estándar. Su programa es equi valente al mandato cat de UNIX.
8.9. Modifique el Programa 8.2 para que en lugar de copiar un archivo sobre otro lea un archivo y lo saque
por la salida estándar. Su programa es equi valente al mandato type de Windows o MS-DOS.
8.10. Usando llamadas POSIX, programe un mandato que permita leer un archivo en porciones, especifi
cando el formato de la porción. Para incrementar el rendimiento de su mandato, debe hacer lectura
adelantada de la siguiente porción del archivo.
8.11. Modifique el Programa 8.4 (mijs) para que, además de mostrar el nombre de las entradas del
directorio, muestre algo equivalente a la salida del mandato ls -l de UNIX.
8.12. Haga lo mismo que en el Ejercicio 8.11 para el Programa 8.5 del entorno Windows NT.
8.13. ¿Qué método es mejor para mantener los mapas de bloques: mapas de bits o listas de bloques libres?
Indique por qué. ¿Cuál necesita más espacio de al macenamiento? Explíquelo.
8.14. ¿Qué problema tiene usar bloques grandes o agru paciones? ¿Cómo puede solucionarse?
8.15. ¿Qué es mejor en un sistema donde hay muchas escrituras: un sistema de archivos convencional o uno
de tipo LFS? ¿Y para lecturas aleatorias?
8.16. ¿Es conveniente mantener datos de archivo dentro del descriptor de archivo, como hace Windows
NT?
La seguridad de un sistema tiene múltiples facetas, como se muestra en la Figura 9.1, incluyendo desde aspectos
tales como la protección ante posibles daños físicos de los datos (fuegos terremotos, etc.) hasta el acceso indebido a los
mismos (intrusos, fallos de confidencialidad, etc Los ataques contra la confidencialidad, la integridad o la
disponibilidad de recursos en un sistet deben prevenirse y solventarse mediante la política y los mecanismos de
seguridad de un sistema En el caso de un sistema informático hay varios elementos susceptibles de sufrir dichos
ataques,) siendo suficiente proteger sólo alguno de ellos o protegerlos parcialmente. Como se puede ver en Figura 9.1,
el hardware, el software y los datos de un sistema informático pueden sufrir ataques internos o externos al sistema. Por
tanto, la seguridad debe tener en cuenta eventos externos provenientes del entorno en que opera el sistema. De nada
sirve tener mecanismos de protección hiten muy buenos, si el sistema operativo no es capaz de identificar a los usuarios
que acceden al sistema o si no existe una política de salvaguarda de datos ante la rotura de un disco.
La protección, sin embargo, consiste en evitar que se haga un uso indebido de los recursos que
están dentro del ámbito del sistema operativo. Para ello deben existir mecanismos y políticas que aseguren
que los usuarios sólo acceden a sus propios recursos (archivos, zonas de memoria, etc.). Además, es
necesario comprobar que los recursos sólo se usan por aquellos usuarios que tienen derechos de acceso a
los mismos. Las políticas de protección y seguridad de hardware, software y datos deben incluirse dentro
del sistema operativo, pudiendo afectar a uno o varios componentes del mismo. En cualquier caso, el
sistema operativo debe proporcionar medios para implementar la política de protección deseada por el
usuario, así como medios de hacer cumplir dicha política.
La seguridad de un sistema operativo se basa principalmente en tres aspectos de diseño:
La pérdida de datos puede deberse a catástrofes naturales o artificiales que afecten al sistema
(terremotos, guerras, etc.), a errores del hardware o del software de la computadora (rotura de un disco, por
ejemplo) o a errores humanos (p. ej.: borrado accidental de archivos). La protección frente a fallos físicos,
para conseguir que el sistema sea fiable, está más relacionada con la gestión de datos que con el sistema
operativo. Una solución frecuente para estos problemas es hacer que los administradores del sistema
mantengan varias copias de los datos almacenadas en distintos lugares.
En el ámbito interno del sistema operativo hay operaciones que pueden violar la confidencialidad de los
datos. Una simple asignación de bloque de disco libre a un usuario le proporcionará el bloque con el
contenido del usuario anterior si el sistema operativo no tiene una política definida para este tipo de
situaciones. En estos casos, siempre hay que limpiar los recursos de los datos anteriormente existentes. Sin
embargo, controlar la confidencialidad de los datos es un problema de seguridad que sobrepasa el ámbito
de los sistemas operativos, aunque una parte del problema puede resolverse en su ámbito interno. De nada
sirve controlar muy bien el acceso a la base de datos de nóminas, si un operador de una compañía
distribuye listas de personal con sus nóminas y datos personales. Otro ejemplo es la realización de
transacciones comerciales a través de Internet, en muchas de las cuales se envían números de tarjeta de
crédito sin protección. La solución de este tipo de problemas requiere actuaciones externas al sistema
operativo, que pueden ser incluso policiales.
El control del acceso a datos y recursos sí es competencia directa del sistema operativo. Es necesario
asegurar que los usuarios no acceden a archivos para los que no tienen permisos de acceso, a cuentas de
otros usuarios o a páginas de memoria o bloques de disco que contienen información de otros usuarios
(aunque ya estén en desuso). Para conseguirlo hay que aplicar criterios de diseño rigurosos y ejecutar
pruebas de seguridad exhaustivas para todos los elementos del sistema, aunque se consideren seguros. El
control de acceso incluye dos problemas que estudiaremos más adelante: autenticación de usuarios y
protección frente a accesos indebidos.
A continuación se estudian los problemas de seguridad más importantes que conciernen al sistema
operativo, aunque el lector debe tener en cuenta que los mecanismos de protección del sistema operativo
sólo resuelven una mínima parte de los problemas de seguridad existentes en una instalación informática.
Todos los sistemas operativos comerciales desarrollados hasta el momento han tenido algún problema
de seguridad. Algunos ejemplos notorios son:
500 Sistemas operativos. Una visión aplicada
• Los fallos de UNIX que permitían, en su momento, que un usuario pudiera abortar un mandato con
permisos de súper usuario, como mkdir, y quedarse con la identificación de súper-usuario.
• En versiones antiguas de UNIX, cualquier usuario podía leer el archivo passwd donde se almacenaban
los usuarios y sus palabras clave cifradas. Con esta información se le podían aplicar a la clave todos los
algoritmos de descifrado que se quisiera hasta romperla.
• En TENEX, un sistema operativo en desuso, se comprobaba la palabra clave carácter a carácter.
Cuando se cometía un error se indicaba al usuario. De esta forma era muy sencillo introducir la clave carácter
a carácter para buscar patrones válidos hasta descifrarla completamente. Como máximo era necesario probar
todos los caracteres del alfabeto por cada carácter de la clave.
Muchos fallos no se deben al sistema de protección sino a la candidez de los usuarios. Poner como
palabra de acceso al sistema el nombre de su esposa, de algún hijo o la matrícula de su coche o poner " . "
en la cabecera del path (camino de búsqueda de archivos ejecutables) es postularse como candidato a un
acceso indebido.
A continuación se describen los problemas más frecuentes en un sistema informático.
Algunos problemas de seguridad están relacionados con el uso indebido, o malicioso, de programas de
un usuario [Hoffman, 1990]. Dos formas frecuentes de generar fallos de seguridad usando estas técnicas
son el caballo de Troya y la puerta de atrás. El caballo de Troya se basa en la idea de crear un programa
para que haga cosas no autorizadas en el sistema cuando actúa en el entorno adecuado. Algunos ejemplos
incluyen: un editor de texto modificado para que haga copias de los archivos a los directorios del intruso o
un programa de login modificado para grabar los nombres y palabras de acceso de los usuarios. La puerta
de atrás consiste en crear un agujero de seguridad al sistema a través de un programa privilegiado que lo
permite. Algunos ejemplos incluyen:
• Convencer a un programador de sistema para que le deje acceder con privilegios anormales.
• Permitir que el diseñador de un programa se reserve el acceso por medios no conocidos, tales como una
identificación reservada.
• Meter parches en un compilador para que añada código no autorizado a cualquier programa.
Los problemas de seguridad generados por programas maliciosos son generalmente difíciles de
detectar y corregir. En los años sesenta dos programadores robaron varios millones de dólares en un banco
americano por el método de traspasar a una cuenta suya las fracciones de centavo que se redondeaban en
las operaciones. Sólo fueron detectados cuando el balance de caja empezó a fallar de forma escandalosa.
Las puertas de atrás no siempre son perjudiciales o maliciosas. Pueden tener varias causas:
• Se dejan a propósito para probar el sistema.
• Se dejan para mantener el sistema.
• Se dejan como un medio de acceso encubierto, o canal encubierto, que permite extraer información del
sistema sin que el dueño sea consciente de ello.
Sólo este último caso es realmente peligroso, si bien cualquier puerta de atrás es un peligro
potencial para la seguridad del sistema. La Figura 9.2 muestra un ejemplo de inserción de un canal
encubierto en un programa.
Seguridad y protección 501
Los usuarios inexpertos o descuidados son potencialmente muy peligrosos. Cosas tales como borrar
archivos no deseados, dejar abiertos los accesos al sistema durante largo tiempo o escribir la palabra clave
en un papel junto a la computadora son más frecuentes de lo que parece.
Los problemas de seguridad debidos a usuarios descuidados deben tener atención especial por parte
del administrador del sistema, que puede conseguir paliar muchos de ellos. Por ejemplo, ciertos mandatos,
como delete o rm (borrar archivos), se pueden configurar para pedir confirmación de cada acción que
realizan, el acceso a un sistema se puede cerrar si se detecta que lleva un cierto tiempo inactivo, etc.
ridad, por ello los administradores siempre prefieren tener sistemas sin interferencias externas, de
forma que se pueda evitar que programas externos entren en dominios de otros usuarios [Parker, 1981]. Sin
embargo, actualmente es muy difícil tener sistemas completamente aislados. Cualquier computadora actual
tiene una unidad de disco extraíble o una conexión a la red. Además, aunque se intenten comprobar todos
los accesos desde dispositivos extemos, existe un cierto grado de apertura que no se puede evitar. El
correo electrónico, por ejemplo, puede usarse como portador de programas pequeños que posteriormente
cargan en el sistema programas más destructores. La existencia de sistemas abiertos da lugar a cuatro
tipos principales de ataques de seguridad: virus, gusanos, rompedores de claves y bombardeos. Todos ellos
están relacionados con la capacidad de propagación de unos sistemas a otros, lo que permite atacar desde
sistemas remotos o enviar programas de ataque a otros sistemas.
9.2.4. Virus
Se denomina con este nombre a todos los programas que se autorreplican con fines destructivos o de
violación de seguridad. Se llaman así por analogía con los virus que actúan sobre los seres vivos. Como
ellos, necesitan de un programa que transporte el virus y de un agente que los transmita para infectar a
otros programas. En todos los casos se trata de un programa o un trozo de código que se añade a otro y
que se activa cuando se ejecuta el programa portador. Cuando esto ocurre, además de ejecutarse el
portador, se ejecuta el virus.
La Figura 9.3 muestra el proceso descrito. El fabricante de un virus genera un programa y lo
almacena en un disquete. Cuando se copia dicho archivo en una computadora y se ejecuta, el virus se
instala en el disco duro del sistema. A partir de este momento, infecta a todos los discos extraíbles que se
instalen en el sistema. En un determinado momento, el virus se activa y destruye los datos del sistema. Un
caso típico de virus con caballo de Troya es el Viernes 13. Este virus sólo se activa en los días que son
viernes y 13.
Figura 9.3. Instalación y propagación de virus.
9.2.5. Gusanos
El 2 de noviembre de 1988, R. T. Morris, un estudiante de Cornell, liberó un
programa gusano en Internet. Anteriormente había descubierto dos fallos de
seguridad en el UNIX de Berkeley que le permitían acceder a miles de máquinas
conectadas a Internet, especialmente aquellas que permitían accesos por ftp a
usuarios anónimos. Aprovechando esta circunstancia, fabricó un gusano que
explotaba los fallos de seguridad para acceder a sistemas remotos y, además, se
replicaba a sí mismo para acceder a más sistemas. El gusano estaba compuesto
por dos programas: un pequeño programa de 99 líneas en C y el gusano principal.
El programa pequeño era un cargador que, una vez compilado y ejecutado en el
sistema destino, cargaba el gusano principal. El gusano leía las tablas de
encaminamiento del sistema infectado y enviaba el cargador a todos los sistemas
remotos que podía, usando para ello tres mecanismos de penetración:
• Intérprete de mandatos remoto (rsh).
• Demonio del finger.
• sendmail.
9.2.7. Bombardeo
Un ataque de seguridad con mucho éxito en Internet es el que consiste en
llevar a cabo bombardeos masivos con peticiones de servicio o de establecimiento
de conexión a un servidor determinado. Estos ataques masivos provocan que el
servidor deniegue sus servicios a los clientes legales y pueden llegar a bloquear al
servidor. Este problema causó a principios del año 2000 el bloqueo de servidores de
Internet famosos como yahoo o altavista. Para lograr que estos ataques tengan
éxito, los atacantes se enmascaran con las direcciones e identidades de otros
usuarios (spoofing) y llevan a cabo los ataques desde múltiples clientes.
Ataques similares pueden ocurrir en cualquier computadora, ya que todas ellas
tienen recursos limitados. La tabla de procesos, por ejemplo, es crítica, ya que si se
llena, la computadora no puede crear ni siquiera el proceso de apagar el sistema. Un
usuario descuidado, o malicioso, que cree
Seguridad y protección 505
procesos de forma recursiva y sin límite colapsará el sistema continuamente. Para evitarlo, los administradores
deben poner límites, siempre que sea posible, a los recursos que cada usuario puede tener simultáneamente
(número de procesos, impresoras, etc.).
POLÍTICAS DE SEGURIDAD
Los requisitos de seguridad son siempre una cuestión importante en las organizaciones. Por ejemplo,
la ley obliga a mantener como privados los datos de los clientes de una empresa. Por ello, cuando se
demuestra que se han difundido estos datos, se imponen multas a las compañías que violan la ley. Esto se
debe generalmente a que el acceso a dichos datos no está controlado o a que las reglas de acceso son tan
laxas que todos los compartimentos se encuentran entremezclados. Otro ejemplo interesante es el de la
información reservada. Imagine que dos bancos se quieren fusionar. Conocer esta información a tiempo
puede permitir hacer grandes negocios o evitar dicha fusión. Para evitar la difusión de la información, se
mantiene en compartimentos pequeños que requieren una acreditación de acceso muy grande. La
existencia de un sistema seguro pasa porque exista una política de seguridad [Neumann, 19901 que
defina claramente la seguridad que proporciona el sistema, independientemente de los mecanismos usados
para implementarla.
Es interesante resaltar que los requisitos de seguridad varían de unos sistemas a otros, e incluso entre
usuarios distintos dentro del sistema. Imagine que una universidad tiene una computadora compartida entre
alumnos y profesores, de forma que los alumnos no puedan tener acceso a Internet pero los profesores sí.
El sistema operativo de esta computadora necesita una política de control de acceso a los recursos según el
usuario que solicite dichos accesos. Por eso, cuando se instala un sistema operativo en una computadora
con restricciones de seguridad, es necesario saber primero si la política de seguridad que ofrece dicho
sistema operativo satisface los requisitos de seguridad de la instalación. Es decir, si es confiable. Ahora
bien, un sistema operativo sólo es confiable respecto a una política de seguridad, es decir, a las
características de seguridad que se esperen del sistema.
Existen distintas políticas de seguridad, todas las cuales describen políticas de seguridad generales
para cualquier organización. A continuación, se estudian brevemente algunas de ellas, aplicándolas al
campo de los sistemas operativos.
Ésta es una de las políticas más popularmente conocidas y también de las más estrictas, por lo que casi
nunca se aplica en su totalidad. Se basa en la clasificación de todos los objetos con requisitos de seguridad en uno
de los cinco niveles de seguridad siguientes:
• Desclasificado.
• Restringido.
• Confidencial.
• Secreto.
• Alto secreto.
Y en clasificar también a los usuarios según el nivel al que pueden acceder [NCSC, 1985]. Según muestra la
Figura 9.4, los cinco niveles se estructuran lógicamente como un conjunto de círculos concéntricos en cuyo interior
está el alto secreto y en cuyo exterior están los documentos públicos (o desclasificados).
506 Sistemas operativos. Una visión aplicada
Usando esta relación se puede decidir que un sujeto puede acceder a un objeto sólo si su dominancia
es mayor. Lo que equivale a decir que el sujeto debe estar suficientemente acreditado y que su
compartimiento debe estar dentro de aquellos que tienen el acceso permitido al objeto. Imagine una
empresa con dos secciones: personal y contabilidad. El presidente tiene acceso a
Seguridad y protección 507
ambos y acreditación O, mayor que los jefes de dichas secciones (compartimentos) que tienen
acreditación 1. El jefe de personal y el presidente tienen acceso a los expedientes de los trabajadores
(clasificación nivel 1), pero el de contabilidad no. Su acreditación es suficiente, pero su sección no está
dentro del compartimento de las que tienen acceso a esos documentos.
Una política similar a ésta se usó en el núcleo de seguridad del VAX, un núcleo que daba soporte de
ejecución seguro a los sistemas operativos VMS y ULTRIX. El diseño de este núcleo tenía 16 niveles, cada
uno de los cuales exportaba servicios a los niveles superiores e importaba los del nivel inmediatamente
inferior. Dichos niveles incluían desde una simulación del hardware hasta la memoria virtual y la
entrada/salida. La Figura 9.5 muestra los dominios de seguridad del sistema operativo VMS.
• Objetos.
• Grupos.
• Clases de conflicto.
Sistemas operativos. Una visión aplicada
Cada objeto pertenece a un único gmpo y cada gmpo a una única clase de conflicto. Una clase de
conflicto, sin embargo, puede incluir a varios grupos. Por ejemplo, suponga que existe información de tres
fabricantes de automóviles (Volkswagen, Seat y General Motors) y dos bancos (BSCH y BBVA). Con la
muralla china existen 5 grupos y 2 clases de conflicto (bancos y automóviles). La política de control de
acceso es sencilla. Una persona puede acceder a la información siempre que antes no haya accedido a otro
grupo de la clase de conflicto a la que pertenece la información a la que quiere acceder. La Figura 9.6
muestra el bloqueo de accesos para el caso en que un usuario, denominado Miguel, manipula información
en ambas clases de conflicto. En su primer acceso, Miguel conoce información de la clase de conflicto
Bancos, específicamente del BSCH. Eso le invalida para conocer más información de otros grupos de esa
clase de conflicto. En el acceso 2 Miguel conoce información de la clase de conflicto Automoción,
específicamente de General Motors. Por tanto, para posteriores accesos podrá acceder a ambas clases de
conflicto, pero sólo a los grupos que ya ha accedido.
Los modelos de seguridad limitada se centran en responder formalmente las propiedades que un
sistema seguro debe satisfacer, pero introduciendo restricciones a los sistemas de seguridad multinivel.
Todos ellos se basan en dos principios:
• Usan la teoría general de la computación para definir un sistema formal de reglas de protección.
• Usan una matriz de control de acceso, en cuyas filas están los sujetos y en cuyas columnas están los
objetos.
Los derechos de acceso del sujeto i sobre el objeto j son los contenidos del elemento de la matriz (i, j ).
Ejemplos de modelos de este tipo son los de Graham-Denning, los de Harrison-Ruzzo-Hullman (HRU) y los
de permiso de acceso [Harrison, 1985].
Es importante resaltar que la existencia de un modelo de seguridad no es requisito obligatorio en todos
los sistemas operativos. Sin embargo, si se quiere demostrar a alguien que el sistema es confiable y seguro,
tener un modelo con validación formal es una de las mejores formas de hacerlo. En los sistemas operativos
con un nivel de seguridad muy alto, como el núcleo de seguridad del VAX, sí es obligatoria la existencia de
un modelo de seguridad formalmente verificable. Los modelos que se usan en la mayoría de los sistemas
operativos actuales se basan en modelos de seguridad limitada del tipo HRU. La implementación de una
matriz de acceso y su explotación por filas o columnas es una de las formas más populares de implementar
los mecanismos de protección en sistemas operativos de propósito general.
Se puede consultar bibliografía más específica de sistemas de seguridad, como [Landwher, 1981] o
[Fites, 1989] para tener una explicación detallada de los modelos de protección.
Para dotar a un sistema operativo con mecanismos de seguridad es necesario diseñarlo para que admitan
estos mecanismos desde el principio. Incluir mecanismos de seguridad dentro de un sistema operativo
existente es muy difícil porque las repercusiones de los mecanismos de seguridad afectan prácticamente a
todos los elementos del sistema operativo. Además, el diseño del sistema de seguridad debería ser lo
suficientemente flexible como para poder proporcionar distintas políticas de seguridad con los mecanismos
diseñados.
En general, el concepto de seguridad es demasiado exigente, siendo imposible diseñar y construir un
sistema seguro para siempre. Por ello, en muchos sistemas se centra el diseño de seguridad en conseguir un
sistema confiable, es decir, un sistema que satisface los requisitos de seguridad de terceros o que es capaz
de generar confianza en los usuarios. Un sistema será confiable si el conjunto de mecanismos de protección,
incluyendo hardware, software yfirmware, proporciona una política de seguridad unificada en el sistema.
Existen casos en que los usuarios confían en sistemas no totalmente seguros. Un ejemplo claro es el
automóvil. Su conducción genera multitud de accidentes por fallos mecánicos y humanos. Sin embargo,
muchas personas confían más en su vehículo particular que en un avión, aunque todos los datos demuestran
que el avión es más seguro.
1. Diseño abierto. El diseño del sistema debería ser público para disuadir a posibles curiosos. Los
mecanismos de protección no deben asumir la ignorancia de los posibles intrusos, reduciendo los aspectos
ocultos al mínimo. Además, un diseño abierto puede ser estudiado y probado por cualquiera, lo que permite
tener verificaciones independientes del sistema.
2. Exigir permisos. La política de acceso por defecto debería ser restrictiva, es decir, denegar el acceso.
Es mejor identificar qué objetos son accesibles y cómo identificar los que no. De esta forma se tienen
mecanismos para pedir permisos de acceso a todos los objetos.
3. Privilegios mínimos. Los procesos deberían tener la menor prioridad posible que les permita acceder
a los recursos que necesitan. Se les debe conceder únicamente la prioridad necesaria para llevar a cabo su
tarea. Este principio permite limitar los daños en casos de ataques maliciosos.
4. Mecanismos económicos. Los mecanismos de protección deberían ser sencillos, regulares y
pequeños. Un sistema así se puede analizar, verificar, probar y diseñar fácilmente.
5. Intermediación completa. Cada intento de acceso al sistema debe ser comprobado, tanto los directos
como los indirectos. Los mecanismos de comprobación deberían estar situados en zonas del sistema operativo
donde no puedan ser evitados. Lo lógico es que estén ocultos en los niveles inferiores del sistema. Si se relaja
este principio de diseño de forma que no se comprueben todos los accesos a un objeto, es necesario
comprobar los permisos de los usuarios de forma periódica y no sólo cuando se accede al recurso por primera
vez.
6. Compartición mínima. Los objetos compartidos pueden servir como canales de comunicación de
información. Los sistemas que usan la separación física o lógica de los usuarios permiten reducir el riesgo de
compartición ilegal de objetos. La memoria virtual, por ejemplo, permite separar los espacios de memoria de
cada objeto y controlar los accesos a memoria con gran detalle. La separación debe aplicarse cuidadosamente
cuando se asignan a un usuario objetos libres que antes fueron de otro usuario, para evitar que se conviertan
en canales de comunicación encubiertos. Los archivos o páginas de memoria usados por un usuario y
liberados posteriormente deben ser borrados físicamente para que otros usuarios no puedan reusar dicha
información por accidente o por mala fe. Imagine, por ejemplo, que un usuario crea un archivo, lo escribe y lo
borra. A continuación, otro usuario crea un archivo y pide bloques pero no escribe. Es muy probable que se le
den bloques del usuario anterior con toda la información que contenían. Este fallo de seguridad ocurría en las
primeras versiones de UNIX.
7. Fáciles de usar y aceptables. El esquema de protección debe ser aceptado por los usuarios y fácil de
usar. Por ejemplo, un análisis de DNA sería muy fiable para identificar al usuario, pero el lector puede entender
que los usuarios de una computadora no serían muy felices si se tuviesen que hacer un análisis de sangre
cada vez que quieren entrar al sistema. Si un mecanismo es sencillo, y no es desagradable, existen menos
probabilidades de que los usuarios traten de evitarlo.
8. Separación de privilegios. Si se quiere diseñar un sistema seguro, los accesos a cada objeto deben
depender de más de un mecanismo de protección. De esta forma, si se consigue violar uno de ellos, todavía
quedarán los restantes mecanismos de protección. Tener la información criptografiada añade un plus de
seguridad, ya que aunque un intruso pueda acceder a la información todavía debe ser capaz de descifrarla.
Todo lo descrito anteriormente necesita ser implementado en el sistema operativo para proporcionar
seguridad a los usuarios, por lo que el diseño de los aspectos de seguridad de un sistema operativo es una
tarea delicada [Bell, 19831. Es necesario elegir un conjunto apropiado y coherente
Seguridad y protección 511
• Autenticación de usuarios. Si hay que controlar los accesos basándose en la identidad individual de
cada potencial usuario del sistema, dichas identidades deben ser precisas. La existencia de identidad conlleva
la necesidad de autenticar, o verificar, esa identidad. En un sistema operativo debe existir un método seguro y
fiable de identificar a los usuarios y cada usuario debe tener una identidad única. Además, en caso de que un
intruso consiga acceder al sistema, es necesario detectar dicha violación. Esta característica todavía no existe
en muchos sistemas operativos.
• Asignación de recursos. Los objetos de un sistema operativo deben ser asignados a los procesos que
los solicitan sin que haya conflictos, violaciones de normas de seguridad, problemas de compartición o fallos de
confidencialidad a través de recursos reusables. Las páginas de memoria, por ejemplo, pertenecen a un
proceso o a otro dependiendo del estado de la memoria física. La reutilización de recursos puede originar fallos
de seguridad, que pueden ser maliciosos o no. Para evitar este problema, el sistema operativo debe borrar la
información existente dentro de un objeto antes de permitir que otro usuario lo utilice.
• Control de accesos a los recursos del sistema. El dueño de un objeto tiene un cierto gradcC de libertad
para establecer quién y cómo puede acceder a un objeto. Además, esta situación puede cambiar
dinámicamente. Los sistemas operativos de propósito general usan este tipo de políticas discrecionales. Los
seguros usan políticas con controles obligatorios.
• Control de la compartición y la comunicación entre procesos. Para que se puedan aplicar controles de
acceso, hay que controlar todos los accesos, incluyendo la comunicación entre procesos y la reutilización de
elementos. La complejidad del sistema de seguridad aumenta a medida que existen más formas de acceder al
sistema (memoria, archivos, puertos, redes, etcétera).
• Protección de los datos del sistema de protección en sí mismo. Los sistemas operativos almacenan la
información de seguridad en recursos internos del sistema. Es necesario tener estos recursos bien protegidos
para que el acceso a los mismos no facilite violaciones de seguridad. En versiones antiguas de UNIX, el archivo
de usuarios con las claves cifradas era legible para todo el mundo. A través de este archivo se podía conocer
las identidades de los usuarios y tratar de romper sus claves. Además, muchos sistemas operativos registran
todos los eventos que son relevantes para la seguridad, tales como accesos, fallos de acceso, cambios de
protecciones, etc. Este registro se lleva a cabo en uno o más archivos, que deben estar protegidos de accesos
no autorizados. La mayoría de los sistemas registran el primer y último acceso a un objeto, pero aun así los
registros de eventos suelen ser grandes y difíciles de analizar.
La Figura 9.7 relaciona las tareas de seguridad anteriores con las funciones más tradicionales del
sistema operativo. Como se puede ver, el control de acceso es fundamental para servicios, ; utilidades y
recursos físicos. La autenticación de usuarios está intrínsecamente relacionada con la [•: interfaz de
usuario en un sistema operativo tradicional. Aunque en sistemas conectados a redes I también es
necesario autenticar a usuarios que acceden a través de la red. La asignación de recursos ; afecta al
reparto de tiempo de la UCP, espacio en dispositivos de E/S, espacio en memoria, etc. [s Además de
estas funciones, el sistema operativo debe controlar que la compartición de recursos del s sistema sea
segura.
512 Sistemas operativos. Una visión aplicada
Existen distintas técnicas de diseño que se pueden usar para dotar a un sistema operativo con los
principios y características de seguridad descritas anteriormente. En esta sección se describen las tres
principales:
• Separación de recursos.
• Uso de entornos virtuales.
• Diseño por capas.
Separación de recursos
Una de las formas más seguras y eficaces de evitar problemas de seguridad es separar los recursos de
los distintos usuarios o dominios, de forma que no puedan compartirlos o que la forma de compartirlos esté
completamente controlada a través de un medio de comunicación fiable. Hay cuatro formas básicas de
separación entre procesos:
• Física. Los procesos ejecutan en distintas plataformas hardware, dependiendo de sus restricciones
de seguridad. Por ejemplo, se puede instalar el software nuevo en una máquina aislada para prevenir la
extensión de virus o ejecutar los procesos con restricciones fuertes de seguridad en entornos de
computación restringidos. Es importante resaltar que gran parte del hardware usado actualmente
proporciona separación física para recursos tales como memoria, ejecución de procesos ligeros, sistema
operativo y aplicaciones [Wiikes, 1982].
Seguridad y protección 513
• Temporal. Ocurre cuando los procesos se ejecutan a distintas horas. Algunos sistemas operativos, como el VMS
de DEC, permiten especificar a qué horas puede ejecutar un proceso, cuándo se puede acceder a un sistema
desde un terminal, etc. En sistemas grandes se permite ejecutar trabajos interactivos durante una ventana
horaria (p. ej.: de 9 a 18 horas) y a partir de esa hora sólo se permite la ejecución de trabajos por lotes (batch).
• Criptográfica. Usa la criptografía para asegurar que los datos de distintos usuarios no sean inteligibles para los
demás, aunque puedan acceder a dichos datos.
• Lógica. Los sistemas proporcionan múltiples espacios lógicos de ejecución, asignando uno a cada proceso. El
sistema operativo separa así los objetos y el contexto de un usuario de los de otro.
Los sistemas operativos multiprogramados proporcionan separación física y lógica, aislando cada
proceso de los otros y permitiendo únicamente la comunicación a través del sistema operativo. Cada
proceso, por ejemplo, tiene su espacio de memoria virtual y su propio árbol de archivos y directorios. Para
evitar una rigidez excesiva, en algunos sistemas operativos, como UNIX, se dejan canales de comunicación
con menos control. Por ejemplo, si un usuario quiere dar un archivo a todos los demás sólo tiene que
copiarlo al directorio /tmp, al que puede acceder cualquier usuario para leer y escribir. Las separaciones
temporales o criptográficas, en caso de estar disponibles, suelen ser discrecionales del administrador o
incluso del propio usuario.
La Figura 9.9 muestra un sistema por capas y, dentro de él, cómo afectan a cada nivel las tareas de
seguridad. Este diseño permite relajar el concepto de núcleo de seguridad, repartiendo sus funciones por
las distintas capas del sistema, ocultar datos entre niveles y reducir daños en caso de fallos de seguridad.
En cada capa del sistema se puede incluir toda la funcionalidad que afecta a los elementos de esta capa.
En caso de que haya un fallo de seguridad, sólo esos elementos se verán afectados. Imagine lo que
supondría la existencia del mismo fallo de seguridad dentro de un núcleo monolítico. El fallo podría afectar a
todo el sistema sin limitación.
Ejemplos de diseño por capas de sistemas seguros son MULTICS y la versión de seguridad del
sistema operativo VMS. En VMS, cada anillo del sistema es un dominio de ejecución, siendo el núcleo la
capa más interna (Fig. 9.10). Los anillos se implementan como bandas concéntricas alrededor del hardware,
de tal forma que los procesos más fiables ejecutan en niveles internos, mientras los de usuario se quedan
en las capas extemas. Los anillos se solapan, de forma que | ejecutar en un determinado anillo significa
tener los privilegios de ese nivel y los de todos los | anillos más externos. El núcleo es la parte del sistema
operativo que ejecuta las operaciones del nivel más básico, tales como comunicación, planificación, gestión
de interrupciones, etc. Elnúcte@| es además responsable de los servicios de seguridad para todo el sistema
operativo, proporcionand&J interfaces seguras para el hardware y las partes restantes del sistema
operativo.
Seguridad y protección 515
Figura 9.9. Diseño por capas y tareas de seguridad.
al mismo [ 1990]. En esta sección se consideran los tres tipos de controles externos al sistema
operativo que se aplican más frecuentemente para prevenir fallos de seguridad durante las etapas
de desarrollo y de prueba de un sistema operativo:
Prevenir todos los problemas de seguridad posibles es difícil, como veremos más adelante. Para
tratar de detectar el mayor número de fallos posible es habitual usar equipos de penetración. Su
misión consiste en llevar a cabo todos los ataques de seguridad imaginables sobre un sistema. Un
conjunto de pruebas de seguridad bien diseñado es muy complejo, porque debe incluir desde
cosas muy sencillas hasta muy sofisticadas. Por ejemplo, intentar leer bloques de disco o páginas
de memoria al azar, intentar entrar en cuentas de otros usuarios, hacer las cosas que se indican
como no convenientes en los manuales, etc. Estos controles de seguridad han de ser más
rigurosos si los sistemas estái conectados en redes por la posibilidad existente de difusión de virus
o de intento de adquisición de palabras de acceso al sistema mediante programas que descifran
dichos códigos (crackers).
La complejidad de las comprobaciones y el registro de los accesos aumenta en los
sistemas conectados a la red. En este caso, la seguridad del sistema se enfrenta a múltiples
puntos de ejecu ción y a canales de comunicación expuestos. Debido a la complejidad de los
mecanismos de protec ción en sistemas distribuidos, en muchas redes de computadoras se limita
el acceso y sólo se permi te el acceso a la red interna a través de una máquina determinada,
denominada cortafuegos (firewall). Esta máquina separa dos dominios de seguridad: el fiable y el
exterior. El cortafuegos se sitúa entre ambos y filtra todo el tráfico de la red, monitoriza y registra
las conexiones. Actualmen te, Internet se sitúa en el dominio de seguridad exterior, mientras que
las máquinas del dominio de seguridad fiable se aíslan del exterior, estando conectadas mediante
una intranet (Fig. 9.11). Habi tualmente, sólo se permite el establecimiento de comunicaciones
entre máquinas de la intranet y el mundo exterior a través de los servicios del cortafuegos. En
algunos casos existe una zona interme dia de seguridad cuyas máquinas se pueden conectar con
las de la intranet. Por ejemplo, máquinas controladas de clientes que se conectan a los catálogos
de una compañía usando protocolos que pueden ser filtrados por el cortafuegos.
Controles de programación
Existen distintos métodos que se pueden aplicar durante el desarrollo de un sistema operativo para
intentar asegurar la calidad de la programación, que lo programado se ajusta a lo diseñado y la
fiabilidad del código producido:
Un sistema operativo suele ser un proyecto de programación muy grande. Los controles anteriores
son sólo una pequeña parte de los controles que es necesario aplicar en el desarrollo del sistema.
Además, para que el sistema sea seguro es necesario describir claramente qué hacer, y cómo
hacer lo, en términos de seguridad. Actualmente, existen varios estándares que describen cómo
conse guir un sistema fiable y de calidad. Los tres más conocidos son el DoD-2167A, el SSE-CMM
y el ISO 9000.
• El estándar DoD-2167A data de 1988 y permite definir requisitos uniformes aplicables a lo largo
del ciclo de vida del sistema. En cada fase del modelo se puede comprobar la calidad y seguridad
de lo desarrollado, solventando los problemas lo antes posible.
El Modelo de Madurez y Capacidad (CMM) fue publicado en el Software Engineering Institute
(SEI) en febrero de 1993. En 1995, la National Security Agency (NSA) publicó el Modelo de
Madurez y Capacidad para la Ingeniería de Seguridad de Sistemas (SSE-CMM). Este modelo
permite evaluar la calidad de los métodos de seguridad usados en un sistema u organización.
• El estándar ISO 9000 agrupa un conjunto de estándares de calidad que especifican las acciones
a tomar cuando un sistema tenga objetivos y restricciones de calidad. Uno de ellos, el 9000-1, se
aplica al desarrollo de software e identifica unos requisitos de calidad mínimos.
El sistema operativo debe llevar a cabo su parte de la política de seguridad del sistema liJones,
19781. Algunos de los controles de seguridad que se deben aplicar en el sistema operativo son:
9.5. CRIPTOGRAFÍA
En las secciones anteriores se ha mencionado varias veces la palabra criptografía en relación con
la seguridad. Suponga que además de ocultar información y controlar los accesos a la misma se
quiere hacer dicha información ininteligible en caso de que sea accedida. La criptografía es la
técnica que permite codificar un objeto de manera que su significado no sea obvio. Es un medio
para mantener datos seguros en un entorno inseguro, en el cual un objeto original (O) se puede
convertir en un objeto cifrado (C) aplicando una función de cifrado (E). Obviamente, es necesario
que se pueda descifrar el mensaje cifrado, para volver a obtener el mensaje original aplicando una
función de descifrado (D), que puede ser o no la inversa de E. La Figura 9.12 muestra el proceso
de cifrado y descifrado de un mensaje.
Existen dos conceptos básicos en criptografía: algoritmos de cifrado y claves. Ambos conceptos no
están indisolublemente ligados, puesto que, habitualmente, un algoritmo de cifrado admite muchas
claves y una clave podría servir para muchas funciones de cifra. A continuación, se estudian breve
mente ambos conceptos. Los lectores interesados en profundizar en el tema pueden leer los libros
de Denning [ 1992] y de Pfleeger [ 1997].
Algoritmos de cifrado
Las funciones de cifrado y descifrado permiten cifrar y descifrar un objeto mediante la aplicación al
mismo de procedimientos, generalmente repetitivos, que permiten ocultar el contenido del objeto y
ponerlo en su forma original, respectivamente.
Los algoritmos de cifrado son muchos y variados. En general, todo diseñador de un
sistema de criptografía busca algoritmos nuevos y mejores que los existentes. Sin embargo, la
mayor parte de los algoritmos convencionales de cifrado se pueden clasificar dentro de dos tipos:
sustitución, es decir, cambiar el contenido del objeto original por otro, y transposición, es decir,
modificar el orden del contenido del objeto original liDenning, 1982].
Los algoritmos que se basan en la sustitución de partes del texto original por otros textos del
mismo o de otro alfabetos tienen como objetivo básico aumentar la confusión. Se pueden dividir en
dos grandes tipos según la complejidad del algoritmo:
• Monoalfabéticos. Cambian cada carácter por otro carácter o símbolo. Son muy sencillos y se
conocen desde antiguo. Los griegos y persas ya codificaban mensajes usando esta técnica. Sin
embargo, el primer algoritmo con nombre es el denominado Julio César, porque se dice que fue el
primero en usarlo. Es muy sencillo, pero efectivo: cada letra del original se cambia por la que está
un cierto número de posiciones más adelante. César usaba un despla zamiento de tres caracteres.
Ejemplo: abc -> cde.
• Polialfabéticos. Cambian grupos de caracteres por otros caracteres o símbolos depen diendo de
la frecuencia de su distribución en el texto original [ 19661. Ejemplo:
abc -> 112233. El objetivo de estos algoritmos es evitar un defecto de los monoalfabétic que hace
aparente la distribución del alfabeto del objeto original a partir del estudio d objeto codificado. El
código Morse es un ejemplo muy sencillo de algoritmo polialfabéti en el que cada carácter se
sustituye por una secuencia de puntos y líneas.
En 1993, el gobierno de los Estados Unidos de América anunció el programa Clipper, que
incluye un conjunto de algoritmos de criptografía conocido como Skipjack. El algoritmo se mantie
ne en secreto, pero se sabe que se basa en un nuevo concepto de cifrado denominado escrutinio
de claves jiDenning, 19961. La clave se divide en varios componentes, cada uno de los cuales está
en poder de una agencia autorizada. Todos los componentes son necesarios para descifrar un
objeto, de manera que es necesario pedirlos a las respectivas agencias autorizadas. Este método,
aunque muy seguro, fue muy mal recibido en su momento porque las agencias autorizadas eran
del gobierno y hubo muchas quejas respecto al control gubernamental de las comunicaciones
privadas.
Claves
Un concepto básico en criptografía es el de clave. La clave (k) es el patrón que usan los algoritmos
de cifrado y descifrado para manipular los mensajes en uno u otro sentido. Aunque existen
sistemas criptográficos que no usan clave (keyless cipher), el uso de claves añade más seguridad
a los meca nismos de cifrado porque con distintas claves se pueden obtener distintos mensajes
cifrados usando la misma función de cifrado. De esta forma, para romper un sistema de cifrado es
necesario conocer tanto las funciones correspondientes como la clave usada para cifrar un
determinado objeto.
Obviamente, es necesario tener sistemas de criptografía en los que siempre se pueda
recuperar el objeto original a partir del objeto cifrado (o=D (k, E (k, O))). Sin embargo, dependiendo
de los pasos a aplicar para ejecutar el proceso de la Figura 9.12, los sistemas de criptografía se
pueden clasificar en dos tipos básicos:
• Simétricos. En este caso, D es la función inversa de E y las clave usada en ambos casos es la
misma. También se denominan sistemas de clave privada. Puesto que ambos comparten la clave,
pueden trabajar de forma independiente. La simetría del proceso es muy útil siempre que se
mantenga e1 secreto, ya que en ese caso se puede usar la clave como medio de autenticación.
Sin embargo, estos métodos tienen problemas asociados con la filtración de las claves, su
distribución, su debilidad criptográfica y el número creciente de claves.
• Asimétricos. En este caso existen claves distintas para cifrar y descifrar y la función de
descifrado no es exactamente inversa a la de cifrado (o=D (Kd, E (Ke, O))). La asimetría permite
reducir el número de claves a intercambiar entre los participantes en el proceso de cifrado.
Todos los sistemas que usan claves son sensibles a la pérdida, filtración o robo de claves [
19941. La única solución posible para este problema es que cuando un usuario sospeche que una
clave ha sido interceptada lo notifique a quien corresponda para que éste a su vez cambie la clave
y notifique que, a partir de un determinado instante, los mensajes codificados con la clave anterior
no son válidos. Este método es el mejor posible, aunque no es óptimo. Si un usuario tiene objetos
cifrados con una clave y le notifican que es inválida, deberá recodificar los objetos con la nueva
clave y notificar a su vez la invalidez de la clave anterior.
El uso de claves tiene varias ventajas:
Sin embargo, el uso de claves también genera problemas importantes. En primer lugar, la
clave debe ser conocida por el codificador y el descodificador de un objeto. En segundo lugar, la
clave debe resistir los intentos de rotura, lo que significa que debe tener una cierta complejidad. En
tercer lugar, limita la comunicación entre procesos a aquellos que conocen sus respectivas claves,
lo que obliga a establecer protocolos de intercambio de claves que permitan llevar a cabo comuni
caciones seguras, incluso aunque se ejecuten sobre canales inseguros [ 19811. Mediante estos
protocolos se puede conseguir que dos usuarios que sospechan entre sí puedan comunicarse y
estar convencidos de la validez de sus contactos. Existen distintos tipos de protocolos [ 19941,
tales como los arbitrados, los adjudicados o los autocontrolados, pero la distribución de claves es
uno de los problemas principales en todos ellos [ 19941. Según cómo se distribu yan las claves, se
clasifican en sistemas con protocolos simétricos o asimétricos.
Los sistemas de clave privada se basan en la ocultación de la clave de cifrado [ 19821. Se supone
que la clave es conocida únicamente por el usuario que cifra el objeto original. Estos siste mas,
que se han usado convencionalmente, ejecutan el cifrado (E) aplicando la clave (k) al objeto origen
(o) para obtener el objeto cifrado (c):
C = E (k, o)
El problema de estos sistemas es que para que alguien descifre el objeto cifrado debe
conocer la clave con que está cifrado. Hay dos soluciones para ese problema:
• Propagar la clave.
• Recodificar y añadir nuevas claves.
Imagine ahora que se desea que tres procesos (A, B y C) compartan objetos cifrados.
Distribuir a todos ellos la misma clave propagando la clave original no parece muy seguro. Es
mejor que cada par de procesos, por ejemplo A y B, compartan una clave kAB para cifrar sus
interacciones. Lo mismo debería hacerse para las interacciones (A, C) y (B, C). En general, para n
usuarios serían necesarias * (n — 1) /2 claves, lo que hace que para un número grande de
usuarios sea muy difícil mantener claves confidenciales y con buenas características, debido
principalmente a dos proble mas básicos:
• Es necesario tener una base de datos de claves almacenadas en un sistema seguro, por la
imposibilidad de recordar todas ellas.
• Estos sistemas violan el principio de diseño que recomienda mostrar al exterior lo más posible
para evitar la curiosidad y los ataques de usuarios dispuestos a romper la seguridad
del sistema.
El sistema DES (Data Encription Standard) es el más popular de los de clave privada.
Para resolver los problemas de propagación de claves, Diffie y Helman [ 1977] propu sieron
un sistema de cifrado con clave pública, en el que cada usuario tiene una clave de cifrado que
puede conocer todo el mundo. De esta forma cada usuario puede publicar su clave de cifrado para
que cualquiera pueda enviar un mensaje cifrado con dicha clave. Sin embargo, cada usuario tiene
también una clave de descifrado secreta o privada. En cierta forma, éste es un sistema de cifrado
de sentido único, donde cada usuario tiene un par de claves kpR) pública y privada,
respectivamente.
O = D (kpR, E O))
O = D E (KPR, ))
Es decir, se puede descifrar con la clave privada algo cifrado con la clave pública y se
puede descifrar algo cifrado con la clave privada sólo si se dispone de la clave pública. Estas dos
propieda des implican que ambas claves se pueden aplicar en cualquier orden.
Con este método sólo se necesitan dos claves para cualquier número de usuarios: clave pública y
privada. Cualquier proceso A puede enviar a B mensajes cifrados con la clave pública de B. Sólo el
proceso B podrá descrifrar el mensaje, ya que es el único que posee la clave privada, necesaria
para descifrar el mensaje cifrado con la clave pública. Este método asegura la confidencialidad,
puesto que aunque un intruso obtenga el mensaje cifrado, no podrá descifrarlo. Además, soluciona
los dos problemas principales de los sistemas de clave privada:
• No es necesario intercambiar claves para poder comunicarse con un servidor de forma segura.
• Muestran lo más posible al exterior, evitando que los intrusos tengan curiosidad por conocer las
claves de los servidores.
• Sistemas de clave privada, donde la posesión de la clave garantiza la autenticidad del mensa je y
su secreto.
• Sistemas de sello, donde no es necesaria una clave. Se puede hacer que el usuario tenga un
sello que lo identifique, que puede ser una función matemática o una tarjeta electrónica con
información grabada en la banda magnética.
• Sistemas de clave pública, donde la posesión de la clave de descifrado hace que sólo el receptor
adecuado pueda descifrar un mensaje cifrado con su clave pública.
Una firma digital debe ser auténtica, no falsificable, no alterable y no reusable. Para
satisfacer estos requisitos, las firmas digitales pueden incluir sellos con fechas y números de orden
o números aleatorios. Los detalles relativos a firmas digitales se pueden estudiar en [ 1997].
La clasificación de los sistemas de computación según sus requisitos de seguridad ha sido un tema
ampliamente discutido desde los años setenta. La disparidad de criterios existentes se ha ampliado
más con la conexión de las computadoras para formar redes de computación que pueden
compartir recursos. Algunas de las clasificaciones existentes en la actualidad son la clasificación
del Departa mento de Defensa (DoD) de los Estados Unidos de América, el criterio alemán, el
criterio canadien se, el ITSEC o el criterio común.
La última clasificación ha sido definida conjuntamente en Estados Unidos y Canadá, siendo
publicada su primera versión en 1994 [ 19941. Es un sistema complejo que todavía está en fase de
elaboración y discusión, por lo que hay muy pocos sistemas comerciales que se ajusten a esta
norma. Sin embargo, es importante resaltar que tiene grandes posibilidades de convertirse en un
estándar.
Una de las clasificaciones más populares es la del Orange Book del Departamento de Defensa
(DoD) de Estados Unidos [ 19851. Esta clasificación especifica cuatro niveles de seguridad:
A, B, C y D (Fig. 9.13). A continuación, se describen estos niveles de seguridad y las
características de cada uno.
No pasan las pruebas de seguridad mínima exigida en el DoD. MS-DOS y Windows 3.1 son siste
mas de nivel D. Puesto que están pensados para un sistema monoproceso y monousuario, no pro
porcionan ningún tipo de control de acceso ni de separación de recursos.
La aplicación de los mecanismos de protección depende del usuario, o usuarios, que tienen privile
gios sobre los mismos. Esto significa que un objeto puede estar disponible para lectura, escritura o
cualquier otra operación, según el libre albedrío de su dueño. Casi todos los sistemas operativos
comerciales de propósito general, como UNIX, LINUX o Windows NT, se clasifican en este nivel.
Este nivel se divide a su vez en dos subniveles, dependiendo de la precisión del control de acceso:
• Clase C1. Control de acceso por dominios. No hay posibilidad de establecer qué elemento de
un determinado dominio ha accedido a un objeto. UNIX pertenece a esta clase. Divide a los
usuarios en tres dominios: dueño, grupo y mundo. Se aplican controles de acceso según los
dominios, siendo todos los elementos de un determinado dominio iguales ante el sistema de
seguridad.
• Clase C2. Control de acceso individualizado. Granularidad mucho más fina en el control de
acceso a un objeto. El sistema de seguridad del ser capaz de controlar y registrar los
accesos a cada objeto a nivel de usuario. Windows NT pertenece a esta clase.
En este nivel, los controles de acceso no son discrecionales de los usuarios o dueños de los
recursos, sino que deben existir obligatoriamente. Esto significa que todo objeto controlado debe
tener pro tección, sea del tipo que sea. En caso de que el dueño no defina cuál, el sistema de
seguridad asigna una por defecto. Este nivel se divide a su vez en tres subniveles:
• Clase Bi. Etiquetas de seguridad obligatorias. Cada objeto controlado debe tener su eti queta
de seguridad. Pueden existir objetos no controlados. Este modelo de seguridad se
ajusta al de Bell-La Padula.
• Clase B2. Protección estructurada. Todos los objetos deben estar controlados mediante un
sistema de seguridad con diseño formal y mecanismos de verificación. Estos mecanismos permiten
probar que el sistema de seguridad se ajusta a los requisitos exigidos. Controles obligatorios, y
asignados según el principio del menor privilegio posible, para objetos, suje tos y dispositivos.
• Clase B3. Dominios de seguridad. B2 ampliado con pruebas exhaustivas para evitar cana les
encubiertos, trampas y penetraciones. Diseño probado y verificado, que usa niveles, abstracciones
de datos y ocultamiento de información. El sistema debe ser capaz de detectar intentos de
violaciones de seguridad, para ello debe permitir la creación de listas de control de acceso para
usuarios o grupos que no tienen acceso a un objeto.
Para acceder a este nivel, la política de seguridad y los mecanismos de protección del sistema
deben ser verificados y certificados por un organismo autorizado para ello. Organismos de
verificación muy conocidos son el National Computer Security Center o el TEMPEST
• Clase Ai. Diseño verificado. Clase B 1 más modelo formal del sistema de seguridad. La
especificación formal del sistema debe ser probada y aprobada por un organismo certifica dor.
Para ello debe existir una demostración de que la especificación se corresponde con el modelo,
una implementación consistente con el mismo y un análisis formal de distintos problemas de
seguridad. El Vax Security Kernel pertenece a esta clase.
• Clase Ax. Desarrollo controlado. Al más diseño con instalaciones y personal controlados. Formas
de control no definidas. Se podrían incluir requisitos de integridad de programas,
alta disponibilidad y comunicaciones seguras.
Un sistema operativo puede dar soporte de ejecución a múltiples procesos de múltiples usuarios
que se ejecutan de forma concunente. Por ello, una de las funciones principales del sistema
operativo es proteger los recursos de cada usuario para que pueda ejecutar en un entorno seguro.
Para poder satisfacer esta función, todos los sistemas operativos deben tener mecanismos de
protección que permitan implementar distintas políticas de seguridad para los accesos al sistema I
1968] y [ .19741. Dichos mecanismos permiten controlar el acceso a los objetos del sistema permi
tiéndolo o denegándolo sobre la base de información tal como la identificación del usuario, el tipo
de recurso, la pertenencia del usuario a un cierto grupo de personas, las operaciones que puede
hacer el usuario o el grupo con cada recurso, etc. La existencia de los mecanismos de seguridad
obliga a mantener un compromiso constante entre separación y compartición. Este compromiso es
más difícil de satisfacer a medida que la granularidad de control es más fina. En este caso es más
difícil aislar recursos pero es más fácil compartirlos. Es pues necesario lograr un equilibrio entre el
tipo y la intensidad de la separación y el grado de compartición de recursos [ 19851.
En esta sección se estudian los distintos mecanismos de protección que ofrecen los sistemas
operativos de propósito general para implementar la política de seguridad deseada por los
usuarios. Para mostrar su uso, se aplican a archivos o directorios, aunque se pueden aplicar a
cualquier tipo de objeto. Los mecanismos de protección hardware, como registros valla o
arquitecturas etiquetadas [ 1992], se estudiaron en el Capítulo 1, por lo que no se contemplan aquí.
• Pedir información que sólo conoce él a través de contraseñas, juegos de preguntas o algorit mos
de identificación.
• Determinar características físicas del usuario tales como la pupila, la huella dactilar, el
DNA, la firma, etc. Es más costoso que el método anterior pero más fiable. Actualmente 1
empiezan a ser frecuentes los sistemas de detección de la huella digital, la pupila o el tono de
voz de una persona.
• Pedir un objeto que posee el usuario, como puede ser una firma electrónica, una tarjeta con
banda magnética o con un chip.
accede al sistema desde un terminal y dicho terminal sobrepasa un tiempo de inactividad, se expul
sa al usuario del sistema después de uno o varios avisos de desconexión. Los sistemas más
moder nos, especialmente los que permiten conexiones a través de redes, intercambian claves de
forma dinámica cada cierto tiempo. Este método es equivalente a pedirle al usuario que
reintroduzca su contraseña, tarjeta o característica física cada cierto tiempo. Además, como criterio
general de seguridad, los sistemas operativos modernos dan la posibilidad de registrar todos los
accesos al sistema, lo que permite hacer controles interactivos y a posteriori de dichos accesos.
Windows NT tiene un subsistema de seguridad encargado de autenticar a los usuarios. Cuando se
crea un nuevo usuario en el sistema, se almacena en una base de datos de seguridad una ficha
del usuario que incluye su identificador de seguridad, los grupos a los que pertenece, sus
privilegios, grupo primario y enlace con su lista de control de acceso. Cuando el usuario quiere
acceder al sistema introduce su contraseña a través de un proceso logon. Dicha contraseña se
pasa al subsiste ma de seguridad, que verifica la identidad del usuario y, en caso positivo,
construye una ficha de acceso para el usuario. Este objeto sirve como identificador oficial del
proceso siempre que el usuario intente acceder a un recurso a partir de ese instante. La Figura
9.14 resume los atributos y servicios de este tipo de objeto, así como un ejemplo de ficha de
acceso en Windows NT.
El proceso de autenticación
Habitualmente, cuando un usuario quiere acceder al sistema, aparece una pantalla o mensaje de
entrada. En el caso de Windows NT, la pantalla pide tres valores:
• Identificación del usuario: nombre del usuario en el sistema.
• Palabra clave o contraseña: espacio para teclear la clave (el eco muestra *).
• Dominio de protección al que pertenece el usuario.
Existen varios fallos posibles en el proceso de entrada al sistema, por lo que este proceso
debe ser robusto y no dar información a los intrusos. Con el paso del tiempo se ha ido dotando de
mayor robustez e integridad al proceso de autenticación gracias, en parte, a la experiencia de
errores previos. En las primeras versiones de UNIX, por ejemplo, el proceso login se podía matar
desde el teclado. Al matarlo, el usuario se quedaba dentro del sistema con privilegios de
administrador del
Login: pepe
Error: el usuario no existe
Login:
Con este método era sencillo averiguar qué usuarios había o no en un sistema. Otro fallo
habitual era comprobar la contraseña carácter a carácter, notificando un error en cuanto fallaba el
primer carácter. Con este método era muy sencillo comprobar las claves carácter a carácter hasta
dar con la clave correcta.
Actualmente, los sistemas piden todos los datos de autenticación, verifican el proceso y
notifican el éxito o error de todo el proceso.
Login: pepe
Password: * * * * * * * * * * * * *
Acceso inválido. Inténtelo de nuevo.
conocido únicamente por el usuario y por el sistema operativo sobre el que se ha llegado a un
acuerdo para que sea usado como clave de acceso al sistema. Normalmente, cuando se habilita
un nuevo usuario en el sistema, éste introduce su contraseña, que puede cambiar posteriormente
tantas veces como quiera. Dicha contraseña se guarda cifrada en unos archivos especiales.
Cuando intenta acceder a su cuenta, el proceso que controla los accesos (login) pide al
usuario que teclee su contraseña. Inmediatamente, dicha contrasefia es cifrada [ 19821 y
comparada con la existente en el archivo de contraseñas para ese usuario. Si las dos contraseñas,
ambas cifradas, coinciden, se permite acceder al usuario. En otro caso se deniega el acceso.
Huelga decir que no deben existir copias sin cifrar de las contraseñas y que mientras el usuario
teclea su contraseña hay que inhibir el eco en la pantalla para que otras personas no puedan ver
dicha palabra clave.
Este sistema es sencillo de implementar y de usar, funcionando de forma similar en todos
los sistemas operativos. Sin embargo, asumiendo que la autenticación se basa en tupias «usuario,
clave», es necesario tomar cuatro decisiones de diseño básicas para un sistema como éste:
Asignación de claves
Normalmente, la palabra clave es fijada por el usuario cuando entra en su cuenta y la puede
cambiar tantas veces como quiera. Sin embargo, hay situaciones en que el sistema operativo elige
la clave, o parte de la clave, de un usuario:
La asignación discrecional de claves por parte del usuario tiene problemas asociados. Es
habi tual que los usuarios tengan contraseñas fáciles de adivinar, como su nombre, fecha de
nacimiento, dirección, nombre de familiares, claves que se puedan buscar fácilmente con un
diccionario o no tiene clave. Estos usuarios son presa fácil de cualquier programa rompedor de
claves, que tardará muy poco en encontrar su clave.
La longitud y el formato de las claves han ido cambiando a través del tiempo, principalmente
debido a la detección de fallos asociados a las claves usadas en cada momento. La Figura 9.15
muestra una distribución de palabras clave obtenida en un estudio realizado por Monis y
Thompson en 1979 [ 19791. Como se puede ver, la mayoría de las palabras clave eran muy cortas
o fáciles de adivinar. Estudios posteriores, como los de Luby [ 19891 y Spafford [ 1992], mostraron
un panorama similar. Actualmente, un buen servidor de claves trata de descartar los fallos más
probables complicando el formato o los datos de las claves.
Observe que, teóricamente, un sistema que use palabras clave con un mínimo de 6
caracteres, siendo éstos los 26 alfabéticos, diez numéricos y diez caracteres especiales, tiene un
número de 466 palabras clave posibles. Si la longitud de la clave puede variar entre 6 y 10
caracteres, el número posible sería 466 + 46 + 468 + 46 + 46’°. Costaría cientos de años romper
una clave de este estilo, siempre que el usuario fuera cuidadoso y no cometiera fallos como los
mencionados anteriormente. Para aumentar la complejidad de la clave se puede hacer que el
mandato que permite cambiar la contraseña (passwd en UNIX) obligue al usuario a meter
caracteres no alfanuméricos y que fuerce la existencia de contraseñas de una longitud mínima
añadiendo números aleatorios a la palabra clave antes de cifrarla.
Almacenamiento de claves
Es muy importante dónde se almacenan las claves para la seguridad del sistema. En el sistema
operativo UNIX, por ejemplo, las claves se almacenaban tradicionalmente en un archivo de texto
denominado / etc /passwd. En cada entrada del archivo se encontraba la identidad de un usuario y
su palabra clave cifrada, entre otras cosas, con el siguiente formato:
m±guel:xsfg7.5t:Miguel Alumno: /home/users/miguel:/bin/csh
Este archivo era accesible para lectura por todo el mundo, lo que permitía que cualquier usuario
pudiera ejecutar programas que leían este archivo y comparaban las palabras clave con
contraseñas de uso probable o, simplemente, con listados exhaustivos de contraseñas. Para paliar
este problema, actualmente las contraseñas cifradas se guardan en archivos especiales que única
mente son accesibles para el administrador. Son los denominados archivos sombra (/etc/sha dow).
El sistema operativo tiene operaciones internas para acceder a estos archivos y manipular las
contraseñas. En el caso de Windows NT, se guardan en archivos que sólo están accesibles para el
administrador del sistema y que se manipulan a través de la utilidad de administración para gestión
de usuarios.
Se puede incrementar la seguridad del sistema cifrando todos los directorios y archivos de
palabras claves. De esta forma, aunque alguien pudiera acceder a ellos, no podría usar la informa
ción. La forma más habitual de cifrar la palabra clave es usar funciones de sentido único. Con este
enfoque se cifra la palabra clave, se guarda en el archivo de claves y no se descifra jamás. Cuando
un usuario desea entrar al sistema se pide su clave, se cifra y se compara con la almacenada en el
archivo.
Para dificultar la detección de contraseñas válidas por parte de posibles intrusos se puede
configurar el sistema operativo: los sistemas operativos permiten que las contraseñas de usuarios
sean válidas únicamente durante un cierto tiempo. Evidentemente, cuanto más corta sea la
duración de la pala bra clave, más difícil será romper la seguridad del sistema. Actualmente,
muchos sistemas operati vos obligan a cambiar las claves periódicamente, por ejemplo cada 3
días, si así lo decide el admi nistrador de seguridad. Este método per se no tiene por qué mejorar
la seguridad del sistema. Suponga que un usuario tiene tres claves y siempre las usa de forma
cíclica. Si las tres claves son sencillas, la seguridad del sistema no ha mejorado mucho.
Para evitar la situación anterior, empieza a ser frecuente el uso de contraseñas válidas
para un único acceso (claves de una sola vez). Hay tres formas básicas de implementar esta
polftica:
1. Obligar al usuario a cambiar su contraseña cada vez que entra en el sistema. Esta solución no
limita posibles accesos futuros de intrusos, ya que éstos pueden cambiar la palabra
clave a su antojo, pero permite que el usuario afectado por la violación de seguridad lo detecte tan
pronto como quiera entrar a su cuenta y avise al administrador del sistema.
2. Asignar una función matemática a cada usuario, de forma que cuando el usuario entre al
sistema se le proporcione un argumento para la función y se le pida que introduzca el
resultado de la función para dicho argumento. Las funciones matemáticas a usar pueden ser muy
variadas, pero en sistemas conectados a la red suelen ser de una gran complejidad.
Es muy frecuente usar polinomios.
3. Usar libros de contraseñas ordenadas según un cierto orden numérico. Cada vez c el usuario
quiere acceder al sistema se le pide que introduzca la contraseña con un cierto
número de identificación. El libro de claves es generado por el usuario y debe estar en su
posesión, sin que existan copias del mismo que no estén cifradas. Obviamente, este méto do no es
útil si el intruso tiene acceso al libro de claves del usuario en versión no cifrada.
Este es el método usado por el sistema Securekey.
Para poder implementar mecanismos de protección sobre los objetos del sistema, que pueden ser
hardware (UCP, memoria, etc.) o software (procesos, archivos, semáforos, etc.), es necesario en
primer lugar disponer de identificadores únicos de usuarios y de objetos. Asumiendo que dichos
• Los posibles conjuntos de objetos a los que se aplican los mecanismos de protección.
• La relación de operaciones que cada usuario puede hacer sobre cada conjunto de objetos.
• La forma en que se define dicha relación: por objetos, por usuarios, etc.
• owner. Dueño del objeto. Suele ser su creador. El alumno Miguel, por ejemplo. Cada usua rio
tiene un identificador (u íd) único en todo el sistema. Este identificador está asociado a todos los
objetos creados por el usuario, para indicar que es su dueño.
• group. Usuarios distintos del dueño que forman parte de su grupo. Los componentes del grupo
suelen estar relacionados de alguna forma, por lo que se les permite gestionar los
derechos de sus objetos con criterios comunes al grupo. Un grupo de usuarios podrían ser los
alumnos de la asignatura Sistemas Operativos. Si Miguel cursa Sistemas Operativos perte nece a
este grupo. Cada grupo tiene un identificador (gid) único en todo el sistema. Un grupo se define
especificando los uid de los usuarios que forman parte del mismo. El gid está asociado a todos los
objetos creados por cualquier usuario que pertenezca a dicho grupo.
• others. El resto de los usuarios conocidos que no son el creador ni su grupo (también llamados
mundo). Suelen tener más restricciones en los derechos. En una computadora
dedicada a alumnos, para Miguel el resto del mundo serían los usuarios no matriculados en
Sistemas Operativos.
Para cada dominio se permiten únicamente tres tipos de operaciones sobre un objeto:
• Leer (r).
• Escribir (w).
• Ejecutar (x).
Además, cada objeto tiene asociados dos bits extra para conceder permisos especiales del
dueño y del grupo al que pertenece el dueño. El primero de ellos se denomina bit setuid y el
segundo bit setgid. Estos bits permiten realizar cambios de dominio cuando se ejecutan objetos
que tienen alguno de ellos activado. Cuando un usuario A ejecuta un programa del usuario B,
almacena do en un archivo cuyos bits de setuid y setgid están inactivos, su identificación sigue
siendo la de A y ése es el setuid del proceso. Sin embargo, si el archivo tiene el bit setuid activado,
la identidad del proceso será la de B, aun cuando sea el usuario A el que está ejecutando el
proceso. Asimismo, si tiene activado el setgid, la identidad del grupo del proceso será la del grupo
de B. Estos bits se pueden modificar usando la llamada al sistema chxnod. Las llamadas al sistema
setuid y setgid, que se explican en detalle en la sección de llamadas al sistema de POSIX,
permiten cambiar de dominio a vn usuario y son utilizadas por los sistemas operativos de tipo UNIX
para permitir ceder permisos de acceso a archivos del sistema o a recursos que nunca estarían
disponibles a usuarios no privilegiados, pero que pueden ejecutar temporalmente para el desarrollo
de sus actividades en el sistema. La mayoría de los intérpretes de mandatos y programas del
sistema funcionan sobre la base de este mecanismo. En UNIX, por ejemplo, el mandato mkdir
permite crear un directorio. En versiones antiguas de UNIX mkdi r no era una llamada al sistema,
por lo que era necesario ejecutar la llamada al sistema mknod, que sólo podía ejecutar el
superusuario. Lo que se hacía era permitir que el mandato mkdir se ejecutara con el bit setuid del
superusuario activado, por lo que cualquie ra que lo ejecutara lo hacía como si fuera el
superusuario y pudiera acceder a mknod.
Existen otras formas de cambiar de dominio de protección en los distintos sistemas
operativos existentes. Alternativas a los bits de protección de UNIX son:
• Colocar los programas privilegiados en un directorio especial. En este caso, el sistema ope rativo
es responsable de cambiar el setuid del proceso que ejecuta en ese directorio.
• Usar programas especiales, denominados demonios, para dar servicios en dispositivos con
acceso restringido. Un ejemplo claro es el de la impresora. Ningún proceso de usuario puede
acceder a ella directamente, sino a través del spooler, un demonio que recibe las peticiones de
impresión y las envía al dispositivo.
• No permitir nunca el cambio de identidad de un proceso y ejecutar todas las operaciones
privilegiadas a través de servicios del sistema operativo.
En cualquier caso, es necesario ser muy cuidadoso con los programas que se ejecutan de
forma privilegiada. Si un proceso del superusuario no tiene bien definidos y controlados todos los
fallos de protección, se puede generar una total falta de protección en el sistema. Algunos de los
fallos de protec ción más famosos, como la invasión por virus o la captura de contraseñas, han sido
posibles gracias a esta cesión de identidad.
Para evitar la total desprotección del sistema, en UNIX cada proceso que se ejecuta tiene
cuatro identificadores asociados:
Para ejecutar los procesos que tienen fuertes restricciones de seguridad se exige siempre
que la identidad efectiva y la real coincidan. Un ejemplo de este tipo es el mandato mount, que
permite montar un sistema de archivos en una jerarquía de archivos ya existente.
La relación entre dominios y objetos se puede definir de forma completa mediante una matriz de
protección, también denominada de acceso. Los dominios de protección son las filas de la matriz y
los objetos son las columnas de la misma. El elemento (i, i) expresa las operaciones que el dominio
± puede ejecutar sobre el objeto j. Si la matriz de protección está completamente definida, los
mecanismos de protección pueden saber siempre qué hacer cuando un proceso de un dominio
solicita determinada operación sobre un objeto.
La Figura 9.17 muestra un ejemplo de matriz de protección. Cada elemento muestra una
com binación (dom_i, obj _j) y sus derechos de acceso. Los elementos vacíos significan que no
hay derechos. Los dominios son un objeto más del sistema, por lo que se incluyen también los
cambios de dominio permitidos. Por ejemplo, en la Figura 9.17 se muestra que se puede cambiar
de Domj a Dom_2, pero no al revés.
El modelo de matriz de protección, derivado del modelo teórico HRU, es muy claro desde
el punto de vista conceptual, pero tiene inconvenientes para su implementación:
• Almacenar la matriz por columnas, con una lista por objeto que especifica qué operaciones puede
hacer cada dominio sobre ese objeto. La lista resultante se denomina lista de control de accesos
(ACL, Access Control List).
• Almacenar la matriz por filas, con una lista por dominio que especifica qué operaciones se
pueden hacer sobre un objeto cuando se pertenece a ese dominio. La lista resultante se deno mina
lista de capacidades (capabilities).
Una forma frecuente de controlar los accesos a un objeto es usar el identificador del usuario como
criterio. Con listas de control de acceso es necesario especificar para cada dominio de protección,
e incluso para cada usuario, qué tipos de accesos al objeto son posibles. Para implementar esta
solu ción, a cada objeto (archivos, directorios, procesos, etc.) se le asocia una lista de pares:
(dominio, operaciones)
Usando ACL es posible especificar completamente los derechos de acceso que sobre un
objeto tiene un usuario o un grupo. Por ejemplo, el archivo Guía puede ser leído y escrito por el
alumno miguel, que es el encargado de su mantenimiento, pero sólo puede ser leído por la alumna
elvira o la visitante maría. El archivo notas puede ser leído por todos (*) los alumnos. Si aparece un
nuevo grupo de usuarios, por ejemplo asociado a una práctica de una asignatura, sería necesario
definir los derechos de ese grupo sobre las herramientas necesarias para dicha práctica. Por tanto,
para que este sistema funcione correctamente, es necesario que la administración de los dominios
y de la pertenencia a los mismos sea muy rigurosa.
Sea cual sea su implementación, las listas de control de acceso se corresponden
directamente con las necesidades de los usuarios. Cuando un usuario crea un objeto puede
especificar qué domi nios tendrán acceso al mismo y qué operaciones pueden realizar sobre el
objeto. Sin embargo, localizar la información relacionada con un dominio en particular puede ser
costoso si no se limita el número de dominios, como en UNIX. Además, la lista de control de
accesos debe ser recorrida cada vez que se accede a un objeto, lo que puede requerir bastante
tiempo. Esto hace que la mayoría de los sistemas basados en ACL sólo comprueben los derechos
de acceso cuando se accede al objeto por primera vez, es decir, se abre el objeto. En caso de que
se conceda acceso al objeto, no se hacen más comprobaciones posteriores a medida que se usa
el objeto. Esta circunstancia hace muy difícil la revocación de derechos para los procesos que ya
tienen objetos abiertos, incluso aunque se cambie su ACL. Por tanto, las listas de control de
acceso tienen dos problemas asociados:
Estos permisos indican que los archivos datos y notas pueden ser leídos y escritos por el
dueño y sólo leídos por la gente de su grupo y por otros. El archivo corrector puede ser leído,
escrito y ejecutado por su dueño, pero el resto del mundo sólo puede ejecutarlo.
En las operaciones de interfaz con el sistema operativo, estos permisos se indican con
números en octal. Se usa un dígito para cada dominio y el valor de los bits de cada dígito se pone
a 1 si la
operación es posible o a O si no lo es. Los permisos del ejemplo anterior se expresan de forma
equivalente como:
Este modelo conlleva el que haya que hacer ciertas simplificaciones en cuanto a las
operacio nes no contempladas. Por ejemplo, borrar es posible si se puede escribir en el directorio
que contie ne el objeto que se pretende eliminar, atravesar un directorio es posible si se tiene
activado el bit x, etcétera.
Para permitir el cambio de dominio se pueden modificar los bits setuid y setgid asociados a
cada objeto. En el caso de que alguno de estos bits esté activado, se muestran dos bits más
asociados al objeto. En el ejemplo anterior, suponga que el archivo corrector tiene activado el
setuid. Su salida en un mandato is -la sería:
corrector Otros
Dueño Grupo — —x
rws ——x
Windows NT proporciona un sistema de seguridad algo más sofisticado que el de UNIX. Todos los
objetos de Windows NT tienen asignados descriptores de seguridad como parte de sus fichas de
acceso. La parte más significativa de los descriptores de seguridad es la lista de control de
accesos. Cada entrada de la ACL contiene los descriptores de seguridad de los distintos dominios
del sistema y los derechos de uso del objeto. Normalmente, sólo el dueño del objeto puede
modificar los derechos de la ACL para permitir o denegar el acceso al objeto.
El criterio de asignación de derechos en la ACL de un objeto nuevo en Windows NT es el
siguiente:
9.7.6. Capacidades
La posesión por parte de un miembro del grupo de profesores, como es juan, de una
capacidad del objeto datos le permite efectuar operaciones de lectura y escritura sobre el mismo.
Un problema asociado a las capacidades, desde el punto de vista de la implementación, es
que están en posesión de los usuarios y no asociadas al objeto en sí, por lo que hay que
distribuirlas cuando se solicite la concesión de una capacidad por parte de un usuario. Para evitar
problemas de
seguridad, las listas de capacidades no suelen estar nunca accesibles directamente, sino que se
acceden desde métodos controlados por el sistema operativo o el sistema de seguridad. La
mayoría de los sistemas que usan capacidades se basan en el hecho de que las listas de
capacidades están siempre dentro del espacio de memoria del sistema operativo, sin que exista
posibilidad de migrar a espacio de memoria de los procesos de usuario. Además, las capacidades
sólo pueden ser accedidas a través de métodos que proporciona el sistema operativo, tales como:
Crear capacidad
Destruir capacidad
Copiar capacidad
Es habitual que una capacidad no pueda ser modificada. En casi todos los sistemas es
necesa rio destruirla y crear una nueva, siguiendo un esquema de uso de una única vez.
A nivel interno se han propuesto tres métodos para proteger las listas de capacidades:
• Arquitectura etiquetada, en la cual cada palabra de memoria tenga un bit de etiqueta adicional
diciendo si contiene o no una capacidad. En caso positivo, esa posición de memo ria sólo puede
ser modificada por procesos que ejecuten dentro del núcleo del sistema opera tivo. Esta solución
es cara y poco adecuada para sistemas de propósito general.
• Capacidades cifradas. La clave de cifrado es desconocida por los usuarios, que deben limitarse
a manipular las capacidades cifradas recibidas del sistema operativo. Este sistema
se ajusta bien a las necesidades de los sistemas operativos distribuidos.
• Listas de control de acceso asociadas a cada capacidad.
El sistema operativo Amoeba [ 19861 usa capacidades para proteger puertos de mensajes
y otros objetos. La capacidad está formada por cuatro elementos (Fig. 9.19), de los cuales dos, los
derechos de acceso y el número aleatorio, se usan para protección. Los derechos de acceso
definen un bit por cada operación permitida sobre el objeto, el número aleatorio permite distinguir
entre distintas versiones de la misma capacidad. Todas las capacidades se cifran antes de ser
distri buidas a los usuarios.
Las capacidades no se corresponden directamente con las necesidades de los usuarios y
son menos intuitivas que las ACL. Debido a ello, la mayoría de los sistemas operativos
proporcionan ACL como mecanismo de protección. Sin embargo, las capacidades tienen varias
ventajas:
• Son muy útiles para incluir información de protección para un proceso en particular [
19841.
• El mecanismo de comprobación de derecho es muy sencillo.
• Se adaptan muy bien a sistemas distribuidos.
Su gran desventaja sigue siendo que la revocación de accesos a un objeto puede ser
ineficiente si se desea hacerla con criterios de selectividad entre dominios o para revocar derechos
parciales.
El principal problema de las capacidades es que, en un sistema dinámico, pueden existir cientos de
capacidades concedidas para acceder a un objeto, lo que hace muy difícil su control al no existir
una estructura centralizada en el mismo objeto como la ACL. Por ello, revocar los derechos de
acceso para un objeto en particular es muy difícil, ya que el sistema debe buscar todas las
capacidades existentes sobre el mismo para aplicar la revocación de derechos. El problema se
complica si además se quiere tener revocación parcial de derechos.
En sistemas operativos centralizados se han propuesto métodos de control de capacidades
tales como seguir la pista a la situación de las mismas, forzar su paso siempre a través del núcleo
y mantener las capacidades en una base de datos centralizada, y restringida, limitar la propagación
de capacidades, obligar a la readquisición periódica de la capacidad o usar claves de versión para
cada capacidad [ 1991].
Si se implementan las capacidades como una lista de control de acceso, se puede
mantener una lista desde cada objeto a todas sus capacidades. Si hay modificaciones, se recorre
dicha lista y se aplican. Este método, usado en MULTICS, es muy flexible, pero costoso de
implementar. Una variante es borrar las capacidades para un objeto periódicamente. Si un proceso
quiere utilizarlo, debe adquirir una nueva capacidad. Si se le ha denegado el acceso, no será
capaz de conseguirla.
Con el mecanismo de claves de versión, cada objeto tiene una clave maestra,
generalmente definida como un número aleatorio con muchos bits, que se copia en cada nueva
capacidad subte ese objeto. Los usuarios no pueden modificar dicha clave, que deben presentar
junto a la capacidad cuando van a acceder al objeto. En ese momento, el sistema operativo
compara la clave de la capacidad y la maestra. Si no coinciden, se deniega el acceso. Para revocar
el acceso, lo único que hay que hacer es cambiar la clave maestra existente en el objeto.
Normalmente, sólo el dueño de un objeto, o el sistema operativo, puede cambiar la clave maestra
del mismo. Este método, usado en el sistema operativo Amoeba, tampoco permite revocaciones
selectivas.
Cuando las capacidades se pueden ceder de unos usuarios a otros, para ceder permisos
de acceso a un objeto, es necesario mantener un grafo o árbol que muestre el patrón de
propagación de una capacidad y que permita viajar por el árbol para revocar la capacidad en todos
los dominios de protección. Este mecanismo se puede implementar mediante indirecciones, de
forma que las capa cidades no apunten directamente a los objetos, sino a una tabla global
intermedia desde la cual se apunta al objeto. Para revocar las capacidades sobre un objeto sólo
hay que eliminar el apuntador entre la tabla de objetos y el objeto en sí. No permite revocaciones
selectivas.
En general, todos los sistemas operativos crean la información de protección cuando se crea un
objeto, por lo que no es muy frecuente encontrar servicios de creación y destrucción de ACL o
capacidades disponibles para los usuarios. Es mucho más frecuente que los servicios de
protección incluyan llamadas al sistema para cambiar características de la información de
protección o para consultar dichas características. Sin embargo, para presentar una descripción
más completa de ser vicios genéricos, se incluyen también los de creación y destrucción en la
siguiente descripción:
El estándar POSIX define servicios que, en general, se ajustan a los servicios genéricos descritos
en la sección anterior. Sin embargo, no existen servicios específicos para crear, destruir o abrir des
criptores de protección. Estos se asocian a los objetos y se crean y se destruyen con dichos
objetos.
access comprueba si un archivo está accesible con unos ciertos privilegios. Tienen en cuenta el uid
y el gid real, no los efectivos. No es necesario tener el archivo abierto.
mt access (const char *path, mt amode)
chinoc3. cambia los derechos de acceso a un archivo. Sólo el dueño del archivo o el superusuario
pueden ejecutar esta llamada. No es necesario tener el archivo abierto. Si algún proceso tiene el
archivo abierto, esta llamada no afectará a sus privilegios de acceso hasta que lo cierre.
El nombre del archivo se especifica en path. mode es el valor, en notación octal, de los permisos
de acceso a instalar. Por ejemplo, los bits rwxrx-r-- se indican en octal con los números 764.
Permite cambiar los bits setuid y setgid. En caso de éxito devuelve un cero. En caso de error un —
1.
chown cambia el propietario y el grupo de un archivo. Sólo el dueño del archivo o el superusuario
pueden cambiar estos atributos. No es necesario tener el archivo abierto. Si algún proceso tiene el
archivo abierto, esta llamada no afectará a sus privilegios de acceso hasta que lo cierre.
El nombre del archivo se especifica en path. owner y group son los identificadores numéri
cos del nuevo dueño y del nuevo grupo. En caso de éxito devuelve un cero. En caso de error
devuelve —l y no cambia nada.
Las llamadas getuid, geteuid, getgid y getegid permiten obtener los identificadores reales y
efectivos del propietario de un archivo y de su grupo. Estas llamadas son sólo de consulta y no
modifican nada.
Las llamadas setuid y setgid permiten cambiar los identificadores reales del usuario y de su grupo.
A partir de ese momento, estas identidades pasan a ser la identidades efectivas de los mis mos.
Sus identidades reales sólo se cambian si el usuario tiene los privilegios adecuados. En otro caso,
sólo se cambia la efectiva y se mantiene la identidad real.
En caso de éxito devuelven cero. En caso de error, por privilegios insuficientes o por no
existir la identidad solicitada, devuelven —1.
La llamada umask permite a un usuario definir una máscara de protección que será aplicada por
defecto a todos sus objetos creados a partir de ese instante.
El parámetro cmask define el modo de protección por defecto. Cuando se crea un objeto y
se define su modo de protección, por ejemplo model, el valor efectivo de protección resultante para
el objeto es el resultado del OR binario exclusivo entre cmask y model. Por ejemplo:
El estándar POSIX define algunas llamadas más relacionadas con la identificación de usuarios y
las sesiones de trabajo de los mismos. La llamada getgroups permite obtener la lista de grupos de
un usuario. Las llamadas getiogin y getlogin_r devuelven el nombre del usuario asociado a un
proceso. La llamada setsid crea un identificador de sesión para un usuario. La llamada uname
permite identificar al sistema en el que se ejecuta el sistema operativo. Para una referencia más
completa de estas llamadas se remite al lector a los manuales de descripción del estándar.
Para ilustrar el uso de los servicios de protección que propQrciona POSIX, se presenta en esta
sección dos pequeños programas, con su código fuente en lenguaje C. El primero (Programa 9.1)
ejecuta la siguiente secuencia de acciones:
1. Comprueba que el archivo origen se puede leer y que la identificación efectiva y real del
usuario son las mismas.
2. Crea el archivo destino con la máscara por defecto.
3. Copia el archivo antiguo al nuevo y restaura el modo de protección anterior.
4. Cambia el propietario y el grupo del archivo destino.
El Programa 9.2 permite consultar la identidad del dueño, de su grupo y los derechos de
acceso de un archivo, cuyo nombre recibe como parámetro de entrada, usando la llamada al
sistema stat. Este ejemplo no modifica nada, sólo extrae los parámetros y se los muestra al
usuario. Para ello, el programa ejecuta la siguiente secuencia de acciones:
1. Ejecuta la llamada stat para el archivo solicitado y comprueba si ha recibido un error.
2. Si no le ha devuelto un error, extrae de la estructura de datos devuelta como parámetro de
salida (struct stat) la información pedida. El identificador del dueño está en el campo st_uid,
el de su grupo en st_gid y los permisos de acceso en st_mode.
3. Da formato a los datos obtenidos y los muestra por la salida estándar.
Windows NT tiene un nivel de seguridad C2 según la clasificación de seguridad del Orange Book
del DoD, lo que significa la existencia de control de acceso discrecional, con la posibilidad de
permitir o denegar derechos de acceso para cualquier objeto partiendo de la identidad del usuario
que intenta acceder al objeto. Para implementar el modelo de seguridad, Windows NT usa un
descriptor de seguridad y listas de control de acceso (ACL), que a su vez incluyen dos tipos de
entradas de control de acceso (ACE): las de permisos y las de negaciones de accesos.
Las llamadas al sistema de Win32 permiten manipular la descripción de los usuarios, los
descriptores de seguridad y las ACL. A continuación se describen las llamadas de Win32 más
frecuentemente usadas.
BOOL InitializeSecurityDescriptor
(PSECURITY_DESCRIPTOR psd, DWORD dwRevision)
pAcl es la dirección de una estructura de usuario de longitud cbAcl. El último parámetro debe ser
ACL_REVISION.
La ACL se debe asociar a un descriptor de seguridad, lo que puede hacerse usando la llamada
SetSecurityDescriptorDacl.
pAci es la dirección de una estructura de tipo ACL, que debe estar iniciada. El argumento
dwAclRevis ion debe ser ACLREVISION. El argumento pSid apunta a un identificador válido de
usuario. El parámetro dwAccessMask determina los derechos que se conceden o deniegan al usua
rio o a su grupo. Los valores por defecto varían según el tipo de objeto.
Win32 proporciona algunas llamadas más relacionadas con la identificación de usuarios. Looku
pAccountName permite obtener el identificador de un usuario mediante un nombre de cuenta suya.
LookupAccountSid permite obtener el nombre de la cuenta de un usuario a partir de su identifica
dor. Además incluye llamadas para obtener información de las ACL (GetAcllnformation), ob tener
las entradas de una ACE (GetAce) y borrarlas (DeleteAce).
Existe un conjunto de llamadas similar al mostrado para proporcionar seguridad en objetos
privados de los usuarios, tales como sockets o bases de datos propietarias. CreatePrivateOb
jectSecurity, SetPrivateObjectSecurity y GetPrivateObjectSecurity son algunas de estas funciones.
También es posible proteger objetos del núcleo, tales como la memoria. CreateKernelOb
jectSecurity, SetKernelObjectSecurity y GetKernelObjectSecurity son algunas de estas funciones.
Para ilustrar el uso de los servicios de protección que proporciona Win32, se presenta en esta
sección dos pequeños programas en lenguaje C que consultan y manipulan los descriptores de
seguridad de un objeto.
El Programa 9.3 lee los atributos de seguridad de un archivo. Para ello extrae primero la
longitud del descriptor de seguridad del archivo y luego el propio descriptor de seguridad, que
devuelve como salida de la función. Como ejercicio se sugiere al lector que modifique este progra
ma para extraer la ACL del archivo y cada una de sus entradas (ACEs).
El Programa 9.4 crea un descriptor de seguridad y le asigna los valores de protección por
defecto. Para ello extrae primero la longitud del descriptor de seguridad y del componente de la
ACL, los crea y posteriormente asigna valores. Se sugiere al lector que siga los comentarios del
programa como guía para comprender lo que hace.
Como ejercicio se sugiere al lector que modifique este programa para asignar permisos
especí ficos en el momento de la creación del descriptor de seguridad. Estos permisos se pueden
pasar como parámetros del proceso.
La seguridad se incluyó como parte de las especificaciones de diseño de Windows NT, lo que
permite lograr un nivel de seguridad C2 si se configura el sistema adecuadamente. El modelo de
seguridad incluye componentes para controlar quién accede a los objetos, qué accesos pueden
efectuar los usuarios sobre un objeto y qué eventos se auditan. Todos estos componentes juntos
componen el subsistema de seguridad de Windows NT.
Como se muestra en la Figura 9.20, el modelo de seguridad de Windows NT incluye los
siguientes componentes:
• Procesos de logon, que muestran las ventanas de diálogo para que los usuarios puedan acce der
al sistema, piden el identificador del usuario, su palabra clave y su dominio.
• Autoridad de seguridad local, que controla que el usuario tenga permiso para acceder al sistema.
Es el corazón del sistema porque gestiona la política local, los servicios de autenti cación, política
de auditoría y registro de eventos auditados.
• Gestor de cuentas de usuario, que mantiene las base de datos de usuarios y grupos. Propor
ciona servicios de validación de usuarios.
• Monitor de referencia de seguridad, que controla los accesos de los usuarios a los objetos para
ver si tienen los permisos apropiados aplicando la política de seguridad y genera even tos para los
registros de auditoría.
cada proceso que ejecuta en nombre del usuario tiene una copia de descriptor de seguridad del
usuario.
Cuando el usuario trata de acceder a un objeto con una máscara de protección, por
ejemplo, READ-WRITE, su SID se compara con los existentes en la ACL del objeto para verificar
que el usuario tiene permisos suficientes para efectuar la operación de acceso. Para ello, el
Monitor de Referencia de Seguridad evalúa cada entrada de la ACL, denominada ACE (Access
Control Entry), de la siguiente manera:
Las utilidades de registro de eventos permiten recolectar información sobre los accesos de
los usuarios a los objetos y monitorizar eventos relacionados con el sistema de seguridad. El
registro permite identificar fallos de seguridad y determinar la extensión de los daños, si se han
producido. El nivel de auditoría se puede configurar para ajustarlo a las necesidades de cada
instalación.
9.10. KERBEROS
Kerberos [ 19871 es un sistema de seguridad para sistemas conectados en red, aunque se puede
aplicar a sistemas operativos convencionales, como Solaris y Windows 2000. Fue desarrolla do en
el Massachusetts Institute of Technology (MIT) a finales de los años ochenta y se ha converti do en
un estándar defacto en sistemas operativos [ 1993]. Se basa en el uso de claves privadas,
protocolos simétricos de intercambio de claves y en la existencia de servidores de claves y tickets.
Cada usuario del sistema tiene su clave y el servidor de Kerberos usa dicha clave para codificar los
mensajes que envía a dicho usuario de forma que no puedan ser leídos por nadie más.
Para proporcionar los servicios de autenticación, Kerberos mantiene una base de datos
con sus clientes y sus respectivas claves privadas. La clave privada es un número muy grande que
sólo conoce el servidor de claves de Kerberos y el cliente dueño de dicha clave. Si el cliente es un
usuario, dicha clave se almacena cifrada. Los servicios del sistema que requieren autenticación, y
los clientes que quieren usar dichos servicios, deben registrarse en el sistema Kerberos. En ese
momento se establecen las claves privadas para cada uno de ellos. Puesto que Kerberos tiene las
claves de los usuarios, puede generar mensajes que convenzan a los mismos de que otro usuario
es quien dice ser. Se dice que Kerberos es un sistema confiable en el sentido en que los usuarios
creen que lo que dice Kerberos acerca de las identidades de otros usuarios es exacto. Para
incrementar la seguridad, el sistema genera también claves temporales o de sesión, que se dan
únicamente a los clientes que se quieren comunicar entre sí. Dichas claves se usan para cifrar los
mensajes entre los dos clientes durante una sesión de trabajo.
Kerberos proporciona tres niveles de protección distintos:
• Autenticación de cada acceso. En este caso se comprueba que cada acceso es efectuado por
el usuario que inició la sesión. No se preocupa de ocultar el contenido de los mensajes, sino
de proporcionar mensajes seguros.
• Autenticación y ocultación. En este caso se comprueban todos los accesos y se cifran los
mensajes con la clave de sesión de las dos partes en contacto proporcionando mensajes
privados.
• Biblioteca de aplicación. Interfaz entre las aplicaciones de los clientes y los servidores. Incluye
rutinas para crear autenticaciones, leerlas, generar mensajes seguros o privados,
etcétera.
• Biblioteca de cifrado. Incluye las rutinas para cifrar y descifrar. Se basa en el estándar DES y
proporciona varios métodos alternativos de cifrado con características distintas de veloci dad y
seguridad (CBC, PCBC, etc.).
• Sistema de gestión de base de datos. Módulo reemplazable que proporciona los servicios de
bases de datos. Los servicios que necesita Kerberos son sencillos: por cada registro se guarda el
nombre del usuario, la clave privada y la fecha de expiración de la misma. Además puede existir
información adicional de los usuarios, tal como su nombre, teléfono, etc. En este caso, la
información sensible se trata con medidas de seguridad mayores.
• Servidor de registro, o módulo de entrada, que proporciona la interfaz de cliente para acceder al
sistema. La parte del cliente se puede ejecutar en cualquier sistema, pero la parte
del servidor debe ejecutar en la máquina donde se ha instalado la base de datos de Kerberos.
• El servidor de autenticación ejecuta operaciones de sólo lectura en la base de datos de
Kerberos para adquirir los datos de los usuarios. Además genera claves de sesión y tickets, Puesto
que no modifica la base de datos puede ejecutar en cualquier sistema que tenga una copia de sólo
lectura de la base de datos.
• Existen además programas de usuario que permiten entrar a Kerberos, cambiar una clave o
gestionar los tickets.
Los componentes que pueden escribir sobre la base de datos para generar registros o
modifi carlos sólo pueden ejecutar en la misma máquina en la que está instalada la base de datos.
Dicha máquina debe estar instalada en un entorno seguro y ser confiable.
Lo más complejo del diseño e implementación de Kerberos son sus protocolos de
autentica. ción. Cuando un usuario pide un servicio, es necesario establecer su identidad. Para ello
es necesa rio presentar un ticket al servidor, junto con alguna prueba de que dicho ticket es legal y
de que no ha sido robado o falsificado. Como se puede ver en las Figuras 9.21 y 9.22, hay tres
fases en el proceso de autenticación de Kerberos:
La credencial básica en Kerberos es el ticket. Un ticket permite transmitir la identidad del dueño
del ticket de forma segura, además de poder incluir información para identificar a los recep.
tores del mismo. Entre otras cosas incluyen el nombre del servidor, el del cliente, un sello temporal,
su duración y una clave aleatoria de sesión. Toda esta información se cifra usando la clave del
servidor para el que se usa el ticket, lo que evita tener que comprobar si hay modificaciones del
ticket. Los tickets tienen una duración temporal limitada, debiendo renovarse cuando expira.
Cuando un usUario quiere adquirir un ticket inicial (obtener credencial), debe acceder al
servi dor de autenticación a través de un proceso de login. Cuando introduce su nombre y clave se
codifican con la clave privada del cliente y se envían dichos datos al servidor de autenticación, que
los contrasta con sus registros de la base de datos. Si todo es correcto, genera una clave aleatoria
para. esa sesión de trabajo y un ticket para que el servidor de tickets reconozca al usuario y le
conceda credenciales para servicios concretos cuando las pida. Para pedir credenciales para un
servicio concreto en un servidor, el usuario envía un mensaje al servidor de tickets (paso 1 de la
Figura 9.22). Este comunica con el servidor y el usuario y les envía el ticket concedido (pasos 2 y 3
de la Figura 9.22). A continuación, el servidor se pone en contacto con el usuario para indicarle que
puede acceder a sus servicios usando dicho ticket (paso 4 de la Figura 9.22). Todos los mensajes
van codificados con las claves privadas del servidor o de la sesión correspondiente. Cada vez que
el usuario quiera acceder al servidor, debe presentar las credenciales concedidas para efectuar
esas operaciones.
Kerberos es un sistema ampliamente usado en sistemas operativos convencionales y
distribui dos. Sin embargo, no está exento de complicaciones y cuestiones pendientes de resolver
IlBellovin, 19911. Algunos de los problemas asociados con Kerberos son los siguientes:
• Los protocolos de intercambio de tickets son complicados, lo que conlieva un tiempo consi
derable de ejecución si se tiene en cuenta que hay que pedir un ticket para cada servicio y
servidor.
• La seguridad de las bases de datos del servidor de autenticación debe ser muy estricta para que
no haya accesos indebidos ni maliciosos. Este requisito se contradice con el rendimien to. Para
tratar de acercar ambas cuestiones, se replican las bases de datos con copias de sólo lectura y
con acceso controlado por servidores de seguridad.
• La duración de los tickets supone también un compromiso entre seguridad y eficiencia. Por
seguridad, lo mejor sería usar un ticket para cada operación. Por eficiencia, es mejor tener
tickets con una vida larga para evitar las operaciones de petición de uno nuevo. Sin embargo, si el
ticket fuese usado de forma indebida, los daños serían mayores cuanto más larga fuera la vida de
dicho ticket.
• Es muy difícil garantizar la integridad del software que ejecuta en una computadora. La única
solución posible es dificultar la modificación del software que se ejecuta en computa doras con
múltiples usuarios mediante la aplicación de los controles descritos en este capítulo.
• Otro problema importante es la dificultad de delegar tareas entre servidores. Para conseguir esto,
habría que modificar mucho los protocolos de intercambio de tickets o compartir infor mación
sensible de las bases de datos.
A pesar de todo lo anterior, Kerberos es bien aceptado por los usuarios de un sistema de
computación porque, si todo va bien, es casi totalmente transparente. Cuando accede al sistema,
el usuario ve una interfaz similar a la de un sistema convencional. Igualmente, las operaciones de
cam bio de palabra clave efectúan de forma automática los cambios pertinentes en los datos de
Kerberos. Sólo cuando está dentro del sistema durante un tiempo mayor de lo que dura el ticket de
sesión (normalmente varias horas) el usuario observa la presencia de Kerberos, que le obliga a
adquirir un nuevo ticket de sesión. El trabajo del administrador del sistema, sin embargo, se
complica sustan cialmente. Debe efectuar todas las operaciones para dar de alta a nuevos
usuarios y servicios del sistema, replicar las bases de datos y asegurar que las máquinas que
ejecutan los componentes centrales de Kerberos son físicamente seguras y confiables.
dominios de protección son las filas de la matriz y los U Los servicios de protección y seguridad de un sistema
objetos son las columnas de la misma. El elemento (i, j) varían dependiendo de que se usen ACL o capacidades.
expresa las operaciones que el dominio i puede eje cutar Además, varían dependiendo de la complejidad del sis
sobre el objeto j. Estas matrices de protección suelen ser tema implementado.
muy grandes o muy dispersas, por lo que se U Los servicios de seguridad de POSIX usan el modelo
implementan como listas de control de acceso (ACL) o de ACL de UNIX directamente. Permiten manipular los
capacidades (capabilities). permisos de un objeto y la identidad y el grupo del due
U Una ACL es una lista de entradas asociadas a un ño del objeto.
objeto que especifican qué operaciones puede hacer U Los servicios de seguridad de Windows NT usan un
cada do- modelo de ACL más general y, por tanto, más comple jo.
minio sobre ese objeto. Las ACL son sencillas de im Incluyen varias llamadas para manipular la ACL y
plementar en sistemas no distribuidos, pero tienden a sus entradas (ACE).
crecer mucho y pueden ser poco eficientes. Revocar to U Kerberos es un sistema de seguridad para sistemas
dos los permisos de acceso es fácil: basta con desconec co-
tar la ACL. nectados en red, aunque se puede aplicar a sistemas
U Una capacidad indica qué operaciones puede hacer operativos convencionales. Fue desarrollado en el Mas
un usuario sobre un objeto cuando pertenece a un sachusetts Institute of Technology (MIT) a finales de los
determi nado dominio. Cada usuario tendrá una lista de años ochenta y se ha convertido en un estándar de facto
capaci dades. Las capacidades complejas, pero se en sistemas operativos. Se basa en el uso de claves
prestan muy bien a sistemas distribuidos. Revocar todos privadas, protocolos simétricos de intercambio de cla ves
los permi sos de acceso puede ser complejo. y en la existencia de servidores de claves y tickets.
Para extender la visión introductoria sobre el tema se recomienda acudir a otros libros de sistemas
operativos tales como el de Deitel [ 1984], Krakowiak [ 1988], Tanenbaum [ 1997] y [ 1992],
Silberschatz [ 1998] o Stallings [ 1995]. Para tener una visión más profunda del tema de seguridad
y protección se recomienda acudir a textos más específicos, tales como [ PUTER, 1893b], [ 1982], [
1990], [ 19891 y [ 1997].
Los estudios básicos sobre temas de seguridad y protección en sistemas operativos se llevaron a
cabo en la década de los setenta. Varios de estos estudios son importantes para entender el
problema y las soluciones propuestas. Popek [ 19741 estudió distintas estructuras de protección en
sistemas operativos. En [ 1976] se mostró el estado del arte del momento sobre estructuras que
permitían dar soporte de seguridad. En [ 19761 se repasó la perspectiva de la seguridad de los
sistemas operativos existentes. En [ 1979] se hizo una exploración muy completa de las posibles
vulneraciones de seguridad y de la forma de controlarlas.
Las cuestiones más relevantes de diseño de sistemas seguros se estudian en [ 19731, [ TER,
1983a], [ 1988] y [ 1990]. Para aprender más sobre la aplicación de la criptografía al diseño de
sistemas seguros se puede consultar [ 1982] y [ 19821. Buenos estudios de penetra ción de
sistemas son los de [ 1976] para el VM/370 y [ 1974] para MVS.
Los problemas de integridad y disponibilidad de datos se estudian en [ 1991] y [ 19921.
Para estudios sobre seguridad en sistemas operativos específicos se pueden leer los textos de [
19851, [ 1986], [ 1990 [ 1993], [ 19911 y [ 19921, que estudian
el sistema operativo UNIX, los de [ 1999] y [ 1999] para LINUX y los de [
1994] y [ 19981 para Windows NT.
9.13. EJERCICIOS
¿Qué tipos de fallos de seguridad puede tener un Suponga que un empleado de una compañía
sistema de computación? genera un código malicioso que está
¿Cuál es la diferencia entre los términos transmitiendo infor mación no autorizada, como
seguridad y protección? por ejemplo el sueldo de los empleados, a intrusos
o espías. ¿Cómo se
podría controlar este problema? ¿Qué solución se 9.18. ¿La protección de memoria en sistemas
le ocurre para limitar sus efectos? operativos se lleva a cabo mediante mecanismos
9.4. Suponga que un usuario malicioso quiere hardware, software o mediante una combinación
imple- mentar un canal encubierto usando de ambos? Explique su respuesta.
archivos. Ex plique cómo podría conseguirlo 9.19. Indique ejemplos de separación física y
usando cerrojos sobre un archivo ya existente. lógica usa dos en sistemas operativos para
¿Se podría imple- mentar el canal encubierto proporcionar me canismos de seguridad.
usando utilidades de creación y borrado de un 9.20. ¿Es posible controlar el acceso a un objeto
archivo? Explique cómo. sin nombre? En caso de que el objeto deba tener
9.5. ¿Cuál es la principal diferencia entre un nom bre, ¿quién debería asignar el nombre?
gusano y un virus? ¿Debería dicho nombre ser a su vez seguro y
9.6. ¿De qué formas se puede introducir un virus gozar de inte gridad?
en un programa? Explique cómo funciona cada 9.21. Suponga que desea diseñar una política de
mé todo. control de acceso en la que cada usuario sólo
9.7. Suponga que un sistema operativo usa puede acce der a un objeto un número limitado de
palabras clave como método de autenticación y veces. Des pués de agotada su cuota de accesos,
que las guarda internamente en un archivo el usuario debe renovarla. Proponga mecanismos
cifrado. ¿Debe rían ser dichas palabras clave para imple-
visibles a todos los usuarios? ¿Cómo se puede mentar dicha política.
resolver este problema habida cuenta de que el 9.22. Una buena técnica de seguridad sería
proceso de login debe guardar to dos los archivos cifrados. Sin embargo,
ver las claves? usar
9.8. ¿Cuáles son las ventajas de almacenar los siempre esta política podría causar graves tras
datos criptografiados? ¿Y sus desventajas? tornos en el rendimiento del sistema operativo y
9.9. ¿Cómo puede detectar el administrador de un complicar la estructura de los archivos. ¿Qué solu
siste ma que hay un intruso en el mismo? ción se le ocurre para los problemas anteriores?
9.10. ¿Cuál es la principal diferencia entre los Diséñela.
cifrados por sustitución y por permutación? 9.23. ¿Es posible proteger los objetos de un
¿Incluye toda sustitución una permutación? sistema ope rativo en el que cualquier usuario
9.11. ¿Qué características debería tener un algorit puede acceder
mo de cifrado para ser completamente perfecto? directamente a los dispositivos de entrada-salida?
¿Cuáles son los límites prácticos de dichos algorit ¿Quién debería controlar el acceso a dichos dispo
mos? sitivos?
9.12. Suponga un algoritmo de cifrado por 9.24. Indique algunos de los fallos más frecuentes
sustitución que usa un alfabeto de 24 caracteres, en contrados en los procesos de autenticación
10 números y de los sistemas operativos basados en palabras
10 caracteres especiales y cuya longitud de clave.
palabra clave es 8 bytes. ¿Cuál es el número de 9.25. ¿Es suficiente con controlar los accesos a
combina ciones posibles existentes como un archi vo de UNIX cuando se abre y se cierra
resultado del cif rado? dicho archi vo? ¿Qué problemas pueden surgir
9.13. Enumere los principios de diseño más con este tipo de
importantes de un sistema seguro. solución?
9.14. En un sistema que obliga a cambiar la clave 9.26. ¿Le parece una buena política de seguridad
de ac ceso periódicamente se permite a los que cualquier usuario pueda acceder a casi todos
usuarios in troducir una clave nueva cada vez sin los
ninguna res tricción. ¿Cuál es el principal fallo de archivos del sistema en UNIX? Si esto no fuera
seguridad relacionado con el usuario que puede así, ¿cómo podría un usuario acceder a los
ocurrir en este sistema? ¿Cómo se puede tratar mandatos del sistema?
de paliar ese problema? ¿Cuáles son las principales diferencias entre las
¿Se puede implementar la política de seguridad ca pacidades, las listas de control de acceso y los
militar en un sistema de computación? ¿Existe al bits de protección de UNIX?
gún sistema que la use? Imagine que un sistema operativo que usa ACLs
¿Qué ventajas y desventajas tiene el diseño de un tiene un archivo en el que ha concedido permisos
sistema de seguridad con anillos concéntricos? In a 1.000 usuarios. ¿Qué debería hacer para
dique un sistema operativo que use esta técnica revocar los derechos de acceso a todos ellos?
de diseño. ¿Ocurriría lo
9.17. ¿Usa UNIX una política de control de acceso
obli gatoria o discrecional? Y Windows NT?
Explique su respuesta.
* Historia de Linux.
* Características y estructura de Linux.
* Gestión de procesos.
* Gestión de memoria.
* Entrada/salida.
* Sistema de archivos.
El origen de Linux se encuentra en el sistema operativo MINIX. MINIX fue desarrollado por Andrew
S. Tanenbaum con el objetivo de que sirviera de apoyo para la enseñanza de sistemas operativos.
De hecho, en su clásico libro Operating Systems: Design and Implementation [Tanenbaum, 1987],
se utilizaba este sistema operativo para explicar los diferentes conceptos de esta materia,
incluyéndose, además, en un apéndice un listado completo de su código escrito en lenguaje C.
Además de por su carácter pedagógico, MINIX se caracterizaba por tener una estructura
basada en un microkernel. El autor intentaba demostrar al crear MINIX que se podía construir un
sistema operativo más sencillo y fiable, pero a la vez eficiente, usando este tipo de organización,
que era novedosa en aquel momento. Algunas otras características positivas de MINIX eran las
siguientes:
A pesar de estos defectos, MINIX atrajo la atención de muchos usuarios de todo el mundo, que
usaban el grupo de noticias comp.os.minix como punto de encuentro. Algunos de estos usuarios se
ofrecían a mejorar partes del sistema o a incluir nuevas funciones al mismo. Sin embargo, el autor
siempre fue reacio a estas ofertas. Entre los interesados en MINIX se encontraba un estudiante
llamado Linus Torvalds, Fue en el año 1990 cuando este estudiante envió un mensaje a este grupo
de noticias comentando que, por curiosidad y ganas de ampliar sus conocimientos, estaba
desarrollando un nuevo sistema operativo tomando como base MINIX. Se estaba produciendo el
humilde nacimiento de Linux. Cuya primera versión (enumerada como 0.01) vio la luz a mediados
del año 1991.
Es importante recalcar que, en su concepción inicial, Linux tomaba prestadas numerosas
características de MINIX (p. ej.: el sistema de archivos). De hecho, Linux se desarrolló usando
corno plataforma de trabajo MINIX y las primeras versiones de Linux no eran autónomas sino que
tenían que arrancarse desde MINIX.
Sin embargo, a pesar de esta herencia inicial, MINIX y Linux son radicalmente diferentes. Por
un lado. Linux solventa muchas de las deficiencias de MINIX como, por ejemplo, la carencia de
memoria virtual. Estas mejoras permiten que se trate de un sistema adecuado para trabajar de
manera profesional, no limitándose su uso a un entorno académico. Pero la diferencia más impor-
tante entre ellos está en su organización Interna. Mientras que MINIX tiene una estructura moderna
basada en un microkernel, Linux posee una estructura monolítica más clásica. Este diseño
conservador tuvo como consecuencia que el autor de MINIX no diera el visto bueno a Linux ya que
consideraba que este sistema suponía un paso atrás en la evolución de los sistemas operativos.
Desde su lanzamiento público en 1991, Linux ha evolucionado e incorporado nuevas
características. Además, se ha transportado a otros procesadores como SPARC, Alpha y MIPS. En
la actualidad es un sistema con unas características y prestaciones comparables a las de cualquier
sistema operativo comercial.
Puesto que en esta sección se ha presentado la historia de Linux, parece el lugar
adecuado para explicar cual es el convenio usado para enunciar las sucesivas versiones del
sistema. El número de la versión contiene un número primario y uno secundario separados por un
punto p. ej.: versión 2.2). Un incremento en el número primario corresponde con una nueva versión
que incluye cambios significativos en el sistema. En el caso de una modificación de menor
impacto, solo se modifica el número de versión secundario. Además un número secundario de
versión que sea impar (como, por ejemplo la versión 2.1) indica que se trata de una versión
inestable en la que se han incluido nuevas características que todavía hay que probar y depurar.
Evidentemente un usuario normal debería instalarse una versión con un número secundario par.
Linux es un sistema de tipo UNIX y, por tanto, posee las características típicas de los sistemas
UNIX. Se trata de un sistema multiusuario y multitarea de propósito general. Algunas de sus
características específicas más relevantes son las siguientes:
La gestión de procesos en Linux es básicamente igual que en cualquier otra variedad de UNIX. Un
aspecto original de Linux es el servicio clone que es una extensión del clásico fork.
Este nuevo servicio permite crear un proceso que comparta con el padre su mapa de
memoria, sus rutinas de manejo de señales y sus descriptores de archivos. Aunque Linux no
implementa threads en el núcleo, se pueden construir bibliotecas de threads usando este nuevo
servicio.
En cuanto a la sincronización dentro del núcleo, siguiendo la tradición de UNIX, Linux no
permite que haya llamadas concurrentes activas dentro del sistema operativo. Así, si se produce un
evento que causa un cambio de proceso mientras se está ejecutando una llamada al sistema (p.
ej.: una interrupción de reloj), el cambio se difiere hasta que la llamada termina o se bloquea.
Para evitar las condiciones de carrera entre la ejecución de una llamada y el tratamiento de
una interrupción, se prohíben las interrupciones en pequeñas zonas del código del sistema.
Puesto que el código de una rutina de interrupción ejecuta con una prioridad alta
bloqueando el tratamiento de las interrupciones, es importante que estas rutinas sean muy cortas.
Para ayudar a lograr este objetivo, Linux ofrece un mecanismo que permite dividir las operaciones
asociadas a una interrupción en dos partes:
La Figura 11.1 muestra cuáles son los niveles de prioridad de las diversas partes del
núcleo. Observe que sólo se ejecutará una rutina de un determinado nivel si no está activa ninguna
rutina de un nivel superior.
En cuanto a la planificación, Linux soporta tres clases de planificación: un algoritmo de
tiempo compartido y dos algoritmos de planificación de tiempo real que se corresponden con los
definidos por POSIX.
El servicio sched_setscheduler permite definir la clase de planificación del proceso que la invoca.
Esta llamada sólo puede hacerla un proceso privilegiado. Cada proceso de tiempo real tiene
asociada una prioridad y un tipo de planificación que puede ser FIFO o Round-Robin. El
planificador selecciona en cada momento el proceso listo para ejecutar que tenga mayor prioridad.
Si el proceso es de tipo FIFO, seguirá ejecutando hasta que se bloquee. Si es de tipo Round-
Robin, cuando termine su rodaja, el proceso pasará al final de la cola de procesos listos para
ejecutar de su misma prioridad.
Los procesos de tiempo compartido sólo pueden ejecutar cuando no hay ningún proceso
de tiempo real listo para ejecutar. El algoritmo de planificación para este tipo de procesos intenta
conjugar la prioridad del proceso con su perfil de ejecución, favoreciendo a los procesos que
realizan más operaciones de entrada/salida. A continuación, se describe este algoritmo.
Todo proceso tiene asociada una prioridad base. Inicialmente la prioridad del proceso es
igual a su prioridad base. Cada vez que se produce una interrupción de reloj se resta una unidad a
la prioridad del proceso que estaba ejecutando. El algoritmo de planificación está basado en la
prioridad del proceso y tiene carácter exclusivo: el planificador elige el proceso listo para ejecutar
que tenga mayor prioridad.
Cuando se produce una situación en la que todos los procesos listos para ejecutar tienen
una prioridad igual a cero (todos ellos han usado el procesador un tiempo suficiente para que su
prioridad haya caído a 0), se produce un reajuste de las prioridades de todos los procesos sea cual
sea su estado. La nueva prioridad se calcula dividiendo por 2 la actual y sumando la prioridad base
(prioridad = prioridad/2 + prioridad base). Observe que los procesos listos para ejecutar simple mente
recuperan su prioridad base ya que su prioridad actual es igual a 0. Sin embargo, los procesos
bloqueados obtienen una nueva prioridad mayor que la base puesto que su actual prioridad es
mayor que cero. Se trata de una fórmula de tipo exponencial. Con ella, un proceso que estuviese
bloqueado mucho tiempo puede llegar a tener una prioridad con un valor del doble de la prioridad
base.
Linux tiene un sistema de memoria que incluye todas las características habituales en los sistemas
modernos. Estas características ya fueron discutidas en el capítulo dedicado a este tema, por lo
que en esta sección se presentan aquellos aspectos específicos de Linux:
11.5. ENTRADA/SALIDA
La entrada/salida en Linux es muy similar a la de cualquier otro sistema UNIX. Se distinguen, por
tanto, dos tipos de dispositivos: dispositivos de bloques y dispositivos de caracteres.
Como el resto de los sistemas UNIX, se utiliza una cache común para todos los
dispositivos de bloques. El tamaño de la cache es dinámico y crece de acuerdo a las necesidades
de memoria del resto del sistema. Para gestionarla se usa básicamente una política de reemplazo
LRU. En las últimas versiones esta cache trabaja coordinadamente con la utilizada por el gestor de
memoria.
En cuanto al acceso a los discos, se utiliza el algoritmo del ascensor con un único sentido
de servicio.
Siguiendo el modelo de UNIX, en Linux los usuarios ven los dispositivos como archivos y
utilizan los servicios destinados a trabajar con archivos para acceder a los dispositivos.
La red, sin embargo, es un dispositivo que tiene un tratamiento un poco diferente. El
usuario no puede acceder a este dispositivo de la misma manera que a un archivo. La parte del
sistema operativo que trata la red está dividida en tres niveles:
• En el nivel inferior está el manejador del dispositivo al que el usuario no puede acceder
directamente.
• En el nivel intermedio está el software que implementa la pila de protocolos (p. ej.: TCP e
IP).
• En el nivel superior está la interfaz del programador que corresponde con la de los sockets
definidos en el UNIX BSD.
Linux da soporte a una gran variedad de tipos de sistemas de archivos entre los que se incluyen
los distintos sistemas de archivos de Windows y de otros sistemas UNIX. Además, cualquier
usuario puede programar un manejador de un nuevo tipo de sistema de archivos e incluirlo en el
sistema como un módulo.
Esta coexistencia de distintos tipos de sistemas de archivos la posibilita el VFS (Virtual File
System, Sistema Virtual de Archivos), presente en la mayoría de los sistemas UNIX actuales y
suficientemente analizado en el Capítulo 8.
Aunque admite muy diferentes tipos de sistemas de archivos, Linux tiene su propio sistema
de archivos que se denomina ext2fs. Este sistema evolucionó desde el sistema de archivos de
MINIX .Se le fueron añadiendo nuevas características al sistema de archivos de MINIX hasta llegar
al sistema extfs. Posteriormente se rediseñó dando lugar al ext2fs actual. Se trata de un sistema
basado en el FFS (Fast File System, Sistema de Archivos Rápido) del UNIX BSD, que ya se
estudió adecuadamente en el Capítulo 8.
Merece mención aparte un tipo de sistema de archivos muy especial: el sistema de
archivos proc. Este sistema de archivos no tiene soporte en ningún dispositivo. Su objetivo es poner
a disposición del usuario datos del estado del sistema en la forma de archivos. Esta idea no es
original de Linux ya que casi todos los sistemas UNIX la incluyen. Sin embargo, Linux se
caracteriza por ofrecer más información del sistema que el resto de variedades de UNIX. En este
sistema de archivos se puede acceder a información general sobre características y estadísticas
del sistema, así como a información sobre los distintos procesos existentes.
La Figura 11.2 muestra cómo se relacionan las distintas partes del sistema de archivos.
El origen del Linux está en MINIX superior, que ejecuta con alta
que es un sistema operativo de prioridad, y una mitad inferior menos
carácter pedagógico basado en un prioritaria.
microkernel Linux soporta las clases de
Linux supera muchas de las planificación de tiempo real definidas
limitaciones de MINIX y tiene una en POSIX.
organización monolítica más La planificación de procesos de
convencional. tiempo compartido intenta conjugar la
Linux comenzó en 1991, como prioridad del proceso y su perfil de
proyecto personal de Linus Torvalds. ejecución.
Gracias al auge de Internet, han La gestión de memoria en Linux
colaborado numerosas personas en incluye todas las características
su desarrollo. presentes en cualquier sistema
Proporciona una interfaz POSIX. operativo moderno.
Está diseñado para facilitar su La entrada/salida es similar a la
transporte a distintos procesadores. existente en cualquier otro sistema
Puede ejecutar en máquinas de muy UNIX.
distintas prestaciones. Linux da soporte a una gran variedad
Da soporte a una gran variedad de ele tipos de sistemas de archivos
tipos de sistemas de archivos. gracias al VFS.
Proporciona soporte para un El sistema de archivos nativo de
esquema de multiproceso simétrico. Linux es ext2fs basado en el FFS.
La gestión de procesos en Linux es El sistema de archivos proc ofrece
muy similar a la realizada en otros mucha información sobre el propio
sistemas UNIX. sistema y los procesos existentes en
El núcleo de Linux no es reentrante. el mismo.
El tratamiento de una interrupción
puede dividirse en una mitad
Algunos libros generales ele sistemas operativos incluyen un capítulo dedicado a Linux Como
[Silberschatz, 1998]. Hay también libros dedicados exclusivamente a Linux como [Cornes. 1997],
que presenta con bastante detalle todas las características del sistema, o [Beck, 1998] que se
centra en los aspectos internos. Para comprender mejor Linux es interesante estudiar MINIX, el
sistema operativo que le sirvió como punto de partida. En [Tanenbaum, 1997] se presenta la
versión actual de MINIX incluyendo el listado completo de este sistema operativo.
12.1. INTRODUCCIÓN
Windows NT tiene un diseño moderno de tipo micronúcleo, con una pequeña capa de núcleo que
da soporte a las restantes funciones del ejecutivo del sistema operativo. Dentro del ejecutivo
destaca la integración del modelo de seguridad (nivel C2), de la gestión de red, de la existencia de
sistemas de archivos robustos y de la aplicación exhaustiva del modelo orientado a objetos.
El diseño del sistema operativo Windows NT se hizo desde cero, pero, a pesar de ello, no
incluye muchas ideas nuevas, sino que surgió como el resultado de fundir ideas ya contrastadas en
otros sistemas operativos, como UNIX, VMS o MACH, y de la optimización de las mismas.
Además, para mantener la compatibilidad con sistemas operativos anteriores de Microsoft, se
siguieron manteniendo algunas ideas existentes en MS-DOS y Windows 3.x. Por ello, los principios
de diseño fundamentales se parecen mucho a los de otros sistemas operativos:
• Compatibilidad. Tanto con los sistemas anteriores (interfaz gráfico y sistemas de archivos
FAT de Windows 3.x) como con otros sistemas operativos (OS/2, POSIX, etc.) y con
distintos entornos de red. La compatibilidad se logra mediante el uso de subsistemas que
emulan los servicios de los distintos sistemas operativos. Los emuladores son similares a
las máquinas virtuales de MVS.
• Transportabilidad. Windows NT se diseñó para tener amplia difusión comercial, por lo que
se pensó desde el principio en la posibilidad de transportarlo a distintos tipos de
computadoras con procesadores CISC (Intel) y RISC (MIPS, Digital Alpha, etc.). Para
facilitar el transporte, Windows NT se ha construido sobre una pequeña capa de
abstracción de hardware (HAL, Hardware Abstraction Layer) que proporciona toda la
funcionalidad dependiente del hardware al núcleo del sistema. Para transportar el sistema
operativo, sólo es necesario adaptar el HAL a cada entorno hardware. Esta capa existe en
otros sistemas como MACH y MINIX, aunque no suele existir en sistemas monolíticos
como UNIX y LINUX. Además de la transportabilidad para el hardware, Windows NT
incluye facilidades para transportar las interfases a distintas lenguas mediante el uso del
estándar Unicode de ISO.
Los principios anteriores permitieron diseñar un sistema operativo con una arquitectura muy
moderna. Su uso se extendió rápidamente, sobrepasando el ámbito de Windows 3.x que estaba
reducido a computadoras personales, para pasar a ser instalado en servidores medianos y
estaciones de trabajo.
Windows NT tiene una arquitectura por capas muy modular, en la que cada capa está compuesta
de varios módulos relativamente simples y con una funcionalidad muy específica.
Como se puede ver en la Figura 12.1, el sistema operativo está compuesto por las
siguientes capas:
• Capa de abstracción del hardware. Proporciona una interfaz virtual del hardware,
escondiendo las particularidades de cada entorno de ejecución del sistema operativo.
Incluye la funcionalidad del hardware que necesita el resto del sistema y es el único
módulo que es necesario transportar cuando se cambia a otra plataforma hardware. Entre
sus funciones están las interfases de los controladores de E/S, interfaz con memoria y
UCP, temporizadores del sistema y esconder los detalles del multiprocesamiento simétrico
al núcleo del sistema. Cuando se instala el sistema operativo, se elige uno u otro HAL en
función de la plataforma hardware.
• Núcleo. Proporciona servicios y funcionalidades básicas del sistema operativo tales como
gestión de excepciones hardware, control de procesos ligeros, sincronización, etc. Sólo
incluye mecanismos, nunca políticas, aunque toma las decisiones para expulsar procesos
de memoria. Es pequeño (unos 60 KB), muy eficiente y altamente transportable (el 80 por
100 es independiente de la plataforma hardware). Usa memoria compartida para optimizar
las comunicaciones con otros módulos del sistema, por lo que no sigue un diseño de
micronúcleo puro.
• Ejecutivo. Incluye los módulos que proporcionan los servicios del sistema operativo para
los distintos subsistemas de ejecución. Tiene diseño orientado a objetos y, a su vez,
proporciona servicios orientados a objetos. Por ello entre sus componentes incluye un
gestor de objetos, además de gestores para los sistemas de seguridad, procesos, memoria
virtual, etc. Su interfaz define la capa de servicios que el sistema operativo exporta a los
subsistemas externos al núcleo. Estos servicios son las interfases entre los subsistemas,
que se ejecutan en modo usuario, y el núcleo
• Subsistemas de entorno de ejecución. Proporcionan las llamadas al sistema operativo
que usan las aplicaciones de usuario, existiendo subsistemas compatibles con distintos
sistemas operativos (MS- DOS, OS/2, POSIX l, etc.). A diferencia de las capas anteriores,
sus componentes se ejecutan en mudo usuario. Sus servicios se pueden acceder a través
de las bibliotecas de los compiladores.
A continuación, se estudian más en detalle los componentes más importantes del sistema
operativo.
El núcleo es la base de Windows NT ya que planifica las actividades, denominadas threads, de los
procesadores de la computadora. Al igual que en UNIX, el núcleo de Windows NT se ejecuta
siempre en modo seguro (modo núcleo) y no usa la memoria virtual (no paginable). El software del
núcleo no se puede expulsar de la UCP, y por tanto, no hay cambios de contexto durante su
ejecución. En caso de que se ejecute en un multiprocesador se puede ejecutar simultáneamente
en todos los procesadores.
El núcleo proporciona las siguientes funciones al resto del sistema:
El modelo de objetos está en la base de funcionamiento del núcleo, que proporciona dos tipos
de objetos básicos:
• Tabla de interrupciones (IDT, Interrupt Dispatch Table). Asocia las interrupciones con las
rutinas que las gestionan.
• Tabla de descriptores de proceso (PCB. Process Control Blocks). Incluye apuntadores a
los manejadores de objetos tipo proceso. Hay una tabla por cada procesador del sistema.
Asociada a ellas hay una tabla de control de regiones de memoria, cuyas entradas apuntan
a las regiones de memoria donde están las otras tablas con información relativa al proceso.
• Cola de temporizadores. Lista global de temporizadores activos de todo el sistema. Se
mantiene en el núcleo.
Además de estas estructuras se mantienen otras como las colas de dispositivos, las de
petición de procesadores y recursos, etc.
La capa más compleja del sistema operativo es el ejecutivo, un conjunto de servicios comunes que
pueden ser usados por todos los subsistemas de entorno de ejecución existentes en Windows NT
a través de la capa de servicios del sistema.
Cada grupo de servicios es manejado por uno de los siguientes componentes (Fig. 12.2):
• Gestor de objetos.
• Gestor de procesos.
• Gestor de memoria virtual.
• Monitor de seguridad.
• Utilidad para llamadas a procedimientos locales.
• Gestor de entrada/salida.
En esta sección se estudian todos ellos, excepto el monitor de seguridad, al que se dedica
una sección posterior.
Figura 12.2 Estructura del ejecutivo de Windows NT. (Fuente: Microsoft Windows T
ServerResource Kit, Copyright © 2000 by Microsoft Corporation.)
Tipo de Objeto
que son instancias en tiempo de ejecución de un tipo objeto particular que pueden ser manipuladas
por algún componente del sistema operativo. Un tipo objeto está compuesto por un tipo de datos
estructurado definido por el sistema y las operaciones que se pueden hacer sobre este tipo de
datos y un conjunto de atributos de datos para dichas operaciones.
La Figura 12.3 muestra la estructura de un objeto en Windows NT. Como puede verse,
todos los objetos tienen atributos comunes almacenados en la cabecera del objeto, tales como el
nombre, el manejador, la lista de manejadores de otros objetos a los que dan paso, el tipo objeto
con que están relacionados y un contador de referencias al objeto. Además, incluyen un cuerpo del
objeto en el que se almacena información específica de cada objeto. Antes de poder usar un objeto
es necesario adquirir un manejador del mismo mediante operaciones específicas del sistema
operativo que se ejecutan a través del gestor de objetos. El manejador de un objeto incluye
información de control y un puntero al objeto en sí mismo.
Para poder identificar un objeto de forma inequívoca es necesario que cada objeto tenga
un nombre único en todo el sistema. El gestor de objetos se encarga de gestionar el espacio global
de objetos con nombre (directorios, procesos, threads, puertos, archivos, semáforos, etc.). El
espacio de nombres se modela como un sistema de archivos jerárquico, como el de la Figura 12.4.
Todos los objetos del sistema tienen una parte incluida en el núcleo, definida como un apuntador al
objeto correspondiente del núcleo. Esos objetos básicos no pueden ser vistos por el usuario y no
tienen nombre lógico.
El gestor de procesos se encarga de gestionar dos tipos de objetos básicos para el sistema
operativo:
Además, gestiona las operaciones asociadas con ambos objetos (creación, destrucción,
etc.) a través del conjunto de servicios para procesos y threads existentes en cada subsistema de
entorno de ejecución. Sin embargo, el gestor de procesos no impone ninguna jerarquía a los
mismos ni fuerza la existencia de una relación padre-hijo, como ocurre en UNIX o LINUX.
La Figura 12.5 muestra el bloque descriptor de un proceso. Como se puede ver, los datos
de descripción del proceso están compuestos por dos estructuras de datos: descriptor en el
ejecutivo y descriptor en el núcleo. En la parte del ejecutivo, además de la identificación de
descriptor del núcleo, está la identificación del proceso y de su padre, el estado del proceso, los
tiempos de creación y terminación, bloques del proceso, descriptor de seguridad, prioridad, etc. En
suma, toda la información del proceso que necesitan los otros componentes del ejecutivo y que, en
muchos casos, pueden acceder los usuarios a través de los servicios del sistema. En la parte del
núcleo se encuentra la información relacionada con la planificación (prioridad, rodaja, etc.) y con la
ejecución del proceso (threads, tiempo de ejecución de usuario y sistema, afinidad con el
procesador, etcétera).
Los procesos y los threads se planifican de la misma manera: planificación con expulsión y
rodaja de tiempo. De hecho, un proceso es visto como un thread especial. Cuando se crea un
objeto proceso se le asigna una prioridad determinada de entre la cuatro siguientes: Iddle, Normal,
High, Real-Time. Existen 32 niveles de prioridad, de los cuales los niveles 1 a 32 se dedican a los
procesos de tiempo real. Además, el sistema operativo puede variar el nivel de prioridad mediante
calificaciones tales como normal, por debajo de lo normal o por encima de lo normal. Con esos
criterios el gestor de objetos consulta una tabla de prioridades y asigna la prioridad inicial al objeto.
Además, cada objeto puede tener su propia rodaja de ejecución, asignada cuando se crea el obje-
Directorio de páginas
Información de planificación
Tiempo de sistema y usuario
Ejecutivo Lista de intercambio de páginas
Bloque de proceso del núcleo Lista de threads del núcleo
Identificador del proceso Spin Lock
Identificador del proceso padre Afinidad del procesador
Estado de terminación Contador de pila del núcleo residente
Tiempos de creación y terminación Prioridad base del proceso
Bloque siguiente del proceso Rodaja de planificación
Cuota Estado del proceso
Información de gestión de memoria Núcleo
Puerto de excepción
Puerto de depuración
Descriptor de seguridad primario
Bloque de entorno del proceso
Nombre archivo imagen
Dirección base de memoria
Clase de prioridad del proceso
Bloque de proceso Win32
to. La roda se indica en el descriptor del objeto como un valor de 6 bits, divididos en grupos de 2 de
la siguiente manera:
Bits 0 y 1. Modificaciones de la rodaja. Sirve para activar la ejecución de threads en primer plano.
Bits 2 y 3. Rodaja de planificación con valor variable o fijo.
Bits 4 y 5. Rodaja de planificación corta o larga.
Con estos parámetros el sistema planifica los threads, pero no existe un planificador central
que esté siempre activo, sino que las rutinas de planificación son manejadores de eventos
disparados por los threads (bloqueo voluntario), los temporizadores (rodaja de planificación) o
interrupciones (entrada/salida) del sistema.
ACLARACIÓN 12.1
Los bits que se usan para describir o cualificar la rodaja de planificación se usan como máscaras
de bits en pares. El efecto de estas máscaras es complementario, lo que permite definir una
rodaja corta con valor variable o una rodaja corta con valor fijo. El valor de la rodaja varía
dependiendo de la versión del sistema operativo, siendo mayor en configuraciones para
servidores de datos o de proceso.
Windows NT proporciona un modelo de memoria virtual con paginación por demanda y sin
preasignación de espacio de intercambio. Cada proceso dispone de una capacidad de
direccionamiento de 4 GB (32 bits), de los cuales 2 GB son para el programa de usuario y 2 GB se
Los 10 bits siguientes indican la entrada de página dentro de la tabla de páginas seleccionada,
hasta un máximo de 1.024 páginas. Los 12 bits siguientes indican la posición dentro de la página
virtual, cuto tamaño es de 4 KB.
ACLARACIÓN 12.2
Este esquema es similar a la traducción de direcciones de memoria con tres niveles que se
proponen en otras arquitecturas. Lo que varía es la denominación del nivel superior (directorio,
nivel primario, etc.).
Cada proceso tiene un conjunto de páginas de trabajo en memoria, representado por una
lista de páginas que se define como su conjunto de trabajo. Además de esta estructura de datos, el
gestor de memoria mantiene varias listas asociadas a la política de gestión:
• Lista de páginas libres. Almacena las páginas libres, es decir, que han sido asignadas
alguna vez y liberadas posteriormente. Existen en el archivo de intercambio.
• Lista de páginas a cero. Páginas sin iniciar. Cuando una página se referencia por primera
vez se asigna desde esta lista.
• Lista de páginas modificadas. Páginas reemplazadas en memoria y cuyos contenidos
han sido modificados (escritos).
• Lista de páginas en espera. Lista que aglutina páginas modificadas que todavía no se
liberan para evitar sobrescribirlas de forma prematura.
La Figura 12.8 muestra la gestión de páginas de memoria en Windows NT. Cuando hay un
fallo de página en un proceso, el gestor de memoria aplica una política de reemplazo LRU sobre el
conjunto de trabajo del proceso. Si la página ha sido modificada, la almacena en la lista de páginas
modificadas (paso 1). Si no, pasa a la lista de páginas en espera (paso 2). En el caso de que haya
páginas modificadas, existe un thread escritor de páginas modificadas que las lee de la lista
anterior, las escribe y las pasa a la lista de páginas en espera (paso 3). En cualquiera de los dos
casos, cuando hace falta espacio o se cumple un determinado tiempo sin ser referenciadas, las
páginas de la lista en espera pasan a la lista de bloques libres (paso 4). A esta lista pueden llegar
también páginas cuando se libera un proceso o un conjunto de páginas de memoria de forma
explícita (paso 5). Si después de pasar un cierto tiempo las páginas libres siguen sin ser usadas (o
si hay recolección de basura en memoria), el thread de páginas a cero libera los recursos de estas
páginas y las considera no asignadas (paso 7). Existen varias posibilidades para la página nueva
referenciada: estar en la lista de páginas modificadas o en espera, en cuyo caso se trae tal cual
(pasos 8 y 9); que se hubiera liberado anteriormente, en cuyo caso se traerá de la lista de páginas
libres (paso 6); que sea la primera vez que se referencia, en cuyo caso se trae de la lista de
páginas a cero (paso 10).
PRESTACIONES 12.1
Los sistemas operativos con diseño por capas han tenido siempre fama de ser más lentos que los
monolíticos debido a la sobrecarga de tiempo que en las llamadas al sistema constituyen los
mensajes de unos niveles a otros. Para reducir esta sobrecarga, los sistemas operativos
comerciales «cortocircuitan» los niveles locales para proporcionar mecanismos de comunicación
más rápidos basados en el uso de memoria compartida.
Cada uno de los componentes anteriores se considera un objeto del sistema, por lo que es
muy sencillo crear el sistema de entrada/salida de forma dinámica, así como reemplazar
manejadores de archivos y dispositivos. Además, para mantener la compatibilidad con aplicaciones
de l6 bits y permitir que piensen que tienen acceso directo a los puertos de entrada/salida, se
proporcionan manejadores virtuales para puertos serie, paralelos, ratón, teclado, etc.
La entrada/salida en Windows NT es inherentemente asíncrona, aunque las aplicaciones
puedan pensar que es síncrona porque se bloquean los procesos que ejecutan tales instrucciones.
A partir del gestor de entrada/salida los manejadores se comunican intercambiando paquetes de
petición de E/S (IRP, I/O Request Packets).
Estos paquetes describen las peticiones de E/S e incluyen, entre otras cosas, el tipo de operación,
la dirección de memoria en el destino, la cantidad de datos a transferir o un apuntador al objeto
manejador que necesitan. Todas ellas se encolan en una lista global desde la cual se distribuyen
posteriormente a la lista particular de cada dispositivo, cuya gestión es guiada por eventos de
interrupción. A partir de esta lista de peticiones, los manejadores de dispositivo acceden a cada
dispositivo a través de las rutinas que proporciona Windows NT, rutinas con una interfaz común
pero con un cuerpo distinto dependiendo de la plataforma hardware en que se haya instalado el
sistema. El procesador se ve como un dispositivo más del sistema. La Figura 12.11 muestra una
traza de una petición de E/S síncrona en Windows NT.
PRESTACIONES 12.2
Al igual que con la comunicación, en el sistema de entrada/salida de Windows NT hay una forma
de saltarse los pasos que se muestran en la Figura 12.11 y acceder directamente a los
dispositivos. Se denomina E/S Rápida (Fast I/O).
El gestor de cache
Este componente es Fundamental para la optimización de la E/S del sistema operativo Windows
NT. Su misión es gestionar la cache de archivos de Windows NT, una cache única en el ámbito
del sistema y común para todos los tipos de sistemas de archivos locales y remotos. Esta cache no
se gestiona sobre la base de bloques de archivos, sino mediante bloques virtuales, agrupaciones
de bloques de archivo de 256 KB que se proyectan en zonas de memoria virtual. Su tamaño varía
dinámicamente en función de la memoria RAM disponible, siendo esta característica controlada por
el gestor de memoria virtual. Con esta característica, cada vez que se abre un objeto archivo se le
habilitan apuntadores a los bloques virtuales de la cache, lo que le permite trabajar con su propia
imagen de cache. Sin embargo, todas estas representaciones virtuales se proyectan sobre una
única representación de marcos de memoria física, a través de los cuales se hace el acceso final a
los datos de un archivo.
La estructura de la cache se representa mediante varias estructuras de datos, como se
puede ver en la Figura 12.12. La primera es un vector que representa a los bloques virtuales en la
cache del sistema, denominado Direcciones virtuales de bloques de control (VACB, Virtual Address
Control Block). Representa el estado de las vistas de archivos en la cache del sistema que incluye
para cada VACB:
La segunda es una estructura que relaciona el objeto archivo con la cache, indicando qué
vistas del objeto están presentes en la cache. Se denomina Apuntadores a secciones de objetos y
es una estructura del sistema a la que pueden apuntar varios objetos archivo, propiciando así el
uso compartido y coherente de las vistas. A través de esta estructura, la tabla de objetos archivo en
el sistema enlaza con la cache.
La tercera estructura de datos es una lista doblemente encadenada que se denomina
Mapa compartido de cache. Cada entrada de esta lista muestra el mapa de un archivo cuyos datos
están presentes en la cache. Para ello se incluyen en dichas entradas datos como un contador de
aperturas, el tamaño del archivo o el conjunto de VACB del archivo presentes en la cache. A través
de los VACB se enlaza con la primera estructura de datos.
Para la gestión de la cache descrita se aplica política de escritura retrasada perezosa y
semántica de coherencia tipo UNIX. La primera consiste en acumular los datos de escritura en
memoria hasta que son volcados a disco por un thread del sistema, denominado escritor perezoso,
de forma agrupada para reducir el número de operaciones de escritura. Este thread está controlado
por el gestor de memoria virtual, que lo arranca cuando necesita memoria, cuando el número de
páginas escritas sobrepasa un cierto número o de forma periódica cada segundo. En este último
caso, se vuelcan a disco una cuarta parte de las páginas que han sido escritas. ¿Cómo se calcula
este valor? Cuando arranca el sistema, en función de la memoria RAM disponible y de las opciones
de configuración del sistema operativo (cache estándar, grande, servidor, etc.), se calcula un
umbral de escritura que sirve como referencia al gestor de memoria. La semántica de tipo UNIX
permite que cada proceso vea siempre la versión más reciente de los datos. El gestor de memoria
virtual es el encargado de proporcionar esta semántica, para lo que mantiene siempre una única
copia de los datos en memoria física a la que apuntan las tablas de páginas de los objetos que
comparten el archivo.
Las políticas anteriores son las que se instalan por defecto en el sistema. Sin embargo,
Windows NT es muy flexible y permite elegir para cada archivo desde una política de escritura
inmediata hasta no hacer uso de la cache, pasando por no volcar nunca los datos a disco.
Uno de los principales objetivos de diseño de Windows NT era su compatibilidad con entornos de
ejecución provistos anteriormente por Microsoft (como MS-DOS o Windows 3.x) y con otras
interfases de sistemas operativos (como POSIX u OS/2). La solución adoptada para proporcionar
esta compatibilidad fue el uso de entornos virtuales, implementados como procesos de Windows
NT que emulan el entorno de cada sistema operativo específico. Estos componentes, que se
denominan subsistemas de entorno de ejecución, se relacionan entre sí y con el sistema como se
muestra en la Figura 12.13. Actualmente, Windows NT proporciona los siguientes entornos:
• Subsistema OS/2.
• Subsistema POSIX.
• Subsistema Win32.
• Máquinas virtuales para emular el entorno de MS-DOS y aplicaciones de Windows 3.x de
16 bits (Win16).
• Subsistema de seguridad.
Como se puede ver, cada entorno es un proceso independiente que ejecuta en modo
usuario, por lo que su fallo no afectará a otros subsistemas o al sistema operativo. Todos ellos son
opcionales excepto el subsistema de Win32, que es la interfaz mínima que necesita el sistema
operativo para manejar teclado, ratón y pantalla.
El subsistema de Win32 es la interfase que controla toda la interacción con los usuarios.
Entre sus funciones principales se encuentran la implementación de colas de E/S para los
dispositivos que maneja el usuario y la creación de objetos, para lo que interacciona con
Figura 12.13. Visión conceptual de los subsistemas de entorno de ejecución. (Fuente: Microsoft
Windows NT ServerResource Kit, Copyright © 2000 by Microsoft Corporation.)
prácticamente todos los componentes del ejecutivo de Windows NT. Los otros subsistemas
contactan con él para llevar a cabo las dos tareas anteriores. Cuando se crea un proceso se lo
indican al subsistema de Win32, que se encarga de contactar con el gestor de objetos para crear el
objeto de tipo proceso, con el gestor de procesos para crear el bloque descriptor del proceso, con
el gestor de memoria virtual para cargar el ejecutable, etc. Cuando se carga el ejecutable
comprueba a qué tipo de entorno de ejecución pertenece y, si no está activo, lo arranca. Además
contacta con las utilidades de llamadas a procedimiento lo local para crear los suplentes
necesarios para el proceso y con el gestor de E/S para habilitar puertos de comunicación con dicho
proceso. Las aplicaciones de tipo Win32 disponen de una cola específica para E/S asíncrona,
mientras las de otros entornos se reconducen a través de una única cola por entorno.
ACLARACIÓN 12.3
Todas las llamadas al sistema mostradas en capítulos anteriores, para el caso del sistema
operativo Windows NT, se refieren al subsistema de entorno de ejecución de Win32. Sin embargo,
las llamadas de POSIX mostradas son perfectamente compatibles con el subsistema POSIX 1 que
incorpora Windows NT.
Windows NT permite la existencia de varios tipos sistemas de archivos, ya que su diseño modular
le capacita para incluir sin ningún problema todos los tipos de sistemas de archivos que desee el
usuario. El origen de los sistemas de archivos de Windows NT está en lograr la compatibilidad con
Estos sistemas de archivos usan la FAT (File Allocation Table) como medio para representar los
archivos. Cada archivo es una lista enlazada de bloques de la FAT, como se vio en el Capítulo 8.
Los sistemas de archivos de este tipo se usan habitualmente a través del subsistema de entorno
de MS-DOS y proporcionan direccionamiento con 16 bits, permitiendo particiones de hasta 32 MB.
Para incrementar su capacidad de direccionamiento se usan agrupaciones de bloques, como se vio
en el Capítulo 8, y en la última versión de Windows NT se ha incluido el sistema de archivos FAT
para 32 bits.
La Figura 12.14 muestra la estructura de un sistema de archivos tipo FAT. En primer lugar
se encuentra el bloque de carga de la partición con los parámetros que le indican a la BIOS dónde
se encuentra el sistema operativo en caso de que sea una partición activa. A continuación hay dos
copias de la información de la FAT. La segunda es redundante y se incluye para dotar con más
tolerancia a fallos al sistema de archivos, ya que en caso de fallo de acceso a la FAT gran parte de
los archivos quedarían inaccesibles. El tamaño que ocupa la FAT puede ser considerable. Para un
disco de 8 GB, usando direcciones de bloque de 32 bits y bloques de 4 KB, sería necesaria una
FAT de 8 MB. El tercer componente del sistema de archivos es el directorio raíz, que incluye una
entrada de 32 bytes para cada directorio del sistema, a través de la cual se puede acceder a
subdirectorios y archivos. En el Capítulo 8 se comentó en detalle el formato de esta entrada de
directorio. Los bloques restantes del sistema de archivos constituyen la denominada área de datos
o de archivos, es decir, los bloques que contienen los datos de los archivos.
El sistema de archivos tipo FAT presente en Windows NT tiene varias mejoras respecto a
los que había en MS-DOS y Windows 3.x:
La gran desventaja de esta solución es que la FAT puede ocupar mucho espacio si el
dispositivo es grande. Ya hemos visto que un volumen de 8 GB, con 4 KB como tamaño de bloque,
necesitaría una FAT de 8 MB. Para buscar un bloque de un archivo muy disperso podría ser
necesario recorrer toda la FAT y, por tanto, tener que traer todos los bloque de la FAT a memoria.
Figura 12.14. Un sistema de archivos tipo FAT. (Fuente: Microsoft Windows NT ServerResource
Kit, Copyright © 2000 by Microsoft Corporation.)
Los sistemas de archivos tipo FAT fueron diseñados pensando en accesos secuenciales y en
volúmenes pequeños. Con la incorporación del entorno de OS/2 se vio que era necesario disponer
de un tipo de sistemas de archivos que pudiese gestionar volúmenes más grandes de forma más
eficiente. Para lograr este objetivo, se diseñaron los Sistemas de archivos de alto rendimiento
(HPFS, High Performance File System).
Los HPFS tienen una estructura completamente distinta a la de la FAT (Fig. 12.15) ya que
el volumen se divide en bandas, cada una de las cuales tiene su propio mapa de bits junto a ella.
Cuando se da formato a un volumen, se reservan 18 sectores para el bloque de carga, el
superbloque y un «bloque de repuesto», que sirve para duplicar el superbloque y aumentar la
tolerancia a fallos. A partir de estos bloques se colocan las bandas, definidas por espacios de 16
MB para datos y 2 KB para mapas de bits de la zona de datos adjunta. Los mapas de bits se
colocan a los extremos de las bandas, pero de Forma alternativa para permitir una zona de datos
contiguos de hasta 16 MB. Esta idea, muy similar a la de los grupos de cilindros del FFS de UNIX
(Capítulo 8), permite reducir la zona de búsqueda de los archivos, pero presenta problemas de
fragmentación de las bandas y de extensión de los archivos. ¿Qué ocurre si un archivo no cabe en
una banda de 16 MB? La solución de HPFS es buscarle un hueco adecuado, para lo que mantiene
listas de huecos en memoria.
Figura 12.15. Un sistema de archivos tipo HPFS. (Fuente: Microsoft Windows NT ServerResource
Kit, Copyright © 2000 by Microsoft Corporation.)
Estas listas se elaboran cuando se abre el sistema de archivos y se mantienen actualizadas con
las operaciones de creación y borrado de archivos.
El sistema de archivos tipo HPFS presente en Windows NT tiene varias mejoras respecto a
los sistemas de archivos de tipo FAT:
1. Fragmentación externa, cuya incidencia depende del tamaño de archivo de los usuarios y
de su disposición en las bandas.
2. Asignación de espacio usando sectores de disco como unidad de asignación. Esto con
lleva que la mayoría de los bloques lógicos se compondrán de varios sectores y que el
sistema de archivos se debe encargar de ocultar estos detalles. Por tanto, si se quiere
tener bloques mayores de un sector, o agrupaciones de sectores, es necesario gestionarlo
en la capa del gestor de archivos.
PRESTACIONES 12.3
Resolver la fragmentación no es sencillo debido a que las políticas de asignación que tratan de
llevar a cabo ajustes óptimos de huecos son muy lentas. La solución más plausible es ejecutar de
forma periódica algún thread de desfragmentación del disco para compactar las bandas.
12.7.3. NTFS
Los dos sistemas de archivos anteriores tienen serias limitaciones si se quieren usar en grandes
instalaciones, donde es necesario tener archivos de gran capacidad y muy eficientes. NTFS (NT
File System) es el sistema de archivos más moderno de Windows NT e incluye soluciones de
diseño nuevas, lo que permite resolver los inconvenientes de los sistemas anteriores y
proporcionar una combinación de rendimiento, fiabilidad y compatibilidad ausente en sistemas
anteriores. Es el sistema de archivos asociado al subsistema de entorno de Win32.
Las principales características de diseño de NTFS son:
• Operaciones de alto rendimiento sobre archivos y discos muy grandes. Usa agrupaciones
como unidad de asignación y 64 bits para numerar los bloques o grupos.
• Nuevas características de seguridad, incluyendo ACL sobre archivos individuales.
recuperación de archivos, integridad de datos, etc. Toda la seguridad se gestiona a través
del monitor de referencia de seguridad de Windows NT.
• Implementación de todos los componentes del volumen como objetos archivos (concepto
similar a UNIX) que tienen atributos de usuario y de sistema (nombre. tiempos. contenidos,
etcétera).
• Archivos con múltiples flujos de datos que pueden tener nombre (archivo: flujo) y ser
manipulados de forma totalmente independiente. Además cada hijo tiene sus propios
atributos de tiempo, tamaño, asignación, etc. Esta característica permite manejar como
única unidad de datos relacionados (p. ej.: metadatos y datos) aunque estén en
dispositivos distintos.
Para satisfacer estos objetivos de diseño, el sistema de archivos y los archivos de NTFS
tienen una estructura muy distinta de tos de tipo FAT o HPFS. A continuación se describen ambas
brevemente.
Un sistema de archivos de NTFS es una organización lógica que permite almacenar archivos de
tipo NTFS en un volumen de disco. Un volumen no es sino una forma de combinar múltiples
fragmentos de disco para formar una unidad lógica. En el caso de Windows NT, un volumen puede
tener hasta 32 extensiones, pertenecientes a uno o más discos. Sobre estos volúmenes se crea un
sistema de archivos de NTFS, cuya estructura (Fig. 12.16) se describe en un registro de un archivo
especial contenido al principio del volumen que se denomina MFT (Master File Table). Se puede
pues decir que el sistema de archivos de NTFS es únicamente un archivo, en el que los primeros
16 registros contienen información especial del sistema. A continuación hay una copia de repuesto
del MFT, del cual hay otra copia redundante en el centro del volumen para incrementar la
tolerancia a fallos. En caso de volúmenes extendidos a múltiples particiones o discos, estos datos
del MFT están repetidos en todas las particiones para permitir interpretar el sistema de archivos
desde cualquiera de ellos.
Figura 12.16. Master File Table. (Fuente: Microsoft Windows NT ServerResource Kit, Copyright ©
2000 by Microsoft Corporation.)
A continuación, hay dentro del MFT varios archivos de metadatos, que incluyen:
• Registro dog), usado para almacenar todas las operaciones que afectan a los metadatos
del sistema de archivos. Básicamente es un registro transaccional que usa el Log File
System para recuperar el sistema de archivos en caso de fallo.
• Volumen, que incluye información de los atributos del volumen (nombre, versión, creador,
fechas, etc.).
• Definición de atributos, con los nombres de atributos y los valores definidos en el
volumen, así como definiciones de lo que significa cada atributo.
• Directorio raíz (“\“) del sistema de archivos, con información acerca de los archivos y
directorios que cuelgan directamente de la raíz.
• Mapa de bits del volumen, con un bit por cada grupo de bloques (cluster) que indica si
está libre o asignado a un archivo.
• Carga, con el programa cargador para el volumen, en caso de que sea un dispositivo de
arranque. En otro caso existe igualmente, pero está vacío.
• Grupos defectuosos (bad clusters), que contiene una lista de los bloques defectuosos y
su posición en el volumen. Este archivo se genera cuando se da formato a la partición del
volumen o cuando se comprueba la situación de la superficie del disco (p. ej.: con chkdsk).
Estos archivos están ocultos y se denominan habitualmente archivos de sistema porque son
usados por el sistema de archivos para almacenar los metadatos y otros datos de gestión o control
del mismo.
A continuación, desde el registro 17 en adelante, se incluyen los archivos y directorios de
usuario en el volumen. Para optimizar los accesos a disco se distingue en NTFS entre archivos y
directorios pequeños, existiendo dentro de la MFT un archivo para describir cada uno de estos
tipos, incluyendo una entrada distinta para cada extensión, en caso de que existan extensiones. La
razón para esta distinción es que un registro de MFT puede almacenar:
La Tabla 12.1 resume las características principales de los tres sistemas de archivos descritos y
existentes en la última versión de Windows NT.
La seguridad se incluyó como parte de las especificaciones de diseño de Windows NT, lo que
permite lograr un nivel de seguridad C2 si se configura el sistema adecuadamente. El modelo de
seguridad incluye componentes para controlar quién accede a los objetos, qué accesos pueden
efectuar los usuarios sobre un objeto y qué eventos se auditan. Todos estos componentes juntos
forman el subsistema de seguridad de Windows NT. Varios componentes del cual se ejecutan en
modo núcleo para tener acceso a información interna de seguridad del sistema operativo de forma
controlada. Esta filosofía permite aplicar los mismos procedimientos de seguridad a todos los
objetos del sistema operativo.
Como se muestra en la Figura 12.17, el modelo de seguridad de Windows NT incluye los
siguientes componentes:
• Procesos de logon, que muestran las ventanas de diálogo para que los usuarios puedan
acceder al sistema, piden el identificador del usuario, su palabra clave y su dominio.
• Autoridad de seguridad local, que controla que el usuario tenga permiso para acceder al
sistema. Es el corazón del sistema porque gestiona la política local, los servicios de
autenticación, política de auditoria y registro de eventos auditados.
• Gestor de cuentas de usuario, que mantiene las base de datos de usuarios y grupos.
Proporciona servicios de validación de usuarios.
• Monitor de referencia de seguridad, que controla los accesos de los usuarios a los objetos
para ver si tienen los permisos apropiados aplicando la política de seguridad y genera
eventos para los registros de auditoría. Estos registros permiten al administrador seguir la
pista a las acciones de los usuarios y detectar posibles violaciones de seguridad.
El modelo de seguridad mantiene información de seguridad para cada usuario, grupo y objeto
del sistema y proporciona control de acceso discrecional para todos los objetos. Puede identificar
accesos directos de un usuario y accesos indirectos a través de procesos que ejecutan en
representación del usuario. Permite a los usuarios asignar permisos a los objetos de forma
discrecional, pero si el usuario no asigna estos permisos, el subsistema de seguridad asigna
permisos de protección por defecto. Cada usuario se identifica en este sistema mediante un
identificador de seguridad único (SID, Security ID) durante la vida del usuario dentro del sistema.
Cuando un usuario accede al sistema, la autoridad de seguridad local crea un descriptor de
seguridad para acceso, lo que incluye una identificación de seguridad para el usuario y otra para
cada grupo al que pertenece el usuario. Además, cada proceso que ejecuta en nombre del usuario
tiene una copia de descriptor de seguridad del usuario.
usuario que incluye su identificador de seguridad, los grupos a los que pertenece, sus privilegios,
grupo primario y enlace con su lista de control de acceso. Cuando el usuario quiere acceder al
sistema introduce su contraseña a través de un proceso logon. Dicha contraseña se pasa al
subsistema de seguridad, que verifica la identidad del usuario y, en caso positivo, construye una
ficha de acceso para el usuario. Este objeto sirve como identificador oficial del proceso siempre
que el usuario intente acceder a un recurso a partir de ese instante. La Figura 12.18 resume los
atributos y servicios de este tipo de objeto, así como un ejemplo de Í’icha de acceso en Windows
NT.
Habitualmente, cuando un usuario quiere acceder al sistema teclea CTRL-ALT-DEL. Esta
combinación de teclas activa el proceso de logon, que presenta una pantalla o mensaje de entrada
(paso 1 de la Figura 12.19) que pide tres valores:
Si hay error al introducir la clave durante un cierto número de veces, definido por el
administrador del sistema, una medida habitual es bloquear la cuenta y notificar la situación al
administrador de seguridad del sistema. En ambos casos se trata de evitar que los programas que
intentan adivinar las claves del sistema se puedan ejecutar de forma normal o que lo tengan que
hacer de forma tan lenta que tal detección sea inviable.
Tras capturar los datos del usuario, el proceso de logon (paso 2) se los envía al
subsistema de seguridad, que activa el paquete de autenticación adecuado de entre los
existentes (pasó 3). La misión de estos componentes es contrastar los datos de seguridad de los
usuarios con los existentes en la base de datos de seguridad (paso 4). En caso de usuarios
remotos es necesario contactar con el subsistema remoto adecuado. De cualquier forma, si los
datos son satisfactorios, el gestor de la base de datos de seguridad devuelve el SID del
usuario (paso 5). En caso contrario devuelve un error de validación. Con estos datos, el paquete
de autenticación crea un identificador de seguridad para la sesión y se lo pasa, junto con el SID,
al subsistema de seguridad (paso 6). Éste comprueba que los datos sean válidos, crea un
descriptor de acceso con los datos anteriores y se lo pasa al proceso de Iogon (paso 7). En
caso de error notifica el error al proceso de logon, y borra los datos de la sesión.
Por último, el proceso de logon abre una ventana gráfica en la que indica al usuario que el acceso
ha sido concedido, en cuyo caso arranca el Program Manager, o denegado.
Una vez identificado y autenticado el usuario, cada vez que intenta acceder a un objeto
protegido el Monitor de Referencia de Seguridad ejecuta procedimientos de validación de acceso
en los que se comprueba si los permisos del usuario son suficientes para acceder al objeto. Estas
rutinas de validación incluyen comprobaciones del descriptor de seguridad para comprobar la
identidad y de las entradas de la lista de control de accesos asociada al objeto para ver si tiene una
entrada (ACE, Access Control Entry) en la que permita al usuario efectuar la operación solicitada.
Si la comprobación no es satisfactoria, se deniega el acceso al objeto.
Todos los objetos de Windows NT tienen asignados descriptores de seguridad como parte de sus
fichas de acceso. La parte más significativa de los descriptores de seguridad es la lista de control
de acceso. Normalmente, sólo el dueño del objeto puede modificar los derechos de la ACL para
permitir o denegar el acceso al objeto. Cada entrada de la ACL contiene los descriptores de
seguridad de los distintos dominios del sistema y los derechos de uso del objeto. El criterio de
asignación de derechos en la ACL de un objeto nuevo en Windows NT es el siguiente:
• Estándar, que se aplican a todos los objetos (sincronización, dueño, escritura en ACL,
borrado, etc.).
• Específicos, que sólo se aplican a un tipo de objeto determinado. Por ejemplo, para un
objeto archivo, estos derechos incluyen permiso de lectura, de escritura, de ejecución, para
añadir datos, etc.
Todos estos valores se rellenan cuando se crea un objeto con los valores que proporcione su
creador, con valores heredados de la clase del objeto o con unos valores por defecto del sistema.
Además, se pueden modificar dinámicamente usando los servicios de seguridad de Win32.
El sistema operativo Windows NT incluye varios mecanismos para proporcionar tolerancia a fallos,
algunos de los cuales se han mencionado ya. Estos mecanismos permiten salvaguardar el estado
del sistema y de los datos para protegerlos ante fallos de dispositivos de almacenamiento.
Los principales mecanismos de tolerancia a fallos son:
• Discos espejo.
• Discos con reparto de datos cíclico y paridad nivel RAID 5.
• Duplicación de discos.
Las utilidades para hacer copias de respaldo están pensadas para los administradores de
sistema, ya que permiten hacer copias masivas de datos a cintas magnéticas de forma muy
sencilla. Es similar a las utilidades de backup existentes en UNIX pero con una interfaz más
amigable. Permiten hacer copias totales o parciales de volúmenes o cuentas de usuario.
Para dotar con capacidades de recuperación a los sistemas de archivos de Windows NT,
NTFS incluye procesamiento transaccional de las peticiones que afectan a los metadatos de los
sistemas de archivos. Con esta facilidad, todas las operaciones de este estilo se almacenan en un
registro dog) de forma que si el sistema falla se pueda volver a un estado coherente usando la
información de dicho registro. Este archivo de registro se gestiona mediante un conjunto de rutinas
internas al ejecutivo denominadas LFS dog File Services). Para asegurar la coherencia de los
sistemas de archivos se usan técnicas de escritura cuidadosa con verificación en el registro y en
los sistemas de archivos, de forma que las operaciones se reflejan primero en el registro y luego en
el sistema de archivos. Ambas operaciones se hacen primero en la cache, por lo que el gestor de
cache escribe inmediatamente los datos del registro a la zona del disco donde se guarda dicho
registro.
Los discos espejo son una técnica de tolerancia a fallos muy popular y sencilla de
implementar. pero costosa y poco eficiente. Consiste en tener dos volúmenes idénticos y actualizar
los datos de forma cuidadosa en ambos. Una escritura no se valida hasta que no se ha hecho en
los dos discos. Las lecturas, sin embargo, son válidas desde cualquiera de ellos. Las
actualizaciones se mantienen coherentes en ambos discos de forma transparente al usuario.
La técnica más actual de tolerancia a fallos consiste en usar dispositivos tipo RAID 5 a
nivel software. Con esta técnica se usa un conjunto de discos para almacenar la información de los
usuarios y la información de paridad del conjunto anterior como si fueran un único disco lógico. Los
datos se reparten en grupos, cada uno de los cuales se escribe a un disco. Cuando se ha escrito
un bloque en cada disco, se calcula su paridad y se almacena en el disco siguiente (disk striping
with parity). Para que todos los datos de paridad no estén en el mismo disco, se almacenan de
forma cíclica en discos distintos. Este mecanismo necesita un mínimo de tres discos y gestiona un
máximo de 32 discos, que pueden estar en el mismo controlador o en controladores distintos.
PRESTACIONES 12.4
La escritura de datos con paridad conlleva el coste del cálculo de la misma, lo que puede ser
oneroso en caso de escrituras que no llenan todos los discos (escrituras pequeñas). Por ello, este
método se ajusta mejor a archivos con unidades de escritura grandes.
Los lectores interesados en saber más sobre Windows NT y Windows 2000 disponen actualmente
de muy buena documentación. En esta relación de lecturas recomendadas se incluyen un conjunto
seleccionado de libros que permitirán al lector interesado profundizar en este tema.
Para ampliar conocimientos sobre la estructura general del sistema operativo, se
recomiendan los libros de Solomon [Solomon, 1998], Pearce [Pearce, 1977], Martínez [Martínez,
1999] y Custer [Custer, 1993].
Para profundizar más en aspectos de sistemas de entrada/salida y dispositivos, se
recomiendan los libros de Baker [Baker, 1997] y Dekker [Dekker, 1999].
Para sistemas de archivos y directorios se puede acudir a los libros de Custer [Custer,
1995], Mitchell [Mitchell, 1977], Nagar [Nagar, 1977] y Lowe-Norris [Lowe-Norris, 2000].
Para aspectos concretos del sistema de seguridad se puede consultar el libro de lvens [lvens,
2000].
La programación de aplicaciones sobre sistemas operativos supone conocer y usar las bibliotecas
con las llamadas al sistema operativo. Para hacer una aplicación con llamadas al sistema operativo
es necesario indicar en los programas los archivos con:
• La definición de prototipos y tipos de datos, por ejemplo <windows.h>, para que puedan
compilarse los módulos del programa, así como el directorio, o directorios, en que se
encuentran
• Los archivos de bibliotecas del sistema que deben enlazarse con la aplicación para crear
un archivo ejecutable, incluyendo el camino donde localizar dichas bibliotecas.
• Las opciones de compilación que deben activarse para compilar y enlazar la aplicación.
El Listado B.1 contiene el makefile del programa Reloj, que específica cómo construir el ejecutable
reloj. Por convención, una especificación de makefile se almacena típicamente en un archivo
llamado Makefile o makefile. Para ejecutar el programa make y construir una aplicación, sólo
hay que teclear el mandato make dentro de un intérprete de mandatos (shell). El programa make
busca en el directorio actual un archivo llamado Makefile o makefile y lo procesa.
#
# Las siguientes líneas especifican que los archivos de C
# tendrán una extensión c.
.SUFFIXES:
.SUFFIXES:.c $(SUFFIXES)
CC = gcc
# Asignar a DIR_APOYO la ruta del directorio que contiene
# los directorios del material de apoyo.
# Las bibliotecas del sistema se incluyen por defecto.
DIR_APOYO = ./apoyo
#
# La variable CFLAGS especifica dónde encontrar
# los archivos a incluir desde el material de apoyo.
.c.o:
$(CC) $(CFLAGS -c $<
LDFLAGS = L$ d){DIR_APOYO)/lib
#
# La variable LIBS especifico al compilador qué bibliotecas
# de archivos objeto se deben usar para construir la aplicación, además
# de las del sistema.
#
LIBS = -lapoyo
#
# La variable OBJS específica al compilador qué archivos
# objeto se deben crear para construir la aplicación
reloj: $(OBJS)
$(CC) $(OBJS) $[LDFLAGS) $[LIBS) -o reloj
reloj.o: reloj.h
clock_task.o: reloj.h
hardware.o: reloj.h
Para compilar en UNIX O LINUX hay que ir aI directorio donde se encuentra el makefile de
la aplicación y ejecutar el mandato make, como se muestra en la Figura 13.1.
• SUFFIXES:
• SUFFIXES: .c $(SUFFIXES)
Algunos lenguajes, por ejemplo C++, esperan archivos que tengan la extensión .cpp o .cc. Si
esto es lo que sucede, se debería cambiar el .c de la segunda línea a .cpp o .cc, o añadir dichos
sufijos a la línea de definición. Todos los archivos de C proporcionados en este libro tienen la
extensión .c.
La siguiente línea define el compilador que se debe usar para compilar los programas:
CC = gcc
En este ejemplo se asigna a la variable CC el nombre del mandato que corresponde con el
compilador de C que traduce el código fuente. En este fragmento se le da el valor gcc que es el
compilador de GNU para el lenguaje C en UNIX y LINUX.
La línea:
asigna la ruta que se corresponde con los directorios de inclusión y de la biblioteca del material de
apoyo para la construcción del programa reloj. Es siempre mejor usar variables relativas a la
situación del programa a construir, porque así se puede instalar la aplicación en distintos
directorios cada vez sin que haya que modificar el archivo makefile.
La línea:
CFLAGS= -I $(DIR_APOYO)
establece una variable que informa al compilador de C dónde debe buscar los archivos de inclusión
del material de apoyo del usuario y los del sistema. Además de buscar en este directorio, el
compilador siempre busca en los directorios del sistema, que suelen ser /usr/include y sus
subdirectorios.
De manera similar la asignación siguiente:
define una variable que informa al cargador de UNIX, ld, dónde debe buscar los archivos de
biblioteca. Además de buscar en este directorio, el compilador siempre busca en los directorios del
sistema, que suelen ser /usr/lib y sus subdirectorios.
La variable LIBS especifica al compilador qué bibliotecas de archivos objeto se deben usar
para construir la aplicación.
LIBS= -lapoyo
.c.o:
$(CC) $ (CFLAGS) –c $<
son una regla de dependencia implícita que especifica que un tipo de archivo se construye a partir
de otro y describe cómo rechazar su construcción. En este ejemplo, las líneas anteriores
especifican que los archivos .o se construyen a partir de los archivos .c mediante el compilador de
C.
La asignación siguiente:
da valor a la variable OBJS con los nombres de los archivos objeto que forman la aplicación. La
aplicación reloj tiene tres módulos objeto de aplicación: reloj.o, clock_task.o y hardware.o. Para
una aplicación diferente habría que modificar esta línea para asignar a OBJS los módulos objeto de
dicha aplicación.
El siguiente conjunto de líneas es el corazón del ,makefile. Estas líneas son reglas de
dependencia que especifican Cómo construir la aplicación. Por ejemplo, las siguientes líneas:
reloj: $(OBJS)
$(CC) $(OBJS) $(LDFLAGS) $(LIBS) -o reloj
del ,makefile de Reloj especifican que reloj depende de OBJS, que tiene el valor reloj.o,
clock_task.o y hardware.o. Además depende de LIBS, que tiene el valor libapoyo.a. Si
cualquiera de estos archivos objeto es más reciente que reloj, make ejecuta la línea de mandato
que produce una nueva versión de reloj más reciente que los archivos objeto. Si lodos los archivos
objeto son más antiguos que reloj, significa que reloj está actualizado y, por lo tanto, no se necesita
realizar ninguna acción.
Después de que se hayan construido todos los archivos objeto necesarios, su fecha de
actualización será más reciente que la de reloj, por lo que se ejecuta el mandato que construye
reloj.
La lista completa de opciones del programa make se puede obtener mediante el siguiente
mandato:
man make
Para ejecutar una aplicación en UNIX basta con teclear el nombre de la aplicación en el prompt del
intérprete de mandatos (Fig. B.2).
Existe en UNIX y LINUX una utilidad para la creación y mantenimiento de bibliotecas de archivos.
Su principal uso es crear bibliotecas de objetos, es decir, agrupar un conjunto de objetos
relacionados dentro una entidad lógica que se puede usar como un elemento de compilación.
En la línea de compilación se especifica la biblioteca (por convención libnombre.a) en vez
de los objetos que hay dentro de ella. El enlazador extraerá de la biblioteca los objetos que
contienen las variables y funciones requeridas y los insertará dentro del programa ejecutable o
incluirá referencias dinámicas a dichos objetos.
Formato del mandato:
ar -tv /usr/lib/libc.a
• Creación de una biblioteca con objetos que manejan distintas estructuras de datos.
• Creación de la biblioteca con material de apoyo que incluye el objeto del programa que
simula el dispositivo reloj.
Hay dos formas posibles de compilar un programa que use una biblioteca: con nombre absoluto y
con nombre relativo. En este último caso es necesario tener una variable de entorno para indicar
dónde está la biblioteca, como se ha hecho en el makefile anterior. A continuación, se muestran
ejemplos de uso de ambas formas:
En todas las versiones del sistema operativo UNIX, incluyendo LINUX, existe un programa de
depuración de programas. En el caso de LINUX existe un depurador denominado gdb. El
depurador permite que el usuario pueda controlar la ejecución de un programa y observar su
comporta miento interno mientras ejecuta. Estos programas son muy útiles cuando se programa o
prueban aplicaciones, como las prácticas de alumnos. Su uso puede ahorrar mucho tiempo de
desarrollo y facilitar la tarea de los programadores.
Para poder depurar un programa, el compilador debe incluir información especial dentro del
mismo. Por ello, para poder depurar un programa compilado con el gcc, se debe compilar con la
opción -g.
A continuación se describen algunas de las Funciones de un depurador genérico:
gdb programa_ejecutable
En el caso del makefile del ejemplo se ha creado un ejecutable denominado reloj. Para
depurarlo habría que ejecutar el mandato:
gdb reloj
El primer paso para crear un archivo de proyecto para una aplicación de Sistemas Operativos es
crear un espacio de trabajo y un proyecto, mediante el menú: File ->New. Dentro de la caja de
diálogo New debe especificarse el tipo de aplicación que se está construyendo. La elección
correcta depende de que la aplicación requiera una consola. Cualquier aplicación de Sistemas
Operativos c acepte entrada de teclado del usuario mediante el objeto de iostream cin o escriba
en la pantalla mediante el objeto de iostream cout requiere una consola. Para este tipo de
aplicación de Sistemas Operativos la selección apropiada es Win32 Console Application. Si la
aplicación no utiliza la biblioteca iostream, la selección apropiada es win32 Application.
El paso final es especificar la posición del proyecto. En el ejemplo se quiere que el
proyecto resida en c:\jesus\docencia\sos2\apendice2\reloj, por lo que habrá que navegar
hasta c:\jesus\docencia\sos2\apendice2\reloj y teclear reloj en el campo Project name:. Para
crear el proyecto se debe pulsar el botón OK.
Para compilar el archivo reloj.c sólo hay que indicarlo en la opción Build, que se muestra
en la Figura B.4.
Figura B.6. Caja de diálogo «Insert Files into Project» del Visual C++ de Microsoft
consigue mediante el mandato: Tools ->Options. Para ello se ejecuta el menú Show directories
for-> Include files, y se teclea la ruta en la ventana Directories. En el ejemplo del reloj, esta ruta
es c:\jesus\docencia\sos2\apendice2\reloj.apoyo. El valor por defecto del campo Directorias indica
la posición de los archivos de inclusión del sistema. La Figura B.7 muestra la caja de di Options
después de que se ha añadido la entrada del directorio de inclusión del programa reloj. De igual
manera se puede definir el directorio para la biblioteca de apoyo, pero usando el menú Show
directories for -> Libraries.
Para compilar y enlazar la aplicación se usa el menú: Build -> BuiId reloj.exe. Este
mandato hace que se compilen todos los módulos que han cambiado desde la última compilación y
que después se enlacen todos los archivos objeto y las bibliotecas pedidas en una unidad
ejecutable. El ejecutable se escribe en el archivo reloj .exe puesto que ése es el nombre del
proyecto.
Para ejecutar una aplicación utilizando el C++ de Microsoft existen dos opciones:
Para ejecutar desde el entorno de Visual C++, lo único que hay que hacer es ejecutar la
opción: Build ->Execute reloj.exe Este mandato solicita al entorno que ejecute el archivo
reloj.exe usando para ello todos los recursos que sean necesarios. Si se usa entrada/salida por
consola, se abre una ventana consola. La Figura B.8 muestra la ventana Build y la opción a usar
para ejecutar el archivo reloj .exe.
La otra opción es ejecutar el programa desde una ventana consola o de MS-DOS, que se
puede crear activando el icono de MS-DOS en el menú Inicio. Una vez en la ventana consola, se
debe cambiar el directorio a la posición del ejecutable de la aplicación y a continuación ejecutar la
aplicación tecleando su nombre.
Depurar una aplicación utilizando el C++ de Microsoft, usando el entorno de Visual C++, es real
mente fácil. Hay dos opciones básicas:
La primera es más aconsejable, porque en este caso se puede estar seguro de que no hay
errores de en lazado.
Para ejecutar desde el entorno de Visual C++, lo único que hay que hacer es ejecutar la opción:
Build -> Start Debug. Este mandato solicita al entorno que ejecute el archivo reloj .exe de forma
controlada por el depurador (Fig. B.9). Cuando se ejecuta esta opción, aparece una nueva ventana
que permite ejecutar el programa de forma continua (Go), ejecutar hasta donde está el cursor (Run
to cursor) o pararse en una llamada a función y saltar dentro del código fuente de la misma (Step
into). Con estas tres llamadas básicas se puede controlar la ejecución del programa.- Los errores
salen en la pantalla de debajo del código fuente, mientras que el flujo de ejecución se controla en
esta ventana.
Las prácticas que se presentan en este apéndice fueron diseñadas como trabajos de laboratorio
para estudiantes de las asignaturas de Sistemas Operativos de la Universidad Politécnica de
Madrid y de la Universidad Carlos III de Madrid. Todas las prácticas se han desarrollado en uno u
otro entorno y fueron pensadas para ellos, por lo que es posible que existan todavía en los
enunciados dependencias o referencias cercanas o derivadas de dichos en tornos. No obstante, se
ha hecho un importante esfuerzo para generalizar dichos enunciados. De forma que puedan
desarrollarse fácilmente sobre sistemas operativos de amplia difusión como Linux, UNIX o
Windows NT. De cualquier forma, es importante que los profesores que pretendan usar estos
trabajos de laboratorio revisen cuidadosamente cada uno de ellos y lleven a cabo una etapa previa
de adaptación a sus entornos de prácticas. Esto evitará errores y confusión a los alumnos.
En casi todos los trabajos prácticos expuestos se hace referencia al material de apoyo
existente para las prácticas. Este material se puede conseguir en las páginas WWW del libro, cuya
referencia es: http://datsi.fi.upm.es/~ssoo-va y http://arcos.inf.uc3m.es/~ssoo-va
Los trabajos prácticos que se proponen en este apéndice se describen brevemente a
continuación:
En cuanto al lenguaje de programación a utilizar para llevar a cabo los trabajos prácticos,
aunque se recomiendan los lenguajes C y C++, () es estrictamente necesario, ya que las prácticas
se pueden desarrollar en cualquier otro lenguaje. Es importante tener en cuenta que los materiales
de apoyo sólo están disponibles en lenguaje C.
El objetivo de esta práctica es familiarizarse con el intérprete de mandatos de UNIX que, además
de ser la interfaz de usuario del sistema, ofrece una poderosa herramienta de programación que
permite a los usuarios, tanto ordinarios como administradores, construir nuevos mandatos (shell-
scripts) sin tener que utilizar directamente los servicios proporcionados por el sistema operativo.
Un aspecto que conviene resaltar desde el principio es la dificultad de programación en
este entorno. La sintaxis y el modelo de programación son bastante inusuales, lo que hace un poco
difícil escribir los primeros programas. Sin embargo. El esfuerzo merece la pena puesto que
permite llegar a conocer mejor cómo funciona el sistema.
La práctica consiste en desarrollar un script denominado dirmix que lleve a cabo la unión del
contenido de un conjunto de directorios. El script recibirá como argumentos:
Después de la ejecución de dirmix. En el directorio destino habrá una copia de todos los
archivos (sólo de los archivos, no de los directorios) de los directorios origen especificados,
teniendo en cuenta también los contenidos inicialmente existentes en el propio directorio destino.
Cada copia debe preservar las características del archivo original, tales como su propietario o las
fechas asociadas al mismo (mandato cp —p). En el caso de que exista un archivo con el mismo
nombre en dos o más de los directorios (incluyendo también el directorio destino), se aplicará el
criterio (le selección, que se recibe como primer argumento, para determinar cuál (le ellos se copia
al directorio destino. De esta forma, el criterio de selección no está incluido en el script, sino que se
trata de un programa que éste recibe como argumento.
Como parte de la práctica se deberá también construir un script. Denominado más nuevo. Que
realice la selección teniendo en cuenta la fecha de última modificación (le los archivos.
Descripción de masnuevo
Este script recibirá como argumentos los archivos a los archivos se pretende aplicar el criterio de
comparación y escribirá por su salida estándar cuál ha sido el archivo elegido al aplicar el criterio
de selección correspondiente. El criterio consistirá en seleccionar el archivo cuya fecha de última
modificación sea más reciente (una posible forma (le hacerlo es usando alguna (le las opciones del
mandato ls).
Descripción de dirmix
Como se explicó antes, después de la ejecución (le este mandato, en el directorio dir_dest deberá
quedar tina copia de todos los archivos que había inicialmente en cada dir_org junto con los que
había en dir_dest habiéndose aplicado el mandato criterio para determinar cuál debe copiarse en
caso de coincidencia de nombres.
El script dirmix deberá:
Hay muchas maneras de estructurar este .script. El esquema más intuitivo, aunque no más
eficiente, sería ir procesando cada directorio origen realizando la copia de los archivos que
cumplan las condiciones. Este esquema puede implicar copiar un archivo que luego es sobrescrito
por otro de un directorio posterior.
Una versión más eficiente que elimina la necesidad de realizar estas operaciones de copia
innecesarias consistiría en. Luego el script sólo copiara un archivo al directorio destino si está
seguro que es el que debe quedar allí al final del proceso. Observe que esta versión sería bastante
más complicada de programar que la anterior.
C.1.5. Bibliografía
Esta práctica permite al alumno fan con los servicios para la gestión de procesos que
proporciona POSIX. Asimismo, se pretende que conozca cómo es el funcionamiento interno del un
intérprete de mandatos en UNIX/Linux.
Esta práctica cubre los objetivos de programación de llamadas al sistema y del capítulo de
procesos.
El alumno deberá diseñar y codificar, en lenguaje C y sobre sistema operativo UNIX/Linux,
un programa que actúe como intérprete de mandatos. El programa deberá seguir estrictamente las
especificaciones y requisitos contenidos en este documento.
Con la realización de este programa el alumno adquirirá valiosos conocimientos de
programación en entorno POSIX. Tanto en el uso de las llamadas al sistema operativo (FORK,
EXEC, SIGNAL, PIPE, DUP, etc.), como en el manejo de herramientas como el visualizador de
páginas de manual man, el compilador de C gcc. el regenerador de programas make, etc.
Nota: Durante la lectura de este documento encontrará la notación “man -s# xxxxx”. Que sugiere
usar el mandato man de UNIX/Linux para obtener información sobre la orden xxxxx de la sección #.
Por favor, siga las recomendaciones.
Para obtener la línea de mandatos tecleada por el usuario se recomienda proporcionar al alumno
una función obtain_order cuyo prototipo es el siguiente:
• Para 1s -1 devuelve 2.
• Para 1s | sort devuelve 3.
El argumento argvv permite tener acceso a todos los mandatos introducidos por el usuario.
Con el argumento f 11ev se pueden obtener los archivos utilizados en la redirección:
• Filev [0] apuntará al nombre del archivo a utilizar en la redirección de entrada en caso de
que exista o NEJLL si no hay ninguno.
• Filev [1] apuntará al nombre del archivo a utilizar en la redirección (le salida en caso de que
exista o N U LL si no hay ninguno.
• Filev [2] apuntará al nombre del archivo a utilizar en la redirección (le la salida de error en
Caso de t exista o NULL S no hay ninguno.
Para desarrollar el minishell el alumno debe seguir una serie de pasos de tal forma que se
construyan el, minishell de forma incremental. En cada paso se añadirá nueva funcionalidad sobre
el anterior.
1. Ejecución de mandatos simples del tipo 1 s — 1, who, etc. Para esta sección deberá usar
as llamadas al sistema fork, wait y execve.
• cd [Cambia el directorio por defecto (man s2 chdir). Si aparece Directorio debe cambiar al
mismo. Si no aparece, cambia al directorio especificado en la variable de entorno HOME.
Presenta (por la salida estándar) como resultado el camino absoluto al directorio actual de
trabajo (man getcwd) con el formato: “%s\n”.
• umask [Cambia la máscara de creación de archivos (man s2 umask). Presenta (por la
salida estándar) como resultado el valor de la actual máscara con el formato: “%o \n”.
Además, si aparece Valor (dado en octal, man strtol), cambia la máscara a dicho valor.
Para Facilitar la realización de esta práctica, se recomienda proporcionar a los alumnos un parser
que les evite tener que programar el suyo propio. Esto es importante, porque nuestra experiencia
nos dice que si no se proporciona dicho parser, los alumnos dedican la mayor parte del tiempo ha
programado y no se centran en los aspectos de sistemas operativos. En concreto, a nuestros
alumnos se les proporciona el siguiente código de apoyo, que puede encontrarse en la página Web
del libro:
C.2.6. Bibliografía
Esta práctica permitirá al alumno familiarizarse con los servicios que ofrece el estándar POSIX para
la gestión (le archivos y directorios.
Esta práctica cubre los conceptos del Capítulo 8.
Programa copy
Programa mils
• Si recibe la opción —a, mostrará todos los archivos, es decir, los ocultos y no ocultos.
• Si se especifica la opción -1, además del nombre de cada archivo se imprimirá en la misma
línea algunos de sus atributos: su tipo (R para regular. 1) para directorio, C para un
dispositivo de caracteres, B para un dispositivo de bloques y F para un FIFO), el número
de enlaces, el tamaño y la fecha del último acceso. Para procesar este último valor se
recomienda usar las funciones gmtime o localtime (se recomienda consultar el manual
interactivo del sistema para aclarar su uso: man gmtime o man localtime).
Se plantea una parte opcional que consiste en modificar el programa mil s anterior para que realice
un listado recursivo (opción —R) de todo el árbol de archivos y directorios que hay por debajo de
cada uno de los directorios que recibe como argumento.
Uno de los aspectos que hay que tener en cuenta a la hora de realizar el recorrido
recursivo es que se debe evitar atravesar los directorios. y . . presentes en todo directorio ya que
de hacerlo se entraría en un bucle infinito.
Para emular dentro de lo posible el comportamiento de este mandato en UNIX, el recorrido
del árbol se hará como se describe a continuación. No se realizarán las llamadas recursivas
correspondientes a los subdirectorios encontrados en un determinado directorio hasta que no se
haya tratado dicho directorio. Una posible forma de llevar a cabo este recorrido es utilizar una lista.
Cada vez que el programa encuentre un directorio, insertará su nombre en la lista. Cuando se haya
terminado de recorrer un determinado directorio, se comenzará con los directorios que se han
almacenado en la lista, cada uno de los cuales se recorrerá a su vez de la forma descrita. A
continuación se presenta un posible pseudo código de dicho recorrido. Este pseudocódigo asume
la existencia de dos funciones, insertar y extraer. La primera introduce el nombre de un directorio
en la lista y la segunda lo extrae.
recorrido (root) {
para cada nodo que cuelgue directamente de roo {
visitar eL nodo;
if (nodo es un directorio)
insertar (nodo);
}
While (lista no sea vacía) {
extraer (&next)
recorrido(next)
}
}
• Make file. Archivo fuente para la herramienta make. Con él Se Consigue la recopilación
automática de los archivos fuente cuando se modifiquen. Basta con ejecutar el mandato
make para que el programa se compile de forma automática.
• copia. Archivo fuente de C donde se incluirá el programa copy.
• mils.c. Archivo fuente de C donde se incluirá el programa mus.
C.3.6. Bibliografía
En esta práctica se plantea como objetivo el manejo de las interrupciones del reloj de forma similar
a como lo hace un sistema operativo. Para ello se va a implementar un manejador de reloj. La
práctica se va a desarrollar sobre LINUX, lo que impone algunas restricciones, por lo que el
dispositivo reloj se va a simular con un proceso que emite señales periódicas, equivalentes a las
interrupciones del reloj real.
Sirve como trabajo práctico para el tema de entrada/salida.
La pieza esencial es el manejador de reloj que recibe las llamadas del manejador de
interrupción y del programa de usuario, procesando las mismas de forma similar a como lo hace
LINUX. La idea fundamental de la práctica consiste en construir un manejador de reloj que permita
gestionar un reloj virtual en nuestra aplicación y colas de temporizadores y ciclos. Cada
temporizador y ciclo puede tener asociado una función (especificable por el usuario), de forma que
cuando vence alguno de estos elementos se ejecuta la función asociada.
Cada vez q llega una interrupción de reloj, se mira si tenemos un tick (unidad mínima) en el reloj de
nuestra aplicación. En caso positivo, la rutina de tratamiento de interrupción avisa al manejador de
reloj (CLOCK_TASK) y éste hace todo el proceso correspondiente a un tick de reloj.
La unidad mínima del reloj de la aplicación (tick) no tiene por qué coincidir con la frecuencia
de las interrupciones del reloj hardware (18,7 mt, por segundo = aprox. 58 ms). Puede ser
cualquier múltiplo de ellas (en milisegundos), ajustable por el usuario mediante una operación
(SET_TICK) Dicha unidad debe poder ser cambiada dinámicamente durante la ejecución de la
aplicación.
Además el manejador de reloj tiene que permitir mantener un reloj virtual de la aplicación.
Dicho reloj virtual se inicializará con el tiempo de la máquina cuando arranque la aplicación y se
mantendrá mediante los ticks del reloj fijado (horas, minutos y segundos). Este reloj permitirá dos
operaciones: GET y SET Estas operaciones permiten cambiar la hora y leerla respectivamente.
Un aspecto que conviene destacar es que este reloj es relativo a la aplicación y no tiene
por qué coincidir con el de la máquina.
Por último, el manejador debe permitir poner, dentro de la aplicación, Temporizadores y
ciclos (SET ALARM y SET_LOOP), asociando la ejecución de una función al vencimiento de estos
eventos. El manejador debe mantener dos vectores estáticos, con un máximo de diez elementos
cada uno, para mantener las direcciones de las l’unciones asociadas a estos elementos (utilizar
punteros a funciones). Cuando se ponga un temporizador o ciclo, el manejador lo insertará en la
lista. Cada vez que venza un tick, debe mirar si alguno de estos elementos ha vencido y ejecutar la
función asociada. Además, el manejador debe proporcionar dos funciones para eliminar
temporizadores (RESET_ALARM) y ciclos (RESET_LOOP) fijados anteriormente.
Módulos de la práctica
La pieza clave de este módulo es la rutina de tratamiento de interrupción del reloj. Dicha rutina se
ejecuta cada vez que llega una interrupción de reloj y debe llevar a cabo las siguientes acciones:
Además de esta rutina, éste módulo debe tener varias operaciones que permitan:
Este módulo se encarga de hacer las operaciones propias de un manejador de reloj, excluyendo
las de planificación.
La funcionalidad que debe admitir este módulo es la siguiente:
Su Prototipo es similar a:
´ Esta función es similar a la principal de un manejador de LINUX, sin embargo, tiene dos
diferencias importantes:
• No es un bucle infinito.
• Usa paramatros de tipo message.
Los prototipos de las funciones que llevan a cabo las operaciones del manejador se describen
a continuación:
int init_clock ()
int do_set_alarm (message *msg)
int do_reset_alarm (message *msg)
int do_set_loop (message *msg)
int. do_reset_ loop (message *msg)
int do_set_time (message *msg)
int do_get_time (message *msg)
int do_set_tick (message *msg)
mt do_clock_set_vect (message *msg)
int do_clock_tick (message *msg)
Esta función es llamada por el manejador de interrupción cada vez que hay un tick de reloj
software.
• Revisa las colas de ciclos y alarmas y ejecuta las funciones de los que hayan vencido,
pintando los resultados por pantalla.
• Reactiva los ciclos vencidos.
• Elimina las alarmas vencidas.
• Actualiza la hora del reloj de la aplicación (hora:minutos:segundos) y la escribe en la
esquina superior derecha de la pantalla.
El módulo de prueba debe permitir acceder a la funcionalidad del manejador de reloj sin perder
precisión en el manejo de las alarmas, ciclos y hora relativa a la aplicación (o la menos posible).
El esquema del programa de prueba es el siguiente:
Cuando se pone un ciclo o alarma hay que indicar una función para que se ejecute.
El alumno debe proporcionar cinco funciones de prueba, todas ellas con el mismo formato,
para que puedan ser ejecutadas en la aplicación.
El formato de dichas funciones de prueba es el siguiente:
función_i () {
escribe (“soy la función i \n”);
escribe (hora del sistema)
}
En la Figura C.2 puede verse el flujo de llamadas entre los distintos módulos del sistema.
Estructuras de datos
struct clock {
int hora;
int minutos;
int segundos;
}
struct message {
int caller; /* identificador del origen del mensaje*/
int operation; /* código de operación */
int duration; /* duración del ciclo, alarma o tick del reloj */
void(*function) ( ) /* puntero a función asociada a alarma, ciclo o
interrupción */
int id; /* identificador de alarma o ciclo fijado */
struct {
int free;
int ticks_left;
char *function;
} Temporizadores [MAXIMO_TEMPOLRALIZADORES]
struct {
int free;
int ticks_left;
char *function;
} Ciclos [MAXIMO_CICLOS]
Cada vez que se ejecute do_clock_tick, el manejador de reloj debe recorrer estos vectores
decrementando los ticks restantes de cada elemento (ticks_left). Si alguno llega a cero, el
manejador debe ejecutar su función asociada.
Se recomienda que el alumno entregue los siguientes archivos como solución a esta práctica:
C.4.6. Bibliografía
En esta práctica se pretende que el alumno se familiarisara con los mecanismos de comunicación
entre procesos, usando sockets como mecanismo de comunicación. Además. El alumno tendrá
ocasión de experimentar con un sistema cliente-servidor.
Sirve como trabajo práctico para el tema de comunicación y sincronización y í el tema de
sistemas distribuidos.
Esta práctica permitirá al alumno estudiar los mecanismos existentes en UNIX para comunicar
procesos con sockets y el concepto de relación cliente-servidor.
La práctica consiste en el desarrollo de dos programas C que definen dos procesos
denomina dos csocket y ssocket respectivamente. El resultado de la ejecución conjunta de ambos
procesos será similar al obtenido mediante la ejecución de la orden cat de UNIX, es decir,
visualizar el contenido de un archivo cuyo nombre se indica.
El proceso csocket lee el nombre del archivo por la (‘mitrada estándar (teclado) y se lo
envía al servidor por un socket de recepción de mensajes del servidor, que se supone creado por
el servidor.
Si el envío es correcto, crea un socket para recibir y ejecuta un bucle de lectura del socket
y de escritura de lo leído por la salida estándar (pantalla). Cuando el archivo está terminado, el
servidor le envía un código de finalización.
El proceso ssocket crea un, socket de recepción y recibe del cliente el nombre del archivo
a leer. Si la recepción es correcta, abre el, socket (socket) del cliente y el archivo recibido (open) y
ejecuta un bucle de lectura del archivo (send/write) y envía (recv/read) por el socket del cliente
recibido como parámetro. Una vez leído el archivo completo, cierra todos los archivos y
descriptores (close).
Para la comunicación se usa una estructura de tipo mensaje. El uso de esta estructura
permite generalizar el modelo de comunicación para su uso en un esquema cliente-servidor (le tipo
general. El servidor debe poder atender a cualquier cliente de forma secuencial. Para ello
supondremos que el servidor tiene una dirección de recepción de mensajes conocida por todos los
clientes.
Puesto que el servidor debe conocer la identidad de la cola cliente donde debe responder,
usará una estructura mensaje como la siguiente:
typedef struct {
sockaddrin dirección; / dirección del emisor /
char datos datos que ha enviado */
unsigned mt longdat; /* longitud de datos válidos dentro de datos /
unsigned mt orden; /* número de orden del mensaje /
}mensaje;
donde se incluye la dirección del cliente adonde debe enviarse la respuesta del servidor. Esta
modificación permite al servidor atender peticiones de cualquier cliente que conozca su dirección y
a un mismo cliente recibir respuestas a sus mensajes por distintos sockets (uno por cada servicio).
Aunque existen distintos tipos de sockets (INET, UNIX, SNET,...), esta práctica se limitará
a los sockets de tipo INET y, dentro de ellos, a los sockets de tipo DATAGRAMA y STREAN.
Todas las llamadas al sistema devuelven un error en caso de ejecución incorrecta. El
alumno debe controlar los posibles errores y mostrarlos por la salida de error.
Para construir un servidor similar a uno real de UNIX, en esta práctica se desarrollarán
varios apartados.
Para cada petición de servicio, el servidor crea un proceso hijo al que le pasa el mensaje recibido
(Fig. C.3). Este es el responsable de ejecutar el servicio completo.
Para cada petición de servicio, el servidor crea un PL al que le pasa el mensaje recibido. Este PL
es el responsable de ejecutar el servicio completo. El esquema es similar al de la Figura C.3. pero
en lugar de procesos convencionales se crean procesos ligeros usando threads de POSIX.
El mecanismo de comunicación a utilizar en esta práctica son los sockets. Un socket (enchufe) es
un punto extremo de comunicación, que permite comunicar dos procesos punto a punto. Estos
procesos pueden ejecutarse en la misma máquina o no. Permiten la utilización de protocolos de
red y de transporte para la comunicación de procesos situados en distintos nodos. Esta
característica hace que sean más potentes que los pipes, y un mecanismo de comunicación a
considerar en sistemas distribuidos.
Para trabajar con .sockets es siempre necesaria la existencia de extremos con direcciones
conocidas y que estos extremos se sincronicen adecuadamente, si bien la forma de sincronización
depende del tipo de socket.
Existen sockets de distintos tipos en un sistema UNIX, diferenciándose cada tipo por la
semántica que proporcionan en el protocolo de comunicaciones. En esta práctica utilizaremos las
siguientes constantes:
Servicios de archivos
Los sockets se manejan en UNIX como descriptores de archivos, por lo que aceptan muchas llama
das de archivos como read. write, close o ioctl.
Servicios de sockets
Esta llamada asigna un nombre (una dirección) a un socket sin nombre, es decir, a uno
creado con socket. A partir de su ejecución, se puede acceder a la dirección a través del socket sin
especificar nada más que el identificador del socket.
Acepta conexiones sobre un socket que ha sido previamente creado (socket), enlazado
(bind) a una dirección y que está a la escucha (listen). Esta llamada es bloqueante y extrae la
primera conexión que exista. Crea un nuevo socket conectado y devuelve su descriptor de archivo.
Intenta establecer una conexión con otro socket. Este último debe estar ejecutando una
llama da accept. Generalmente sólo se puede establecer una conexión de ¡ simultánea para SOCK
S’I’REAM y múltiples para SOCK_
Examina los descriptores de socket de readfds. writefdsn y exceptfds para ver si alguno
está lisio para leer, recibir o tiene alguna excepción pendiente. El parámetro width es una máscara
de bits que indica los descriptores que deben ser muestreados.
int recvfrorn(int s, int len, int flag f ] struct sockdddr *fromm, Int *fromlen)
int send int s, char *buf, int len, int ilags)
Distintas llamadas de recepción sobre sockets. recv sólo puede usarse para sockets conecta dos.
Se lee sobre buf una longitud máxima len, con la operación modificada por flags. Si to es no nulo,
se introduce en dicho parámetro los datos del origen del mensaje. Obteniendo su longitud en tolen.
int sendio(int s, mt len, int flags, struc sockaddr *io, int *io);
int send(int s, char *buf, int len, int flags)
Distintas llamadas de envío sobre sockets. send sólo puede usarse para sockets
conectados. Se envía buf con una longitud máxima len, con la operación modificada por flags. Si to
es no nulo, se introduce en dicho parámetro los datos del destino del mensaje, incluyendo su
longitud en iolen.
Para resolver la sección que usa procesos ligeros, se recomienda al lector acudir al tema de
Procesos, donde se describen las llamadas al sistema para procesos ligeros, tales como
pihread_desiroy, pihread_yield, pthread sleep, etc.
Como material de apoyo se sugiere a los profesores proporcionar a los alumnos algún ejemplo de
programación con sockets. Para ello se puede usar el libro de Stevens, Unix Network Programing
donde hay múltiples ejemplos.
Igualmente, se les puede proporcionar un ejemplo de programa que use las llamadas al
sistema
fork y exec.
Además, se sugiere que para evitar una explosión de definiciones distintas se proporcione
un archivo, denominado Soc. . h, que, usando el lenguaje C, incluya las definiciones generales
para el desarrollo de la práctica.
C.5.7. Bibliografía
El objetivo de esta práctica es llegar a conocer los principales conceptos relacionados con la
gestión de procesos y la multiprogramación. El trabajo va a consistir básicamente en convertir un
sistema con monoprogramación en uno multiprogramado.
La multiprogramación y, en general, la concurrencia son probablemente los temas más
importantes en la enseñanza de los sistemas operativos, aunque también son los más complejos
de entender. Es muy difícil conseguir comprender lo que ocurre cuando se están ejecutando
concurrentemente varias actividades.
Esta dificultad se acentúa notablemente cuando se está trabajando en el nivel más bajo del
sistema operativo. Por un lado, en este nivel la mayoría de los eventos son asíncronos. Por otro, en
él existe una gran dificultad para la depuración, dado el carácter no determinista del sistema y la
falta de herramientas de depuración adecuadas.
Todas las consideraciones expuestas hasta ahora explican el motivo de que la
programación de sistemas tenga una productividad tan baja y que los sistemas operativos tengan
«mala fama» debido a sus «caídas» y «cuelgues» imprevistos.
Por tanto, al enfrentarse con esta problemática, es importante resaltar desde el principio las
dificultades que se encontrará para la realización de este proyecto práctico. Sin embargo, aunque
parezca un poco sorprendente, enfrentarse con esos problemas es a su vez un objetivo del mismo.
Por último, hay que resaltar que en esta práctica se plasman muchos de los conceptos de
sistemas operativos relacionados con la concurrencia y la gestión de interrupciones tales como:
Uno de los problemas que surgen cuando se pretende hacer una práctica de este tipo es decidir en
qué entorno se lleva cabo.
La elección más obvia es utilizar un sistema operativo real del que se dispongan las
fuentes (tales como MINIX o LINUX) y realizar modificaciones en el código del mismo para incluir
nuevas funcionalidades. Este enfoque es el más realista, pero, sin embargo, presenta algunos
problemas que dificultan considerablemente su aplicación práctica.
El entorno de desarrollo de la práctica intenta imitar dentro (le lo que cabe el comportamiento y
estructura de un sistema real. En una primera aproximación, en este entorno se pueden diferenciar
(res componentes principales:
A continuación, se describe cada una de estas parles haciendo especial énfasis en el sistema
operativo.
De forma similar a lo que ocurre en un sistema real, en este entorno existe un programa de
arranque que se encarga de cargar el sistema operativo en memoria y pasar el control a su punto
de entrada inicial. Este procedimiento imita el modo de arranque de los sistemas operativos reales
que se realiza desde un programa cargador.
El programa cargador se encuentra en el subdirectorio boot y. en un alarde de originalidad,
se denomina boot. Para arrancar el sistema operativo, y con ello el entorno de la práctica, se debe
ejecutar dicho programa pasándole como argumento el nombre del archivo que contiene el sistema
operativo. Así, suponiendo que el directorio actual corresponde con el subdirectorio boot y que el
sistema operativo está situado en el directorio kernel y se denomina minikernel, se debería
ejecutar: boot. . /kernel/minikernel. Observe que no es necesario ejecutar el programa de arranque
desde su directorio. Así, si se está situado en el directorio base de la práctica, se podría usar el
siguiente mandato: boot/boot kernel/minikernel.
El minikernel
El código del sistema operativo está organizado como un módulo de apoyo (archivo apoyo o), del
que se proporciona únicamente su interfaz, y el módulo que contiene la funcionalidad principal del
sistema operativo (archivo proc.c).
El módulo de apoyo
El objetivo principal de este módulo es simular el procesador y ofrecer servicios que permitan al
sistema operativo su manejo. Las principales características de este procesador son las siguientes:
• Cuando se produce una interrupción, sea del tipo que sea, el procesador realiza el
tratamiento habitual, esto es, almacenar el contador de programa y el registro de estado en
la pila, prohibir las interrupciones, elevar el nivel del procesador y cargar en el contador de
programa el valor almacenado en el vector correspondiente. Evidentemente, al tratarse de
operaciones realizadas l) el hardware, todas estas operaciones no son visibles al
programador del sistema operativo
• La ejecución en modo kernel de una instrucción de retorno de interrupción restaurará el
nivel de procesador y el estado de las interrupciones previo. Observe que, ciado que se
pretende que el código a desarrollar no incluya ensamblador, la ejecución de esta
instrucción está incluida en uno de los servicios exportados por este módulo.
Además de funcionalidad relacionada con la simulación del procesador, este módulo también
incluye otras funciones de más alto nivel que intentan facilitar la labor (le programación del sistema
operativo. Por ejemplo, se ofrecen funciones relacionadas con la creación del mapa de memoria de
cada proceso a partir del ejecutable. Con esto se pretende que el desarrollo se centre en los
aspectos relacionados con la gestión de procesos y no en otros como la gestión de memoria.
Las funciones ofrecidas por el modulo de apoyo se pueden clasificar en las siguientes
categorías:
El módulo proc
Éste es el módulo que contiene la funcionalidad del sistema operativo. Su nombre viene a indicar
cuál es la labor fundamental de este minisistema operativo: la gestión de procesos. Como parte
material de apoyo para la realización de la práctica se proporciona una versión de este módulo que
incluye una funcionalidad básica que corresponde con un sistema monoprogramado. Para ser más
precisos, hay que aclarar que en este sistema inicial, aunque se puedan crear y cargar en memoria
múltiples programas, el proceso en ejecución continúa hasta que termina. Este sistema se deberá
convertir en un sistema multiprogramado siguiendo las pautas que se detallan posteriormente.
Antes de pasar a revisar las características principales de esta versión inicial es
conveniente realizar algunas aclaraciones sobre el mismo:
• Como se comentó previamente, una vez que empieza a ejecutar un proceso, éste continúa
hasta que termina. El estado del proceso será en todo momento en ejecución. No existe
ningún servicio que cause que el proceso pase a un estado bloqueado. Sólo se invoca a la
rutina de cambio de contexto cuando el proceso termina, sea voluntaria o
involuntariamente. Observe que la rutina de interrupción no cambia el estado de los
procesos.
• No van a existir problemas de sincronización dentro del núcleo causados por la ejecución
concurrente de varias llamadas al sistema ya que se trata de un sistema monoprogramado.
Según se vaya incluyendo en el sistema la funcionalidad pedida, habrá que analizar si
puede surgir este tipo de problemas.
• Los problemas de sincronización dentro del núcleo entre una llamada al sistema y la rutina
de tratamiento de interrupción van a ser relativamente simples, ya que en esta versión
inicial la rutina de interrupción no realiza ninguna labor. Solamente es necesario asegurar
que mientras se está salvando o recuperando información de la pila, realizando un cambio
de contexto, o después de liberar la pila del sistema del proceso, no se produzca una
interrupción Y que la rutina de interrupción también manipula esas estructuras de datos.
Para ello se prohibirán las interrupciones en la sección de código problemática. Como se
comentó para el caso anterior, según se incluya nueva funcionalidad en la rutina de
interrupción será necesario revisar el sistema para comprobar si pueden surgir este tipo de
problemas.
• Estructuras de datos (contenidas en proc.h). Este módulo utiliza las siguientes variables
globales:
• Iniciación. Una vez cargado el sistema operativo, el programa cargador pasa control al
punto de entrada del mismo (en este caso a la función main de este módulo). En este
momento,- el sistema inicia sus estructuras (le datos, los dispositivos hardware e instala
sus manejadores en la tabla de vectores. En último lugar, crea el proceso inicial init y lo
activa pasándole el control. Observe que durante esta l las interrupciones están inhibidas.
Sin embargo, cuan do se activa el proceso init restaurándose su contexto inicial, se
habilitan automáticamente las interrupciones puesto que en dicho contexto inicial se ha
establecido previamente que esto sea así.
En la versión inicial, el código de las tres llamadas ejecuta la mayoría del tiempo con las
interrupciones habilitadas. Al ir añadiendo la funcionalidad pedida puede ser necesario revisar el
código para aumentar la zona de código que ejecuta con las interrupciones inhibidas.
En el subdirectorio usuario existe inicialmente un conjunto de programas de ejemplo que usan los
servicios del minikernel. De especial importancia es el programa init puesto que es el primer
programa que arranca el sistema operativo. En un sistema real este programa consulta archivos de
configuración para arrancar otros programas que, por ejemplo, se encarguen de atender a los
usuarios (procesos de login). De manera relativamente similar, en este sistema este proceso hará
el papel de lanzador de otros procesos, aunque en nuestro caso no se trata de procesos que
atiendan al usuario puesto que el Sistema no proporciona servicios para leer del terminal. Se
tratará simple mente de programas que realizan una determinada labor y terminan.
Además del programa init, en este directorio existe un conjunto de programas que sirven
(le ejemplo del uso de las llamadas al sistema.
Como ocurre en un sistema real, los programas tienen acceso a las llamadas al sistema
como rutinas de biblioteca. Para ello, existe una biblioteca estática denominada libserv. a que
contiene las funciones de interfaz para las llamadas. Esta biblioteca almacenada en el subdirectorio
usuario/lib está compuesta de dos módulos:
• serv. c. Contiene las rutinas de interfaz para las llamadas. Se apoya en una función de
nominada hacer_trap que es la que realmente ejecuta la instrucción (le llamada al sistema.
Para hacer accesible a los programas una nueva llamada, se deberá modificar este archivo
para incluir la rutina de interfaz correspondiente.
• misc.o. Contiene funciones de utilidad comO la definición de la función printf del sistema
que, evidentemente, se apoya en la llamada al sistema escribir, de la misma manera que el
printf de UNIX se apoya en la llamada write.
Dado que parte de la labor de la práctica es incluir nuevas llamadas al sistema, se ha considerado
oportuno incluir en esta sección los pasos típicos que hay que llevar a cabo en este sistema para
hacerlo. Suponiendo que el nuevo servicio se denomina nueva, éstos son los pasos a realizar:
• Incluir en kernel /proc. c una rutina (que podría denominarse sis_nueva) con el código de la
nueva llamada.
• Incluir en tabla_servicios (archivo kernel/include/proc.h) la nueva llamada en la última
posición de la tabla.
• Modificar el archivo para incrementar el número de llamadas disponibles y asignar el
código más alto a la nueva llamada.
• Una vez realizados los pasos anteriores, el sistema operativo ya incluiría el nuevo servicio,
pero sólo sería accesible desde los programas usando código ensamblador. Por tanto, es
necesario modificar la biblioteca de servicios (archivo usuario/lib/serv.c) para que
proporcione la interfaz para el nuevo servicio. Se debería también modificar el archivo de
cabecera que incluyen los programas de usuario (usuario/ include / servicios. h) para que
dispongan del prototipo de la función de interfaz.
• Por último, hay que crear programas de prueba para este nuevo servicio y, evidentemente,
modificar init para que los invoque. Asimismo, se debería modificar el archivo Makefile para
facilitar la compilación de este nuevo programa.
Como se comentó previamente, la práctica va a consistir en modificar la versión inicial que se ci1trc
como material de apoyo para incluir nuevas funcionalidades y añadir multiprogramación al mismo.
Se deben realizar tas siguientes modificaciones sobre la versión inicial del sistema:
• Incluir una nueva llamada (obtener_id) que devuelva el identificador del proceso que la
invoca. Corno puede observarse, se trata de un servicio que realiza un trabajo muy
sencillo. Sin embargo, esta primera tarea servirá para familiarizarse con el mecanismo que
se usa para incluir una nueva llamada al sistema. El prototipo de la función de interfaz
sería el siguiente:
int obtener_id_pr ().
• Incluir una nueva llamada (int dormir (unsigned int segundos)) que permita que un proceso
pueda quedarse bloqueado un plazo de tiempo. El plazo se especifica en segundos corno
parámetro de la llamada. La inclusión de esta llamada significará que el sistema pasa a ser
multiprogramado ya que cuando un proceso la invoca pasa al estado bloqueado durante el
plazo especificado y se deberá asignar el procesador al proceso elegido por el planificador.
Observe que en el sistema sólo existirán cambios de contexto voluntarios y, por tanto,
sigue sin ser posible la existencia de llamadas al sistema concurrentes. Sin embargo. dado
que la rutina de interrupción del reloj va a manipular listas de BCPs. es necesario revisar el
código del sistema para detectar posibles problemas de sincronización en el manejo de
estas listas y solventarlos prohibiendo las interrupciones en los fragmentos de código
correspondientes. Aunque se puede implementar esta llamada corno se considere
oportuno, a continuación se sugieren algunas pautas:
— Modificar el BCP para incluir algún campo relacionado con esta llamada.
— Definir una lista de procesos esperando plazos.
— Incluir la llamada que, entre otras labores, debe poner al proceso en estado bloqueado,
reajustar las listas de BCPs correspondientes y realizar el cambio de contexto.
— Añadir a la rutina de interrupción la detección de si se cumple el plazo de algún proceso
dormido. Si es así, debe cambiarle de estado (LISTO) y reajustar las listas
correspondientes.
• Sustituir el algoritmo de planificación FIFO por round-robin (el tamaño de la rodaja es igual
a la constante TICKS_POR_RODAJA). Con la inclusión de este algoritmo aparecen
cambios de contexto involuntarios, lo que causa un gran impacto sobre los problemas de
sincroniza ción dentro del sistema al poderse ejecutar varias llamadas de forma
concurrente. Para sol ventar estos problemas, en la práctica se va a usar una solución
similar a la utilizada en muchas implementaciones de UNIX: No permitir los cambios de
contexto mientras el proceso está ejecutando en modo sistema. A grandes rasgos, la
solución planteada debe cubrir los siguientes aspectos:
En esta sección se describe el árbol de archivos que corresponde con el entorno de desarrollo,
minikernel.
• Makefile general del entorno. Invoca a los archivos Makefile de los subdirectorios
subyacentes.
• boot. Este directorio está relacionado con la carga del sistema operativo. Contiene el pro
grama de arranque del sistema operativo.
• kernel. Este directorio contiene todos los archivos necesarios para generar el sistema
operativo:
• servicios. h. Archivo que contiene los prototipos de las funciones que sirven (le interfaz a
las llamadas al sistema. En él se debe incluir la interfaz a las nuevas llamadas.
• lib. Este directorio contiene los programas que permite generar la biblioteca que utilizan los
programas de usuario. Su contenido es:
C.6.6. Bibliografía
Un sistema de archivos con bandas permite crear sistemas de archivos que ocupan varias
particiones. Su estructura distribuye los bloques de datos de forma cíclica por los discos que con
forman la partición lógica, repartiendo la carga de forma equitativa. Para optimizar la eficiencia del
sistema de archivos se puede definir una unidad de almacenamiento en cada banda con un
tamaño mayor que el del bloque del sistema de archivos. Esta unidad, denominada unidad de
distribución (stripe unit), es la unidad de información que se escribe de forma consecutiva en cada
banda. Este valor cambia de un sistema, e incluso archivo, a otro, siendo 64 KB el valor por defecto
en Windows NT.
La Figura C.4 muestra la estructura de un sistema de archivos de bandas que ocupa cuatro
particiones.
Además, este tipo de sistemas de archivos permite incrementar la fiabilidad del sistema de
archivos insertando bloques de paridad con información redundante. De esa forma, si falta un
dispositivo, se puede reconstruir la información mediante los bloques de los otros dispositivos y la
información de paridad. Además, se puede hacer que la partición sea más tolerante a fallos
distribuyendo también la información de la partición del sistema.
Un archivo con bandas queda definido por dos parámetros:
La forma de operar sobre un archivo con bandas es la siguiente. Cuando se va a leer del
archivo, se accede al subarchivo donde indica el puntero de posición del FB. Sobre esa subunidad
se lee lo que reste de la unidad de reparto y luego se pasa a los siguientes subarchivos.
Evidentemente, si se leyera de varias subunidades se podría hacer en paralelo, pero teniendo en
cuenta que la modificación del puntero de posición será la del puntero global.
En un objeto archivo se puede almacenar información de tipo muy distinto: código fuente, pro
gramas objeto, bibliotecas, programas ejecutables, texto ASCII, agrupaciones de registros,
imágenes, sonidos, etc. Desde el punto de vista del sistema operativo, un archivo se caracteriza
por tener una serie de atributos. Dichos atributos varían de tinos sistemas operativos a otros, pero
todos ellos tienen una estructura interna que los describen. En nuestro caso, esa estructura se
denominará nodo_sfp y se muestra en la Figura C.5.
El nodo_sfp usado contiene la siguiente información:
• Identificador único: a nivel interno, el sistema operativo no usa el nombre para identificar a
los archivos, sino un identificador único fijado con criterios internos al sistema operativo.
Este identificador suele ser un número y habitualmente es desconocido por los usuarios.
En el caso de la práctica será un número entero que nunca decrece. Por tanto, hay que
tener un contador para asignar el número de nodo_sfp.
• Identificador del proceso propietario y de su grupo. Son el pid y el gid del proceso creador.
• Protección: información de control de acceso que define quién puede hacer qué sobre el
archivo, el dueño del archivo, su creador, etc.
• Nombre: identificador del archivo en formato comprensible para el usuario. Definido por su
creador.
• Número de subarchivos que componen el archivo con bandas. Definido por su creador.
• Tamaño de la unidad de distribución, en bytes. Este dato indica la cantidad de datos
consecutiva que se escribe en cada subarchivo.
• Tamaño del archivo: número de bytes en el archivo.
• Tiempos: de creación y de última actualización. Esta información es muy útil para
gestionar, monitorizar y proteger los sistemas de archivos.
• Número de veces que el archivo ha sido abierto simultáneamente. Es el número de
sesiones existentes sobre el archivo.
Para desacoplar a los procesos que usen la biblioteca de los descriptores internos de los archivos,
nodo_sfp, y para permitir que un archivo se pueda abrir varias veces sin que haya conflictos con
los accesos, se usará una tabla de descriptores de archivos como la que se muestra en la Figura
C.6.
La tabla tiene cuatro entradas:
• Descriptor de archivo abierto. Es el que obtiene el proceso cuando ejecuta open. Este
descriptor es un número entero entre 0 y MAX_FD. Teniendo en cuenta que 0, 1 y 2 están
reservados para la STDIN, STDOUT y STDERR como en UNIX.
• Número de nodo sfp. Descriptor interno del archivo. Con este descriptor se pueden buscar
los metadatos del archivo en la tabla tnodos_sfp.
• Puntero de posición del archivo. Para esa sesión del archivo abierto incluye la posición del
archivo sobre la que se ejecutan las operaciones de E/S.
• Bandera de ocupado o libre. Está a O cuando está libre y a 1 cuando está ocupado.
Cuando se abre un archivo hay que entrar en la tabla y buscar el primer descriptor libre.
Esa entrada es la ocupada y su descriptor de archivo el devuelto. En la práctica, el número de fd
coincidirá con su posición en las filas de la tabla, El valor del puntero de posición del archivo recién
abierto es cero. El valor del nodo_sfp se extrae del archivo de nodos_sfp, denominado nodos.sfp, y
se incluye en la columna correspondiente. Puesto que, como se ve en la figura, varias entradas de
esta tabla pueden apuntar al mismo nodo E p, ya que se puede abrir un archivo repetidamente sin
ningún problema.
Cuando se cierre un archivo hay que liberar la entrada del descriptor asociado al mismo y
se borran los contenidos de dicha entrada.
Estructuración de la información
Con lo descrito hasta ahora, ya se puede explicar cómo y dónde debe quedar la información
resultante de la ejecución de la práctica. Para simplificar la realización de la práctica, supondremos
que todos los archivos con bandas se crean dentro de un subdirectorio del directorio donde se
ejecuta la práctica, denominado sfp. Por tanto, todos los nombres de archivo con bandas deberían
empezar por /sfp/.
Dentro del directorio . /sfp estarán:
• El archivo nodos. sfp. Todos los accesos a este archivo se hacen usando el tipo nodo_sfp
definido.
• Los subarchivos resultantes de los archivos con bandas creados. Por tanto, cuando se
ejecute un mandato ls. /sfp de UNIX sobre ese directorio, se verán entradas del tipo
mi_fbandas_1 a mi_fbandas_n. No existirá ninguna entrada de archivo con bandas, ya que
esta entelequia existe únicamente a nivel de biblioteca y de metadatos.
Para saber si las operaciones de archivos con bandas funcionan bien, bastará en muchos
casos con monitorizar el directorio /sfp.
Para construir un servidor de archivos similar a un servidor real, se recomienda desarrollar esta
práctica en varias etapas.
Primera etapa
En esta etapa, el alumno debe desarrollar una biblioteca de funciones para manipular los archivos
con bandas. En esta sección se describe la funcionalidad de esta biblioteca, que debe incluir las
siguientes funciones para manejar este tipo de archivos:
Esta función crea el archivo, pero no lo abre. Para abrirlo es necesario hacer la
llamada que se describe a continuación. El efecto de crear_sfp es la aparición de un
archivo vacío con el nombre, protecciones, número de bandas y unidad de distribución
definida en la llamada. Si el archivo ya existe, se trunca. dejándolo vacío de contenido.
Además se crea el nodo_sfp y se incluye, relleno con los datos del archivo, en el archivo
nodos. sfp.
Esta llamada cierra el archivo con bandas y sus subarchivos asociados y decrementa
el contador de aperturas del nodo_sfp. Además se libera su entrada de la tabla de
descriptores de archivos. Si el contador de aperturas del archivo es igual a cero, se elimina
el nodo_sfp del archivo de la tabla de nodo_sfp. Si el identificador de archivo pedido no
existe, debe devolver un error.
• borrar_sfp. Borra un archivo con bandas. Su prototipo es:
Esta llamada comprueba si el archivo está abierto, devolviendo error en este caso. Si
el archivo no está abierto por ningún usuario, se borra el archivo con bandas y los
subarchivos que lo componen y se elimina su nodo_sfp del archivo nodos. sfp.
• leer_sfp. Lee de un archivo con bandas a un buffer de memoria. El archivo debe estar
abierto. Su prototipo es:
Esta función devuelve la longitud de los datos leídos realmente, que será siempre
menor o igual al tamaño pedido. Si el archivo no está abierto, debe ciar un error. Si se
intenta leer más allá del fin de archivo, se deben devolver los datos existentes. l caso de
que no haya ninguno, se devuelve cero.
• escribir_sfp. Escribe un buffer de memoria a un archivo con bandas. El archivo debe estar
abierto. Su prototipo es:
Segunda etapa
Además de la biblioteca anterior, el alumno puede hacer los mandatos sfp_ls y sfp_cat para poder
consultar la información de dichos archivos.
• sfp_ls. Permite ver los metadatos de los archivos con bandas que se han creado hasta el
momento, es decir, todos los existentes en el directorio . /sfp/. La información debe re
presentar al archivo con bandas y no a sus subarchivos. La información a mostrar por cada
archivo es: permisos, gid. uid, longitud, fecha de última escritura y nombre. Similar a un ls
—1 de UNIX:
—rw-r—--r—- 1 jcarrete 937 Sep 23 16:05 Makefile.
• sfp_cat. Permite ver los datos de un archivo con bandas existente en el directorio. /sfp/ por
la salida estándar. El formato del mandato es sfp_cat - /sfp/nombre-archivo. Es similar al
mandato cat de UNIX.
Tercera etapa
Para la realización de esta práctica sólo se deben usar llamadas, al sistema de archivos, tales
como read, write, close, 1seek, o ioctl.
Para obtener información más detallada de estas llamadas se recomienda mirar la
bibliografía de la práctica y los manuales de la máquina para los mandatos de archivos (p. ej.: man
lseek).
C.7.6. Bibliografía
[ 1986] M. Accetta, R. Baron, D. Golub, R. Rashid, A. Tevanian y M. Young. Mach: A New Kernel
Foundation for UNIX Development. Proceedings Summer 1986. USENIX Conference, págs. 93-
112, 1986
[ 19861 M. J. Bach. The Design of the Unix Operating Systems. Prentice-Hall, 1986.
[ 19981 M. Beck, N. Boheme, M. Dziadzka et al. Linux Kernel Internals, 2. edición, Addison-Wesley,
1988.
ICorbato, 19621 F. Corbato, M. Merwin-Dagget y R. Dealey. A Experimental Time-Sharing System.
Proced dings of the 1962 Spring Joint Computer Conference, 1962.
[ 1997] C. Crowley. Operating Systems, A Design-Oriented Approach. Irwin-McGraw-Hill, 1997
[ 1994] H. M. Deitel y M. S. Kogan. The Design of OS/2. Prentice-Hall, 1994
[ 19681 E. W. Disjkstra. The Structure of THE Multiprogramming System. Communications of the
ACM, vol. 11, págs. 341-346, mayo 1968.
[ 2000] L. D. Galli. Distributed Operating Systems: Concepts and Practice. Prentice-Hall, 2000.
[ 1998] J. M. Hart. Win32 System Programming. Addison-Wesley, 1998.
[ 1996] Information technology. Portable Operating System Interfac (POSIX). System Application
Pro gram Interface (API). IEEE Computer Society, 1996.
[ 1996] M. McKusick, K. Bostic, M. Karels y J. Quaterman. The Design and Implementation of the
4.4 BSD UNIX Operating System. Addison-Wesley, 1996
[ 1966] G. H. Mealey, B. 1. Witt y W. A. Clark. The Strucrural Structure of 05/360. IBM System
Journal, vol. 5, núm 1, 1966.
[ 1992] M. Milenkovic. Operating Systems: Concepts and Design. McGraw-Hill, 1992
[ 19901 S. J. Mullender, G. Van Rossum, A. S. Tanenbaum, R. Van Renesse y H. Van Staveren.
Amoeba: A Distributed Operating Systems for the ]990s. IEEE Computer, vol. 23, págs. 44-53
mayo, 1990.
Capítulo 3. Procesos
[ 1986] M. J. Bach. The Design of the UNIX Operating System. Prentice-Hall, 1986.
[ 19961 M. Beck, H. Bohme, M. Dziadzka, U. Kunitz, R. Magnus y D. Verwomer. Linux Kernel Inter
nais. Addison-Wesley, 1996.
[ 1969] L. A. Belady et al. «An Anomaly in Space-Time Characteristics of Certain Programms Run
ning in a Paging Machine», Communications of the ACM, vol. 12, núm. 6, 1969.
[ 1993] H. Custer. Inside Windows/NT. Microsoft Press, 1993.
[ 1987] R. A. Gingeil et al. «Shared Libraries in SunOS», Summer Conference Proceedings.
USENIX Association, 1987.
[ 19971 J. M. Hart. Win32 System Programming. Addison-Wesley, 1997.
[ 1965] K. C. Knowlton. «A Fast Storage Allocator». Communications of ihe ACM, vol. 8, núm. 10,
1965.
[ 1987] M. Maekawa et al. Operating Systems: Advanced Concepts. Benjamin-Cummings, 1987. [
1996] M. K. McKusick, K. Bostic, M. J. Karels y J. 5. Quaterman. The Design and Implementa tion
of the 4.4 BSD Operating System. Addison-Wesley, 1996.
[ 19861 M. J. Bach. The Design of the Unix Operating System. Prentice-Hall 1986.
[ 19971 M. Beck et al. Linux Kernel Internais, 2. edición. Addison-Wesley, 1997.
[ Ari, 19901 Ben Ari. Principies of Concurrent and Distributed Programming. Prentice-Hall, 1990
[ 1965] E. W. Dijkstra. Cooperating Sequential Processes. Technical Report EWD- 123, Technologi
cal University, Eindhoven, Holanda, 1965. Reimpreso en [ 1968], págs. 43-112.
[ 1974j C. A. R. Hoare. Monitors: An Operating Systems Structuring Concept. Communications of
the ACM, vol. 17, núm 10, págs. 549-557, octubre 1974.
[ 19801 B. Lampson y D. Redeil. Experience with Processes and Monitors in Mesa. Communica
tions of the ACM, febrero 1980.
[ 1996] M. K. McKusick, K. Bostic, M. J. Karels y J. S. Quaterman. The Design and impiementa tion
of the 4.4 BSD Operating System. Addison-Wesley, 1996
[ 19991 A. Silberschatz y J. Peterson. Operating Systems Concepts, 5• edición, Addison-Wesley,
1999.
[ 1998] D. A. Solomon. Inside Windows NT, 2. edición, Microsoft Press, 1998
[ 1998] W. Stallings. Operating Systems, Internais and Design Principies, edición, Prentice-Hall,
1998.
Capítulo 6. Interbloqueos
[ 1986] M. J. Bach. The Design of the Unix Operating System. Prentice-Hall, 1986.
[ 1971] E. G. Coffman, M. J. Elphick y A. Shoshani. System Deadlocks. Computing Surveys, vol. 3,
núm. 2, págs. 67-78, junio 1971.
[ 19651 E. W. Dijkstra. Cooperating Sequentiai Processes. Technical Report EWD- 123, Technologi
cal University, Eindhoven, Holanda, 1965. Reimpreso en [ 1968], págs. 43-112.
[ 1969] A. N. Habermann. Prevention of System Deadlocks. Communications of the ACM, vol. 12,
núm. 7, págs. 373-377, julio 1969.
[ 1968] J. W. Havender. Avoiding Deadlocks in Multitasking Systems. IBM Systems Journal, vol. 7,
núm. 12, págs. 74-84, 1968.
[ 19721 R. C. Holt. Sorne Deadiock Properties of Computer Systems. Computing Surveys, vol. 4,
núm. 3, págs. 179-196, septiembre 1972.
[ 1973] J. H. Howard. Mixed Soiutionsfor the Deadiock Problem. Communications of the ACM, vol.
16, núm. 7, págs. 427-430, julio 1973.
[ 19871 M. Maekawa, A. E. Oldehoeft y R. R. Oldehoeft. Operating Systems, Advanced Concepts.
The BenjaminlCummings Publishing Company, 1987.
[ 19961 M. K. McKusick, K. Bostic, M. J. Karels y J. S. Quaterman. The Design and Impiementa tion
of the 4.4 BSD Operating System. Addison-Wesley, 1996.
[ 19791 G. Newton. Deadiock Prevention, Detection and Resolution: An Annotated Bibiiography.
Operating Systems Review, vol. 13, núm. 2, págs. 33-44, abril 1979.
[ 1999] A. Silberschatz y P. B. Galvin. Operating Systems Concepts, 5. edición, Addison-Wes ley,
1999.
[ 1998] W. Stallings. Operating Systems, Internais and Design Principies, 3. edición, Prentice-Hall,
1998.
Capítulo 7. Entrada/salida
[ 19731 D. H. Abernathy et al. Survey of Design Goalsfor Operating Systems, Operating Systems.
Review, vol. 7, núm. 2, págs. 29-48, abril 1973; OSR, vol. 7, núm. 3, págs. 19-34, julio 1973; OSR,
vol. 8, núm. 1, págs. 25-35, enero 1974.
[ 19951 5. Akyurek y K. Salem. Adaptive Biock Rearrangement. ACM Transactions on Computer
Systems, 13(2), págs. 89-121, mayo 1995.
[ 19811 D. A. Anderson. Operating Systems. COMPUTER, vol. 14, núm. 6, págs. 69-82, junio 1981.
[ 19961 M. Andrews. C++ Windows NT Programming, 735 páginas, M&T Press, 1996.
[ 1986] J. A. Anyanwu y L. F. Marshall. A Crash Resistant UNIX File System, Software - Practice
and experience, vol. 16, núm. 1, págs. 107-118, febrero 1986.
[ 1990J American Telephone y Telegraph Company. UNIX System V release 4: programmer’s
guide:
POSIX conformance. Prentice-Hall, 1990.
[ 1986] M. J. Bach. The Design of the UNIX Operating System. Prentice-Hall, 1986.
Bailey, 1981] K. A. Bailey etal. UserDefined Files. Operating Systems Review, vol. 15, núm. 4,
págs. 75-81, octubre 1981.
[ 1996] M. Beck, H. Bohme, M. Dziadzka, U. Kunitz, R. Magnus y D. Verwomer. Linux Kernel ínter
nais. Addison-Wesley, 1996.
[ 1993] P. Biswas, K. K. Ramakrishnan y D. Towsley. «Trace Driven Analysis of Wnte Caching
Policies for Disks». Proceedings of the 1993 ACM SIGMETRICS Conference on Measurement, and
Modeling of Computer Systems, págs. 13-23, mayo 10-14, 1993.
[ 1995] T. Blackwell, J. Harris y M. Seltzer. «Heuristic Cleaning Algorithms in Log-Structured File
Systems». Proceedings of the USENIX 1995 Technical Conference, págs. 277-288, enero 16-20,
1995.
[ 1995] S. H. Bokhari. The Linux Operating System, Computer, vol. 28, núm. 8, págs. 74-79, agosto
1995.
[ 19891 A. Braunstein, M. Riley y J. Wilkes. «Improving the Efficiency of UNIX File Buffer Ca ches».
Proceedings of the Twelfth ACM Symposium on Operating Systems, Principies, págs. 71-82, 1989.
[ 1989] R. Brent. Efflcient implementation of the First-Fit Strategy for Dynamic Storage Allocation.
ACM Transactions on Programming Languages and Sytems, julio 1989.
[ 19861 0. P. Brereton, Management of Replicated Files in a UNIX Environment, Software - Practice
and Experience, vol. 16, núm. 4, págs. 771-780, agosto 1986.
[ 1969] N. Chapin. Common File Organization Techniques Compared. FJCC, vol. 35, págs. 413-
422, 1969.
[ 1995] P. M. Chen y E. K. Lee. «Striping in a RAID Level 5 Disk Array». Proceedings of the 1995
ACM SIGMETRICS Joint International Conference on Measurement and Modeling of Computer
Systems, págs. 136-145, mayo 15-19, 1995.
[ 1988] K. Christian. The UNIX Operating System. Wiley-Interscience, 1988.
[ 19851 D. Davcev y W. A. Burkhard. «Consistency and Recovery Control for Replicated Files».
Proceedings of the Tenth Sysposium on Operating Systems Principies, vol. 19, núm. 5, págs. 87-
96, diciembre 1985.
[ 1995] W. Davy. «Method for Eliminating File Fragmentation and Reducing Average, Seek Times in
a Magnetic Disk Media Environment». USENIX, 1995.
[ 1989] F. Douglis y J. Ousterhout. «Log-Structured File Systems», Proceedings of the 34th COMP-
CON Conference, págs. 124-129, febrero 1989.
[ 1987] M. J. Folk y B. Zoellick. File Structures. Addison-Wesley, 1987.
[ 1985] E. Foxley. UNIX for super-users. International Computer Science Series, págs. 213,
Addison- Wesley, 1985.
[ 1996] A. Frish. Essential UNIX Administration, 2. edición, O’Reilly, 1996.
[ 1994] B. Goodheart y J. Cox. The Magic Garden Explained: The Internais of UNIX System V
Release 4, an Open Systems Design, págs. 664, Prentice-Hall, 1994.
[ 1991] A. Goscinski. Distributed Operating Systems: The Logical Design. Addison-Wesley, 1991.
[ 198 lj J. N. Gray. «The Transaction Concept: Virtues and Limitations». Proceedings of the
internatio nal Conference on Very Large Data Bases, págs. 144-154, 1981.
[ 1994] M. Abadi y R. Needham. «Prudent Engineenng Practice for Cryptographic Protocols». Proc,
of the IEEE Symp. On Security and Privacy, págs. 122-136, IEEE Computer Society Press, 1994.
[ 1973j D. 1-1. Abernathy et al. Survey of Design Goalsfor Operating Systems. Operating Systems
Review, vol. 7, núm. 2, págs. 29-48, abril 1973; OSR, vol. 7, núm. 3, págs. 19-34, julio 1973; OSR,
vol. 8, núm. 1, págs. 25-35, enero 1974.
[ 1993] D. Arnold. UNIX Security. A Practical Tutorial. McGraw-Hill, 1993.
[ et al., 19761 C. R. Attanasion et al. Penetrating an Operating System: A Study of VM/370 Inte
grity, 113M Systems Journal, vol. 15, núm. 1, págs. 102-116, 1976.
[ 1986] M. J. Bach. The Design of the UNIX System. Prentice-Hall, 1986.
[ 1994] M. Blaze. «Key Management in an Encrypting File System». Proceedings of the USENIX
Summer 1994 Technical Conference, págs. 27-35, junio 6-10, 1994.
[ 19831 D. Bell. «Secure Computer Systems: a Retrospective». Proc. of the IEEE Symp. on
Security and Privacy, págs. 161-162, IEEE Computer Society Press, 1993.
[ 1991] S. Bellovin y M. Merrit. «Limitations of the Kerberos Authentication System». Proc, of the
Usenix Conference, págs. 253-267, invierno 1991.
[ 1995] A. Berman, y. Bourassa y E. Selberg. «TRON: Process-Specific File Protection for the UNIX
Operating System». Proceedings of the USENIX 1995 Technical Conference, págs. 165-175, enero
16- 20, 1995.
[ 19891 D. Brewer y M. Nash. «The Chinese Wall Security Policy». Proc, of the JEEE Symp. on
Securily and Privacy, págs. 206-214, IEEE Computer Society Press, 1989.
[ 1994] Common Criteria Editorial Board. Common Criteriafor Information Technology Security Eva
luations, versión 0,6, abril 1994.
[ 1987] D. Clark y D. Wilson. «A Comparison of Conimercial and Military Computer Security
Policies». Proc, of the IEEE Symp. on Securily and Privacy, págs. 184-194, IEEE Computer Society
Press, 1987.
[ l983a] IEEE Computer. Special issue: Data Security in Computer Networks, IEEE Computer, vol.
16, núm. 2, febrero 1983.
[ l983b1 IEEE Computer. Speciai issue: Computer Security Technology, IEEE Computer, vol. 16,
núm. 7, julio 1983.
[ 19761 Computer Surveys. Special issue: Reliable Software II: Fault-Tolerant Software. Computer
Surveys, vol. 8, núm. 4, diciembre 1976.
[ 1992] D. Curry. UNIX System Security. A Guidefor Users and System Administrators. Addison-
Wes ley, 1992.
[ 1993] B. DeDecker. Unix Securily and Kerberos. Lecture Notes in Computer Science, vol. 741,
págs. 257-274, 1993.
[ 1984] H. M. Deitel. An Introduction to Operating Systems. Addison-Wesley, 1984.
[ 19791 L. F. DeLashmutt. Steps toward a pro vably secure operating system. COMPCON, págs.
40-43, verano 1979.
[ 1982] D. Denning. Cryptography and Data Security. Addison-Wesley, 1982.
[ 1990] D. Denning. Computers Under Attack. Addison-Wesley, 1990.
[ 19961 D. Denning y D. Branstad. A taxonomy of Key Escrow Encryption Systems. Communication
of the ACM, vol. 39 núm. 3, págs. 34-40, marzo 1996.
[ 1990] D. Farmer y E. Spafford. «The COPS Security Checker System». Proc, of the Usenix
Summer Conference, págs. 165-170, 1990.
[ 1990] R. Farrow. UNIX System Security. How to Protect your Data and Prevent Intruders.
Addison- Wesley, 1990.
[ 1989] P. Fites et al. Control and Securily of Computer Information Systems. Computer Science
Press, 1989.
[ 1982] C. Foster. Cryptoanalysis for Microcomputers. Hayden Books, 1982.
[ 1991] 5. Garfinkel y G. Spafford. Practical UNIX Securily. O’Reilly & Associates, Inc., 1991.
[ 1997] S. Garfinkel y G. Spafford. Web Securily & Commerce. O’Reilly & Associates, Inc., 1997.
[ 1988] M. Gasser. Building a Secure System. Van Nostrand Reinhoid, 1988.
[ 1991] A. Goscinski. Distributed Operating Systems. Addison-Wesley Publishing Company, 1991.
[ 1968] R. Graham. Protection in an Information Processing Utility. Communications of the ACM,
vol. 11, núm. 5, págs. 365-369, mayo 1968.
[ 1984] F. T. Grampp y R. H. Morris. UNIX Operating System Securiiy. BLTJ, vol. 63, núm. 8, parte
2, págs. 1649-1672, octubre 1984.
[ 1985] M. Harrison. Theoreticai Issues Concerning Protection in Operating Systems. Advances in
Computers, vol. 24, págs. 61-100, 1985.
[ 1990] L. Hoffman. Rogue Pro grams: Viruses, Wor,ns, Trojan Horses. Van Nostrand Reinhold,
1990.
[ 1978] A. K. Jones. «Protection Mechanisms and the Enforcement of Security Policies». En E.
Bayer et al., eds. Operating Systems: An Advanced Course, págs. 228-250, Springer-Verlag,
Berlín, 1978.
[ 1984] P. Karger y A. Herbert. «An Augmented Capability Architecture to Support Lattice Security».
Proc, of the IEEE Symp. Qn Security and Privacy, págs. 2-12, IEEE Computer Society Press, 1984.
[ 1990] P. Karger et al. «A VMM Security Kernel for the VAX Architecturex.. Proc, of the IEEE
Symp. on Securily and Privacy, págs. 2-19, IEEE Computer Society Press, 1990.
[ 1988] S. Krakowiak. Principies of Operating Systems. MIT Press, 1988.
[ 1999] P. Lambert. Implementing Security on Linux. Journal of System Administration, vol. 8, núm.
lo, págs. 67-70, octubre 1999.
[ 1981] L. Lamport. Password Authentication with Insecure Communication. Communications of the
ACM, vol. 24, núm. 11, págs. 770-772, noviembre 1981.
[ 1974] B. Lampson. Protection. ACM Operating Systems Review, vol. 8, núm. 1, págs. 18-24,
enero 1974
[ 19811 C. Landwher. Formal Models for Computer Security. Computer Surveys, vol. 13, núm. 3,
págs. 247-278, septiembre 1981.
[ 19881 T. Lee. «Using Mandatory Integrity to Enforce Commercial Security». Proc, of the IEEE
Symp. on Securiiy and Privacy, págs. 140-146, IEEE Computer Society Press, 1988.
[ 1976] T. A. Linden. Operating System Structures to Support Security and Reliable Software.
Compu ting Surveys, vol. 8, núm. 4, págs. 409-445, diciembre 1976.
[ 1989] M. Luby y C. Rackoff. A study of password security. Journal of Cryptology: the Journal of the
International Association for Cryptologic Research, vol. 1, núm. 3, págs. 15 1-158, 1989.
[ 1991] T. Mayfield. Integrity in an Automated Information System. NCSC C Technical Report, págs.
79-91, septiembre 1991.
[ 1974] W. S. McPhee. Operating System Integrity in OS/VS2. IBM Systems Journal, vol. 13, núm.
3, págs. 230-252, 1974.
[ 19821 C. H. Meyer y 5. M. Matyas. Cryptography. John Wiley & Sons, Nueva York, 1982.
[ 19921 J. Millen. «A resource Allocation Model for Denia! of Service». Proc. of the IEEE Symp. on
Security and Privacy, págs. 137-147, IEEE Computer Society Press, 1992.
[ 1987] S. P. Miller, B. C. Neuman, J. 1. Schiller y J. H. Saltzer. Kerberos Authentication
andAuthoriza tion System. MIT Project Athena, Cambridge, Massachusetts, diciembre, 1987.
[ 1979] R. Monis y K. Thornpson. Password Securily: A Case History. Communications of the ACM,
vol. 22, núm. 11, págs. 594-597, noviembre 1979.
[ 1982] R. H. Monis. Cryptographic Features of the UNIX Operating System. Cryptologia, vol. 6,
núm. 3, julio 1982.
[ 1986] S. J. Mullender y A. S. Tanenbaum. The Design of a Capabiliiy-Based Distributed Opera
ting System. IEEE Computer, vol. 29, núm. 4, págs. 289-299, 1986.
[ 1990] M. Nash y K. Poland. «Sorne Conundrurns Concerning Separation of Duty». Proc. of the
IEEE Symp. on Security and Privacy, págs. 201-207, IEEE Cornputer Society Press, 1990.
[ 1977] National Bureau of Standards. Data Encryption Standard. FIPS Publication 46, enero 1977.
[ 1985] Nacional Computer Secunty Center. Orange Book, diciembre 1985.
[ 1990] P. Neurnann. «Towards Standars and Criteria for Critical Computer Systems». Proc, of the
COMPASS Conference, 1990.
[ 19811 D. Parker. Computer Security Management. Reston Books, 1981.
[ 1997] C. P. Pfleeger. Security in Computing, 2. edición. Prentice-Hall, 1997.
[ 19741 U. J. Popek. Protection Structures. IEEE Computer, vol. 7, núm. 6, págs. 22-33, junio 1974.
[ 1979] G. J. Popek et al. UCLA data secure UNIX. NCC 1979, vol. 48, págs. 355-364.
[ 1994] J. Richter. Advanced Windows NT. Microsoft Press, 1994.
[ 1978] R. L. Rivest eta!. On Digital Signatures and Public Key Cryptosystems. Cornmunications of
the ACM, vol. 2!, núm. 2, págs. 120-126, febrero 1978.
[ 1969] R. F. Rosin. Supervisory and Monitor Systems. Computing Surveys, vol. 1, núm. 1, págs.
37-54, marzo 1969.
[ 1979] L. H. Seawright y R. A. MacKinnon. VM/370 - a Study of Muftipliciiy & Usefu!ness. IBM
Systems Journal, vol. 18, núm. 1, págs. 4-17, 1979.
[ 19961 B. Schneider. Applied Cryptography, 2. edición, John Wiley & Sons, 1996.
[ 1949] C. Shannon. Communication Theory of Secrecy Systems. Bel! Systems Technical Journal,
vol. 28, págs. 659-715, octubre 1949.
[ 1998] A. Silberschatz y P. B. Galvin. Operating System Concepts, edición. Addison-Wesley, 1998.
[ 19941 G. Simmons. Cryptoana!isis and Protoco! Failures. Communications of the ACM, vol. 37,
núm. 1!, págs. 54-64, noviembre 1994.
[ 1966] A. Sinkov. Elementary Cryptoana!isis: A Mathematical Approach. Math Association of Ame-
rica, 1996.
[ 1998] D. A. Solomon. Inside Windows NT, 2. edición, Microsoft Press, 1998.
[ 1995] W. Stallings. Operating Systems, 2. edición. Prentice-Hall, 1995.
[ 1999] M. Taber y R. Roger. Maximum Linux securily: a hacker’s guide toprotecting your Linux
server and network. Macmillan Computer Publishing, 1999.
[ 1992] A. 5. Tanenbaum. Modern Operating Systems. Prentice-Hall, 1992.
[ 1997] A. S. Tanenbaum y A. Woodhull. Operating Systems Design and Implementation, 2. edi
ción. Prentice-Hall, 1997.
[ Tassel, 1972] D. Van Tassel. Computer Securiiy Management. Prentice-Hall, 1972.
[ 1979] W. Ware. Security Contro!sfor Comp uter Systems. Rand Corp Technical Report R-609-1,
octu bre 1979.
[ 1984] W. Ware. Information System Securily and Privacy, Communications of the ACM, vol. 27,
núm. 4, págs. 316-32!, abril 1984.
[ 1995] W. Ware. «A Retrospective on the Criteria Movement». Proc, of the National Information
Systems Security Conference, págs. 582-588, 1995.
[ 1992] D. A. Willcox y 5. R. Bunch. «A Tool for Covert Storage Channel Analysis of the UNIX
Kernel». J5th Nationa! Computer Security Conference, págs. 13-16, Baltimore Convention Center,
octubre 1992.
{Wilkes, 19821 M. Wilkes. «Hardware Support for Memory Protection». ACM Symp. On
Architectural Sup portfor Programming Languages and Operating Systems, págs. 107-1 16, 1982.
[ 18951 P. H. Wood y S. G. Kochan. UNIX System Securily. Hayden UNIX System Library, Hayden
Books, 1985.
[Accetta, 1986] M. Accetta, R. Baron. D. Golub, R. Rashid, A. Tevanian y M. Young. Mach: A New
Kernel Foundationfor UNIX Development. Proceedings Summer 1986. USENIX Conference, págs.
93-112, 1986.
[ 1994] K. P. Birman y R. Van Renesse. Reliable Distributed Computing with the Isis Toolkit. Nueva
York: IEEE Computer Society Press, 1994.
[ 1996a] K. P. Birman y R. Van Renesse. Software for Re/jable Networks. Scientific American
274:5, págs. 64-69, mayo 1996.
[ 1996b] K. P. Birman. Building Secure and Reliable Networks Applications. Manning Publications
Co, 1996.
[ 19841 A. D. Bine! y B. J. Nelson. Implementig Remote Procedure Ca/ls. ACM Transactíons on
Com puter Systems, vol 2, págs. 39-59, febrero 1984.
[ 20011 G. Coulouris, J. Dollimore y T. Kindberg. Distributed Systems. Concepts and Design, 3.
edición, Addison-Wesley, 2001.
[ 1988] C. Fidge. Timestamps in Message-Passing Systems That Preserve the Partial Ordering.
Procee dings of the Eleventh Australian Computer Science Conference, 1988.
[ 20001 L. D. Galli. Distributed Operating Systems: Concepts and Practice. Prentice-Hall, 2000.
[ 1997] A. S. Grimshaw, Wm. A. Wulf y the Legion Team. The Legion Vision of a Wordwide Virtual
Computer. Communications of the ACM, 40(1), enero 1997.
[ 19991 Proceedings of the IEEE, marzo 1999. Número especial sobre Memoria compartida
distribuida. [ 19941 P. Jalote. Fault Tolerance in Distributed Systems. Prentice-Hall, 1994.
[ 19781 L. Lamport. Time, Clocks, and the Ordering of Events in a Distributed System. Communica
tions of the ACM 21:7, págs. 558-565, abril 1978.
[ 19861 K. Li. Shared Virtual Memory on Loosely Coupled Multiprocessors. Tesis Doctoral,
Universidad de Yale, 1986.
[ 19891 F. Mattern. Tkime and Global States in Distributed Systems. Proceedings of the
International Workshop on Parallel and Distributed Algorithms. Amsterdam, 1989.
[ 1990] S. Mullender, G. Van Rossum, A. 5. Tanenbaum, R. Van Renesse y H. Van Staveren.
Amoeba: A Distributed Operating Systems for the 1990s. IEEE Computer, vol. 23, núm. 5 págs. 44-
53, mayo 1990.
[ 1993] S. Mullender (Ed.). Distributed Systems, 2. edición, ACM Press, Nueva York, 1993.
[ 1999] R. Orfali, D. Harkey y J. Edwards. Client/Server Survival Guide, 3. edición, Wiley Computer
Publishing, 1999.
[ 19961 R. Otte, P. Patrick y M. Roy. Understanding CORBA. Prentice-Hall, 1996.
[ 19981 J. M. Protíc, M. Tomasevic y V. Milutinovic. Distributed Shared Memory: Concepts and
Systems. IEEE Computer Society Press, Los Alamitos, California, 1998.
[ 19811 G. Ricart, A. K. Agrawala. An Optimal Algorithm for Mutual Exclusion in Computer
Networks. Communications of the ACM, vol. 24, págs. 9-17, enero 1981.
[ 1988] M. Roizer, V. Abrossimov, F. Armand, 1. Boule, M. Gien, M. Guillemont, F. Herrmann, C.
Kaiser, P. Leonard, S. Langlois y W. Neuhauser. Chorus Distributed Operating System. Computing
Systems, vol. 1, págs. 305-379, octubre 1988.
[ 1992] W. Rosenberry, D. Kenney y G. Fisher. Understanding DCE. O’Reilly, 1992.
[ 1999] W. Rubin, M. Brain y R. Rubin. Understanding DCOM. Prentice-Hall, 1999.
[ 20001 W. Stallings. Data and Computer Communications, 6. edición. Prentice-Hall, 2000.
[ 1999] W. R. Stevens. UNIX Network Programming. Prentice-Hall, 1999.
[ 1995] A. S. Tanenbaum. Distributed Operating Systems. Prentice-Hall, 1995.
[ 1996] A. S. Tanenbaum. Computer IVetworks, edición. Prentice-Hall, 1996.
[ 1996] M. Beck, H. Bohme, M. Dziadzka, U. Kunitz, R. Magnus y D. Verworner. Linux Kernel ínter
nals. Addison-Wesley, 1996.
[ 19971 P. Comes. The Linux A-Z. Prentice-Hall, 1997.
[ 19981 A. Silberschatz y P. B. Galvin. Operating System Concepts, a edición, Addison-Wesley,
1998.
[ 1987] A. S. Tanenbaum. Operating Systems: Design and implementation, . edición. Prentice- Hall,
1987.
[ 1997] A. S. Tanenbaum y A. Woodhull. Opera:ing Systems: Design and Implementation, 2. edi
ción. Prentice-Hall, 1997.
[Baker, 1997] A. Baker. The Windows NT Device Driver Book: A Guide for Programmers, Prentice-
Hall,
1997.
[ 1993] H. Custer. Inside Windows NT, l. edición, Microsoft Press, 1993.
[ 1995] H. Custer. Inside Windows NT File System, Microsoft Press, 1995.
IiDekker, 1999] E. N. Dekker y J. M. Newcomer. Developing Windows NT Device Drivers: A Pro
grammer ‘s
Handbook. Addison-Wesley, 1999.
[ 2000] K. Ivens. Managing Windows NT Logons. O’Reilly & Associates, Inc., 2000.
[ 2000] A. G. Lowe-Norris. Windows 2000 Active Directory. O’Reilly, 2000.
[ 1999] J. M. Martínez Delgado y X. Martínez Balart. Windows NT 4.0 Server: Guía Avanzada.
Prentice-Hall, 1999.
‘ 1997] S. Mitchell. Inside the Windows 95 File System. O’Reilly & Associates, Inc., 1997
[ 1997] R. Nagar. Windows NT File System Internals: A Developers Guide. O’Reilly & Associates,
Inc.,
1997.
[ 1997] E. Pearce. Windows NT in a Nutshell: A Desktop Quick Reference for System
Administration.
O’Reilly & Associates, Inc., 1997.
[ 1998] D. A. Solomon. Inside Windows NT, 2. edición, Microsoft Press, 1998.
Núcleo (kernel) del sistema Peor ajuste (worst-Jit), 185 LRU, 202
operativo, 34 Periféricos, 23-25 óptima, 201
Núcleo seguro, 514 perror, 119 reloj, 202
Número PIC (Position-Independent segunda oportunidad, 202
de subarchivos, 700 Code). de seguridad, 505
mágico, 424 Véase Código independiente comercial, 507
Objeto de memoria, 178 de militar, 505
Objetos la posición de seguridad militar, 505
de control, 623 pipe, 259 compartimento, 506
de planificación, 623 Pirata, 501 dominancia en, 506
open, 259, 441 Pistas, 375 niveles de seguridad, 505
opendir, 452 Planificación Políticas
OpenMutex, 300 de procesos distribuidos, 601 de actualización de cache,
OpenProcess, 146 en Windows NT, 626 605
OpenSemaphore, 295 Planificación de procesos, de reemplazo de cache, 605
OpenThread, 153 102-109 de reparto de carga, 600
Operación a corto plazo, 102 Prácticas de Sistemas
signal sobre un semáforo, 237 a largo plazo, 102 Operativos, 669
wait sobre un semáforo, 237 a medio plazo, 102 archivos con bandas, 699
Operaciones algoritmos de (véase comunicación con sockets,
de un manejador de disco IDE algoritmos de 685
en planificación) gestión de archivos, 677
LINUX, 381 en POSIX, 107 gestión de procesos, 673
sobre regiones, 182 en sistemas de tiempo real, manejo de interrupciones, 679
Orange Book, 524 106 programación de scripts, 670
Ordenación de eventos, 593 en Windows, 108 sistema multiprogramado, 690
OS/2, 43 Planificación del disco, 382 Predicción de interbloqueos,
OS/360, 69 política CSCAN, 383 337
Overlays, 172 política del ascensor, 382, 383 algoritmo del banquero, 341
Página, 188 política FCFS (First Come algoritmo para una
Paginación, 17, 188-197 First representación me diante un
por demanda, 199 Served), 382 grafo de recursos, 339
Páginas política LOOK, 383 algoritmos de predicción, 339
de intercambio, 17 política SCAN, 383 estado seguro, 338
virtuales, 17 política SSF (Shortest Seek Prepaginación, 200
Paquete, 564 First), 382 Prevención de interbloqueos,
Partición, 459 Planificador, 82, 94, 102 334
activa, 378 Política espera circular, 337
de intercambio, 459 de actualización, 12 exclusión mutua, 334
raíz, 459 de asignación de marcos de retención y espera, 335
Particiones extendidas, 459 página, sin expropiación, 336
Paso de mensajes, 248 204-205 Primero que ajuste (first-fit),
almacenamiento, 250 asignación dinámica 204-205 185
colas de mensajes, 249 asignación fija, 204 Prioridad, 626
colas de mensajes POSIX, de asignación de memoria, base, 615
274 170 Privilegios, 55
comunicación cliente-servidor mejor ajuste (best-fit), 185 Problema de los lectores-
con peor ajuste (worst-fit), 185 escritores, 230
paso de mensajes, 252 primero que ajuste (first-fit), resolución con mutex, 247
flujo de datos, 248 185 resolución con semáforos, 241
mailslots de Win32, 303 de escritura diferida, 483 Problema del productor-
nombrado, 249 de escritura en la cache de consumidor, 230
operación send, 248 UNIX, 483 resolución con colas de
productor-consumidor con de escritura inmediata, 482 mensajes
paso de de escritura retrasada, 483 POSIX, 277
mensajes, 251 de escritura retrasada resolución con mutex y
puertos, 249 perezosa, 635 variables
secciones críticas con paso de de extracción, 11 condicionales, 245
men sajes, 250 de ubicación, 11 operación receive, 248
sincronización, 250 de reemplazo, 11, 201-205
pause, 143 FIFO, 202