Implementación y Operación de Un Cluster HPC Utilizando Laboratorios de Computadoras en Horarios de Inactividad
Implementación y Operación de Un Cluster HPC Utilizando Laboratorios de Computadoras en Horarios de Inactividad
Implementación y Operación de Un Cluster HPC Utilizando Laboratorios de Computadoras en Horarios de Inactividad
Resumen: Este trabajo presenta un reporte preliminar de una plataforma para facilitar a alumnos, docentes e
investigadores el acceso a clusters HPC a costos accesibles utilizando recursos existentes en las instituciones donde
desempeñan sus actividades.
Los laboratorios de informática de las universidades constituyen un reservorio de potencia de procesamiento.
Estos pueden ser utilizados para conformar un cluster de cálculo de alto desempeño en los horarios que no se
encuentran ocupados.
De esta manera se puede al mismo tiempo reducir los costos de poseer un cluster HPC, ampliar el abanico de
servicios y posibilidades que la institución brinda a sus miembros y aumentar la utilización de los laboratorios
mejorando su amortización y por ende justificando mejor la inversión.
Palabras Claves: Cluster HPC, cluster de alto rendimiento, utilización recursos existentes entorno educativo, cluster
by night, cluster en laboratorio.
Abstract: This work presents a preliminary report on a platform to implement an affordable HPC cluster to
provide access to students, teacher and investigators, by using resources already available in the institutions
where they perform their activities.
The universities’ computer laboratories are a processing power reservoir. They can be used to build a high perfor-
mance computing cluster during their inactive periods of time.
This way it is possible at the same time to reduce HPC cluster’s cost, to widen the institution’s variety of services and possi-
bilities for its members, and to increase the lab usage, improving its amortization and thus better justifying the investment.
Keywords: Cluster HPC, high performance cluster, use existing resources educational environment, cluster by night, lab cluster.
Research Council, 2004 y 2005; Bose et al., 2010). dores no pueden desarrollar tareas de I+D+i que
Esto presenta una oportunidad para que centros requieran alta capacidad de procesamiento. Por
de investigación e instituciones educativas universi- otro lado, quienes realmente necesiten hardware
tarias se desarrollen y mantengan actualizados en la dedicado, pueden utilizar este sistema como una
provisión de altas capacidades de cálculo y a la vez la herramienta de medición que les permita justificar
amenaza de quedar relegados como meros especta- objetivamente dicha necesidad. Adicionalmente
dores en el avance de los conocimientos en diversas serviría para capacitar los recursos humanos nece-
áreas como las mencionadas previamente. sarios para administrar y mantener el cluster.
Originalmente esta capacidad era provista por Para lograr la implementación de un sistema
equipos y sistemas que resultaban costosos, a como el mencionado es preciso resolver algunos
medida del cliente, fabricados por empresas como problemas. El acceso físico a las máquinas es uno
Cray, Convex, Tera Computer, SGI, IBM y HP. de ellos, dado que típicamente los laboratorios e
En 1994, desde el Goddard Space Flight Center incluso los edificios que los contienen se encuen-
de la NASA, hicieron su aparición los clusters del tran cerrados por las noches y los días Domingo y
proyecto Beowulf (Gropp et al., 2003; Ridge et al., feriados todo el día. Otro problema es la configu-
1997) que integran PCs, Linux y una red de comuni- ración de los equipos que debe ser ajustada con
cación altamente difundida (Ethernet) para formar cuidado para no afectar el normal funcionamiento
una computadora paralela y que bajaron dramática- del laboratorio para su función principal. A ésto se
mente la barrera para la posesión de una supercom- puede agregar restricciones derivadas de políticas
putadora (Adams y Vos, 2002). de los administradores de los laboratorios (por
No obstante hay numerosas instituciones que ejemplo no modificar el contenido del disco rígido)
siguen impedidas de superar esta barrera por no y de los administradores de la red (por ejemplo
contar con los recursos necesarios (dinero, equipos, impidiendo acceso desde Internet), entre otros.
PCs, personal capacitado) para construir y operar un Este reporte presenta un enfoque para trans-
High Performance Computing cluster (en adelante formar un laboratorio de computadoras en un
llamado cluster HPC) dedicado. cluster HPC durante sus horarios de inactividad y los
Sin embargo, muchas mantienen vastos laborato- resultados parciales de su implementación en uno
rios de computación donde están congregados todos de los laboratorios de la Facultad Regional Tucumán
los ingredientes físicos necesarios para la operación de la Universidad Tecnológica Nacional.
de un cluster HPC tipo Beowulf que podrían ser El objetivo de este trabajo es proponer una
utilizados a tales fines en los horarios que no están solución que:
siendo ocupados para sus funciones tradicionales, 1. Permita el empleo de equipamiento e infraes-
por ejemplo, durante la noche o los días feriados. tructura existentes.
Si bien la capacidad de un sistema como el suge- 2. Sea escalable.
rido sería inferior a la de un sistema con recursos 3. Sea reutilizable (en otras instituciones educa-
dedicados, es justo lo indicado para numerosas tivas, por ejemplo).
instituciones que, por razones de volumen de 4. No requiera conocimientos avanzados de
trabajo y/o de presupuesto, no pueden justificar sistemas operativos distribuidos para su configura-
el costo de tener un cluster HPC dedicado y como ción, administración y operación.
consecuencia sus alumnos, docentes e investiga- 5. Posea una interfaz para el usuario sencilla de utilizar.
6. Sea útil para la investigación y la docencia. máquinas) fue vista como una forma de superar las
7. Utilice software gratuito y de código abierto limitaciones humanas en lo que a velocidad, comple-
posible de mejorar. jidad y capacidad de cálculo se refiere. Dicho de otro
8. Posea robustez y presente un desempeño modo, al programar máquinas para que realicen
estable y predecible. los cálculos por nosotros podemos obtener resul-
9. Sea lo más independiente posible de la admi- tados confiables procesando cantidades de datos,
nistración del laboratorio y lo menos invasiva complejidades de algoritmos y en tiempos huma-
posible de su configuración preestablecida. namente imposibles, accediendo así a información
La estructura de este documento presenta una breve que está más allá de nuestro alcance natural. Y esta
reseña sobre clusters HPC y los trabajos relacionados, necesidad de llegar más lejos siempre estuvo empu-
una descripción estructural y funcional de la solución jando los límites para aumentar la potencia de esta
propuesta, la plataforma de evaluación utilizada para herramienta. Ya sea para probar nuevos enfoques,
prueba del concepto, los resultados obtenidos y por para incrementar el detalle de alguna simulación o
último las conclusiones y líneas de trabajo futuro. incluso con fines publicitarios (por ejemplo Deep
Blue de IBM vs. Kasparov), hay una constante avidez
TRABAJOS RELACIONADOS para expandir las capacidades de las computadoras
a nuestra disposición.
En este trabajo sólo serán evaluadas las solu- Las aplicaciones para este tipo de maquinaria
ciones gratuitas y de código abierto buscando son numerosas, al punto que no resultaría práctico
respectivamente el menor costo posible y brindar citarlas en extensión, pero para tener una idea de
un aspecto más de utilidad a la docencia e investi- las dimensiones y variedad se mencionan como
gación habilitando la posibilidad que estos sistemas ejemplos las siguientes:
sean evaluados y mejorados. Finanzas: aplicaciones para medir riesgos (inclu-
yendo catástrofes como terremotos, huracanes,
RESEÑA DE CLUSTERS HPC enfermedades, etc.), estimar tasaciones, simular
balances, generadores de números aleatorios,
En esta sección se intenta explicar qué es HPC y cómo puentes brownianos, soluciones de ecuaciones
se implementa, sus características sobresalientes, las diferenciales parciales, exploración y extracción de
necesidades que atiende, las oportunidades que genera, información de big data.
su propósito y las soluciones alternativas a su uso. Defensa e Inteligencia: visualización y análisis
Para una mejor comprensión se puede proveer en geoespacial, “recuperación” de contraseñas, análisis
este punto, como una definición aproximada y a priori de video para reconocimiento y seguimiento de
del concepto de cluster, como un conjunto de máquinas objetos, búsqueda de objetos en videos e imágenes
que trabajan concertadamente entre sí (Slater, 1997). en vivo y diferido, modelado de propagación de
señales electromagnéticas para ambientes urbanos
COMPUTACIÓN DE ALTO DESEMPEÑO - HIGH y terrenos complejos.
PERFORMANCE COMPUTING Industriales: CAD, dinámica de fluídos, simu-
laciones y análisis para mecánicas estructurales,
Desde sus comienzos teóricos la informática paquetes multifísicos, simuladores para diseño de
(tratamiento automático de datos por medio de circuitos digitales de radio frecuencia, microondas
y alta velocidad, simulaciones de campos electro- supercomputers and software to run on super-
magnéticos en circuitos, softwares para acelerar el computers. A main area of this discipline is deve-
proceso de litografía, modelado electromecánico. loping parallel processing algorithms and software:
Aplicaciones para la industria del entretenimiento programs that can be divided into little pieces so
y televisión, tales como modelado 3D, animación that each piece can be executed simultaneously by
y rendering, corrección de colores, restauración y separate processors (http://www.webopedia.com/
remastering de imágenes, efectos visuales, edición TERM/H/High\_Performance\_Computing.html).
y trascodificación de video, sistemas de gráficos en High-performance computing (HPC) is the use of
el aire y climatológicos. Aplicaciones para la indus- parallel processing for running advanced applica-
tria petrolera, tales como modelaje, procesamiento tion programs efficiently, reliably and quickly. The
e interpretación sísmica y modelaje de reservorios. term applies especially to systems that function
Investigación: aplicaciones bioinformáticas para above a teraflop or 1012 floating-point operations
mapeo de secuencias, alineación de nucleótidos, per second. The term HPC is occasionally used as a
cuantificar la contribución de la variación genética synonym for supercomputing, although technically a
en la variación genotípica, aplicaciones para cien- supercomputer is a system that performs at or near
cias de los materiales. the currently highest operational rate for computers.
Hay que tener en cuenta que esta carrera por la Some supercomputers work at more than a petaflop
potencia y/o capacidad de cálculo no es tal en otros or 1015 floating-point operations per second (http://
casos, como sucede en general en el mercado de las searchenterpriselinux.techtarget.com/definition/
computadoras de escritorio, donde es la industria high-performance-computing/).
quien intenta impulsar los avances en sus clientes/ High Performance Computing most generally
usuarios, cuyas aplicaciones en general (excepto refers to the practice of aggregating computing power
los juegos) y a diferencia de las mencionadas in a way that delivers much higher performance than
previamente, ocupan un porcentaje relativamente one could get out of a typical desktop computer
pequeño de las capacidades de los equipos en los or workstation in order to solve large problems in
cuales se desempeñan. science, engineering, or business (http://insidehpc.
El objetivo es, en síntesis, resolver problemas com/hpc-basic-training/what-is-hpc/).
“grandes” queriendo decir que, por la cantidad de The term high performance computing (HPC)
datos a procesar y/o los algoritmos involucrados, refers to any computational activity requiring more
excederían la capacidad de una computadora de than a single computer to execute a task (http://
escritorio (en RAM, por ejemplo) o bien que la www.hpcwales.co.uk/what-is-hpc/).
magnitud del tiempo necesario para finalizar el Wikipedia (http://en.wikipedia.org/wiki/HPC) directa-
cálculo resultaría poco práctica. mente redirige a la página dedicada a supercomputación.
La computación de alto desempeño o high perfor- Se puede observar que algunas fuentes situan la
mance computing (HPC, por su nombre en inglés), supercomputación y HPC como alternativas, otras
parece no estar claramente definida. Tampoco su como la Wikipedia sostienen que un cluster
relación con la supercomputación (supercomputing). HPC es parte de la supercomputación y otras (como
Buscando en Internet se encuentran cosas tales como: webopedia) dicen lo inverso. Para entender la relación
High-performance computing: (n.) A branch of y el porqué de la diversidad a la hora de definirla ayuda
computer science that concentrates on developing revisar algo de la historia de estas disciplinas.
(Myrinet, QsNet, InfiniBand), se tornaron más dispo- tipo de procesador utilizado en los nodos, su rela-
nibles y fueron adoptadas en diversos grados en los ción con cantidad y ancho de banda de la RAM, el
clusters HPC. Como ejemplos, muy conocidos, de las sistema de E/S y el overhead causado por el sistema
supercomputadoras más grandes actuales podemos operativo subyacente, entre otras.
citar Sequoia, MareNostrum y RoadRunner de IBM, Por todo esto, para intentar comparar este tipo
XT5 y CS-Storm de Cray Inc. y Tianhe-2 de la Univer- de sistemas se utilizan 2 métricas. Ambas son expre-
sidad Nacional de Tecnología de Defensa de China. sadas en operaciones de punto flotante (típica-
Haciendo un somero análisis comparativo de mente de precisión simple) por segundo (FLOPS). La
estas dos alternativas podemos decir que la super- primera es el desempeño máximo teórico (Rpeak)
computación puede ser la solución más eficiente que se calcula como la suma de las capacidades
desde el punto de vista energético y temporal, pero máximas teóricas de cada procesador. La segunda
es muy costosa. En cambio HPC busca ser más acce- es un valor arrojado por un benchmark que se
sible desde el punto de vista económico, aunque su convirtió en un estándar de facto para este tipo de
característica genérica introducida por los compo- medición llamado Linpack1.
nentes que utiliza puede hacerlo menos eficiente en De hecho hay un sitio web llamado Top 500 (http://
términos de consumo de energía y throughput. www.top500.org) que periódicamente actualiza una
lista de los 500 sistemas de computadoras más pode-
CLUSTERS HPC rosos del planeta que utiliza el resultado de Linpack
como único parámetro de comparación2.
Los clusters son grupos de computadoras Los clusters HPC de tipo Beowulf (Swendson,
(llamadas nodos) interconectadas y configuradas 2005; Brown, 2003), nombrados como el héroe de
con un propósito específico que típicamente es un poema que cuenta con la fortaleza de muchos
alto desempeño (también conocidos como HPC, guerreros y su misión es destruir a cierto mons-
para aplicaciones de cálculo intensivo) o bien alta truo3, se caracterizan por estar integrados por
disponibilidad (o HA, para gran tolerancia a fallas). componentes de uso masivo (commodity compo-
Los clusters HPC pretenden acelerar un cálculo nents). Los componentes incluyen las computa-
complejo realizando una partición de éste de modo doras, que son típicamente PCs pero pueden ser
que cada nodo pueda ejecutar una parte. Así un dispositivos de propósito más específico como
cluster de 10 nodos podría idealmente resolver un celulares o consolas de video juegos (Taha et al.,
sistema de ecuaciones en un décimo del tiempo 2010); el hardware de red, típicamente ethernet; el
que tardaría un único nodo. software de base, que tiene como principal parti-
En la realidad hay varias restricciones que impiden cipante a sistemas operativos GNU/Linux (Ferreira
alcanzar ese ideal. Una de ellas es que no todos los et al., 2001; Adams y Vos, 2002; Ridge et al., 1997)
cálculos pueden ser resueltos en paralelo. Cada y middleware que se encarga de tareas administra-
problema a resolver, cada cálculo a realizar, cada tivas. Es en la utilización de este tipo de hardware y
programa a ejecutar tiene distinto grado de para-
lelismo. Esto hace que cada caso tenga un distinto
1
http://www.netlib.org/linpack/ [Online; Mayo de 2015].
factor de aceleración al ser procesado en un cluster. 2
The Linpack Benchmark — TOP500 Supercomputing Sites. http://
Otra es la red de interconexión y sus características www.top500.org/project/linpack/ [Online; Mayo de 2015].
3
WordSpy: Beowulf cluster. http://wordspy.com/words/Beowulf-
como ancho de banda y latencia. También están el cluster.asp [Online; Mayo de 2015].
El modelo de Desktop Grid o Network of Works- OSCAR12, Warewulf13, oneSIS14 y Perceus15. Este último
tations (Adams y Vos, 2002) es similar a computa- requiere adquirir licencia para activar ciertas caracte-
ción voluntaria, sólo que se utiliza en intranets, por rísticas. Serán evaluados en el futuro para considerar
ejemplo en una empresa o institución, haciendo una posible integración con el presente trabajo.
que los usuarios no sean anónimos y posibilitando
más control (Vlǎdoiu y Constantinescu, 2009) y ARQUITECTURA GENERAL DEL SISTEMA
mejor predicción de disponibilidad de recursos
(Salinas et al., 2011). Su funcionamiento en intra- A los fines de permitir la reproducción de esta
nets complejas es muy dependiente de la configura- experiencia facilitaremos en esta sección los
ción y administración de la red. elementos de hardware, software, topologías,
En el cluster de estaciones de trabajo virtualizadas configuraciones, criterios y demás elementos que
un software de virtualización divide los recursos de se utilizaron en la elaboración de este trabajo y
hardware a bajo nivel asignando una cierta cantidad conforman el producto desarrollado.
de CPUs, memoria, interfaces de red y otros a una
máquina virtual que será nodo de un cluster, por REQUISITOS DE HARDWARE Y SOFTWARE
ejemplo la utilizada en Parker Aerospace (Enginee-
ring, 2011). Es más barato agregar hardware en las Es preciso contar con una computadora que
PCs existentes y evita compartir recursos con el tendrá a su cargo la ejecución de la máquina virtual
usuario de la PC, pero requiere BIOS (Basic Input/ que constituye el servidor del sistema de cluster
Output System) y hardware especial (chipset que a cargo de los servicios de DHCP, TFTP (Trivial File
soporte Intel(R) VT-d, por ejemplo) y posiblemente Transfer Protocol) y NFS (Network File System) en la
software propietario. red del laboratorio. Aunque puede ejecutarse con
Las imágenes LiveCD de clusters HPC proveen en menos recursos de procesador, RAM y disco, los
general un cluster basado en MPI (Message Passing requisitos mínimos recomendados para dicho host
Interface). En algunas como PelicanHPC10, el “nodo son un procesador AMD Sempron 3200+ o equiva-
maestro” arranca desde el CD y el resto por red (PXE lente, 512 MB RAM, 30 GB HDD e interfaz de red
- Preboot eXecution Environment), mientras que Ethernet 100 Mbps. Como software de virtualiza-
en otras como Cluster by Night11, todos los nodos ción se recomienda VMware Server (gratuito) que
deben arrancar desde el CD. ejecuta en sistemas operativos Linux, sin embargo
Los sistemas de despliegue, provisionamiento se observó indistinto desempeño usando VMware
y administración de clusters se encargan de todos Player (igualmente gratuito).
los pasos mencionados, aunque la automatización Las computadoras del laboratorio, que serán los
requiere trabajo adicional. Si bien tienen opción nodos del cluster, deben poseer hardware compa-
para usar sistema de archivos en red, no consideran tible con el kernel de Kerrighed 3.0 (Linux 2.6.30)
otros puntos de conflicto con administradores de o del sistema operativo de cluster que se desee
laboratorio, como los servidores DHCP por ejemplo. ejecutar (ver sección Cualidades destacadas) y
Como instancias de esta categoría podemos citar
12
http://oscar.openclustergroup.org/ [Online; Mayo de 2015].
13
http://warewulf.lbl.gov/trac [Online; Mayo de 2015].
10
http://pareto.uab.es/mcreel/PelicanHPC/ [Online; Mayo de 2015]. 14
http://onesis.org [Online; Mayo de 2015].
11
http://zacharski.org/cluster-by-night [Online; Mayo de 2015]. 15
http://perceus.org/ [Online; Mayo de 2015].
deben ser capaces de iniciar desde la red (a través será la imagen de arranque del cluster.
de PXE) y “despertar” desde la red por medio de Un servidor DHCP debe ser configurado para
Wake-On-LAN, preferentemente desde el estado S5. indicar la ubicación de la imagen de arranque a
Todas ellas deberán contar con al menos una los nodos. Si es el único servidor DHCP sirviendo
interfaz de red Ethernet de por lo menos 100 Mbps pedidos de arranque vía PXE no es necesario que
de capacidad. sea autoritativo y puede coexistir con otros servi-
Relativo a la conectividad de red es necesario dores DHCP en la misma red sin interferir. Esto es
que exista una infraestructura de conexión Swit- debido a que el servidor DHCP del cluster sólo es
ched Fast Ethernet como mínimo entre el servidor necesario para el arranque por medio de PXE dado
y todos los nodos. que los nodos pueden recibir IPs estáticos a través
de la línea de comando del kernel pasada por
CONFIGURACIÓN DEL LABORATORIO PXELINUX al momento del arranque.
Dado que las máquinas deben tener configu-
Todos los nodos deben tener su BIOS protegido rada la red como primera opción de dispositivo de
con contraseña para dificultar modificaciones, Wake- arranque, es conveniente que estos dos servicios
On-LAN activado y la placa de red como principal (TFTP y DHCP) estén permanentemente activos para
dispositivo de arranque. Al interrumpirse el sumi- evitar la espera del timeout del intento de arranque
nistro de energía eléctrica la máquina debe recordar a través de PXE por parte del nodo.
el estado o encenderse (ver sección Operación). El sistema de archivos del cluster también está
En el ámbito del laboratorio no debe haber otro en la red, en un servidor NFS, el cual, por razones
servidor ofreciendo arranque por red (PXE). De otro de seguridad, conviene que no esté activo hasta
modo será necesario ajustar la configuración de los el momento de operar el cluster. En el diseño de
servidores, por ejemplo, apagando y encendiendo esta solución se decidió emplear arranque desde la
los servicios en los horarios necesarios. red y sistema de archivos de red para no utilizar el
Cada uno de los ajustes mencionados en esta disco rígido de las máquinas (nodos) y de este modo
sección debe ser coordinado con los administradores lograr que el cluster represente la menor invasión
del laboratorio y es precisamente su baja cantidad lo posible en el ambiente del laboratorio y la mayor
que determina el alto grado de independencia de la independencia posible de sus administradores.
administración que esta solución presenta. Esta técnica además evita fallas por problemas con
los discos y permite apagarlos por software para
SERVICIOS NECESARIOS EN LA RED LOCAL ahorrar energía. Como efectos adversos hay consi-
deraciones de seguridad (NFS no es un servicio
Para iniciar el cluster los nodos deben usar como seguro por sí mismo), la red ya no es utilizada exclu-
dispositivo de arranque la placa de red. La imagen sivamente para conexión entre nodos sino también
de arranque es provista por un servidor TFTP. Dicha para las operaciones del sistema de archivos y por
imagen de arranque será un archivo que indica lo tanto sus desempeños (tanto el de la comunica-
arrancar desde el disco rígido local en horarios de ción entre nodos como el del sistema de archivos)
uso “normal” (llamemos así al horario en que el pueden verse afectados, en una medida depen-
laboratorio es tradicionalmente utilizado para su diente del grado de utilización de cada uno de estos
propósito original) y en los horarios de inactividad recursos por parte de la aplicación; por otro lado
ACCESO AL CLUSTER
Asimismo es recomendable que este sitio web dores y llamados a ejecución por el host que provee
se encuentre alojado en una máquina distinta al de usuario correspondiente. Un email será enviado
nodo maestro y, de ser posible, ni siquiera conec- al propietario del trabajo para informar del evento.
tada directamente con la red del cluster. De este Como último paso, por seguridad, puede disponerse
modo este servidor bien podría estar en una DMZ o el reinicio del cluster desde una imagen de respaldo de
contratado en algún proveedor de hosting y sería el su sistema de archivos para evitar que la ejecución de
intermediario entre los usuarios y el cluster evitando un trabajo de usuario afecte la de los siguientes.
toda interacción directa entre ellos (ver Figura 2).
CUALIDADES DESTACADAS
FLEXIBILIDAD
El sistema es adaptable a las capacidades de los A modo de ejemplo y de guía se presenta a conti-
laboratorios, ya sea que se agreguen o eliminen nodos nuación el listado de las características más rele-
o bien que se cambie su configuración interna (siempre vantes del cluster HPC formado con las máquinas
y cuando el hardware sea soportado por el kernel). de uno de los laboratorios de la Facultad Regional
Tucumán (Universidad Tecnológica Nacional).
PORTABILIDAD Sin embargo debe quedar claro que el objetivo
del trabajo no es detallar instrucciones sobre la
Tener el nodo maestro o servidor del cluster en configuración ni operación de un cluster HPC sino
una máquina virtual ``empaqueta’’ la solución faci- de proponer un método razonable y conveniente
lita su distribución y trae consigo la ventaja de poder para convertir un laboratorio de computadoras en
ser ejecutado en una gran variedad de entornos. un cluster HPC durante las horas libres de uso.
El cluster posee una arquitectura híbrida (cluster
SENCILLEZ de SMPs16) de nodos homogéneos y pudo ser iniciado
con un máximo de 20 nodos debido a que el labo-
Bajo ciertas condiciones poner en marcha un ratorio donde las pruebas para este trabajo fueron
sistema como el propuesto puede ser tan simple desarrolladas posee esa cantidad de computadoras.
como encender una máquina virtual. Otras tareas Cada nodo está equipado con un procesador Intel
administrativas tales como respaldo y restauración Core 2 Duo E7400 con 2 núcleos de 2,8 GHz
también se benefician de la virtualización. (arq. 64 bits) y 2 GB de RAM en configuración
Para el usuario, utilizar el cluster es ``subir’’ dual-channel. El chipset del motherboard es Intel
su trabajo a un sitio web y esperar el aviso de G31. La interconexión es en topología estrella a
resultados via email junto con instrucciones través de una red Switched Fast Ethernet provista
para descargarlos. Se dispone además un meca- por un switch 3Com de 24 bocas de la línea Base-
nismo muy cómodo y conveniente para pruebas line Switch 2024 (3C16471B). La placa madre posee
y depuración (ver sección Presentación de una interfaz de red PCI Express Gigabit Ethernet
trabajos) donde nuevamente la virtualización RTL8111/8168B y BIOS que permite arranque desde
hace su aporte. la red (via PXE) y Wake-On-LAN.
El servidor se encuentra en una máquina virtual
SEGURIDAD ejecutada por VMware Server 2.0.1 con recursos de
256 MB de RAM, 10 GB de disco rígido y una interfaz
Si bien se hicieron consideraciones de segu- Fast Ethernet. La máquina física es una estación
ridad en el diseño de la solución, por ejemplo en de trabajo Sun Microsystems Ultra 20 que cuenta
las secciones 3.5 y 3.7, un análisis en detalle queda con un procesador Dual-Core AMD Opteron(tm)
como trabajo futuro para diseñar e implementar Processor 1210 de 1,8 GHz con 2 GB de RAM, 600
mecanismos que eviten usos inadecuados tales GB de disco rígido y dos interfaces de red Gigabit
como que el cluster provea acceso desde el exterior Ethernet (aunque sólo una está conectada).
por medio de túneles o que sea utilizado para enviar
spam, entre otros. Symmetric MultiProcessing.
16
and Linderman, “Neuromorphic algorithms BULETINUL UniversitǎŃii Petrol - Gaze din Ploieşti,
on clusters of playstation 3s”. WCCI 2010 IEEE volume LXI, pages 71–76, (2009).
World Congress on Computational Intelligence, Salinas, Garino and Zunino, “Sistema de predic-
pages 3040–3049, (2010). ción y evaluación de disponibilidad operativa de
Ferreira, Kettmann, Thomasch, Silcocks, Chen, recursos en desktop grids”. 40JAIIO - HPC 2011,
Daunois, Ihamo, Harada, Hill, Bernocchi and Ford. pages 105–116, (2011).
“Linux HPC Cluster Installation”. IBM Redbooks, first Engineering, editor, “Speed Product Development
edition (ISBN: 9780738422787), (2001). via Virtual Workstation Clustering”. Hewlett Packard
Lottiaux, Boissinot, Gallard, Vallee and Morin, Development Company, (2011).
OpenMosix, “OpenSSI and Kerrighed: A Comparative Engineering and Physical Sciences Research
Study. Research Report”. RR-5399, INRIA, (2004). Council, “International Review of Research Using
Vlǎdoiu, Constantinescu, “Availability of compu- HPC in the UK”, Engineering and Physical Sciences
tational resources for desktop grid computing”. Research Council, (ISBN 1-904425-54-2), (2005).