Arquitectura de Computadora
Arquitectura de Computadora
Arquitectura de Computadora
Sección: DCM-0601IIV1
Autor:
Marcos Pineda
V – 23.658.464
El presente análisis está realizado para describir lo que se busca y debe entenderse
como computador dentro del ámbito informático, así como sus elementos, describir su historia,
proceso de evolución y las partes que lo conforman.
ARQUITECTURA
Según LeCorbusier es, "el juego aprendido, correcto y magnífico, de las formas
ensambladas en la luz".
COMPUTADOR
Según Vasquéz J. (2012), es: "una máquina calculadora electrónica, rápida, que acepta
como entrada información digitalizada -de cualquier fuente externa- la procesa de acuerdo a
una lista de instrucciones almacenadas internamente y produce la información de salida
resultante".
La tabla 1.0, muestra un resumen de las cinco clases de computadores y sus características
del sistema.
Personal Cluster/Ware
Características Mobile Desktop Server house-scale Embedded
Device computer
Precio de
Micro- $10 - $100 $50 - $500 $200 - $2000 $50 - $250 $0.01 - $100
procesador
Precio- Precio,
Rendimiento, Precio-
Temas de Costo, rendimiento, energía,
viabilidad, rendimiento,
diseño de energía, desempeño, rendimiento y
escalabilidad, disponibilidad,
sistemas desempeño, energía, desempeño
disponibilidad, proporción
críticos receptividad desempeño específico de
energía energética
gráfico aplicación
La figura 1.0, representa una clasificación distinta del computador. Por potencia
computacional y rango de precio. Desde los pequeños micro-controladores embebidos
(básicamente, microprocesadores simples y de bajo costo) en la base de la escala, a través de
las computadoras personales, estaciones de trabajo y servidores en la parte media, hasta las
computadoras centrales (mainframes) y las supercomputadoras en la cima.
Figura 1.0: Clasificación del computadora por potencia computacional y rango
de precio.
Desde muy temprana edad, en los albores de la civilización, surgió la inquietud debido
a la necesidad, de mejorar la rapidez y seguridad en la realización de cálculos. Es bien conocida
la introducción del ábaco, por parte de los chinos, sin embargo se sabe que otras civilizaciones,
ya incluso en la antigua Mesopotamia, habían desarrollado una especie de ábaco para optimizar
la velocidad en los cálculos en situaciones comerciales y de presupuesto estatal. Los primeros
auxiliares sofisticados de cómputo según se sabe habían sido desarrollados en la antigua Grecia,
para los cálculos astronómicos. Rastreando las raíces fundamentales de la computación
moderna, se puede apreciar los aportes de las calculadoras mecánicas construidas en el siglo
XVII por matemáticos de la talla de Schilcard, Pascal y Leibniz, específicamente en 1820. Fue con
Charles Babbage que se comenzó a estructurar lo que se conoce hoy día como computación
digital, fue él quien estableció ciertas definiciones y conceptos claves en el ámbito de la
computación, tales como: programación, conjunto de instrucciones, códigos de operaciones, y
los ciclos de programa, algunas de estas ideas se llevaron a cabo en 1940 con el desarrollo de
relevadores electromagnéticos.
Los ejemplos de máquinas de primera generación incluyen las series 1100 de UNIVAC y
700 de IBM. El surgimiento de la segunda generación se asocia con el cambio de los tubos de
vacío a transistores mucho más pequeños, más baratos y más confiables. Sin embargo,
igualmente importantes, si no es que más, son los desarrollos en tecnología de almacenamiento
junto con la introducción de lenguajes de programación de alto nivel y software de sistema. NCR
y RCA fueron los pioneros de los productos computacionales de segunda generación, fueron
seguidos por la serie 7000 de máquinas de IBM y, más tarde, por la PDP-1 de Digital Equipment
Corporation (DEC). Estas computadoras comenzaron a parecer más máquinas de oficina que
equipos de fábrica. Este hecho, además de la facilidad de uso proporcionada por software más
sofisticado, condujo a la proliferación de computación científica y a aplicaciones de
procesamiento de datos empresariales.
Esta serie comenzó con máquinas de perfil bajo relativamente baratas para negocios
pequeños y se extendió a multimillonarias supercomputadoras muy grandes que usaban las más
recientes innovaciones tecnológicas y algorítmicas para lograr el máximo rendimiento, todo ello
con base en la misma arquitectura global y conjunto de instrucciones. Otra máquina influyente
en esta generación, la PDP-11 de DEC, trajo consigo la época de minicomputadoras costeables
capaces de operar en la esquina de una oficina o laboratorio, en lugar de requerir un gran cuarto
de cómputo con aire acondicionado.
Conforme los circuitos integrados se volvieron más grandes y densos, finalmente fue
posible, a comienzos de la década de 1970, colocar un procesador completo, aunque muy
simple, en un solo chip CI.
Dispositivo de entrada: según Vasquéz J. (2012) se define como, “la parte del hardware
que permite al usuario introducir información a la computadora”.
Dispositivos de Salida: según Vazqués J. (2012) es, “la parte que permite a la
computadora comunicarse con el usuario”. Devuelven los datos procesados al usuario,
pueden ser cualquier pieza de hardware que puedan realizar las funciones de
comunicación con el usuario. El más común es el monitor, la figura 2.2 representa un
monitor de antigua tecnología conocida como Tubo de rayos catódico (CRT).
Actualmente estos dispositivos han sido reemplazados en casi todos los ámbitos.
Figura 2.2: Unidad de presentación CRT y almacenamiento de imagen en buffer de
maco.
Las pantallas CRT funcionan mediante un haz de electrones que barre la
superficie de una pantalla sensible, y crea un pixel oscuro o claro conforme pasa cada
punto. Los primeros CRT eran monocromáticos. En tales CRT, el haz de electrones golpea
una capa de fósforo en la parte posterior del vidrio de la pantalla. Esta capa de fósforo
emite luz porque es golpeada por una corriente de electrones que viaja a muy alta
rapidez, y la intensidad del haz de electrones que pasa un punto específico determina el
nivel de brillantez. Para proteger la capa de fósforo del bombardeo directo de los
electrones, detrás de ella se coloca una capa de aluminio; ésta actúa como contacto
eléctrico. La tecnología del CRT de color pasó por varias etapas. Los primeros intentos
usaron un CRT monocromático que se veía mediante la rotación de filtros de color
mientras se desplegaban a la vez los pixeles asociados con varios colores. Otros diseños
incluyeron la sustitución de los filtros mecánicos con otros controlados
electrónicamente y el uso de múltiples capas de fósforo, cada uno emitiendo luz de color
diferente.
La figura 2.3, muestra una pantalla de matriz pasiva. Cada punto de intersección
entre una hilera y una columna representa una pequeña persiana óptica que se controla
mediante la diferencia entre los voltajes de hilera y columna. Puesto que el voltaje de
hilera se proporciona a toda celda en una hilera y las celdas además reciben voltaje
cruzado de otras hileras, el contraste y la resolución tienden a ser bajos. Las matrices
activas son similares, excepto que en cada intersección se planta un transistor de
película delgada. Un transistor que se enciende permite que las celdas de cristal líquido
asociadas se carguen a los voltajes en las líneas de columna. De esta forma, una imagen
que se “escribe” hilera por hilera se conserva hasta el siguiente ciclo de regeneración.
Otras tecnologías de pantalla de panel plano incluyen las que se basan en diodos
emisores de luz (LED, por sus siglas en inglés) y el fenómeno de plasma. Las pantallas
LED consisten de arreglos de LED de uno o más colores, y cada LED se “direcciona” a
través de un índice de hilera y otro de columna. Los LED electrónicos son adecuados
para presentaciones que se deben ver en exteriores, requieren enorme grado de
brillantez. Un desarrollo reciente en las pantallas de LED es el surgimiento de los LED
orgánicos (OLED, por sus siglas en inglés), que requieren menos energía que los LED
ordinarios y ofrecen una variedad de colores, incluido el blanco. La operación de las
pantallas de plasma es similar a la de una lámpara de neón. Explotan la propiedad de
ciertas mezclas de gases que se descomponen en plasma cuando se sujetan a un campo
eléctrico muy intenso. El plasma conduce la electricidad y convierte una parte de la
energía eléctrica en luz visible. En la actualidad, las pantallas de plasma son muy caras;
por tanto, tienen aplicaciones limitadas.
Memoria interna y memoria externa: la computadora, para ser realmente útil, necesita
un lugar para mantener archivos de programas y datos relacionados cuando no se están
usando. El propósito del almacenamiento es guardar datos.
Otros dispositivos de entrada y salida: una cámara digital fija o de video captura
imágenes para ingresar a una computadora en forma muy similar a un escáner. La luz
entrante proveniente del exterior de la cámara se convierte en pixeles y se almacena en
memoria flash o algún otro tipo de unidad de memoria no volátil. Las cámaras digitales
fijas se caracterizan por su resolución en términos del número de pixeles en cada imagen
capturada. Por ejemplo, una cámara de un megapixel puede tener una resolución de 1
280 × 960. Las cámaras con resoluciones de cinco o más megapixeles son muy costosas
y usualmente no se necesitan en aplicaciones sofisticadas, pues una cámara de dos
megapixeles puede entregar impresiones de calidad fotográfica de 20 × 25 cm en
impresoras de inyección de tinta. Las cámaras digitales pueden usar zoom óptico
tradicional para acercar los objetos; también pueden tener zoom digital que usa
algoritmos de software para acercar una parte particular de la imagen digital, pero en
el proceso se reduce la calidad de la imagen. Algunas cámaras digitales fijas pueden
tomar películas cortas de resolución más bien baja.
Es un circuito integrado digital que puede ser programado con ciertas instrucciones, que
permiten manipular los datos dentro del sistema. Se le conoce como el cerebro de la
computadora, a grandes rasgos su estructura principal está conformada por un
microprocesador.
Está formado por unidades básicas indispensables para su funcionamiento, las cuales
son:
Unidad de Control: se encuentra a cargo del procesamiento de las instrucciones una vez
que se han decodificado. Proporciona las señales de temporización y de control para
introducir y extraer datos en el microprocesador y sincronizar la ejecución de las
instrucciones.
Intel 80486
1989 - 1997
Pentium
1993 - 1999
PowerPC 601
1993 - 2006
Son los CPU’s tipo RISC, desarrollados por IBM, Motorola, y Apple. Los procesadores de
esta familia producidos por IBM y Freescale Semiconductor (que era la división de
semiconductores y microprocesadores de Motorola), siendo utilizados principalmente en
ordenadores o computadores Macintosh de Apple Computer hasta el año 2006 y en varios
modelos IBM.
La filosofía RISC fue introducida por el científico informático John Cocke en la década de
los años 70s. En 1980, IBM comienza el proyecto IBM 801 donde se derivaría el primer
procesador RISC, el proyecto estuvo a cargo del mismo John Cocke. Este procesador RISC ofreció
un rendimiento bastante malo, lo cual obligó a IBM a emprender el Proyecto América, con el
cual lograr crear el primer procesador de la arquitectura Power (bajo consumo de energía pero
potente procesador).
En 1991, IBM se dio cuenta del potencial de su diseño Power y buscó una alianza con
Apple y Motorola para impulsar su creación; entonces surgió la alianza AIM (Apple, IBM y
Motorola, actualmente Freescale) cuyo objetivo fue desbancar el dominio Microsoft e Intel que
ofrecía sistemas basados en 80386 y 80486.
Celeron
1998 - 2018
Era una línea de bajo coste de Intel, la idea de este microprocesador era poder acceder
a mercados en los que el Pentium no podía debido a su coste. Los microprocesadores Celeron
pueden realizar las mismas funciones que el resto de microprocesadores, pero su rendimiento
es inferior.
2006 - 2008
Intel lanzo esta gama de procesadores de doble núcleo y CPU’s 2x2 de cuatro núcleos
con el conjunto de instrucciones x86-64, basado en la nueva arquitectura Core de Intel. Tenía
una velocidad de CPU baja y mejoró el uso del procesador de ambos ciclos de velocidad.
Phenom
2007 - 2018
AMD Fusion
2011 - 2018
2013 - 2018
Appel A10
2016 - 2018
El A10 está basado en un sistema de 64 bits, diseñado por Apple Inc y fabricado por
TSMC. Es el SoC para teléfono de un solo hilo más rápido lanzado hasta la fecha, y apareció por
primera vez en el iPhone 7. Es el primer SoC de cuatro núcleos producido por Apple, con dos
núcleos de alto rendimiento y dos núcleos enérgicamente eficientes.
Samsung Exynos
2016 - 2018
El Sistema en Chip dispone de un chip celular LTE, que es capaz de realizar descargar a
velocidades mucho mayores que la tecnología 3D. Emplea tecnología big. LITTLE, puede cambiar
entre dos sets de núcleos del procesador para optimizar el funcionamiento y la vida de la batería.
Posee un Sistema Operativo de 32 bits que soporta hasta 4GB de RAM.
También se muestra con la figura 3.1, un bloque básico, correspondiente a la estructura de
un microprocesador.
OPINIÓN CRÍTICA
No debe descuidarse los avances y teorías competentes en otros ámbitos de las ciencias
e ingeniería, por el hecho de que el descubrimiento e innovación en una, representa un avance
grande en otra. En este caso, la arquitectura de computadoras; nótese el crecimiento
exponencial que ha tenido la tecnología de microprocesadores tan sólo en unas pocas décadas.
Esto lo describo utilizando el siguiente gráfico.