Historia de Los Com Put Adores y Hadward - Softward

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 25

INTRODUCCIÓN

La historia de la computadora es muy interesante ya que muestra como el hombre logra


producir las primeras herramientas para registrar los acontecimientos diarios desde el
inicio de la civilización, cuando grupos empezaron a formar naciones y el comercio era ya
medio de vida.
La evolución histórica del procesamiento de datos se divide en cuatro fases:
1.- técnicas de registros
2.- dispositivos de cálculo
3.- programas de tarjetas perforadas
4.- computadores electrónicos
una computadora procesa datos. Las empresas desarrollan departamentos de
procesamiento de datos ( programación de computadoras ), pues las computadoras
procesan datos para producir información significativa.
Los datos se construyen de hechos y cifras en bruto (sin procesar).
La información está constituida por los datos procesados; la información tiene significado ,
los datos no.
La computadora y sus programas llevan a cabo el procesamiento de la entrada; por lo
tanto el programa convierte los datos en información útil.
Computadora; definición:
En el nivel más elemental, una computadora procesa datos. Las empresas desarrollan
departamentos de procesamiento de datos ( programación de computadoras ), pues las
computadoras procesan datos para producir información significativa.
Los datos se construyen de hechos y cifras en bruto (sin procesar).
La información está constituida por los datos procesados; la información tiene significado ,
los datos no.
La computadora y sus programas llevan a cabo el procesamiento de la entrada; por lo
tanto el programa convierte los datos en información útil.
Los datos generalmente se introducen por medio de algún dispositivo de entrada, como
un teclado. La información generalmente se envía a un dispositivo de salida, como una
pantalla, una impresora o un archivo en disco. La entrada y la salida de la computadora
pueden provenir de y dirigirse a muchos tipos de dispositivos distintos.
La computadora es un dispositivo electrónico capaz de recibir un conjunto de
instrucciones y ejecutarlas realizando cálculos sobre los datos numéricos, o bien
compilando y correlacionando otros tipos de información.
El mundo de la alta tecnología nunca hubiera existido de no ser por el desarrollo del
ordenador o computadora. Toda la sociedad utiliza estas máquinas, en distintos tipos y
tamaños, para el almacenamiento y manipulación de datos. Los equipos informáticos han
abierto una nueva era en la fabricación gracias a las técnicas de automatización, y han
permitido mejorar los sistemas modernos de comunicación. Son herramientas esenciales
prácticamente en todos los campos de investigación y en tecnología aplicada.
Historia del Computador:
En 1670 el filósofo y matemático alemán Gottfried Wilhelm Leibniz perfeccionó esta
máquina e inventó una que también podía multiplicar.
El inventor francés Joseph Marie Jacquard, al diseñar un telar automático, utilizó delgadas
placas de madera perforadas para controlar el tejido utilizado en los diseños complejos.
Durante la década de 1880 el estadístico estadounidense Herman Hollerith concibió la
idea de utilizar tarjetas perforadas, similares a las placas de Jacquard, para procesar
datos. Hollerith consiguió compilar la información estadística destinada al censo de
población de 1890 de Estados Unidos mediante la utilización de un sistema que hacía
pasar tarjetas perforadas sobre contactos eléctricos.
También en el siglo XIX el matemático e inventor británico Charles Babbage elaboró los
principios de la computadora digital moderna. Inventó una serie de máquinas, como la
máquina diferencial, diseñadas para solucionar problemas matemáticos complejos.
Muchos historiadores consideran a Babbage y a su socia, la matemática británica Augusta
Ada Byron (1815-1852), hija del poeta inglés Lord Byron, como a los verdaderos
inventores de la computadora digital moderna. La tecnología de aquella época no era
capaz de trasladar a la práctica sus acertados conceptos; pero una de sus invenciones, la
máquina analítica, ya tenía muchas de las características de un ordenador moderno.
Incluía una corriente, o flujo de entrada en forma de paquete de tarjetas perforadas, una
memoria para guardar los datos, un procesador para las operaciones matemáticas y una
impresora para hacer permanente el registro.
Los ordenadores analógicos comenzaron a construirse a principios del siglo XX. Los
primeros modelos realizaban los cálculos mediante ejes y engranajes giratorios. Con
estas máquinas se evaluaban las aproximaciones numéricas de ecuaciones demasiado
difíciles como para poder ser resueltas mediante otros métodos. Durante las dos guerras
mundiales se utilizaron sistemas informáticos analógicos, primero mecánicos y más tarde
eléctricos, para predecir la trayectoria de los torpedos en los submarinos y para el manejo
a distancia de las bombas en la aviación.
Durante la II Guerra Mundial (1939-1945), un equipo de científicos y matemáticos que
trabajaban en Bletchley Park, al norte de Londres, crearon lo que se consideró el primer
ordenador digital totalmente electrónico: el Colossus. Hacia diciembre de 1943 el
Colossus, que incorporaba 1.500 válvulas o tubos de vacío, era ya operativo. Fue utilizado
por el equipo dirigido por Alan Turing para descodificar los mensajes de radio cifrados de
los alemanes. En 1939 y con independencia de este proyecto, John Atanasoff y Clifford
Berry ya habían construido un prototipo de máquina electrónica en el Iowa State College
(EEUU). Este prototipo y las investigaciones posteriores se realizaron en el anonimato, y
más tarde quedaron eclipsadas por el desarrollo del Calculador e integrador numérico
electrónico (en inglés ENIAC, Electronic Numerical Integrator and Computer) en 1946. El
ENIAC, que según se demostró se basaba en gran medida en el ordenador Atanasoff-
Berry (en inglés ABC, Atanasoff-Berry Computer), obtuvo una patente que caducó en
1973, varias décadas más tarde.
El ENIAC contenía 18.000 válvulas de vacío y tenía una velocidad de varios cientos de
multiplicaciones por minuto, pero su programa estaba conectado al procesador y debía
ser modificado manualmente. Se construyó un sucesor del ENIAC con un
almacenamiento de programa que estaba basado en los conceptos del matemático
húngaro-estadounidense John von Neumann. Las instrucciones se almacenaban dentro
de una llamada memoria, lo que liberaba al ordenador de las limitaciones de velocidad del
lector de cinta de papel durante la ejecución y permitía resolver problemas sin necesidad
de volver a conectarse al ordenador.
A finales de la década de 1950 el uso del transistor en los ordenadores marcó el
advenimiento de elementos lógicos más pequeños, rápidos y versátiles de lo que
permitían las máquinas con válvulas. Como los transistores utilizan mucha menos energía
y tienen una vida útil más prolongada, a su desarrollo se debió el nacimiento de máquinas
más perfeccionadas, que fueron llamadas ordenadores o computadoras de segunda
generación. Los componentes se hicieron más pequeños, así como los espacios entre
ellos, por lo que la fabricación del sistema resultaba más barata.
A finales de la década de 1960 apareció el circuito integrado (CI), que posibilitó la
fabricación de varios transistores en un único sustrato de silicio en el que los cables de
interconexión iban soldados. El circuito integrado permitió una posterior reducción del
precio, el tamaño y los porcentajes de error. El microprocesador se convirtió en una
realidad a mediados de la década de 1970, con la introducción del circuito de integración
a gran escala (LSI, acrónimo de Large Scale Integrated) y, más tarde, con el circuito de
integración a mayor escala (VLSI, acrónimo de Very Large Scale Integrated), con varios
miles de transistores interconectados soldados sobre un único sustrato de silicio.
Historia de LINUX y UNIX:
LINUX nació como un producto de Linus Torvalds, inspirado en el MINIX, el sistema
operativo desarrollado por Andrew S. Tanenbaum en su obra "Sistemas Operativos:
Diseño e Implementación". Libro en el cual, tras un estudio general sobre los servicios que
debe proporcionar un sistema operativo y algunas formas de proporcionar éstos, introduce
su propia implementación del UNIX en forma de código fuente en lenguaje C y
ensamblador, además de las instrucciones necesarias para poder instalar y mejorar el
mismo.
La primera versión de LINUX, enumerada como 0.01 contenía solo los rudimentos del
núcleo y funcionaba sobre una máquina con el MINIX instalado, esto es, para compilar y
jugar con LINUX era necesario tener instalado el MINIX de Tanembaum.
El 5 de Octubre de 1991, Linus anunció su primera versión 'oficial', la 0.02 con esta
versión ya se podía ejecutar el bash (GNU Bourne Shell) y el gcc (GNU C compiler).
Después de la versión 0.03, Linus cambió este número por 0.10 y tras las aportaciones de
un grupo inicial de usuarios se incrementó de nuevo la denominación a 0.95, reflejando la
clara voluntad de poder anunciar en breve una versión 'oficial' (con la denominación 1.0).
En Diciembre de 1993 el núcleo estaba en su versión 0.99 pH I. En la actualidad la última
versión estable es al 2.0.30 aunque existe ya la versión de desarrollo 2.1.
La enumeración de las versiones de LINUX implica a tre números separados por puntos,
el primero de ellos es la versión del sistema operativo es el que distingue unas versiones
de otras cuando las diferencias son importantes. El segundo número indica el nivel en que
se encuentra dicha versión. Si es un número impar quiere decir que es una versión de
desarrollo con lo cual se nos avisa de que ciertos componentes del núcleo están en fase
de prueba, si es par se considera una versión estable. El último número identifica el
número de revisión para dicha versión del sistema operativo, suele ser debido a la
corrección de pequeños problemas o al añadir algunos detalles que anteriormente no se
contemplaba con lo cual no implica un cambio muy grande en el núcleo. Como ejemplo
sirva la versión de LINUX con la que ha sido desarrollado este trabajo, la última estable
hasta hace poco tiempo, su número es 1.2.13, esto es, la versión 1 en su nivel 2 (estable)
y la revisión número 13 de la misma en éste caso fue la última.
Hay que señalar que LINUX no sería lo que es sin la aportación de la Free Software
Foundation y todo el software desarrollado bajo el soporte de esta asociación así como la
distribución del UNIX de Berkley (BSD), tanto en programas transportados como en
programas diseñados para este que forman parte de algunas distribuciones del LINUX.
Redes, Concepto, Internet:
Las redes están formadas por conexiones entre grupos de computadoras y dispositivos
asociados que permiten a los usuarios la transferencia electrónica de información. La red
de área local, representada en la parte izquierda, es un ejemplo de la configuración
utilizada en muchas oficinas y empresas. Las diferentes computadoras se denominan
estaciones de trabajo y se comunican entre sí a través de un cable o línea telefónica
conectada a los servidores. Éstos son computadoras como las estaciones de trabajo, pero
poseen funciones administrativas y están dedicados en exclusiva a supervisar y controlar
el acceso de las estaciones de trabajo a la red y a los recursos compartidos (como las
impresoras). La línea roja representa una conexión principal entre servidores de red; la
línea azul muestra las conexiones locales. Un módem (modulador/demodulador) permite a
las computadoras transferir información a través de las líneas telefónicas normales. El
módem convierte las señales digitales a analógicas y viceversa, y permite la
comunicación entre computadoras muy distantes entre sí. Las redes informáticas se han
vuelto cada vez más importantes en el desarrollo de la tecnología de computadoras. Las
redes son grupos de computadoras interconectados mediante sistemas de comunicación.
La red pública Internet es un ejemplo de red informática planetaria. Las redes permiten
que las computadoras conectadas intercambien rápidamente información y, en algunos
casos, compartan una carga de trabajo, con lo que muchas computadoras pueden
cooperar en la realización de una tarea. Se están desarrollando nuevas tecnologías de
equipo físico y soporte lógico que acelerarán los dos procesos mencionados.
Internet, interconexión de redes informáticas que permite a las computadoras conectadas
comunicarse directamente. El término suele referirse a una interconexión en particular, de
carácter planetario y abierto al público, que conecta redes informáticas de organismos
oficiales, educativos y empresariales. También existen sistemas de redes más pequeños
llamados intranet, generalmente para el uso de una única organización.
La tecnología de Internet es una precursora de la llamada 'superautopista de la
información', un objetivo teórico de las comunicaciones informáticas que permitiría
proporcionar a colegios, bibliotecas, empresas y hogares acceso universal a una
información de calidad que eduque, informe y entretenga. A principios de 1996 estaban
conectadas a Internet más de 25 millones de computadoras en más de 180 países, y la
cifra sigue en aumento.
Internet es un conjunto de redes locales conectadas entre sí a través de un ordenador
especial por cada red, conocido como gateway. Las interconexiones entre gateways se
efectúan a través de diversas vías de comunicación, entre las que figuran líneas
telefónicas, fibras ópticas y enlaces por radio. Pueden añadirse redes adicionales
conectando nuevas puertas. La información que debe enviarse a una máquina remota se
etiqueta con la dirección computerizada de dicha máquina.
Los distintos tipos de servicio proporcionados por Internet utilizan diferentes formatos de
dirección (Dirección de Internet). Uno de los formatos se conoce como decimal con
puntos, por ejemplo 123.45.67.89. Otro formato describe el nombre del ordenador de
destino y otras informaciones para el encaminamiento, por ejemplo 'mayor.dia.fi.upm.es'.
Las redes situadas fuera de Estados Unidos utilizan sufijos que indican el país, por
ejemplo (.es) para España o (.ar) para Argentina. Dentro de Estados Unidos, el sufijo
anterior especifica el tipo de organización a que pertenece la red informática en cuestión,
que por ejemplo puede ser una institución educativa (.edu), un centro militar (.mil), una
oficina del Gobierno (.gov) o una organización sin ánimo de lucro (.org).
Una vez direccionada, la información sale de su red de origen a través de la puerta. De
allí es encaminada de puerta en puerta hasta que llega a la red local que contiene la
máquina de destino. Internet no tiene un control central, es decir, ningún ordenador
individual que dirija el flujo de información. Esto diferencia a Internet y a los sistemas de
redes semejantes de otros tipos de servicios informáticos de red como CompuServe,
America Online o Microsoft Network.
Procesador de textos
aplicación utilizada para la manipulación de documentos basados en texto. Es el
equivalente electrónico del papel, el bolígrafo, la máquina de escribir, el borrador y el
diccionario. Dependiendo del programa y el equipo que se use, los procesadores de
textos pueden mostrar los documentos bien en modo texto, usando selección de texto,
subrayado o colores para representar cursiva, negrita y otros formatos, o bien pueden
mostrarlos en modo WYSIWYG, en el que los formatos y las distintas fuentes aparecen en
la pantalla tal y como lo harán en la página impresa. Todos los procesadores de texto
ofrecen funciones para dar formato a los documentos, como cambios de tipo de letra,
presentación de página, sangría de párrafos y similares. Muchos procesadores de textos
pueden también comprobar la ortografía, encontrar sinónimos, incorporar gráficos creados
en otros programas, alinear correctamente fórmulas matemáticas, crear e imprimir tipos
de letras estándar, realizar cálculos, mostrar documentos en pantalla en varias ventanas y
permitir a los usuarios realizar macros que simplifican operaciones difíciles o repetitivas.
Hoja de cálculo
programa de aplicación utilizado normalmente en tareas de creación de presupuestos o
previsiones, y en otras tareas financieras. En un programa de hoja de cálculo, los datos y
las fórmulas necesarios se introducen en formularios tabulares (hojas de cálculo u hojas
de trabajo), y se utilizan para analizar, controlar, planificar o evaluar el impacto de los
cambios reales o propuestos sobre una estrategia económica. Los programas de hoja de
cálculo usan filas, columnas y celdas. Cada celda puede contener texto, datos numéricos
o una fórmula que use valores existentes en otras celdas para hacer un cálculo
determinado. Para facilitar los cálculos, estos programas incluyen funciones incorporadas
que realizan operaciones estándar. Dependiendo del programa, una sola hoja de cálculo
puede contener miles o millones de celdas. Algunos programas de hoja de cálculo
permiten también vincular una hoja de cálculo a otra que contenga información
relacionada y pueden actualizar de forma automática los datos de las hojas vinculadas.
Los programas de hoja de cálculo pueden incluir también utilidades de macros; algunas
se pueden utilizar para crear y ordenar bases de datos. Los programas de hoja de cálculo
cuentan por lo general con capacidades gráficas para imprimir sus resultados.
CONCLUSIÓN
La computadora es una máquina electrónica capaz de ordenar procesar y elegir un
resultado con una información.
En la actualidad, dada la complejidad del mundo actual, con el manejo inmenso de
conocimientos e información propia de esta época de crecimiento tecnológico es
indispensable contar con una herramienta que permita manejar información con eficiencia
y flexibilidad, esa herramienta es la computadora. Las computadoras cuentan con
diversas herramientas para realizar varias acciones tales como procesadores de palabras
que permiten crear documentos, editarlos y obtener una vista preliminar del mismo antes
de imprimirlo si esa es la necesidad, también cuenta con hojas de cálculo que permiten
realizar operaciones de cálculo de tipo repetitivas o no, también permite crear nóminas,
balances, auditorias y demás operaciones resultando herramientas muy útiles en muchas
áreas de desenvolvimiento cotidiano.
Estas herramientas necesitan de una plataforma en la cual ejecutarse. Este es el papel
del sistema operativo de una máquina computacional, que permite gestionar ficheros,
llamadas al sistema, entre otras acciones. Siendo Linux un sistema operativo muy
eficiente constituyéndose en una alternativa muy viable a la hora de escoger un
determinado sistema operativo, ya que combina la eficiencia, rapidez y potencia de los
sistemas UNIX con la facilidad de uso de un sistema gráfico como MS Windows

http://www.monografias.com/trabajos15/historia-computador/historia-
computador.shtml

Mantenimiento de software

El mantenimiento de software es el proceso de control, mejora y optimización del software


ya desarrollado e instalado, que también incluye depuración de errores y defectos que
puedan haberse filtrado de la fase de pruebas de control y beta test. Esta fase es la última
(antes de iterar, según el modelo empleado) que se aplica al ciclo de vida del desarrollo
de software. La fase de mantenimiento es la que viene después de que el software está
operativo y en producción.

De un buen diseño y documentación del desarrollo dependerá cómo será la fase de


mantenimiento, tanto en costo temporal como monetario. Modificaciones realizadas a un
software que fue elaborado con una documentación indebida o pobre y mal diseño puede
llegar a ser tanto o más costosa que desarrollar el software desde el inicio. Por ello, es de
fundamental importancia respetar debidamente todas las tareas de las fases del
desarrollo y mantener adecuada y completa la documentación.

El período de la fase de mantenimiento es normalmente el mayor en todo el ciclo de vida.


[7]
Esta fase involucra también actualizaciones y evoluciones del software; no
necesariamente implica que el sistema tuvo errores. Uno o más cambios en el software,
por ejemplo de adaptación o evolutivos, puede llevar incluso a rever y adaptar desde parte
de las primeras fases del desarrollo inicial, alterando todas las demás; dependiendo de
cuán profundos sean los cambios. El modelo cascada común es particularmente costoso
en mantenimiento, ya que su rigidez implica que cualquier cambio provoca regreso a fase
inicial y fuertes alteraciones en las demás fases del ciclo de vida.

Durante el período de mantenimiento, es común que surjan nuevas revisiones y versiones


del producto; que lo liberan más depurado, con mayor y mejor funcionalidad, mejor
rendimiento, etc. Varias son las facetas que pueden ser alteradas para provocar cambios
deseables, evolutivos, adaptaciones o ampliaciones y mejoras.

Básicamente se tienen los siguientes tipos de cambios:

Perfectivos: Aquellos que llevan a una mejora de la calidad interna del software en
cualquier aspecto: Reestructuración del código, definición más clara del sistema y su
documentación; optimización del rendimiento y eficiencia.

Evolutivos: Agregados, modificaciones, incluso eliminaciones, necesarias en el software


para cubrir su expansión o cambio, según las necesidades del usuario.

Adaptivos: Modificaciones que afectan a los entornos en los que el sistema opera, tales
como: Cambios de configuración del hardware (por actualización o mejora de
componentes electrónicos), cambios en el software de base, en gestores de base de
datos, en comunicaciones, etc.

Correctivos: Alteraciones necesarias para corregir errores de cualquier tipo en el producto


software desarrollado.

Instalación y paso a producción

La instalación del software es el proceso por el cual los programas desarrollados son
transferidos apropiadamente al computador destino, inicializados, y, eventualmente,
configurados; todo ello con el propósito de ser ya utilizados por el usuario final. Constituye
la etapa final en el desarrollo propiamente dicho del software. Luego de ésta el producto
entrará en la fase de funcionamiento y producción, para el que fuera diseñado.

La instalación, dependiendo del sistema desarrollado, puede consistir en una simple copia
al disco rígido destino (casos raros actualmente); o bien, más comúnmente, con una de
complejidad intermedia en la que los distintos archivos componentes del software
(ejecutables, bibliotecas, datos propios, etc.) son descomprimidos y copiados a lugares
específicos preestablecidos del disco; incluso se crean vínculos con otros productos,
además del propio sistema operativo. Este último caso, comúnmente es un proceso
bastante automático que es creado y guiado con heramientas software específicas
(empaquetado y distribución, instaladores).

En productos de mayor complejidad, la segunda alternativa es la utilizada, pero es


realizada o guiada por especialistas; puede incluso requerirse la instalación en varios y
distintos computadores (instalación distribuida).

También, en software de mediana y alta complejidad normalmente es requerido un


proceso de configuración y chequeo, por el cual se asignan adecuados parámetros de
funcionamiento y se testea la operatividad funcional del producto.

En productos de venta masiva las instalaciones completas, si son relativamente simples,


suelen ser realizadas por los propios usuarios finales (tales como sistemas operativos,
paquetes de oficina, utilitarios, etc.) con herramientas propias de instalación guiada;
incluso la configuración suele ser automática. En productos de diseño específico o «a
medida» la instalación queda restringida, normalmente, a personas especialistas
involucradas en el desarrollo del software en cuestión.

Una vez realizada exitosamente la instalación del software, el mismo pasa a la fase de
producción (operatividad), durante la cual cumple las funciones para las que fue
desarrollado, es decir, es finalmente utilizado por el (o los) usuario final, produciendo los
resultados esperados

Definición de software

Existen varias definiciones similares aceptadas para software, pero probablemente la más
formal sea la siguiente:

Es el conjunto de los programas de cómputo, procedimientos, reglas, documentación y


datos asociados que forman parte de las operaciones de un sistema de computación.

Extraído del estándar 729 del IEEE[5]

Considerando esta definición, el concepto de software va más allá de los programas de


computación en sus distintos estados: código fuente, binario o ejecutable; también su
documentación, los datos a procesar e incluso la información de usuario forman parte del
software: es decir, abarca todo lo intangible, todo lo «no físico» relacionado.

El término «software» fue usado por primera vez en este sentido por John W. Tukey en
1957. En la ingeniería de software y las ciencias de la computación, el software es toda la
información procesada por los sistemas informáticos: programas y datos.

El concepto de leer diferentes secuencias de instrucciones (programa) desde la memoria


de un dispositivo para controlar los cálculos fue introducido por Charles Babbage como
parte de su máquina diferencial. La teoría que forma la base de la mayor parte del
software moderno fue propuesta por Alan Turing en su ensayo de 1936, «Los números
computables», con una aplicación al problema de decisión.

Clasificación del software

Si bien esta distinción es, en cierto modo, arbitraria, y a veces confusa, a los fines
prácticos se puede clasificar al software en tres grandes tipos:

Software de sistema: Su objetivo es desvincular adecuadamente al usuario y al


programador de los detalles de la computadora en particular que se use, aislándolo
especialmente del procesamiento referido a las características internas de: memoria,
discos, puertos y dispositivos de comunicaciones, impresoras, pantallas, teclados, etc. El
software de sistema le procura al usuario y programador adecuadas interfaces de alto
nivel, herramientas y utilidades de apoyo que permiten su mantenimiento. Incluye entre
otros:

Sistemas operativos

Controladores de dispositivos

Herramientas de diagnóstico

Herramientas de Corrección y Optimización

Servidores

Utilidades

Software de programación: Es el conjunto de herramientas que permiten al programador


desarrollar programas informáticos, usando diferentes alternativas y lenguajes de
programación, de una manera práctica. Incluye entre otros:

Editores de texto

Compiladores

Intérpretes

Enlazadores

Depuradores

Entornos de Desarrollo Integrados (IDE): Agrupan las anteriores herramientas,


usualmente en un entorno visual, de forma tal que el programador no necesite introducir
múltiples comandos para compilar, interpretar, depurar, etc. Habitualmente cuentan con
una avanzada interfaz gráfica de usuario (GUI).
Software de aplicación: Es aquel que permite a los usuarios llevar a cabo una o varias
tareas específicas, en cualquier campo de actividad susceptible de ser automatizado o
asistido, con especial énfasis en los negocios. Incluye entre otros:

Aplicaciones para Control de sistemas y automatización industrial

Aplicaciones ofimáticas

Software educativo

Software empresarial

Bases de datos

Telecomunicaciones (por ejemplo Internet y toda su estructura lógica)

Videojuegos

Software médico

Software de Cálculo Numérico y simbólico.

Software de Diseño Asistido (CAD)

Software de Control Numérico (CAM)

Proceso de creación del software

Artículo principal: Proceso para el desarrollo de software

Se define como Proceso al conjunto ordenado de pasos a seguir para llegar a la solución
de un problema u obtención de un producto, en este caso particular, para lograr la
obtención de un producto software que resuelva un problema.

El proceso de creación de software puede llegar a ser muy complejo, dependiendo de su


porte, características y criticidad del mismo. Por ejemplo la creación de un sistema
operativo es una tarea que requiere proyecto, gestión, numerosos recursos y todo un
equipo disciplinado de trabajo. En el otro extremo, si se trata de un sencillo programa (por
ejemplo, la resolución de una ecuación de segundo orden), éste puede ser realizado por
un solo programador (incluso aficionado) fácilmente. Es así que normalmente se dividen
en tres categorías según su tamaño (líneas de código) o costo: de Pequeño, Mediano y
Gran porte. Existen varias metodologías para estimarlo, una de las más populares es el
sistema COCOMO que provee métodos y un software (programa) que calcula y provee
una estimación de todos los costos de producción en un «proyecto software» (relación
horas/hombre, costo monetario, cantidad de líneas fuente de acuerdo a lenguaje usado,
etc.).

Considerando los de gran porte, es necesario realizar complejas tareas, tanto técnicas
como de gerencia, una fuerte gestión y análisis diversos (entre otras cosas), por lo cual se
ha desarrollado una ingeniería para su estudio y realización: es conocida como Ingeniería
de Software.

En tanto que en los de mediano porte, pequeños equipos de trabajo (incluso un avezado
analista-programador solitario) pueden realizar la tarea. Aunque, siempre en casos de
mediano y gran porte (y a veces también en algunos de pequeño porte, según su
complejidad), se deben seguir ciertas etapas que son necesarias para la construcción del
software. Tales etapas, si bien deben existir, son flexibles en su forma de aplicación, de
acuerdo a la metodología o Proceso de Desarrollo escogido y utilizado por el equipo de
desarrollo o por el analista-programador solitario (si fuere el caso).

Los «procesos de desarrollo de software» poseen reglas preestablecidas, y deben ser


aplicados en la creación del software de mediano y gran porte, ya que en caso contrario lo
más seguro es que el proyecto o no logre concluir o termine sin cumplir los objetivos
previstos, y con variedad de fallos inaceptables (fracasan, en pocas palabras). Entre tales
«procesos» los hay ágiles o livianos (ejemplo XP), pesados y lentos (ejemplo RUP) y
variantes intermedias; y normalmente se aplican de acuerdo al tipo y porte del software a
desarrollar, a criterio del líder (si lo hay) del equipo de desarrollo. Algunos de esos
procesos son Programación Extrema (en inglés eXtreme Programming o XP), Proceso
Unificado de Rational (en inglés Rational Unified Process o RUP), Feature Driven
Development (FDD), etc.

Cualquiera sea el «proceso» utilizado y aplicado al desarrollo del software (RUP, FDD,
etc), y casi independientemente de él, siempre se debe aplicar un «modelo de ciclo de
vida».[6]

Se estima que, del total de proyectos software grandes emprendidos, un 28% fracasan,
un 46% caen en severas modificaciones que lo retrasan y un 26% son totalmente
exitosos. [7]

Cuando un proyecto fracasa, rara vez es debido a fallas técnicas, la principal causa de
fallos y fracasos es la falta de aplicación de una buena metodología o proceso de
desarrollo. Entre otras, una fuerte tendencia, desde hace pocas décadas, es mejorar las
metodologías o procesos de desarrollo, o crear nuevas y concientizar a los profesionales
en su utilización adecuada. Normalmente los especialistas en el estudio y desarrollo de
estas áreas (metodologías) y afines (tales como modelos y hasta la gestión misma de los
proyectos) son los Ingenieros en Software, es su orientación. Los especialistas en
cualquier otra área de desarrollo informático (analista, programador, Lic. en Informática,
Ingeniero en Informática, Ingeniero de Sistemas, etc.) normalmente aplican sus
conocimientos especializados pero utilizando modelos, paradigmas y procesos ya
elaborados.

Es común para el desarrollo de software de mediano porte que los equipos humanos
involucrados apliquen sus propias metodologías, normalmente un híbrido de los procesos
anteriores y a veces con criterios propios.
http://es.wikipedia.org/wiki/Software#Definici.C3.B3n_de_software

Hardware

De Wikipedia, la enciclopedia libre

Saltar a navegación, búsqueda

Hardware típico de una computadora personal.


1. Monitor
2. Placa base
3. CPU
4. Memoria RAM
5. Tarjeta de expansión
6. Fuente de alimentación
7. Unidad de disco óptico
8. Disco duro, Unidad de estado sólido
9. Teclado
10. Ratón/Mouse

Hardware (pronunciación AFI: /ˈhɑːdˌwɛə/ ó /ˈhɑɹdˌwɛɚ/) corresponde a todas las partes


tangibles de una computadora: sus componentes eléctricos, electrónicos,
electromecánicos y mecánicos;[1] sus cables, gabinetes o cajas, periféricos de todo tipo y
cualquier otro elemento físico involucrado; contrariamente, el soporte lógico es intangible
y es llamado software. El término es propio del idioma inglés (literalmente traducido:
partes duras), su traducción al español no tiene un significado acorde, por tal motivo se la
ha adoptado tal cual es y suena; la Real Academia Española lo define como «Conjunto de
los componentes que integran la parte material de una computadora». [2] El término,
aunque es lo más común, no solamente se aplica a una computadora tal como se la
conoce, ya que, por ejemplo, un robot, un teléfono móvil, una cámara fotográfica o un
reproductor multimedia también poseen hardware (y software).[3] [4]

El término hardware tampoco correspondería a un sinónimo exacto de «componentes


informáticos», ya que esta última definición se suele limitar exclusivamente a las piezas y
elementos internos, independientemente de los periféricos.

La historia del hardware del computador se puede clasificar en cuatro generaciones,


cada una caracterizada por un cambio tecnológico de importancia. Este hardware se
puede clasificar en: básico, el estrictamente necesario para el funcionamiento normal del
equipo; y complementario, el que realiza funciones específicas.

Un sistema informático se compone de una unidad central de procesamiento (CPU),


encargada de procesar los datos, uno o varios periféricos de entrada, los que permiten el
ingreso de la información y uno o varios periféricos de salida, los que posibilitan dar salida
(normalmente en forma visual o auditiva) a los datos procesados.

 Historia del hardware

La clasificación evolutiva del hardware del computador electrónico, está dividida en


generaciones, donde cada una supone un cambio tecnológico muy notable. El origen de
las primeras es sencillo de establecer, ya que en ellas el hardware fue sufriendo cambios
radicales. [5] Los componentes esenciales que constituyen la electrónica del computador
fueron totalmente reemplazados en las primeras tres generaciones, originando cambios
que resultaron trascendentales. En las últimas décadas es más difícil distinguir las nuevas
generaciones, ya que los cambios han sido graduales y existe cierta continuidad en las
tecnologías usadas. En principio, se pueden distinguir:

1ª Generación (1945-1956): Electrónica implementada con tubos de vacío. Fueron las


primeras máquinas que desplazaron los componentes electromecánicos (relés).

2ª Generación (1957-1963): Electrónica desarrollada con transistores. La lógica discreta


era muy parecida a la anterior, pero la implementación resultó mucho más pequeña,
reduciendo, entre otros factores, el tamaño de un computador en notable escala.

3ª Generación (1964-hoy): Electrónica basada en circuitos Integrados . Esta tecnología


permitió integrar cientos de transistores y otros componentes electrónicos en un único
circuito integrado conformando una pastilla de silicio. Las computadoras redujeron así
considerablemente su costo, consumo y tamaño, incrementándose su capacidad,
velocidad y fiabilidad, hasta producir máquinas como las que existen en la actualidad.

4ª Generación (futuro): Probablemente se originará cuando los circuitos de silicio,


integrados a alta escala, sean reemplazados por un nuevo tipo de material o tecnología. [6]
La aparición del microprocesador marca un hito de relevancia, y para muchos autores
constituye el inicio de la cuarta generación.[7] A diferencia de los cambios tecnológicos
anteriores, su invención no supuso la desaparición radical de los computadores que no lo
utilizaban. Así, aunque el microprocesador 4004 fue lanzado al mercado en 1971, todavía
a comienzo de los 80's había computadores, como el PDP-11/44,[8] con lógica carente de
microprocesador que continuaban exitosamente en el mercado; es decir, en este caso el
desplazamiento ha sido muy gradual.

Otro hito tecnológico usado con frecuencia para definir el inicio de la cuarta generación es
la aparición de los circuitos integrados VLSI (Very Large Scale Integration), a principios de
los ochenta. Al igual que el microprocesador no supuso el cambio inmediato y la rápida
desaparición de los computadores basados en circuitos integrados en más bajas escalas
de integración. Muchos equipos implementados con tecnologías VLSI y MSI (Medium
Scale Integration) aun coexistían exitosamente hasta bien entrados los 90.

Tipos de hardware

Microcontrolador Motorola 68HC11 y chips de soporte que podrían constituir el hardware


de un equipo electrónico industrial.

Una de las formas de clasificar el Hardware es en dos categorías: por un lado, el "básico",
que abarca el conjunto de componentes indispensables necesarios para otorgar la
funcionalidad mínima a una computadora, y por otro lado, el Hardware "complementario",
que, como su nombre lo indica, es el utilizado para realizar funciones específicas (más
allá de las básicas), no estrictamente necesarias para el funcionamiento de la
computadora.

Así es que: Un medio de entrada de datos, la unidad de procesamiento (C.P.U.), la


memoria RAM, un medio de salida de datos y un medio de almacenamiento constituyen el
"hardware básico".
Los medios de entrada y salida de datos estrictamente indispensables dependen de la
aplicación: desde el punto de vista de un usuario común, se debería disponer, al menos,
de un teclado y un monitor para entrada y salida de información, respectivamente; pero
ello no implica que no pueda haber una computadora (por ejemplo controlando un
proceso) en la que no sea necesario teclado ni monitor, bien puede ingresar información y
sacar sus datos procesados, por ejemplo, a través de una placa de adquisición/salida de
datos.

Las computadoras son aparatos electrónicos capaces de interpretar y ejecutar


instrucciones programadas y almacenadas en su memoria, ellas consisten básicamente
en operaciones aritmético-lógicas y de entrada/salida.[9] Se reciben las entradas (datos),
se las procesa y almacena (procesamiento), y finalmente se producen las salidas
(resultados del procesamiento). Por ende todo sistema informático tiene, al menos,
componentes y dispositivos hardware dedicados a alguna de las funciones antedichas;[10]
a saber:

Procesamiento: Unidad Central de Proceso o CPU

Almacenamiento: Memorias

Entrada: Periféricos de Entrada (E)

Salida: Periféricos de salida (S)

Entrada/Salida: Periféricos mixtos (E/S)

Desde un punto de vista básico y general, un dispositivo de entrada es el que provee el


medio para permitir el ingreso de información, datos y programas (lectura); un dispositivo
de salida brinda el medio para registrar la información y datos de salida (escritura); la
memoria otorga la capacidad de almacenamiento, temporal o permanente
(almacenamiento); y la CPU provee la capacidad de cálculo y procesamiento de la
información ingresada (transformación).[11]

Un periférico mixto es aquél que puede cumplir funciones tanto de entrada como de
salida, el ejemplo más típico es el disco rígido (ya que en él se lee y se graba información
y datos).

Unidad central de procesamiento

Artículo principal: CPU


Microprocesador de 64 bits doble núcleo, el AMD Athlon 64 X2 3600.

La CPU, siglas en inglés de Unidad Central de Procesamiento, es la componente


fundamental del computador, encargada de interpretar y ejecutar instrucciones y de
procesar datos.[12] En los computadores modernos, la función de la CPU la realiza uno o
más microprocesadores. Se conoce como microprocesador a un CPU que es
manufacturado como un único circuito integrado.

Un servidor de red o una máquina de cálculo de alto rendimiento (supercomputación),


puede tener varios, incluso miles de microprocesadores trabajando simultáneamente o en
paralelo (multiprocesamiento); en este caso, todo ese conjunto conforma la CPU de la
máquina.

Las unidades centrales de proceso (CPU) en la forma de un único microprocesador no


sólo están presentes en las computadoras personales (PC), sino también en otros tipos
de dispositivos que incorporan una cierta capacidad de proceso o "inteligencia
electrónica"; como pueden ser: controladores de procesos industriales , televisores,
automóviles, calculadores, aviones, teléfonos móviles, electrodomésticos, juguetes y
muchos más. Actualmente los diseñadores y fabricantes más populares de
microprocesadores de PC son Intel y AMD; y para el mercado de dispositivos móviles y de
bajo consumo, los principales son Samsung, Qualcomm y Texas Instruments.
Placa base de una computadora, formato µATX.

Placa base del teléfono móvil Samsung Galaxy Spica, se pueden distinguir varios
"System-on-a-Chip" soldados en ella

El microprocesador se monta en la llamada placa base, sobre el un zócalo conocido como


zócalo de CPU, que permite las conexiones eléctricas entre los circuitos de la placa y el
procesador. Sobre el procesador ajustado a la placa base se fija un disipador térmico de
un material con elevada conductividad térmica, que por lo general es de aluminio, en
algunos casos de cobre; éste es indispensable en los microprocesadores que consumen
bastante energía, la cual, en gran parte, es emitida en forma de calor: En algunos casos
pueden consumir tanta energía como una lámpara incandescente (de 40 a 130 vatios).

Adicionalmente, sobre el disipador se acopla uno o dos ventiladores (raramente más),


destinados a forzar la circulación de aire para extraer más rápidamente el calor
acumulado por el disipador, y originado en el microprocesador. Complementariamente,
para evitar daños por efectos térmicos, también se suelen instalar sensores de
temperatura del microprocesador y sensores de revoluciones del ventilador, así como
sistemas automáticos que controlan la cantidad de revoluciones por unidad de tiempo de
estos últimos.

La gran mayoría de los circuitos electrónicos e integrados que componen el hardware del
computador van montados en la placa madre.

La placa base, también conocida como placa madre o con el anglicismo board,[13] es un
gran circuito impreso sobre el que se suelda el chipset, las ranuras de expansión (slots),
los zócalos, conectores, diversos integrados, etc. Es el soporte fundamental que aloja y
comunica a todos los demás componentes: Procesador, módulos de memoria RAM,
tarjetas gráficas, tarjetas de expansión, periféricos de entrada y salida. Para comunicar
esos componentes, la placa base posee una serie de buses mediante los cuales se
trasmiten los datos dentro y hacia afuera del sistema.

La tendencia de integración ha hecho que la placa base se convierta en un elemento que


incluye a la mayoría de las funciones básicas (vídeo, audio, red, puertos de varios tipos),
funciones que antes se realizaban con tarjetas de expansión. Aunque ello no excluye la
capacidad de instalar otras tarjetas adicionales específicas, tales como capturadoras de
vídeo, tarjetas de adquisición de datos, etc.

También, la tendencia en los últimos años es eliminar elementos separados en la placa


base e integrarlos al microprocesador. En ese sentido actualmente se encuentran
sistemas denominados System on a Chip que consiste en un único circuito integrado que
integra varios módulos electrónicos en su interior, tales como un procesador, un
controlador de memoria, una GPU, Wi-Fi, bluetooth, etc. La mejora más notable en esto
está en la reducción de tamaño frente a igual funcionalidad con módulos electrónicos
separados. La figura muestra una aplicación típica, en la placa principal de un teléfono
móvil.

Memoria RAM

Modulos de memoria RAM instalados.


Artículo principal: Memoria RAM

Del inglés Random Access Memory, literalmente significa "memoria de acceso aleatorio".
El término tiene relación con la característica de presentar iguales tiempos de acceso a
cualquiera de sus posiciones (ya sea para lectura o para escritura). Esta particularidad
también se conoce como "acceso directo", en contraposición al Acceso secuencial.

La RAM es la memoria utilizada en una computadora para el almacenamiento transitorio y


de trabajo (no masivo). En la RAM se almacena temporalmente la información, datos y
programas que la Unidad de Procesamiento (CPU) lee, procesa y ejecuta. La memoria
RAM es conocida como Memoria principal de la computadora, también como "Central o
de Trabajo"; [14] a diferencia de las llamadas memorias auxiliares, secundarias o de
almacenamiento masivo (como discos duros, unidades de estado sólido, cintas
magnéticas u otras memorias).

Las memorias RAM son, comúnmente, volátiles; lo cual significa que pierden rápidamente
su contenido al interrumpir su alimentación eléctrica.

Las más comunes y utilizadas como memoria central son "dinámicas" (DRAM), lo cual
significa que tienden a perder sus datos almacenados en breve tiempo (por descarga, aún
estando con alimentación eléctrica), por ello necesitan un circuito electrónico específico
que se encarga de proveerle el llamado "refresco" (de energía) para mantener su
información.

La memoria RAM de un computador se provee de fábrica e instala en lo que se conoce


como “módulos”. Ellos albergan varios circuitos integrados de memoria DRAM que,
conjuntamente, conforman toda la memoria principal.

Memoria RAM dinámica

Es la presentación más común en computadores modernos (computador personal,


servidor); son tarjetas de circuito impreso que tienen soldados circuitos integrados de
memoria por una o ambas caras, además de otros elementos, tales como resistores y
condensadores. Esta tarjeta posee una serie de contactos metálicos (con un
recubrimiento de oro) que permite hacer la conexión eléctrica con el bus de memoria del
controlador de memoria en la placa base.

Los integrados son de tipo DRAM, memoria denominada "dinámica", en la cual las celdas
de memoria son muy sencillas (un transistor y un condensador), permitiendo la fabricación
de memorias con gran capacidad (algunos cientos de Megabytes) a un costo
relativamente bajo.

Las posiciones de memoria o celdas, están organizadas en matrices y almacenan cada


una un bit. Para acceder a ellas se han ideado varios métodos y protocolos cada uno
mejorado con el objetivo de acceder a las celdas requeridas de la manera más eficiente
posible.
Memorias RAM con tecnologías usadas en la actualidad.

Entre las tecnologías recientes para integrados de memoria DRAM usados en los
módulos RAM se encuentran:

SDR SDRAM: Memoria con un ciclo sencillo de acceso por ciclo de reloj. Actualmente en
desuso, fue popular en los equipos basados en el Pentium III y los primeros Pentium 4.

DDR SDRAM: Memoria con un ciclo doble y acceso anticipado a dos posiciones de
memoria consecutivas. Fue popular en equipos basados en los procesadores Pentium 4 y
Athlon 64.

DDR2 SDRAM: Memoria con un ciclo doble y acceso anticipado a cuatro posiciones de
memoria consecutivas.

DDR3 SDRAM: Memoria con un ciclo doble y acceso anticipado a ocho posiciones de
memoria consecutivas. Es el tipo de memoria más actual, está reemplazando
rápidamente a su predecesora, la DDR2.

Los estándares JEDEC, establecen las características eléctricas y las físicas de los
módulos, incluyendo las dimensiones del circuito impreso.

Los estándares usados actualmente son:

DIMM Con presentaciones de 168 pines (usadas con SDR y otras tecnologías antiguas),
184 pines (usadas con DDR y el obsoleto SIMM) y 240 (para las tecnologías de memoria
DDR2 y DDR3).

SO-DIMM Para computadores portátiles, es una miniaturización de la versión DIMM en


cada tecnología. Existen de 144 pines (usadas con SDR), 200 pines (usadas con DDR y
DDR2) y 240 pines (para DDR3).

Memorias RAM especiales

Hay memorias RAM con características que las hacen particulares, y que normalmente no
se utilizan como memoria central de la computadora; entre ellas se puede mencionar:

SRAM: Siglas de Static Random Access Memory. Es un tipo de memoria más rápida que
la DRAM (Dynamic RAM). El término "estática" deriva del hecho que no necesita el
refresco de sus datos. Si bien esta RAM no requiere circuito de refresco, ocupa más
espacio y utiliza más energía que la DRAM. Este tipo de memoria, debido a su alta
velocidad, es usada como memoria caché.

NVRAM: Siglas de Non-Volatile Random Access Memory. Memoria RAM no volátil


(mantiene la información en ausencia de alimentación eléctrica). Hoy en día, la mayoría
de memorias NVRAM son memorias flash, muy usadas para teléfonos móviles y
reproductores portátiles de MP3.

VRAM: Siglas de Video Random Access Memory. Es un tipo de memoria RAM que se
utiliza en las tarjetas gráficas del computador. La característica particular de esta clase de
memoria es que es accesible de forma simultánea por dos dispositivos. Así, es posible
que la CPU grabe información en ella, al tiempo que se leen los datos que serán
visualizados en el Monitor de computadora.

De las anteriores a su vez, hay otros subtipos más.

Periféricos

Artículo principal: Periféricos

Se entiende por periférico a las unidades o dispositivos que permiten a la computadora


comunicarse con el exterior, esto es, tanto ingresar como exteriorizar información y datos.
[10]
Los periféricos son los que permiten realizar las operaciones conocidas como de
entrada/salida (E/S).[11]

Aunque son estrictamente considerados “accesorios” o no esenciales, muchos de ellos


son fundamentales para el funcionamiento adecuado de la computadora moderna; por
ejemplo, el teclado, el disco duro y el monitor son elementos actualmente imprescindibles;
pero no lo son un escáner o un plóter. Para ilustrar este punto: en los años 80, muchas de
las primeras computadoras personales no utilizaban disco duro ni mouse (o ratón), tenían
sólo una o dos disqueteras, el teclado y el monitor como únicos periféricos.

Dispositivos de entrada de información (E)

Teclado para PC inalámbrico.


Ratón (Mouse) común alámbrico.

De esta categoría son aquellos que permiten el ingreso de información, en general desde
alguna fuente externa o por parte del usuario. Los dispositivos de entrada proveen el
medio fundamental para transferir hacia la computadora (más propiamente al procesador)
información desde alguna fuente, sea local o remota. También permiten cumplir la
esencial tarea de leer y cargar en memoria el sistema operativo y las aplicaciones o
programas informáticos, los que a su vez ponen operativa la computadora y hacen posible
realizar las más diversas tareas.[11]

Entre los periféricos de entrada se puede mencionar: [10] teclado, mouse o ratón, escáner,
micrófono, cámara web , lectores ópticos de código de barras, Joystick, lectora de CD,
DVD o BluRay (sólo lectoras), placas de adquisición/conversión de datos, etc.

Pueden considerarse como imprescindibles para el funcionamiento, (de manera como hoy
se concibe la informática) al teclado, al ratón y algún dispositivo lector de discos; ya que
tan sólo con ellos el hardware puede ponerse operativo para un usuario. Los otros son
más bien accesorios, aunque en la actualidad pueden resultar de tanta necesidad que son
considerados parte esencial de todo el sistema.

Impresora de inyección de tinta.

Dispositivos de salida de información (S)

Son aquellos que permiten emitir o dar salida a la información resultante de las
operaciones realizadas por la CPU (procesamiento).

Los dispositivos de salida aportan el medio fundamental para exteriorizar y comunicar la


información y datos procesados; ya sea al usuario o bien a otra fuente externa, local o
remota.[11]
Los dispositivos más comunes de este grupo son los monitores clásicos (no de pantalla
táctil), las impresoras, y los altavoces. [10]

Entre los periféricos de salida puede considerarse como imprescindible para el


funcionamiento del sistema, al monitor. Otros, aunque accesorios, son sumamente
necesarios para un usuario que opere un computador moderno.

Dispositivos mixtos (E/S de información)

Piezas de un Disco duro.

Son aquellos dispositivos que pueden operar de ambas formas: tanto de entrada como de
salida.[11] Típicamente, se puede mencionar como periféricos mixtos o de Entrada/Salida
a: discos rígidos, disquetes, unidades de cinta magnética, lecto-grabadoras de CD/DVD,
discos ZIP, etc. También entran en este rango, con sutil diferencia, otras unidades, tales
como: Tarjetas de Memoria flash o unidad de estado sólido, tarjetas de red, módems,
tarjetas de captura/salida de vídeo, etc. [10]

Si bien se puede clasificar al pendrive (lápiz de memoria), memoria flash o memoria USB
o unidades de estado sólido en la categoría de memorias, normalmente se los utiliza
como dispositivos de almacenamiento masivo; siendo todos de categoría Entrada/Salida.
[15]

Los dispositivos de almacenamiento masivo[10] también son conocidos como "Memorias


Secundarias o Auxiliares". Entre ellos, sin duda, el disco duro ocupa un lugar especial, ya
que es el de mayor importancia en la actualidad, en el que se aloja el sistema operativo,
todas las aplicaciones, utilitarios, etc. que utiliza el usuario; además de tener la suficiente
capacidad para albergar información y datos en grandes volúmenes por tiempo
prácticamente indefinido. Los servidores Web, de correo electrónico y de redes con bases
de datos, utilizan discos rígidos de grandes capacidades y con una tecnología que les
permite trabajar a altas velocidades como SCSI incluyendo también, normalmente,
capacidad de redundancia de datos RAID; incluso utilizan tecnologías híbridas: disco
rígido y unidad de estado sólido, lo que incrementa notablemente su eficiencia. Las
interfaces actuales más usadas en discos duros son: IDE, SATA, SCSI y SAS; y en las
unidades de estado sólido son SATA y PCI-Express ya que necesitan grandes anchos de
banda.

La pantalla táctil (no el monitor clásico) es un dispositivo que se considera mixto, ya que
además de mostrar información y datos (salida) puede actuar como un dispositivo de
entrada, reemplazando, por ejemplo, a algunas funciones del ratón o del teclado.

Hardware gráfico

GPU de Nvidia GeForce.

Artículo principal: Tarjeta gráfica

El hardware gráfico lo constituyen básicamente las tarjetas gráficas. Dichos componentes


disponen de su propia memoria y unidad de procesamiento, esta última llamada unidad de
procesamiento gráfico (o GPU, siglas en inglés de Graphics Processing Unit). El objetivo
básico de la GPU es realizar los cálculos asociados a operaciones gráficas,
fundamentalmente en coma flotante, [16] liberando así al procesador principal (CPU) de esa
costosa tarea (en tiempo) para que éste pueda efectuar otras funciones en forma más
eficiente. Antes de esas tarjetas de vídeo con aceleradores por hardware, era el
procesador principal el encargado de construir la imagen mientras la sección de vídeo
(sea tarjeta o de la placa base) era simplemente un traductor de las señales binarias a las
señales requeridas por el monitor; y buena parte de la memoria principal (RAM) de la
computadora también era utilizada para estos fines.

Dentro de ésta categoría no se deben omitir los sistemas gráficos integrados (IGP),
presentes mayoritariamente en equipos portátiles o en equipos prefabricados (OEM), los
cuales generalmente, a diferencia de las tarjetas gráficas, no disponen de una memoria
dedicada, utilizando para su función la memoria principal del sistema. La tendencia en los
últimos años es integrar los sistemas gráficos dentro del propio procesador central. Los
procesadores gráficos integrados (IGP) generalmente son de un rendimiento y consumo
notablemente más bajo que las GPU de las tarjetas gráficas dedicadas, no obstante, son
más que suficiente para cubrir las necesidades de la mayoría de los usuarios de un PC.
Actualmente se están empezando a utilizar las tarjetas gráficas con propósitos no
exclusivamente gráficos, ya que en potencia de cálculo la GPU es superior, más rápida y
eficiente que el procesador para operaciones en coma flotante, por ello se está tratando
de aprovecharla para propósitos generales, al concepto, relativamente reciente, se le
denomina GPGPU (General-Purpose Computing on Graphics Processing Units).

La Ley de Moore establece que cada 18 a 24 meses la cantidad de transistores que


puede contener un circuito integrado se logra duplicar; en el caso de los GPU esta
tendencia es bastante más notable, duplicando, o aún más, lo indicado en la ley de
Moore.[17]

Desde la década de 1990, la evolución en el procesamiento gráfico ha tenido un


crecimiento vertiginoso; las actuales animaciones por computadoras y videojuegos eran
impensables veinte años atrás.

También podría gustarte