Inicios de La Informática

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 5

Inicios de la informática

La primera máquina de calcular mecánica, un precursor de ordenador digital, fue


inventada en 1642 por el matemático francés Blaise Pascal. Aquel dispositivo
utilizaba una serie de ruedas de 10 dientes en las que cada una representaba un
dígito del cero al 9. Las ruedas estaban conectadas de tal manera que podían
sumarse números haciéndolas avanzar el número de dientes correcto en 1670 el
filósofo y matemático alemán Gottfried Wilhelm Leibniz perfeccionó esta
máquina e inventó una que también podía multiplicar.
El inventor francés José Marie Jacquard al diseñar un telar automático, utilizó
delgadas placas de madera perforadas para controlar el tejido, utilizado en los
diseños complejos. Durante la década de 1880, el estadístico estadounidense
Herman Hollerith concibió la idea de utilizar tarjetas perforadas, similares a las
placas de Jacquard para procesar datos. Hollerith consiguió compilar la
información estadística destinada al censo de población de 1890 de Estados
Unidos mediante la utilización de un sistema que hacía pasar tarjetas perforadas
sobre contactos eléctricos.
La máquina analítica
También en el siglo XIX el matemático e inventor británico Charles Babbage
elaboró los principios de la computadora digital moderna. Inventó una serie de
máquinas, cómo la máquina diferencial, diseñadas para solucionar problemas
matemáticos complejos. Muchos historiadores consideran a Babbage y a su socia
la matemática británica Augusta Ada Byron (1815-1852) hija del poeta inglés
Lord Byron cómo a los verdaderos inventores de la computadora digital moderna.
La tecnología de aquella época no era capaz de trasladar a la práctica sus
acertados conceptos; pero una de sus invenciones, la máquina analítica, ya tenía
muchas de las características de un ordenador moderno, incluía una corriente o
flujo de entrada en forma de paquete de tarjetas perforadas una memoria para
guardar los datos, un procesador para las operaciones matemáticas y una
impresora para hacer permanente el registro.
Primeros ordenadores
Los ordenadores analógicos, comenzaron a construirse a través del siglo XX. Los
primeros modelos realizaban los cálculos mediante ejes y engranajes giratorios.
Con estas máquinas se evaluaban las proximaciones numéricas de ecuaciones
demasiado difíciles como para poder ser resueltas mediante otros métodos.
Durante las dos guerras mundiales se utilizaban sistemas informáticos analógicos,
para predecir trayectorias de los torpedos, de los submarinos y para el manejo a
distancia de las bombas en la aviación.
Ordenadores electrónicos
Durante la Segunda Guerra mundial (1939-1945), un equipo de científicos y
matemáticos que trabajaban en Bletchley Park, al norte de Londres, crearon lo que
se consideró el primer ordenador digital totalmente electrónico: el colossus, Hacia
Diciembre de 1943 el colossus qué incorporaba 1500 válvulas o tubos de vacío
era ya operativo. Fue utilizado por el equipo dirigido por Alan Turing para
descodificar los mensajes de radio cifrado de los alemanes. En 1939 y con
independencia de este proyecto, John Alanasoff y Clifford Berry ya habían
construido un prototipo de máquina electrónica en el Iowa State College (EE.UU).
Este prototipo y las investigaciones posteriores se realizaron en el anonimato y
más tarde quedaron eclipsadas por el desarrollo del calculador e integrador
numérico digital electrónico ENIAC en 1945. El ENIAC, qué según mostró la
evidencia, se basaba en gran medida en el ordenador Alanasoff-Berry (ABC
acrónimo de Electronic Numerical Integrator and Computer), obtuve una
patente y caducó en 1973, varias décadas más tardes el ENIAC contenía 18.000
válvulas de vacío y tenía una velocidad de varios cientos de multiplicaciones por
minuto, pero su programa estaba conectado al procesador y debía ser modificado
manualmente. Se construyó un sucesor del ENIAC con un almacenamiento de
programa que estaba basado en los conceptos del matemático Húngaro-
Estadounidense John Von Neum. Las instituciones se almacenaban dentro de una
llamada memoria, lo que liberaba al ordenador de las limitaciones de velocidad del
lector de cinta de papel durante la ejecución y permitía resolver problemas sin
necesidad de volver a conectarse al ordenador.
A finales de la década de 1950 el uso del transistor en los ordenadores marcó el
advenimiento de elementos lógicos más pequeño, rápidos y versátiles de lo que
permitían las máquinas con válvulas. Cómo los transistores utilizaban mucha
menos energía, tienen una vida más útil y más prolongada a su desarrollo se
debió el asimiento de máquinas más perfeccionadas, que fueron llamadas
ordenadores o computadoras de segunda generación. Los componentes se
hicieron más pequeños, así como los espacios entre ellos, por lo que la fabricación
del sistema resultaba más barata.
Circuitos integrados
A finales de la década de 1960, apareció el circuito integrado (CI), y qué posibilitó
la fabricación de varios transistores en un único sustrato de silicio en el que los
cables de interconexión iban soldados. El circuito integrado permitió una posterior
reducción del precio, el tamaño y los porcentajes de error. El microprocesador se
convirtió en una realidad a mediados de la década de 1970, y con la introducción
del circuito de integración a gran escala (LSI coma a acrónimo de Scale
Integrated) y, más tarde con el circuito de integración a mayor escala (VLSI
acrónimo de Very Large Scale Integrated) con varios miles de transistores
interconectados soldados sobre un único sustrato de silicio.
Historia del ábaco a la computadora
El ábaco: quizá fue el primer dispositivo mecánico de contabilidad que existió. Se
ha calculado que tuvo su origen hace al menos 5000 años y su efectividad ha
soportado la prueba del tiempo.
La pascalina: el inventor y pintor Leonardo da Vinci 1452 1519 trazó las ideas
para una sumadora mecánica. Siglo y medio después el filósofo y matemático
francés Blaise Pascal 1623 1662 por y con fin inventó y construyó la primera
sumadora mecánica. Se le llamó pascalina y funcionaba como maquinaria a base
de engranes y ruedas. A pesar de que Pascal fue enaltecido por toda Europa
debido a sus logros, la pascalina resultó un desconsolador fallo financiero, pues
para esos momentos, resultado más costosa que la labor humana para los
cálculos aritméticos.
La locura de Babbage: Charles Babbage (1793-1871) visionario inglés y
catedrático de Cambridge, hubiera podido acelerar el desarrollo de las
computadoras si él y su mente inventiva hubiera nacido 100 años después.
Adelantó la situación del hardware computacional al inventar “la máquina de
diferencias” capaz de calcular tablas matemáticas. En 1834, cuando trabajaba en
los avances de la máquina de diferencias, babas concibió la idea de una máquina
analítica

La Mark I de Harvard (1944): La Mark I, desarrollada por IBM en colaboración


con la Universidad de Harvard, fue la primera computadora electromecánica de
gran escala. Esta máquina pesaba más de 5 toneladas y medía más de 15 metros
de largo.

La UNIVAC (1951): La UNIVAC fue la primera computadora comercialmente


disponible. Desarrollada por la empresa estadounidense Remington Rand, esta
máquina fue utilizada principalmente para fines militares y gubernamentales.

El IBM 360 (1964): El IBM 360 fue uno de los primeros sistemas informáticos de
gran escala. Esta máquina fue utilizada ampliamente en empresas y
organizaciones gubernamentales durante los años 60 y 70.

Los ordenadores personales (1970s-1980s): En la década de 1970, los


ordenadores personales comenzaron a ser comercializados por empresas como
Apple y IBM. Estos ordenadores fueron los precursores de los dispositivos
informáticos modernos, como los teléfonos inteligentes y las tabletas.

La World Wide Web (1989): La World Wide Web fue inventada por el científico
británico Tim Berners-Lee en 1989. Esta tecnología permitió a los usuarios de
Internet acceder a una gran cantidad de información y recursos en línea.
La era de los dispositivos móviles (2000s-2010s): En la década de 2000, los
dispositivos móviles como los teléfonos inteligentes y las tabletas comenzaron a
ser ampliamente utilizados. Estos dispositivos permitieron a los usuarios acceder a
la información y realizar tareas en cualquier momento y lugar.

La inteligencia artificial y el aprendizaje automático (actualidad): En la


actualidad, la inteligencia artificial y el aprendizaje automático son áreas de rápido
crecimiento en la industria de la tecnología. Estas tecnologías están siendo
utilizadas en una amplia gama de aplicaciones, desde la asistencia virtual hasta la
medicina y la robótica.

A lo largo de los siglos, la computadora ha evolucionado desde el ábaco hasta los


dispositivos móviles y la inteligencia artificial. Esta evolución ha permitido a la
humanidad realizar tareas cada vez más complejas y avanzadas. A medida que
avanzamos en el futuro, es emocionante pensar en las posibilidades que la
tecnología nos ofrecerá a la humanidad y a las futuras generaciones.

También podría gustarte