Estructura de Datos Marzo 2024

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 31

República Bolivariana De Venezuela

Ministerio del Poder Popular para la Educación Universitaria


Universidad Nacional Experimental “Simón Rodríguez”
Cátedra: Introducción al Procesamiento de Datos.
Núcleo: Caricuao.

Conceptos Básicos de la Estructura de Datos

Autor: Carla Fuentes


V.16.217.425
Facilitador: Ofelia Sánchez Garcia

Caracas, marzo 2024.

1
INDICE.

Pág

INTRODUCCIÓN………………………………………………………… 3

FUNDAMENTOS BÁSICOS DEL PROCESO DE DATOS.

1. Proceso de Datos: Antecedentes. ………………………………………………. 4

2. Definición de procesamiento de datos…………………………………………… 6

3. Operaciones básicas de datos …………………………………………………. 7

4. Métodos de procesamiento de datos…………………………………………… 10

5. Importancia del procesamiento de datos…………...…………………………… 12

CONCLUSIÓN…………………………………………………………….. 14

BIBLIOGRAFÍA………………………………………….………………... 15

2
INTRODUCCIÓN.

El procesamiento de los datos es todo el proceso que sigue un investigador


iniciando desde la recolección de datos, hasta la presentación de los mismos en
forma resumida. En el caso de las ciencias sociales y naturales, mucho de este
procesamiento de datos, preliminarmente ya codificado, se hace a través de las
bases de datos, que son registros, debidamente clasificados y almacenados por
un medio.

El procesamiento de los datos por medio de programas informáticos,


representan una ventaja en tiempo, dinero y espacio ya que arrojan resultados
inmediatos. En este proceso es esencial, la habilidad del ser humano para
capturar los datos y procesarlos de acuerdo a algún parámetro estadístico. El
procesamiento de datos implica transformar datos sin procesar en información
valiosa para las empresas.

3
FUNDAMENTOS BÁSICOS DEL PROCESO DE DATOS.

1. Proceso de Datos: Antecedentes.

Desde tiempos muy antiguos el ser humano procesa datos. El Procesamiento


de Datos es una técnica que consiste en la recolección de los datos de entrada,
que son evaluados y ordenados, para obtener información útil, que luego serán
utilizados por el usuario final, para que pueda tomar decisiones o realizar las
acciones que estime conveniente.
Los primeros dispositivos en la historia de la humanidad para contar fueron las
manos humanas y sus dedos. Entonces, como las cantidades empezaron a
crecer, fueron usadas para ayudar a contar, las semillas, junto a pequeñas varillas
y pequeñas piedras, denominadas "calculi" en latín.
En 2600 AC, el Ábaco se constituyó en el primer dispositivo manual de cálculo.
Servía para representar números en el sistema decimal y contar, permitiendo
realizar operaciones aritméticas sencillas. Consta de un marco de madera dividido
en dos partes, contiene una serie de varillas verticales que corresponden cada una
a un dígito o cifra.
En 1642, el matemático, filósofo y físico francés Blaise Pascal desarrolla la
primera máquina de sumar denominada La Pascalina o Máquina aritmética de
Pascal que realizaba cálculos de 8 dígitos a base de ruedas dentadas que
simulaba el funcionamiento del ábaco. Realizaba operaciones de sumas y restas
mostrando el resultado por una serie de ventanillas.

Casi doscientos años después, a partir de la década del cincuenta, hacia


adelante que se dispusieron una serie de instrumentos cada vez más avanzados,
que se adaptaron principalmente a el concepto de Procesamiento de Datos.

En 1833 Charles Babbage diseñó su Máquina Analítica, capaz de realizar todas


las operaciones matemáticas y con posibilidades de ser programable por medio de

4
tarjetas de cartón perforado. Con esta máquina el citado inventor consiguió definir
los fundamentos teóricos de las computadoras.

Para el año de 1885 el norteamericano y funcionario de la Oficina del Censo


de EE UU: Herman Hollerith, observó cómo se tardaba 10 años en realizar el
censo anual de su país y se dio cuenta que la mayoría de las preguntas tenían
como respuesta un sí o un no, lo que le hizo idear una tarjeta perforada para
contener la información. Construyó su Máquina Censadora o Tabuladora que fue
capaz de reducir el trabajo manual a la tercera parte. El censo de 1890 tardó sólo
dos años y medio. Fue la primera aplicación comercial y lo introdujo en el mundo
de los negocios.

Howard Aiken en 1944, basado en la máquina analítica de Charles Babbage,


desarrolló en la Universidad de Harvard, junto con un equipo de científicos e
ingenieros de IBM una calculadora numérica.Tenía 760.000 ruedas y 800
kilómetros de cable, configurando la primera computadora a la que llamó
Automatic Sequence Controlled Calculator (ASCC), más conocido como Mark I.
Considerada la primera computadora electromecánica de secuencia automática
controlada, sus dimensiones eran: 16 metros de largo, 2,4 de alto y un peso
aproximado de 5 toneladas.

En 1946, en la universidad de Pennsylvania, John Mauchly (1907-1980) y


Prester Eckert (1919-1995) crean la ENIAC (Electronic Numerical Integrator And
Computer). Este equipo estaba diseñado con interruptores y más de 15.000 tubos
de vacío, operaba con tarjetas perforadas y su capacidad de cálculo era varios
cientos de veces superior a la Mark I: podía realizar unas 5.000 operaciones por
segundo. 30 metros de largo, casi 2 ½ de alto y unos 90 centímetros de ancho. El
peso era cercano a las 30 toneladas y el consumo 150 kw.

Entre 1949 y 1950 se puso en marcha la Computadora Automática Electrónica


de Variable Discreta o EDVAC (Electronic Discrete Variable Automatic Computer)
única en su género,se caracterizaba por emplear código binario y mantener en su
memoria las instrucciones programas de ejecución.

5
La EDVAC se diseñó gracias a los aportes fundamentales de John von
Neumann (1903-1957), un ingeniero nacido en Budapest, Hungría, en 1930. J.
Von Neumann, creador de la Arquitectura Von Neumann, que trata, a grandes
rasgos, sobre el concepto de programas y datos almacenados en la memoria
interna de la computadora.

La EDVAC marcó una etapa importante en la historia de las computadoras, y a


partir de ese entonces otras computadoras fueron creadas y mejoradas, dando
inicio a la fabricación en serie de computadoras vistas actualmente.

2. Definición de procesamiento de datos

El dato es una representación simbólica (número, símbolo), una característica


de una entidad, que pueden describir o explicar hechos empíricos,
acontecimientos y a las entidades mismas que se están estudiando.
Un dato aislado puede no ser importante para el objeto de estudio que nos
ocupa. Sólo cuando un conjunto de datos se examina conjuntamente al enfoque
de una teoría se puede apreciar la información de forma coherente contenida en
dichos ellos mismos.
Los datos agrupados, estructurados e interpretados son la base de la
información relevante que se utiliza en la formulación de conclusiones,
recomendaciones y toma de decisiones. Un dato por sí mismo no constituye
información, es el procesamiento de los datos y su análisis lo que proporciona
información.
De esta forma el procesamiento de datos , es la Técnica que consiste en la
recolección de los datos primarios de entrada, los cuales son evaluados y
ordenados para obtener información útil, que luego serán analizados por el usuario
final para que pueda tomar las decisiones o realizar las acciones que estime
conveniente.

6
3. Operaciones básicas de datos

Se denominan operaciones del proceso de datos a las distintas tareas que


pueden ser ejecutadas utilizando cualquier método de procesamiento. Entre éstas
se mencionan las siguientes:

3.1. Recolección

Se refiere a la búsqueda de los datos para conformar la información que será útil a
una investigación. La manera cómo se vaya a recolectar estos datos determinará
las técnicas y herramientas que pueden ser utilizadas por el analista para
desarrollar los sistemas de información, los cuales pueden ser la entrevistas, la
encuesta, el cuestionario, la observación, entre otras.

3.2. Verificación

Consiste en el chequeo de datos, los cuales se integran dependiendo del


método de procesamiento que se vaya a usar para este fin.

3.3. Ordenamiento

Es una agrupación de datos para clasificarlos según el sistema que se vaya


a usar.

3.4. Sistematización

La sistematización como tal es un proceso constante y aditivo de


elaboración de conocimiento luego de la experiencia en una realidad específica.
La sistematización de los datos, específicamente, es un ordenamiento y

7
clasificación, bajo determinados criterios, relaciones y categorías de todo tipo de
datos. Por ejemplo, la creación de Bases de Datos.

3.5. Cálculo

Es definir expresiones bien formadas que ayudan a las operaciones


numéricas, bien sea desde el punto de vista estadístico o contabilista.

3.6. Recuperación

Es extraer información almacenada en medio físico, tales como archivos,


CD, memoria USB (pen drive), discos duros y cualquier otro medio con el fin de
crear una base confiable y segura para su almacenamiento y uso futuro.

3.7. Reproducción

Es generar la información procesada a través de los diferentes medios o


canales necesarios y utilizados para el proceso.

3.8. Difusión

El término en Inglés es Broadcast, el cual se puede definir como un modo de


transmisión de información donde un nodo emisor envía información a una
multitud de nodos receptores de manera simultánea. Es decir, se refiere a la
transmisión de los Datos por medio de señales electrónicas de acuerdo a los
sistemas de computación y comunicación que existen en la actualidad.

3.9. Comunicación de Datos.

Es el proceso de comunicar información en forma binaria entre dos o más


puntos. Requiere cuatro elementos básicos que son:

8
3.9.1. Emisor: Dispositivo que transmite los datos.

3.9.2. Mensaje: lo forman los datos a ser transmitidos.

3.9.3. Medio: consiste en el recorrido de los datos desde el origen hasta


su destino.

3.9.4. Receptor: dispositivo de destino de los datos.

3.9.5. BIT: es la unidad más pequeña de información y la unidad base


en comunicaciones.

3.9.6. BYTE: conjunto de bits continuos mínimos que hacen posible, un


direccionamiento de información en un sistema computarizado.
Está formado por 8 bits.

3.9.7. Paquete: fracciones de un mensaje de tamaño predefinido, donde


cada fracción o paquete contiene información de procedencia y de
destino, así como información requerida para el reensamblado del
mensaje.

3.9.8. Interfaces: conexión que permite la comunicación entre dos o


más dispositivos.

3.9.9. Códigos: acuerdo previo sobre un conjunto de significados que


definen una serie de símbolos y caracteres. Toda combinación de
bits representa un carácter dentro de la tabla de códigos.

9
3.9.10. Paridad: técnica que consiste en la adición de un bit a un
carácter o a un bloque de caracteres para forzar al conjunto de
unos (1) a ser par o impar. Se utiliza para el chequeo de errores
en la validación de los datos. El bit de paridad será cero
(0=SPACE) o uno (1=MARK).

3.9.11. Modulación: proceso de manipular de manera controlada las


propiedades de una señal portadora para que contenga la
información que se va a transmitir.

3.9.12. DTE (Data Terminal Equipment): equipos que son la fuente y


destino de los datos. Comprenden equipos de computación (Host,
Microcomputadores y Terminales).

3.9.13. DCE (Data Communications Equipment): equipos de


conversión entre el DTE y el canal de transmisión, es decir, los
equipos a través de los cuales conectamos los DTE a las líneas de
comunicación

4. Métodos de Procesamiento de Datos.

Los diferentes métodos de procesamiento están relacionados con el avance


tecnológico y las alternativas presentadas podrán ser elegidas, dependiendo de la
rapidez con que se necesitan y la inversión en dinero que se requiera para
obtenerlas. Los tipos de procesamiento que existen, son los siguientes:

10
4.1. Proceso Manual

Este es el proceso más antiguo e involucra el uso de los recursos humanos,


tales como realizar cálculos mentales, registrar datos con lápiz y papel, ordenar y
clasificar manualmente. Esto da como resultado un proceso lento y expuesto a
generar errores a lo largo de todas las etapas o actividades del ciclo de
procesamiento. Finalmente los resultados se expresan de manera escrita, creando
grandes volúmenes de información escrita almacenada.
Como ejemplo podemos tener la evaluación académica en un colegio, en
donde el profesor registra en forma manual, a lapicero, las notas de evaluación de
los alumnos en una tabla llamada registro, para luego obtener los promedios
mediante cálculos aritméticos manuales, quedando toda esta información
almacenada en su registro.

4.2. Proceso Mecánico

Considera el uso de máquinas registradoras y calculadoras, como el ábaco y


las reglas de cálculo, reemplazando en cierto grado el proceso de cálculo manual.
Esto trae como lógica consecuencia el aligeramiento del trabajo en relación al
proceso y la reducción de errores, pero mantiene la desventaja del proceso de
almacenamiento de toda la información resultante.
Ejemplo: Obtener la hora empleando un reloj a cuerda, que es un aparato
mecánico, que interiormente tiene una serie de engranajes, que se encuentran
debidamente coordinados entre sí y cuyo movimiento hace girar una aguja en
forma radial y proporcional al tiempo.

4.3. Proceso Electromecánico.

En este tipo de proceso, el enlace de información entre los diferentes


elementos del tratamiento de información, de almacenamiento y de comunicación,
sigue realizándose de una forma manual, pero para realizar cada una de estas

11
tareas se emplean máquinas electromecánicas, con las cuales se obtiene mayor
eficiencia.
Como ejemplo tenemos las actividades que se realizan con las máquinas
perforadoras, que mediante el uso de la energía eléctrica, activará un motor, y el
eje de este motor con su adaptador respectivo, permitirá perforar suelos a distintas
profundidades. Otros ejemplos: cámara de video o fotográfica, calculadoras, etc.

4.4. Procesos Electrónicos

En este tipo de proceso se emplean las computadoras, por lo que la


intervención humana no es requerida en cada etapa. Una vez ingresados los
datos, el computador efectúa los procesos requeridos automáticamente y emite el
resultado deseado. Los procesos son realizados a velocidades increíblemente
altas, obteniendo información confiable.
Un ejemplo práctico lo tenemos en el empleo de las computadoras
personales que se usan en el hogar, para llevar los gastos diarios de la casa, ver
recetas de cocina y otros. En el trabajo, donde gracias a la PC (Computadora
Personal) permite la redacción de documentos y en la recreación, con el uso de
los video juegos, bingos y otros.

5. Importancia del Procesamiento de Datos.

La información es un activo valioso para las empresas. Por eso es tan


importante saber hacer una buena gestión de los datos. La idea es que la gestión
de los datos y la información garanticen una mejora integral de los procesos de
recogida, almacenamiento y uso de los datos.
Un simple dato puede convertirse en información útil para la empresa, ya
que son la base inicial del proceso que, con la gestión adecuada, los transforma
en información y hace que puedan aplicarse en la planificación empresarial. Un
dato suelto no dice nada, los datos por sí solos no proporcionan soluciones, la

12
empresa trata los datos en bruto y al situarlos en un contexto concreto es capaz
de interpretarlos y hacerlos partícipes de un determinado proceso, es así como se
convierte la información en conocimiento.
La importancia de los datos para una empresa radica en que permite hacer
análisis más exhaustivos y certeros que garanticen llevar a cabo movimientos en
firme asentados en información veraz que permita conocer qué está pasando,
prever lo que pueda ocurrir en el futuro y medir el rendimiento de las acciones
llevadas a cabo.
Hay empresas que, basándose únicamente en la experiencia y la intuición,
llevan a cabo estrategias que no consiguen los resultados esperados y que
suponen una gran inversión de dinero que podría reducirse si se hiciera
basándose en datos de calidad. Algunas de las ventajas principales son:

5.1. Toma de mejores decisiones y actuaciones más seguras y con más


garantías de éxito.
5.2. Ahorro en las campañas gracias a la posibilidad de focalizar
esfuerzos en los aspectos clave.
5.3. Mayor capacidad de anticipación y solución de problemas.
5.4. Conocimiento más profundo del sector y las necesidades de los
clientes.
5.5. Aumento en la probabilidad de detección de problemas.
5.6. Desarrollo e implementación de estrategias más acertadas.
5.7. Mayor capacidad de establecer objetivos realistas.
5.8. Uso de recursos de manera optimizada.
5.9. Aumento de la productividad.

13
CONCLUSIÓN.

El procesamiento de datos es una pieza fundamental en todas las áreas de las


ciencias sociales y naturales, a medida que la cantidad de datos generados por
individuos, empresas y dispositivos crece, el procesamiento eficiente y efectivo de
esos datos se convierte en una necesidad crítica. Cuando estos datos se procesan
adecuadamente, proporcionan información valiosa que puede influir en la toma de
decisiones tanto en una persona como en una empresa, a través del
procesamiento de datos, las empresas pueden ofrecer experiencias
personalizadas a los usuarios, desde recomendaciones de productos hasta
contenidos adaptados a los intereses individuales, ademas permite a las
organizaciones identificar ineficiencias, predecir fallos y mejorar procesos, con los
datos adecuados, las empresas pueden identificar oportunidades para desarrollar
nuevos productos, servicios o soluciones que satisfagan las necesidades
emergentes de los clientes, juega un papel crucial en la protección de la
información. El análisis de datos es usado además para identificar actividades
sospechosas, prevenir fraudes y garantizar que la información del usuario se
maneje de manera segura, en grandes es fundamental para mejorar los modelos
de inteligencia artificial, lo que a su vez impulsa avances en campos tan variados
como la medicina, la automoción, la finanza y el entretenimiento, con la
información derivada del procesamiento de datos, las empresas pueden entender
mejor las necesidades y comportamientos de sus clientes, lo que resulta en un
servicio más rápido, más preciso y más agradable. En áreas como la medicina, la
biología y la física el procesamiento de datos permite automatizar tareas
repetitivas, reduciendo el error humano y mejorando la eficiencia en muchos
sectores, el procesamiento de datos ha sido esencial para descubrir nuevos
conocimientos, desde la identificación de genes hasta el modelado de sistemas
complejos, desde predecir el clima hasta analizar las tendencias del mercado, el
procesamiento de datos permite mirar hacia el futuro con una base sólida,
permitiendo una mejor planificación y preparación, los procesadores de datos
seguirán siendo esenciales en esta era que es digital y que está en constante
evolución.

14
BIBLIOGRAFÍA.

GRIMAN, Rizal Elementos de Procesamientos de Datos, Publicación de la


Escuela de Computación U.C.V.

HARRIS, Martín L. Introducción al Procesamiento de Datos. Editorial


Limusa, México 1973.

VERA,Hugo. [Bi Solutions]. (16 septiembre 2021). [Archivo de Video].


¿ Qué es el procesamiento de los datos ? YouTube.
https://youtu.be/nnYUzacySjo?si=u1B1dkeV8aN4YPX9

15
El Computador Electrónico.

La denominación mas usada en el castellano es la del inglés computer,


procedente del latín “Computare”. Una computadora es una maquina digital
electrónica y programable, capaz de procesar datos a partir de un grupo de
instrucciones denominado programa, la característica principal que la distingue de
otros dispositivos similares es que puede realizar tareas muy diversas cargando
distintos programas en la memoria para que el procesador los ejecute.

Antecedentes históricos

La computadora se origina con las máquinas de cálculo, es la herramienta más


versátil, potente y revolucionaria que el ser humano ha creado, representa el punto
cumbre de la Revolución industrial, científica y tecnológica que presenció el siglo
XX después de la Segunda Guerra Mundial. Su presencia no sólo cambió para
siempre el modo de procesar la información en el mundo, sino también la manera
de trabajar y concebir el trabajo, las formas de comunicarse a larga distancia, las
formas de ocio, y muchas otras áreas de la vida cotidiana.

a historia de la computadora u ordenador refleja, que es un invento que ha


marcado un hito en la la humanidad. Comparable con la rueda o el fuego. Un
ingenio capaz de ejecutar operaciones matemáticas y lógicas a una velocidad
sorprendente. En CurioSfera-Historia.com, te explicamos su historia, su origen y
quién inventó la computadora.

Qué vas a encontrar aquí [Mostrar]

16
Origen de la computadora

Antes de conocer el origen de las computadoras debes saber que el mundo de los
cálculos matemáticos y del manejo ágil de la información, ha sido una
preocupación fundamental para el ser humano desde hace muchísimos años. Es
cierto que hace ya un par de siglos existían ciertos artefactos o máquinas
mecánicas que eran capaces de realizar cálculos simples, pero fue en el siglo XX,
cuando la electrónica causa un auténtica revolución en estos ingenios.

Historis de la computadora y su inventor

También es verdad que la invención de la máquina calculadora fue en 1645 por


parte del francés Blaise Pascal (1623-1662), agilizaba las operaciones aritméticas
complejas, pero aquello no resultaba suficiente. Siempre se sintió la necesidad de
que la mano fuera tan rápida como el pensamiento, y es que la imaginación del
hombre ha ido siempre por delante de sus posibilidades técnicas, al menos hasta
mediados del siglo XX.

El antecedente de la computadora más antiguo lo encontramos en el ábaco. Pero


esto, solo es el principio. Vamos a verlo con más detalle:

Primeras máquinas de computar

Los primeros ábacos, que muchas cronologías sitúan en 2500 a.C., consistían en
una serie de piedras que se colocaban en hileras paralelas en el suelo. Se movían
de derecha a izquierda (los egipcios), o de izquierda a derecha (los griegos), para
contar, sumar, restar y multiplicar.

17
Instrumentos parecidos al ábaco aparecen en Babilonia y China en los años 1000
y 500 a. de C., pero aún son nada más que tablas de contar. Más parecido era el
tablero de Salamis, encontrado en 1846 en la isla del mismo nombre y que se cree
que fue usado por los babilonios en tomo al 300 a. de C.

Leonardo de Pisa Fibonacci, inventor de la secuencia de Fibonacci, es el primero


en usar la expresión abacus en su obra Líber Abad, de 1202, y durante mucho
tiempo, ábaco y aritmética fueron equivalentes.

El nombre, en griego, significa “tabla”, y probablemente procede del semita aqab,


polvo o arena. Sin embargo, el ábaco, tal como lo conocemos nosotros, formado
por una serie de cuentas que se deslizan sobre cuerdas o alambres, se populariza
en China en torno a 1300, durante la dinastía Yuan.

Entre 1610 y 1617 John Napier, estudioso del Apocalipsis e inventor de los
logaritmos, desarrolla un sistema para calcular mediante varillas colocadas sobre
un tablero, también llamadas huesos de Napier, precursoras de la regla de cálculo,
que se inventa entre 1620-1630.

Probablemente fue el matemático inglés William Oughtred, amigo de Napier, quien


hacia 1621 desarrolló este instrumento, tanto en su versión rectilínea como
circular. En 1624, el matemático alemán Wílhelm Schickard construye la primera
calculadora mecánica a partir de los huesos de Napier, veinte años antes que
Pascal.

18
Se usa para cálculos astronómicos. En 1645, el matemático y físico francés Blaise
Pascal construye la segunda calculadora mecánica de la historia, la Pascalina.
Estuvo tres años construyendo la máquina, que sólo podía sumar y restar, para
ayudar a su padre, que trabajaba en Hacienda.

Inicios de la computación

En 1670, Wilhelm Leibnitz inventa el sistema binario y descubre muchos de los


aspectos matemáticos que se utilizarán en la computación moderna. Se anticipa a
Touring y diseña una máquina de calcular, la Stepped Reckoner, que realiza la
cuatro operaciones básicas.

En 1800, el matemático francés Joseph Jacquard desarrolla un sistema de tarjetas


perforadas para controlar el dibujo formado en un telar. Estamos en plena
revolución de la industria textil y según los agujeros de la tarjeta, la máquina actúa
de una manera u otra. Presentó su proyecto en Lyon en 1805.

En 1822, Charles Babbage presenta su proyecto de la máquina diferencial para


evaluar polinomios en la Royal Astronomical Society. Babbage fue la primera
persona en concebir un ordenador, pero nunca acabó de construir la máquina.

Babbage presenta en 1835, una máquina analítica basada en el funcionamiento


del telar de tarjetas perforadas de Jacquard, pero aunque trabajó en el proyecto
entre 1833 y 1842, nunca consiguió acabarlo, como le pasó con la máquina
diferencial.

En 1855, el sueco Georg Scheutz construye con éxito una máquina diferencial,
basada en el diseño de Babbage, que el Gobierno británico compra para su

19
Oficina General del Registro en 1859, aunque finalmente, la falta de fondos frustró
el proyecto.

El matemático y filósofo ingles George Boole, en 1859, publica su obra


Ecuaciones Diferenciales y sienta las bases de la denominada álgebra booleana,
una de las bases de la Ciencia Computacional. En 1885, Hermán Hollerith
construye la máquina censadora o tabuladora, que por medio de tarjetas
perforadas reducía el tiempo al realizar el censo. Es considerado el primer
informático.

En 1893, Leonardo Torres Quevedo presenta su Memoria sobre las máquinas


algebraicas y al año siguiente presenta la primera máquina construida por él. Este
ingeniero y matemático español construyó el primer transbordador aéreo que
cruza las cataratas del Niágara, el Spanish Aerocar.

Historia de la computadora siglo XIX

Se puede considerar que el pionero en esta lucha contra la limitación material, y la


capacidad espiritual fue el matemático y científico británico Charles Babbage
(1791-1871). Fue él quien primero vio la posibilidad, en 1823, de crear una
máquina que hiciera posible operaciones matemáticas que el hombre no podría
realizar a lo largo de una vida por existir.

Maquina calculadora Charles Babbage

Charles Babbage

Eran cálculos matemáticos de tal complejidad que no pueden emprenderse ya que


nadie vive lo suficiente para verlos acabados. Babbage, convenció al gobierno

20
inglés para que financiara su “ingenio analítico” capaz de solucionar todo tipo de
cálculos.

Los esfuerzos de Babbage se unieron a los de Herman Hollerith (1860-1929), que


estaba confeccionando el censo de Estados Unidos. Tenía el problema de que
apenas había terminado el censo de un ciclo temporal ya tenía que comenzar el
próximo, dad la cantidad de tiempo que llevaban los cálculos y tabulaciones.

Herman Hollerith

Herman Hollerith, fue la persona que introdujo las primeras tarjetas perforadas
para almacenar información. Con este revolucionarios sistema para la época,
consiguió reducir el tiempo a la mitad. Como curiosidad, existió una especie de
computadora que funcionó a vapor. El programa de operaciones se almacenaba
en una cinta perforada, método que todavía se seguía empleando en los años
sesenta.

La idea procedía del sistema de cartulinas perforadas utilizado en el año 1801 por
Joseph Marie Jacquard (1752-1834), para hacer que los telares urdiesen
complicados tejidos.

Pero el primer ordenador nunca llegó a completarse. De cualquier forma, si


hubiera sido desarrollado del todo, no hubiera dado resultados, ya que no existía
tecnología suficiente. Dado que funcionaba con palancas, bielas, ruedas dentadas,
engranajes pesados y lentos que no permitían realizar cálculos rápidos. Solo los
electrones, cuya velocidad se aproxima a la de la luz, podrían llevar a cabo los
sueños del padre del ordenador.

21
Historia de la computadora siglo XX

El primer esbozo de un computador moderno lo acometió en 1930, el ingeniero


alemán Konrad Zuse (1910-1995). Construyó una calculadora que ya operaba
según el modo binario: la Z1. Con aquel ingenio se podía realizar una
multiplicación compleja en tres segundos.

Konrad Zuse y su invento

Konrad Zuse y la Z1

En 1940, propuso al gobierno alemán financiar su desarrollo, crear una máquina


de pensar y resolver de forma rápida cualquier problema, pero Adolf Hitler no le
hizo caso. Se considera que en 1942 John Vincent Atanassoff inventó la primera
computadora digital. Por tanto, no si gran polémica y disputas, se considera al
ingeniero electrónico estadounidense John Vincent Atanassoff (1903-1955), el
inventor de la computadora. Pero de ello hablamos con detalle un poco más abajo.

Alan Turing pionero de la computación moderna

Al comienzo de la Segunda Guerra Mundial los especialistas ingleses en cálculo


buscaban la forma de decodificar los mensajes secretos alemanes. Encargaron el
asunto al húngaro Alan Mathison Turing (1912-1954) inventor de una máquina de
calcular que lleva su nombre.

La primera computadora se ensambló en 1943 en Bletchley, nos referimos al


computador electromecánico llamado Colossus. El enorme aparato podía tratar
cinco mil caracteres por segundo, para lo que requería de más de dos mil

22
lámparas. Esta máquina podía descifrar los mensajes de la inteligencia alemana,
pero no era exactamente un ordenador.

Al tiempo que Turing trabajaba en Londres, Estados Unidos buscaba la forma de


poner al día la máquina de Babbage. En 1944 el ingeniero Howard H.Aiken (1900-
1973) daba a conocer su máquina: el Harvard Mark 1, financiada por IBM y se
mejoró la calculadora de Babbage.

historia de los ordenadores

Paso importantísimo fue dado en 1946, con el computador electrónico ENIAC o


Electronic Numerical Integrator and Computer de John Presper Eckert (1919-1995)
y John William Mauchly (1907-1980). El invento se debió al encargo hecho a los
científicos citados por el ejército norteamericano necesitado de una máquina
rápida para calcular la trayectoria de los proyectiles.

Como curiosidad, decir que aquel aparato era inmenso. Pesaba 30 toneladas que
ocupaban una superficie de 170 m2. Su cableado tenía varios kilómetros y
utilizaba 18.000 válvulas de radio, que consumían gran cantidad de electricidad.
Pero se calentaban tanto y tan deprisa que su refrigeración suponía un problema
adicional.

A pesar de todo, el armatoste tenía una capacidad de proceso mil veces inferior a
la de un ordenador personal o PC de los años noventa, y no podía almacenar ni la
milésima parte de información.

23
Pero la llegada e introducción de la electrónica hizo posible contar con un factor
nuevo de capital importancia: la velocidad operativa. Un paso muy importante
dentro de la historia de la computadora y su evolución. El ordenador con
programación almacenada nacería hacia 1948. Lo lanzó IBM con una
revolucionaria idea fruto de las investigaciones de John von Neumann (1903-1957)
de la Universidad de Princeton, en New Jersey.

historia-de-las-computadoras-siglo-xx

La presentación de esta primera computadora electrónica de la Historia tuvo lugar


en Nueva York, el 24 de enero de 1948: el modelo IBM SSEC, dotado de 13.500
lámparas al vacío y 21.000 relés. Consistiendo su primera prueba en sumar 3.500
números de 14 cifras decimales cada uno, en un solo segundo.

Pero la computadora moderna solo fue posible con la invención del transistor en
1947. El término fue idea de Maurice Perret, científico francés a quien en 1955
pidió consejo un alto cargo de IBM sobre cómo llamar a aquellas nuevas
máquinas.

Propuso el de computadora u ordenador, término que procedía de la Teología,


donde figura como uno de los adjetivos que se aplicaban a Dios «Ordenador del
mundo». A principio de los años 60 los chips, microchips y circuitos integrados
entraban en escena. Disminuyendo el tamaño de las computadoras y aumentando
su potencia sensiblemente.

historia supercomputadoras

24
La década de 1970 fue la de las supercomputadoras o superordenadores,
máquinas pensantes que en los años ochenta ya habían llegado a una gran
perfección. El ETA 10 (1987) podía realizar 10.000 millones de operaciones por
segundo. Poco tiempo después, en 1988, la empresa Cray creó la Y-MP creaba
un supercomputador que costaba veinte millones de dólares y utilizaba tecnología
de alta densidad y un sistema de refrigeración muy eficiente.

¿Cuál es el origen de un ordenador?

El mundo de las computadoras es todavía un universo en expansión al que no se


le ve límite porque su complejidad y posibilidades son infinitas. Prueba de ellos es
que desde hace muchos años se viene cumpliendo la denominada Ley de Moore.
Esta teoría indica que aproximadamente cada dos años se consigue duplicar el
número de transistores en un microprocesador.

Quién inventó la computadora

Lo cierto es que es muy complejo atribuir a una única persona el descubrimiento o


la invención de las computadoras. Para muchos expertos, son diversas las
personas que contribuyeron con sus creaciones, ideas y conocimientos para que
este ingenio viese la luz.

Muchos investigadores concentraron sus esfuerzos en el diseño de una máquina


de cálculo digital. Pero si existe una persona a la que se le puede atribuir el primer
prototipo de computadora al ingeniero electrónico y físico Estadounidense de
origen Búlgaro John Vincent Atanassoff, nacido en New York el 4 de Octubre del
año 1903.

25
primera computadora digital de antanasoff

Atanassoff, realizó diversos estudios y experimentos sobre la realización de


cálculos matemáticos mediante aparatos o máquinas analógicas. No había otra
alternativa en su tiempo. Según palabras de Atanassoff, estos ingenios eran muy
imprecisos y lentos. Por este motivo, era necesario la invención de una máquina
de cálculo mucho más eficiente, veloz y fiable que las que existían.

No dudó en ponerse manos a la obra y en 1933 comenzó un laborioso proceso de


desarrollo e investigación sobre el tema. El objetivo final no era otro que conseguir
lo que se conoce hoy en día como el primer computador u ordenador digital. Con
la ayuda, colaboración y asistencia del ingeniero eléctrico estadounidense Clifford
Berry (1918-1963), enfocaron sus esfuerzos en cuatro pilares o conceptos:

Electrónica para los componentes operativos.

Sistema binario para la realización de cálculos.

Condensadores para el almacenamiento de datos.

Sistema lógico para la realización de cálculos.

quien invento la computadora

Tras unos pocos años, en 1942, se presentó el primer prototipo de computadora.


Le pusieron el nombre de ABC (acrónimo de Antanassoff-Berry Computers). Dicho
artefacto es considerado como la primera computadora digital del mundo.

26
Como curiosidad, decir que Antanassoff cometió el error de no patentar su invento
al momento. Esto provocó que Jhon Mauchly (1907-1980), intentara adelantarse y
les llevara a ambos a un extenso proceso judicial. Finalmente, en el año 1972, se
le otorgó el mérito de ser el padre de la computadora a Antanassoff.

Historia del ordenador personal y su inventor

Un ordenador es una máquina que procesa y almacena datos según determinadas


instrucciones. Aunque los ábacos o las calculadoras mecánicas podrían entrar
dentro de esta categoría, se consideran ordenadores aquellos aparatos que se
pusieron a funcionar a mediados del siglo XX.

¿Cuál fue la primera computadora personal?

Eran máquinas gigantes destinadas a trabajos muy específicas y que consumían


unas cantidades enormes de energía. Pero, como ocurre con todo, poco a poco se
fueron mejorando los diseños y la tecnología. Aquellos monstruos se fueron
convirtiendo en más y más pequeños. Sin embargo, en aquel tiempo a nadie le
pasaba por la cabeza tener un ordenador en casa. Simplemente, no veían ninguna
utilidad.

Los ordenadores, que también se llamaban computadoras o, incluso, cerebros


electrónicos, eran útiles para los científicos, que hacían cosas muy complicadas, o
para enviar una nave a la Luna, o quizás tenía aplicaciones militares, para
decodificar mensajes cifrados del enemigo, ¿Pero en casa?

27
De hecho, el concepto de ordenador personal no apareció hasta 1964, cuando, en
un artículo en la revista New Scientist, Arthur L. Samuel escribió: «hasta que no
sea viable obtener una educación en casa a través de nuestro ordenador personal,
la naturaleza humana no habrá cambiado.»

¿Quién creó la primera computadora personal?

En aquel tiempo se estaban empezando a aplicar los circuitos integrados que


darían lugar a una nueva generación de ordenadores. En los años setenta
aparecieron unos microordenadores que había que conectar a la pantalla del
televisor y que servían básicamente para jugar.

Los juegos eran muy sencillos vistos desde la perspectiva actual, pero aquellas
máquinas tuvieron dos efectos. Se perdió el miedo de los ordenadores y apareció
una generación de jóvenes a los que les interesaba la informática. Todo ello
permitió que en 1981, IBM hiciera historia con su primer PC. De hecho, el éxito fue
tan grande que el término ordenador personal pasó a querer decir «ordenador
compatible con un IBM».

En realidad, los ordenadores Apple habían triunfado un poco antes con un


ordenador, el Apple II, que fue un gran éxito en Estados Unidos. IBM tuvo la vista
de copiar las características de la Apple, pero con un sistema de ventas y
promoción más efectivo.

¿Quién fue el creador del PC?

28
En pocos años las empresas se llenaron de ordenadores, que permitían hacer
automáticamente mucha del trabajo que se hacía a mano. La diferencia principal
con los grandes ordenadores militares o científicos era que estas nuevas
máquinas no servían para nada en concreto y servían para todo en general.

Los ordenadores de los cohetes Apolo, podían llevar una nave hasta la Luna
calculando la trayectoria, la velocidad o la aceleración, pero no servían para nada
más. En cambio, los ordenadores personales estaban a tu disposición preparados
para funcionar según los programas que pusieras. Esta versatilidad hacía que el
mismo ordenador el utiliza el niño para jugar, el empresario para controlar pedidos,
el escritor para escribir una novela o el científico para hacer sus cálculos.

Primer ordenador accionado por voz

El primer ordenador capaz de comprender mensajes orales y responder con una


voz sintética, diseñado por los norteamericanos B. Martins y R. B. Cox en 1973,
fue realizado dos años más tarde, en 1975, por la firma británica E.M.I.-Threshold.

Las vibraciones que constituyen la voz humana pueden descomponerse en varias


sinusoides, aplicando las transformadas de Fourier; a continuación, mediante un
sistema de filtros, se miden la frecuencia y la energía de cada punto de la
sinusoide y se traduce a lenguaje binario.

Cada punto corresponde a una serie de señales (1 y 0) que reflejan la presencia o


la ausencia de 32 características fonéticas agrupadas en cinco familias. Conforme
a los principios de la lingüística: vocales, consonantes, pausas largas, pausas
cortas e implosivas.

29
El ordenador equipado con este sistema de análisis, incluye una memoria con 220
palabras de la lengua de que se trate. Cada palabra se descompone a
continuación en 16 intervalos iguales, lo que corresponde a 16 x 32 = 512 bits.

Para aprender a identificar la voz y la elocución de su usuario, el ordenador graba


la misma palabra diez veces seguidas . De ello extrae una media normativa que le
permite identificar las palabras pronunciadas (por supuesto, dentro de un
vocabulario limitado), aunque la voz del usuario varíe de tonalidad o de cadencia.

Los registros medios de cada palabra quedan grabados en un casete y la máquina


puede utilizarlas a su vez para emitir las respuestas. Este sistema, que fue
estudiado en Francia (donde no despertó ningún interés por parte de las firmas
comerciales), ha experimentado desde entonces un notable desarrollo y constituye
uno de los principales rasgos de la nueva generación de ordenadores.

Aparición de microordenador

La aparición del microordenador es fruto, esencialmente, de la concurrencia de


dos factores: la invención del microprocesador y la irritación que las dificultades de
acceso a los grandes ordenadores producía en los aficionados a la informática.

En 1974, apareció el primer prototipo, diseñado por David Ahl, un empleado de la


D.E.C., segunda firma mundial de ordenadores después de I.B.M. El aparato tenía
el tamaño de un gran televisor (de hecho, incluía una pantalla de televisión)
conectado a un teclado. Ahí lo presentó a la D.E.C., donde no despertó el más
mínimo interés. Al año siguiente, Steve Wozniak concibió independientemente un
nuevo prototipo, pero tampoco tuvo éxito. Hicieron falta nueve años para que este
invento consiguiera imponerse.

30
Estructura y funcionamientos

Consisten fundamentalmente en un gran número de circuitos integrados,


componentes de apoyo y extensiones electrónicas. Sin embargo, las
computadoras han cambiado radicalmente a lo largo de su propia y rápida historia,
pasando de ser enormes e incómodas instalaciones, a ocupar un lugar tan
pequeño como el bolsillo de nuestros pantalones, en el caso de los teléfonos
inteligentes.

La computadora es una dualidad entre hardware (parte física) y Software (parte


lógica), que interactúan entre si para una determinada función.

software: programas de aplicación, programas de soporte (sistema operativo,


compiladores, útiles),

Hardware: procesador central (Memoria principal, unidad de control, unidad


aritmética lógica) periféricos (dispositivos de entrada-salida y de auto
almacenamiento secundario).

Ventajas y desventajas

Organización de un Centro de Procesamiento de Datos

Estructura de Datos

Conceptos básicos. Campo. Registro. Archivo. Organización de Archivos.


Secuencial. Directo. Particionado. Secuencial con índices. Formas de Acceso:
Directo, secuencial, con índices

31

También podría gustarte