Infromatica 3.1

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 3

A) Definir Bit, Byte, Hertz y los estándares de codificación: 

BCD, EBCDIC, ASCII, ASCII


Extendido y Unicode

Bits: Un BIT (binary digit), o sea digito binario, como ya habíamos dicho en la unidad 1, es la
unidad de datos más pequeña que una computadora puede reconocer y utilizar, bit puede tener
valor de 0 y 1.

Byte: es el conjunto o reunión de 8 bits, siendo esta la unidad de medida de memoria de un


computador. Esta unidad puede representar hasta 256 símbolos o caracteres distintos, debido a
que la secuencia de bits o de ceros y unos en un byte, se pueden combinar de 256 maneras
distintas.

Hertz: un Hertz o hertzio, es igual a un ciclo por segundo, utilizando para medir la frecuencia en
que se realizan los procesos en un computador. Las computadoras tienen un reloj que mide su
velocidad de operación llamado reloj interno o del sistema.

Estándar de codificación: es un paradigma de programación que busca reducir el número de


decisiones que el desarrollador tiene que tomar al momento de escribir su código.

BCD: código decimal binario, fue uno de los sistemas completos para representar símbolos con
bits. Los códigos BCD consisten de códigos de 6 bits, los cuales permiten un máximo de 64
símbolos posibles.

EBCDIC: (Código de Intercambio de Decimal Codificado en Binario Extendido): Este es un código de


8 bits que define 256 símbolos, este aún se usa en mainframes y sistemas de rango medio de IBM.

ASCII (American Standard Code Information Interchange), código estándar estadounidense para el
intercambio de información, fue creado para representar símbolos con bit de datos. Utiliza 7 bits,
lo que significa que puede presentar solo 127 caracteres.

ASCII extendido: Es un código de 8 bits que especifica los caracteres que van desde los valores del
128 al 255. Los primeros 40 símbolos, representan pronunciaciones y puntuaciones especiales. Los
símbolos restantes son símbolos gráficos.

UNICODE (Norma de código único para caracteres mundiales): Como su nombre lo indica, este
código viene a resolver las limitaciones de los anteriores, porque proporciona hasta 4 bytes (32
bits) para representar cada letra, número o símbolo. Con el uso de 4 bytes, se pueden crear
suficientes códigos Unicode para representar más de 4 billones de caracteres y símbolos únicos en
el mundo, incluyendo a los vastos conjuntos de caracteres de los idiomas chino, coreano, japonés.
a) Completar el cuadro y especificar las medidas usadas para el almacenamiento
(Byte), procesamiento (Hertz) a fin de conocer estas unidades básicas y sus
diferentes múltiplos.   

Múltiplos de la Unidad Valor o cantidad bytes Equivalente


de Almacenamiento

Byte 8 bits 1 byte

Kilobyte (KB) Mil bytes 1000 bytes

Megabyte  Mil Kilobytes 10^6 bytes

Gigabytes. Mil Megabytes 10^9 bytes

Terabyte Mil Gigabytes 10^12 bytes

Petabytes Mil Terabytes 10^15 bytes

Exabyte Mil Petabytes 10^18 bytes

Zettabyte Mil Exabytes 10^21 bytes

Yottabyte Mil Zettabyte 10^24 bytes

También podría gustarte