Este documento describe diferentes tipos de codificación de datos como la codificación binaria y sistemas de numeración como el decimal y binario. También habla sobre unidades de medida de información como el bit, byte, kilobyte y más. Explica el código ASCII y métodos para detectar y corregir errores en la transmisión de datos como la paridad, checksum, códigos de corrección de errores y ARQ.
0 calificaciones0% encontró este documento útil (0 votos)
30 vistas7 páginas
Este documento describe diferentes tipos de codificación de datos como la codificación binaria y sistemas de numeración como el decimal y binario. También habla sobre unidades de medida de información como el bit, byte, kilobyte y más. Explica el código ASCII y métodos para detectar y corregir errores en la transmisión de datos como la paridad, checksum, códigos de corrección de errores y ARQ.
Este documento describe diferentes tipos de codificación de datos como la codificación binaria y sistemas de numeración como el decimal y binario. También habla sobre unidades de medida de información como el bit, byte, kilobyte y más. Explica el código ASCII y métodos para detectar y corregir errores en la transmisión de datos como la paridad, checksum, códigos de corrección de errores y ARQ.
Este documento describe diferentes tipos de codificación de datos como la codificación binaria y sistemas de numeración como el decimal y binario. También habla sobre unidades de medida de información como el bit, byte, kilobyte y más. Explica el código ASCII y métodos para detectar y corregir errores en la transmisión de datos como la paridad, checksum, códigos de corrección de errores y ARQ.
Descargue como DOCX, PDF, TXT o lea en línea desde Scribd
Descargar como docx, pdf o txt
Está en la página 1de 7
República Bolivariana De Venezuela
Universidad Bicentenario De Aragua
Vicerrectorado Académico
Facultad de Ingeniería
Escuela De Ingeniería de Sistemas
TIPOS DE CODIFICACIÓN Y ERRORES PRESENTES
EN LA TRANSMISIÓN DE DATOS
Prof. Jackson Eduardo Pérez Alfonzo Estudiante:
Carolina Medina V.- 28.187.172
Yennifer Silva V.- 27.820.500
Patricia Suarez V.- 28.045.775
San Joaquín – Turmero
ANALISÍS
La codificación es un método para representar información
mediante un conjunto de símbolos que se combinan de acuerdo con ciertas reglas. Existen códigos de lenguaje y escritura, como sistemas de numeración, códigos braille, jeroglíficos, partituras musicales, etc. En informática, los datos son información encriptada, lista para ser ingresada y procesada por una computadora. Una vez que los datos han sido procesados y sus resultados mostrados de una manera comprensible, pueden verse como información.
Dentro de los tipos de codificación podemos encontrar a la
codificación binaria, donde los ordenadores la utilizan para representar la información digital. La codificación binaria está basada en el sistema de numeración binario, que emplea los dígitos 0 y 1. La razón de utilizar solo dos dígitos se debe a que todos los dispositivos de un ordenador trabajan con dos estados únicos: activado o desactivado; abierto o cerrado; pasa corriente o no pasa corriente, etc.
Así mismo, tenemos los sistemas de numeración, que son un
conjunto de símbolos y reglas con los que representar datos numéricos. Los sistemas de numeración son posicionales, por lo que un mismo símbolo tiene distinto valor según la posición que ocupa.
De esta manera encontramos el sistema de numeración decimal o
arábigo, el sistema de numeración utilizado habitualmente es el decimal con diez símbolos o dígitos que tienen un valor que depende de la posición que ocupa. El valor de cada dígito está asociado al de una potencia de base 10, número que coincide con la cantidad de símbolos de sistema decimal, y un exponente igual a la posición que ocupa del dígito, comenzando a numerar desde la posición cero.
De igual forma tenemos el sistema de numeración binario, el cual
utiliza tan solo dos dígitos (0 y 1). Donde el valor de cada dígito está asociado al de una potencia de base 2, coincidiendo con la cantidad de símbolos del sistema binario, además de un exponente igual a la posición que ocupa el dígito, comenzando a numerar desde la posición cero. La notación que se suele utilizar para distinguir a los números binarios es el sufijo 2.
Ahora bien, tenemos la conversión del sistema decimal a binario,
que consiste en dividir el número decimal entre 2, cuyo resultado entero se vuelve a dividir entre 2, y así sucesivamente hasta que el dividendo sea menor que el divisor. El número binario se forma ordenando el último cociente y todos los restos en orden inverso a como se han obtenido. Por otro lado podemos decir que el proceso para convertir un número del sistema binario al decimal es aún más sencillo; basta con desarrollar el número.
Por consiguiente sabemos que las unidades de medida de la
información son unidades de medición que determinan la cantidad de espacio libre disponible en una unidad de memoria. Le llamamos unidad de medida de información al registro de espacio en un determinado dispositivo para el registro permanente o temporal de datos e información. También se puede decir que una unidad de medida de información es una actividad que se realiza con la ventaja de optimizar el rendimiento y aprovechar todo el espacio que existe en una unidad.
Dentro de los tipos de unidades de medidas de la información
podemos encontrar:
El bit o dígito binario: siendo este la unidad de información
más pequeña que el procesador manipula y físicamente se representa con un elemento como un pulso o un punto. El byte o unidad de almacenamiento: este cuenta con 8 bits. Equivale a un sólo carácter, como una letra o un número. El kilobyte (kB): que equivale a 1.024 bytes y a menudo es la unidad en la que se registra el almacenamiento de archivos pequeños como documentos de texto o imágenes en baja resolución. El megabyte (MB): el cual equivale a más de un millón de bytes, y comúnmente archivos de tamaño considerable se almacenan en esta unidad. Por ejemplo, imágenes en alta resolución, archivos, carpetas, documentos y hasta programas. El gigabyte (GB): que equivale a mil millones de bytes. Es la unidad que más típicamente se maneja hoy en día, y los ordenadores más comunes proveen de un espacio de más de 100 GB para memoria. Los archivos de todo un ordenador de tamaño considerable se miden en GB. El terabyte (TB): el cual equivale a 1024 Gigabytes y es una medida que se utiliza para referir a ordenadores de alta complejidad.
Dicho esto podemos hablar del código ASCII, el cual es un
estándar para la representación de caracteres en dispositivos electrónicos. Para entender lo que significa es necesario conocer cómo funciona un ordenador: en él los procesos de cálculo se basan siempre en el sistema binario, lo que significa que ceros y unos determinan las operaciones. Por ello, ASCII se erige sobre este sistema. El estándar ASCII original define diversos caracteres en siete bits, es decir, siete posiciones que muestran 0 o 1. El octavo bit, que pertenece a un byte completo, se utiliza normalmente para los análisis. Las versiones ampliadas basadas en el American Standard Code for Information Interchange emplean dicho bit para incrementar los caracteres existentes a 256 (28). Así, a cada carácter le corresponde una secuencia de 7 cifras formada por ceros y unos, que pueden aparecer como números decimales o hexadecimales. Los caracteres ASCII se reparten en varios grupos:
Caracteres de control (0–31 & 127): los caracteres de control
no son caracteres imprimibles. Estos transmiten comandos al PC o a la impresora y se basan en técnicas de teletipo. Con ellos también se pueden colocar saltos de línea o tabuladores, aunque muchos apenas se utilizan en la actualidad. Caracteres especiales (32–47 / 58–64 / 91–96 / 123–126): estos comprenden todos los imprimibles que no son ni letras ni números, como, por ejemplo, los signos de puntuación o los símbolos matemáticos. También se incluye el espacio en blanco, que es considerado como carácter imprimible pero no visible y, por lo tanto, no pertenece a los caracteres de control como se podría suponer. Números (30–39): los números engloban las diez cifras árabes del cero al nueve. Letras (65–90 / 97–122): las letras se dividen en dos bloques, el primero para las mayúsculas y el segundo para las minúsculas.
Por otro lado podemos ver que en la transmisión de datos se
pueden presentar diversos errores y las técnicas de detección y corrección de estos errores se engloban en uno de los dos métodos siguientes: la petición automática de repetición (ARQ, Automatic Repeat Request), que consiste en pedir al transmisor que vuelva a enviar la información si se ha detectado algún error. Y la corrección avanzada del error (FEC, Forward Error Correction), que consistente en corregir, desde el propio receptor, los errores que se vayan detectando, sin necesidad de que el emisor vuelva a enviar la misma información. Ahora bien, el código de corrección de errores no solo indica la existencia de un error, sino que también proporciona información sobre los dígitos incorrectos y, por lo tanto, permite corregir el error invirtiendo el bit correspondiente. Para corregir el error, la distancia mínima del código debe ser superior a dos. Si la distancia mínima del código es tres, esto permite la detección de errores de dos bits o la corrección de errores de un bit. Existen algunos métodos de detección de errores muy sencillos (paridad, checksum) y otros más complejos que permiten, además, la corrección de errores (Hamming, CRC).
Uno de los métodos de detección de errores más utilizados,
cuando el número de bits de información a transmitir es bajo y la probabilidad de error es baja, es utilizar un bit de paridad adicional para cada elemento transmitido. Se puede lograr una mejora significativa agregando un segundo conjunto de bits de paridad, como se puede ver en la siguiente tabla. Para hacer esto, los datos deben agruparse en bloques y las verificaciones de paridad deben aplicarse a ambas dimensiones (filas y columnas). Se agrega un bit de paridad para cada carácter, como en el caso anterior. Además, se genera un bit de paridad para cada posición de bit en todos los caracteres. Es decir, se produce un carácter adicional donde el i-ésimo bit del carácter es el bit de paridad para el i- ésimo bit de todos los caracteres del bloque.
Del mismo modo, tenemos el sistema más simple de detección de
errores que es el llamado Checksum, o suma de comprobación. Se basa simplemente en añadir al final del bloque de datos la suma de todos ellos. El receptor debe comprobar que este dato se corresponde efectivamente con la suma de los datos recibidos. De no ser así, es que ha ocurrido un error, por lo que debe pedir al transmisor que repita el bloque de datos. Mediante este método el transmisor envía, inmediatamente después de los n bytes o paquetes de datos en los que se divide la información, un valor adicional como resultado de la suma de los mismos). El receptor efectúa la misma operación y compara el valor de la suma obtenido con el valor de la suma recibido para detectar, si son distintos. Este puede detectar errores en los bits de datos, pero no puede corregirlos.
Ahora bien, mediante el código de corrección de errores de
Hamming, es posible no solo detectar sino también corregir errores que han ocurrido en la secuencia de información en el receptor. La detección y corrección de errores en un sistema de transmisión de información depende de la inclusión de redundancia en la cadena de transmisión, es decir información agregada a los datos que permite dar una pequeña descripción de los mismos datos. El número de errores que se deben detectar o corregir en un sistema con códigos de Hamming depende de la distancia de Hamming "d".
Gracias a las técnicas de detección de errores podemos detectar
las irregularidades que a veces se presentan a la hora de la transmisión de datos. Esto es de vital importancia ya que nos permite detectar el error para después implementar una técnica de corrección de acorde al error que haya ocurrido y así poder mantener una transmisión segura de los datos.