Analisis 2

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 7

República Bolivariana De Venezuela

Universidad Bicentenario De Aragua

Vicerrectorado Académico

Facultad de Ingeniería

Escuela De Ingeniería de Sistemas

TIPOS DE CODIFICACIÓN Y ERRORES PRESENTES


EN LA TRANSMISIÓN DE DATOS

Prof. Jackson Eduardo Pérez Alfonzo Estudiante:

Carolina Medina V.- 28.187.172

Yennifer Silva V.- 27.820.500

Patricia Suarez V.- 28.045.775

San Joaquín – Turmero


ANALISÍS

La codificación es un método para representar información


mediante un conjunto de símbolos que se combinan de acuerdo con
ciertas reglas. Existen códigos de lenguaje y escritura, como sistemas de
numeración, códigos braille, jeroglíficos, partituras musicales, etc. En
informática, los datos son información encriptada, lista para ser ingresada
y procesada por una computadora. Una vez que los datos han sido
procesados y sus resultados mostrados de una manera comprensible,
pueden verse como información.

Dentro de los tipos de codificación podemos encontrar a la


codificación binaria, donde los ordenadores la utilizan para representar la
información digital. La codificación binaria está basada en el sistema de
numeración binario, que emplea los dígitos 0 y 1. La razón de utilizar solo
dos dígitos se debe a que todos los dispositivos de un ordenador trabajan
con dos estados únicos: activado o desactivado; abierto o cerrado; pasa
corriente o no pasa corriente, etc.

Así mismo, tenemos los sistemas de numeración, que son un


conjunto de símbolos y reglas con los que representar datos numéricos.
Los sistemas de numeración son posicionales, por lo que un mismo
símbolo tiene distinto valor según la posición que ocupa.

De esta manera encontramos el sistema de numeración decimal o


arábigo, el sistema de numeración utilizado habitualmente es el decimal
con diez símbolos o dígitos que tienen un valor que depende de la
posición que ocupa. El valor de cada dígito está asociado al de una
potencia de base 10, número que coincide con la cantidad de símbolos de
sistema decimal, y un exponente igual a la posición que ocupa del dígito,
comenzando a numerar desde la posición cero.

De igual forma tenemos el sistema de numeración binario, el cual


utiliza tan solo dos dígitos (0 y 1). Donde el valor de cada dígito está
asociado al de una potencia de base 2, coincidiendo con la cantidad de
símbolos del sistema binario, además de un exponente igual a la posición
que ocupa el dígito, comenzando a numerar desde la posición cero. La
notación que se suele utilizar para distinguir a los números binarios es el
sufijo 2.

Ahora bien, tenemos la conversión del sistema decimal a binario,


que consiste en dividir el número decimal entre 2, cuyo resultado entero
se vuelve a dividir entre 2, y así sucesivamente hasta que el dividendo
sea menor que el divisor. El número binario se forma ordenando el último
cociente y todos los restos en orden inverso a como se han obtenido. Por
otro lado podemos decir que el proceso para convertir un número del
sistema binario al decimal es aún más sencillo; basta con desarrollar el
número.

Por consiguiente sabemos que las unidades de medida de la


información son unidades de medición que determinan la cantidad de
espacio libre disponible en una unidad de memoria. Le llamamos unidad
de medida de información al registro de espacio en un determinado
dispositivo para el registro permanente o temporal de datos e
información. También se puede decir que una unidad de medida de
información es una actividad que se realiza con la ventaja de optimizar el
rendimiento y aprovechar todo el espacio que existe en una unidad.

Dentro de los tipos de unidades de medidas de la información


podemos encontrar:

 El bit o dígito binario: siendo este la unidad de información


más pequeña que el procesador manipula y físicamente se
representa con un elemento como un pulso o un punto.
 El byte o unidad de almacenamiento: este cuenta con 8 bits.
Equivale a un sólo carácter, como una letra o un número.
 El kilobyte (kB): que equivale a 1.024 bytes y a menudo es la
unidad en la que se registra el almacenamiento de archivos
pequeños como documentos de texto o imágenes en baja
resolución.
 El megabyte (MB): el cual equivale a más de un millón de
bytes, y comúnmente archivos de tamaño considerable se
almacenan en esta unidad. Por ejemplo, imágenes en alta
resolución, archivos, carpetas, documentos y hasta
programas.
 El gigabyte (GB): que equivale a mil millones de bytes. Es la
unidad que más típicamente se maneja hoy en día, y los
ordenadores más comunes proveen de un espacio de más
de 100 GB para memoria. Los archivos de todo un
ordenador de tamaño considerable se miden en GB.
 El terabyte (TB): el cual equivale a 1024 Gigabytes y es una
medida que se utiliza para referir a ordenadores de alta
complejidad.

Dicho esto podemos hablar del código ASCII, el cual es un


estándar para la representación de caracteres en dispositivos
electrónicos. Para entender lo que significa es necesario conocer cómo
funciona un ordenador: en él los procesos de cálculo se basan siempre en
el sistema binario, lo que significa que ceros y unos determinan las
operaciones. Por ello, ASCII se erige sobre este sistema. El estándar
ASCII original define diversos caracteres en siete bits, es decir, siete
posiciones que muestran 0 o 1. El octavo bit, que pertenece a un byte
completo, se utiliza normalmente para los análisis. Las versiones
ampliadas basadas en el American Standard Code for Information
Interchange emplean dicho bit para incrementar los caracteres existentes
a 256 (28). Así, a cada carácter le corresponde una secuencia de 7 cifras
formada por ceros y unos, que pueden aparecer como números
decimales o hexadecimales. Los caracteres ASCII se reparten en varios
grupos:

 Caracteres de control (0–31 & 127): los caracteres de control


no son caracteres imprimibles. Estos transmiten comandos
al PC o a la impresora y se basan en técnicas de teletipo.
Con ellos también se pueden colocar saltos de línea o
tabuladores, aunque muchos apenas se utilizan en la
actualidad.
 Caracteres especiales (32–47 / 58–64 / 91–96 / 123–126):
estos comprenden todos los imprimibles que no son ni letras
ni números, como, por ejemplo, los signos de puntuación o
los símbolos matemáticos. También se incluye el espacio en
blanco, que es considerado como carácter imprimible pero
no visible y, por lo tanto, no pertenece a los caracteres de
control como se podría suponer.
 Números (30–39): los números engloban las diez cifras
árabes del cero al nueve.
 Letras (65–90 / 97–122): las letras se dividen en dos
bloques, el primero para las mayúsculas y el segundo para
las minúsculas.

Por otro lado podemos ver que en la transmisión de datos se


pueden presentar diversos errores y las técnicas de detección y
corrección de estos errores se engloban en uno de los dos métodos
siguientes: la petición automática de repetición (ARQ, Automatic Repeat
Request), que consiste en pedir al transmisor que vuelva a enviar la
información si se ha detectado algún error. Y la corrección avanzada del
error (FEC, Forward Error Correction), que consistente en corregir, desde
el propio receptor, los errores que se vayan detectando, sin necesidad de
que el emisor vuelva a enviar la misma información.
Ahora bien, el código de corrección de errores no solo indica la
existencia de un error, sino que también proporciona información sobre
los dígitos incorrectos y, por lo tanto, permite corregir el error invirtiendo
el bit correspondiente. Para corregir el error, la distancia mínima del
código debe ser superior a dos. Si la distancia mínima del código es tres,
esto permite la detección de errores de dos bits o la corrección de errores
de un bit. Existen algunos métodos de detección de errores muy sencillos
(paridad, checksum) y otros más complejos que permiten, además, la
corrección de errores (Hamming, CRC).

Uno de los métodos de detección de errores más utilizados,


cuando el número de bits de información a transmitir es bajo y la
probabilidad de error es baja, es utilizar un bit de paridad adicional para
cada elemento transmitido. Se puede lograr una mejora significativa
agregando un segundo conjunto de bits de paridad, como se puede ver en
la siguiente tabla. Para hacer esto, los datos deben agruparse en bloques
y las verificaciones de paridad deben aplicarse a ambas dimensiones
(filas y columnas). Se agrega un bit de paridad para cada carácter, como
en el caso anterior. Además, se genera un bit de paridad para cada
posición de bit en todos los caracteres. Es decir, se produce un carácter
adicional donde el i-ésimo bit del carácter es el bit de paridad para el i-
ésimo bit de todos los caracteres del bloque.

Del mismo modo, tenemos el sistema más simple de detección de


errores que es el llamado Checksum, o suma de comprobación. Se basa
simplemente en añadir al final del bloque de datos la suma de todos ellos.
El receptor debe comprobar que este dato se corresponde efectivamente
con la suma de los datos recibidos. De no ser así, es que ha ocurrido un
error, por lo que debe pedir al transmisor que repita el bloque de datos.
Mediante este método el transmisor envía, inmediatamente después de
los n bytes o paquetes de datos en los que se divide la información, un
valor adicional como resultado de la suma de los mismos). El receptor
efectúa la misma operación y compara el valor de la suma obtenido con el
valor de la suma recibido para detectar, si son distintos. Este puede
detectar errores en los bits de datos, pero no puede corregirlos.

Ahora bien, mediante el código de corrección de errores de


Hamming, es posible no solo detectar sino también corregir errores que
han ocurrido en la secuencia de información en el receptor. La detección y
corrección de errores en un sistema de transmisión de información
depende de la inclusión de redundancia en la cadena de transmisión, es
decir información agregada a los datos que permite dar una pequeña
descripción de los mismos datos. El número de errores que se deben
detectar o corregir en un sistema con códigos de Hamming depende de la
distancia de Hamming "d".

Gracias a las técnicas de detección de errores podemos detectar


las irregularidades que a veces se presentan a la hora de la transmisión
de datos. Esto es de vital importancia ya que nos permite detectar el error
para después implementar una técnica de corrección de acorde al error
que haya ocurrido y así poder mantener una transmisión segura de los
datos.

Link

https://youtu.be/_ZLw6hlaQ3I

También podría gustarte