Shannon Fano

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 3

DEPARTAMENTO DE ELÉCTRICA Y ELECTRÓNICA

CARRERA DE ING. EN ELECTRÓNICA E


INSTRUMENTACIÓN

CONSULTA: Codificación Shannon-Fano

ASIGNATURA: SISTEMAS DE COMUNICACIONES

PROFESOR:
Ing. Cesar Alfredo Naranjo Hidalgo
INTEGRANTE:
Oscar Ivan Rodriguez

Fecha de entrega: 09-01-2020


Codificación Shannon-Fano
En el campo de la compresión de datos, la codificación Shannon-Fano es una técnica para
construir un código prefijo basado en un conjunto de símbolos y sus probabilidades
(estimadas o medidas).

No es óptimo en el sentido de que no consigue la menor longitud de palabra código


esperada posible como en la codificación Huffman; aunque a diferencia de la codificación
Huffman, garantiza que todas las longitudes de palabras de código están a un bit de su
ideal teórico – logP(x).

La técnica fue propuesta por Claude Elwood Shannon, en “Una Teoría Matemática de la
Comunicación”, su artículo de 1948 introduciendo el campo de la teoría de la
información. El método fue atribuido a Robert Fano, quien posteriormente lo publicó
como un informe técnico.

La codificación Shannon-Fano no debe confundirse con la codificación Shannon, método


de codificación usado para probar el teorema de Shannon de la codificación sin ruido, ni
con la codificación Shannon-Fano-Elias (también conocida como codificación Elias), el
precursor de la codificación aritmética.

En la codificación Shannon-Fano, los símbolos se ordenan del más al menos probable, y


se dividen en dos subconjuntos cuyas probabilidades totales son tan próximas a ser iguales
como sea posible. A continuación, todos los símbolos tendrán el primer dígito de sus
códigos asignados; los del primer subconjunto recibirán el “0” y los del segundo el “1”.

Mientras exista algún subconjunto con más de un término, se repetirá el mismo proceso
para determinar los sucesivos dígitos de sus códigos. Cuando uno de los subconjuntos ha
sido reducido a un símbolo, esto significa que el código del símbolo es completo y que
no formará el prefijo del código de ningún otro símbolo.

El algoritmo funciona, y produce codificaciones de longitud variable bastante eficientes;


cuando los dos subconjuntos producidos por una división tienen la misma probabilidad,
ya que el bit de información usado para distinguirlos se usa más eficientemente.
Desafortunadamente, Shannon-Fano no produce siempre códigos prefijos óptimos; el
conjunto de probabilidades {0.35, 0.17, 0.17, 0.16, 0.15} es un ejemplo de esto. Por esta
razón, Shannon-Fano apenas se usa; la codificación Huffman es casi tan
computacionalmente simple y produce códigos prefijos que siempre consiguen la menor
longitud esperada de palabra de código, bajo la restricción de que cada símbolo es
representado por un código formado por un número integral de bits.

Esta es una restricción a menudo innecesaria, ya que los códigos serán empaquetados de
un extremo a otro en largas secuencias. I consideramos grupos de códigos en un instante,
símbolo a símbolo la codificación Huff sólo es óptima si las probabilidades de que los
símbolos sean independientes y están elevadas a un medio, p.e., 21/2. En la mayoría de
las situaciones, la codificación aritmética puede producir mayor compresión general que
Huffman o que Shannon-Fano, ya que puede codificar en números fraccionarios de bits,
más cercanos al contenido real de información de cada símbolo. Sin embargo, la
codificación aritmética reemplazado a la de Huffman de la manera que esta sobrepasa a
Shannon-Fano, ya que la codificación aritmética es más costosa computacionalmente y
porque está sujeta a múltiples patentes. La codificación Shannon-Fano se usa en el
método de compresión IMPLODE, que es parte del formato de los archivos ZIP.

Figura 1: Diagrama de diagramas de áreas comprometidas la codificación de Shannon-


Fano

BIBLIOGRAFÍA

[1] http://www.udb.edu.sv/udb/archivo/guia/electronica-ingenieria/sistemas-de-
comunicacion-ii/2012/ii/guia-6.pdf

También podría gustarte