Escolar Documentos
Profissional Documentos
Cultura Documentos
• Usando:
p(xi) = probabilidad de entrada
p(yj) = Probabilidad de Salida
p(yj/xi)= probabilidad de Transición
p(xi,yi) = Probabilidad conjunta
• Se pueden definir varias funciones de Entropía para un canal con N entradas y M salidas.
Ellas son:
Incertidumbre promedio
n
H ( x) p( xi ) log 2 p( xi )
de la fuente
i 1 Incertidumbre promedio
m
de la recepción de un
H ( y ) p( y j ) log 2 p( y j )
i 1
símbolo
Entropía Condicional y conjunta
Incertidumbre promedio
n m
respecto de qué símbolo
H ( y / x ) p( xi , y j ) log 2 p( y j / xi ) recibiremos dado que se ha
i 1 j 1
transmitido x
n m
H ( x, y ) p( x i, y j ) log 2 p( xi , y j )
i 1 j 1
Incertidumbre promedio del
– Otra Entropía útil es: sistema de comunicaciones
como un todo
n m
H ( x / y ) p( x i, y j ) log 2 p( xi / y j )
i 1 j 1
H ( x, y) H ( x | y) H ( y) (2)
H ( x, y) H ( y | x) H ( x) (3)
H(X | Y) H(X )
Entropía de Incertidumbre promedio
Equivocación de la fuente
Incertidumbre
I ( X ;Y ) H ( X ) H ( X | Y ) promedio de la - Entropía de
Equivocación
fuente
I X ; Y 1 log 2 n
n
C máx
i 1 n C log 2 n
Capacidad de Canal
• Ejercicio: Encuentre la capacidad del canal, en un canal binario simétrico.
– Nota: Este problema tiene una importancia tremenda en el área de la comunicaciones
digitales binarias.
p
P( x1 ) x1 y1
q q
P( x2 ) 1 x2 y2
p
– Determinaremos la capacidad, maximizando:
– Donde: I ( X ; Y ) H (Y ) H (Y | X )
2 2
H ( y / x ) p( x i, y j ) log 2 p( y j / xi )
i 1 j 1
Capacidad de Canal
• Usando las probabilidades de:
P( x1 ) x1
p y1
q q
P( x2 ) 1 x2 y2
p
• Se obtiene:
H (Y / X ) p log 2 p (1 ) p log 2 p q log 2 q (1 )q log 2 q
•ó
H (Y / X ) p log 2 p q log 2 q
• Así:
I ( X ; Y ) H (Y ) p log 2 p q log 2 q
Capacidad de Canal
I ( X ; Y ) H (Y ) p log 2 p q log 2 q
• Si p=0 ó 1 la salida del canal está completamente determinado por la entrada del
canal, y la capacidad es 1 bit por símbolo.
• Si p=1/2, un símbolo en la entrada nos lleva a cualquier salida con igual
probabilidad y la capacidad es cero.
Sistemas de Comunicaciones
543 246
Tópicos de Cuantización digital
Dr. Luis Arias Parada
Departamento Ingeniería Eléctrica
luiarias@udec.cl
Cuantización
• Proceso que sigue del muestreo de señales análogas
• Consiste básicamente en representar una señal en el
tiempo discreto, en que cada muestra es representada por
un número finito de bits.
• Intuitivamente, el proceso de cuantización es un proceso
de “redondeo”, en el que cada valor proveniente de la señal
muestreada es redondeada al “valor mas cercano” de un
set finito de posibles niveles de cuantización
• El siguiente paso es la “codificación” a una representación
binaria.
Cuantización
• Cuantización Escalar Uniforme
– Cada muestra tomada en el tiempo i, xi es cuantizada a
uno de los finitos valores de niveles de cuantización x̂k
– En este caso, el set de números reales es particionado en N
regiones denotadas por k, tal que 1kN
– La función de cuantización escalar es definida por:
La Fig. muestra un
ejemplo de
cuantización de 8
niveles. En este
esquema se han
definido 8
regiones:
1=(-,a1],
2=(a1,a2], …, y
8=(a7,+),
Cuantización Escalar
• Note que en el proceso de “redondeo” existe una
distorsión (pérdida inherente de información).
• En la medida que el set de números reales es
particionado en un número N de regiones k mayor (tal
que 1kN), entonces esa pérdida inherente de
información es menor.
• Una función que define el promedio de distorsión
resultante producto de la cuantización es el squared-
error-distortion, definida como x x 2
• En esta función, x es la señal muestreada y x^ es la señal
cuantizada, esto es, xˆ Qx
Cuantización escalar
• La medida de distorsión
(squared error distortion)
se obtiene entonces como: d x, x x Qx ~
2
x2
i 1 i
a1 7
2
D x x1 f x x dx
i
x xi 2 f x x dx x x8 2 f x x dx
i 2 a8
x x 2
f x x
1 2
e
2
SQNR
E x2
E x Qx
2
• (veamos para el ejemplo anterior!)
Codificación
• El proceso de codificación consiste en asignar
una secuencia de bits a los diferentes niveles
de cuantización.
• Si existe un total de regiones N=2v entonces v
bits son necesarios para codificar.
Ej. Codificación
• 8 niveles de
cuantización
• v=log2N=log28=3bits
Teorema de codificación de fuentes
• Una fuente con entropía H puede ser codificada con
una probabilidad de error arbitrariamente pequeña,
a una tasa R promedio (bits/simbolos) siempre y
cuando RH.
• Este teorema, propuesto por Shannon (1948) solo
indica las condiciones suficientes y necesarias para la
existencia de codigos de fuentes, sin proveer un
algoritmo específico de codificación.
Algoritmo de Huffman para codificación de
fuentes
5
15 bits
log 2 2 log 2 4 log 2 8 log 2 16 log 2 16
1 1 1 1 1 1
H (a) P(ai ) log 2
i 1 P(ai ) 2 4 8 16 16 8 simb
1 1 1 1 1 15 bits
Rmean 1 2 3 4 4
2 4 8 16 16 8 simb
Algoritmo de Huffman para codificación de
fuentes (Ej.)
Código Huffman de largo variable Desventaja de Huffman: Asociado a probabilidades de los elementos de la fuente.
Ordene en orden de
0 a1 1/2 0 probabilidad decreciente los
elementos.
Agrupe los 2 elementos
0 menos probables.
10 a2 1/4
Continúe agrupando los dos
elementos menos
1/2
probables hasta llegar a un
0 número de elementos de 2
110 a3 1/8 1
Asigne 0 y 1 a las ramas.
1 Concatene, y listo !
5
15 bits
log 2 2 log 2 4 log 2 8 log 2 16 log 2 16
1 1 1 1 1 1
0 H (a) P(ai ) log 2
1110 a4 1/16 1/4
i 1 P(ai ) 2 4 8 16 16 8 simb
1 1 1 1 1 1 15 bits
Rmean 1 2 3 4 4
1/8 2 4 8 16 16 8 simb
1
1111 a5 1/16
Otros Ejs. de Codificación
• Natural Binary Code
Nivel Orden de NBC Gray
Cuantización Nivel Code Code
x̂1 0 000 000
NBC x̂2 1 001 001
x̂3 2 010 011
• Gray Code x̂4 3 011 010
x̂5 4 100 100
x̂6 5 101 111