Escolar Documentos
Profissional Documentos
Cultura Documentos
Entropia Condicional
A incerteza acerca de X dado que Y=y pode ser definida como:
Teorema
Se X e Y são duas variáveis aleatórias que assumem um H ( X | Y = y) = −∑ p( x = xi | Y = y)log 2 p( x = xi | Y = y)
número finito de valores, então i
A entropia condicional H(X|Y) chamada equivocação de X em
H(X,Y) ≤ H(X) + H(Y) relação a Y, será o valor médio esperado ponderado para
todas as possíveis ocorrências de Y:
Teorema
(1) H ( X , Y ) = H ( X ) + H (Y | X ) = H (Y ) + H ( X | Y ) p ( a , b ) = p (b ) p ( a | b ) = p ( a ) p (b | a )
(3) p( xi ) = ∑ p( xi , y j )
j H(X,Y)=H (Y)+H(X|Y).
Para provar (1) sabendo de (2) e (3)
sabendo que
H ( X , Y ) = −∑ p ( xi , y j )log 2 p ( xi , y j )
i, j log( p ( xi , y j ) ) = log( p ( y j ) p ( xi / y j ) ) =
(
= −∑ p ( xi , y j )log 2 p( xi ) p ( y j | xi ) ) log( p ( y j ) ) + log( p ( xi / y j ) )
i, j
= −∑ log 2 p ( xi )∑ p ( xi , y j ) − ∑ p( xi , y j )log 2 p ( y j | xi )
i j i, j
= −∑ p ( xi )log 2 p( xi ) + H (Y | X )
i
= H ( X ) + H (Y | X )
1
Resolução
Exemplo 1: Em Sistemas de memória usamos bits de paridade para b é um gerador deparidade par
detectar erros. a a
Seja A uma fonte de informação com alfabeto A = {0, 1, 2, 3}. Seja cada Sendo: 00 01 10 11 00 01 10 11
símbolo an igualmente provável e 0 1 0 0 1
0 1/2 0 0 1/2 b
seja B = {0,1} um gerador de paridade par com função b
1 0 1/2 1/2 0 1 0 1 1 0
0, se a = 0 ou a = 3 p(a/b) p(b/a)
bj
1, se a = 1 ou a = 2 p(ai)=1/4 e p(bi)=1/2