Escolar Documentos
Profissional Documentos
Cultura Documentos
Teoria Da Informacao
Teoria Da Informacao
11111111111111111111, que no
i=1:20 print 1 en-
10111000110001111000,
10111000110001111000.
O presente texto foi elaborado com base no segundo captulo do livro Elements of Information Theory , que apresenta os conceitos fundamentais da
teoria. Estes conceitos foram descritos nos moldes apresentados pelos autores
do livro, acrescentando exemplos e simplicaes desenvolvidos pelo autor do
presente texto ou publicados na fonte Wikipedia.
Entropia
O conceito de informao muito amplo para ser capturado por uma nica
denio. No entanto, para qualquer distribuio de probabilidades, possvel
denir uma quantidade denominada entropia que tem muitas propriedades
que esto de acordo com a noo intuitiva do que uma medida de informao
deveria ser. Entropia a medida de incerteza de uma varivel aleatria, dada
pela equao
H=
No exemplo dos lances da moeda honesta, a entropia dos evento cara de 1 bit,
assim como a entropia do evento coroa; a mdia ponderada (com probabilidade
0.5
1 bit.
h, p h e H
p=0
ou
p = 1,
pois
h, p h
p de
log(1/p); a entropia
dada por p log(1/p); a
h)
0 ou 1. Se os eventos A, B, C e D
= 0.25 cada), a codicao tima para cada
evento deve conter 2 bits (11, 10, 01 e 00, respectivamente), conforme descrito
pela frmula de entropia do evento (h). A entropia das mensagens, dada pela
01, 001
000,
do evento (h).
1.75
feita por
A
x log(x)
tende a zero
tende a zero (ver Figura 1). Assim, a adio de termos com probabil-
0 pi 1,
A prova
o que implica em
H(X; Y )),
I(X; Y )).
da Figura 2.
"
1
H(X; Y ) =
x
y px;y log px;y . Essa
denio no realmente nova, pois X; Y pode ser considerada uma varivel
aleatria nica, com uma distribuio probabilstica de eventos xi e yi concatenados, na forma xi &yi . Dessa forma, a equao da entropia para uma varivel
aleatria pode ser usada para quanticao da entropia conjunta, H(X; Y ) =
H(X&Y ) = px&y 1/px&y .
1
A entropia condicional dada por H(X|Y ) =
x
y px;y log py|x . Uma
estratgia simples de clculo H(X|Y ) = H(X; Y ) H(Y ), em que os valores
H(X; Y ) e H(Y ) podem ser calculados pela equao da entropia para uma
varivel aleatria. Note que H(X|Y ) geralmente difere de H(Y |X); no entanto,
h a propriedade H(X) H(X|Y ) = H(Y ) H(Y |X), uma forma de obter a
A entropia conjunta dada por
Distncia
A distncia de KullbackLeibler, tambm chamada de entropia relativa, uma
medida da distncia entre duas distribuies de probabilidade. A distncia de
KullbackLeibler
D(p||q) =
pi log(pi /qi ) =
pi log(1/qi ) pi log(1/pi )
as probabilidades do evento
de probabilidade
p e q.
bits (11,
10, 01
q,
de
os eventos envolveria
q para distribuio
p de D(p||q) = 0.25 bit. Nesse caso, a D(p||q) observada foi igual
diferena entre H(p) e H(q), porm essa relao encontrada apenas em alguns
mdia por evento descrito pela codicao para distribuio
verdadeira
casos.
qi = 0.5,
0.125 (h(qi ) = 1, 2, 3 e 3 bits e H(q) = 1.75 bits) e distribuio
verdadeira dada por pi = 0.125, 0.125, 0.25 e 0.5 (h(pi ) = 3, 3, 2 e 1 bits e
H(p) = 1.75 bits). Nesse caso, a inecincia para os eventos seria de log(pi /qi ) =
=2, =1, 1 e 2 bits, e as inecincias ponderadas pelas probabilidades verdadeiras
seriam pi log(pi /qi ) = =0.25, =0.125, 0.25 e 1 bit, respectivamente. Assim, a
inecincia mdia por evento descrito pela codicao para distribuio q para
distribuio verdadeira p seria de D(p||q) = 0.875 bit.
em que os eventos A, B, C e D tm distribuio esperada dada por
0.25, 0.125
Assim, se a verdadeira distribuio de uma varivel aleatria fosse conhecida, seria possvel construir um cdigo com descrio mdia de tamanho
H(p).
necessrios
H(p) + D(p||q)
q,
seriam
dadeira
por
log(pi /qi ))
e a soma
Note que os
pi
0 log(0/q) = 0
p log(p/0) =
so usadas na teoria da
p,
q1
q2
D(p||q1) e D(p||q2)
0 e 0.19, e os usados
0.01 e 0.14 (com a aplicao desse procedimento D(p||q1) = D(p||q2) = 0.70 bits e D(p||q3) = 1.83 bits; sem a aplicao,
D(p||q1) = D(p||q2) = D(p||q3) = ).
Os valores de D(p||q) so sempre maiores que zero (se as distribuies p e q
so diferentes) ou iguais a zero (se as distribuies p e q so iguais).
tadas na Figura 3, cujos valores originais variavam entre
para os clculos variavam entre
D(p||q3) = 1.83
Referncias
[1] Cover TM, Thomas, JA, 1991. Elements of Information Theory. WileyInterscience, New York.
[2] http://en.wikipedia.org/wiki/File: KL-Gauss-Example.png
[3] http://pt.wikipedia.org/wiki/Complexidade_de_Kolmogorov#Objetivo_
da_complexidade_de_Kolmogorov