Escolar Documentos
Profissional Documentos
Cultura Documentos
DA INFORMAO
Teoria da Comunicao
Informao e
Probabilidade
Um cachorro mordeu um homem.
..Nenhuma surpresa.
..Muito comum.
..No informativo.
Um homem mordeu um cachorro
..Muito incomum;
..Raramente acontece;
..Vale uma manchete !
Informao
est
inversamente
relacionada
probabilidade de ocorrncia de um evento.
TEORIA MATEMTICA
DA INFORMAO
A teoria matemtica da informao
no se interessa pelo contedo ou a
finalidade da informao.
A pergunta bsica desta teoria a
seguinte:
Quanta informao transmitida
numa mensagem?
TEORIA MATEMTICA
DA INFORMAO
A informao s pode ser recebida
onde exista dvida ou incerteza sobre
a ocorrncia de um evento.
Mas dvida e incerteza implica na
existncia de alternativas.
[cf. Colin Cherry (1974, p.261-262)]
6
Postulado Bsico
Um dos postulados bsicos da
teoria matemtica da informao
que a informao pode ser
tratada como sendo informao e
pode ser tratada como sendo
uma
medida,
como
uma
quantidade fsica, tal como a
densidade ou a massa.
7
Postulado Bsico
A teoria da matemtica informao
considera a informao como sendo
somente aqueles smbolos que so
incertos para o receptor.
Shannon (1948) tornou claro que a
incerteza a verdadeira mercadoria
da comunicao.
8
(extraindo
somente
a
informao real, codificando a para
envi-la atravs de um canal e
interpretando este sinal numa data
ou local posterior com qualquer nvel
desejado de acurcia.
Com o insight de Shannon (1948) em
mente, os engenheiros continuaram
a desenvolver modos de maximizar a
transmisso de informaes o que
resultou na inveno do transistor.
10
TEORIA MATEMTICA
DA INFORMAO - HISTRICO
Rudolf Clausius introduz pela primeira vez
a idia de entropia para descrever como
podemos transferir calor de um objeto frio
para um objeto quente sem uso externo de
energia para fazer a transferncia.
A
quantidade
de
entropia
permite
determinar a eficincia mxima dos
mquinas e excluir a noo de mquinas
perpetuas.
11
Entropia: definio
Rudolf CLAUSIUS
(1865):
Definio de entropia:
S = Q/T
Segunda Lei da
Termodinmica:
a entropia no pode
diminuir ao longo do
12
TEORIA MATEMTICA
DA INFORMAO - HISTRICO
13
Termodinmica
Ludwig BOLTZMAN
1872: Kinetic theory
1880:
Interpretao
estatstica da
entropia: desorgem
no espao da
energia.
14
TEORIA MATEMTICA
DA INFORMAO - HISTRICO
Claude Shannon (1938) tese de
mestrado (11 pginas) no qual teve a
idia pioneira de reduzir o contedo da
informao a seqncias de 0 e 1 e
trat-la segundo as regras da lgebra
de Boole.
Cria-se a eletrnica digital.
18
TEORIA MATEMTICA
DA INFORMAO - HISTRICO
Norbert
Wierner
(1946)
19
TEORIA MATEMTICA
DA INFORMAO - HISTRICO
Qual o objetivo da teoria matemtica da
informao?
Ela procura medir a quantidade de
informao
que
uma
mensagem
fidedigna pode transmitir.
Ela procura medir qual a quantidade de
informao contida em uma mensagem.
Ela no uma teoria semntica.
20
Quantificando a
Informao
22
Quando
um
conjunto
de
possibilidades reduzido, temos que
o
montante
de
informaes
associado com este resultado uma
funo de quantas possibilidades
foram eliminadas para se chegar a
um determinado resultado e fazer a
escolha.
23
TEORIA MATEMTICA
DA INFORMAO:
TEORIA MATEMTICA
DA INFORMAO:
TEORIA MATEMTICA
DA INFORMAO:
26
30
A Mathematical Theory of
Communication (1948) - Resumo
Introduz um sistema de informao
binrio;
Primeiro uso dos bit em forma impressa;
Quantificao da informao;
Descreve a transferncia da informao;
Calcula a capacidade de transmisso de
um canal;
31
O modelo matemtico da
informao
MENSAGEM
MENSAGEM
32
SINAL
CANAL
SINAL RECEBIDO
RECEPTOR
INTERFERNCIA
DESTINATRIO
A mensagem um elemento
selecionado a
partir de um conjunto mais
amplo, passvel
de ser transmitido atravs de
um canal ou
33
34
Mensagem decodificada: o
resultado
da
reconverso
da
mensagem na forma inteligvel pelo
destinatrio.
Destinatrio: o elemento final do
sistema informacional que far uso
da mensagem.
36
39
onde:
Teoria da Informao
1bit
46
Teoria da Informao
00
01
1bit
10
11
1bit
47
Questo:
50
58
George BOOLE
(1815-1864)
Usou apenas
dois
caracteres para
codificar as
operaes
lgicas.
01
60
Representao grfica
da funo informao
66
ENTROPIA
- Originalmente definida pelos fsicos
no equilbrio termodinmico;
- Aps, formalizada no contexto da
mecnica estatstica;
- Introduzida na teoria da informao
por Shannon (1948);
- Amplamente usada na teoria do
aprendizado computacional.
73
78
81
84
Redundncia
O fato de que a linguagem natural
muito redundante muito til: ela
nos permite compreender os textos
que so escritos de um modo no
claro.
Redundncia de imagens tambm
til quando as reproduzimos de
modo imperfeito (xerox, fax, etc).
89
A medio do contedo
informativo de uma previso
Uma previso uma mensagem sujeita a
erro ou uma mensagem incerta.
Vamos admitir que a probabilidade de
ocorrncia de um evento, estabelecida
com bases em sries histricas, seja p =
0,2. Ento o contedo da informao o
evento ocorreu seria:
I(p) = ln (1/0,2) = 1,6094 nits (natural
units quando se usa o logaritmo
natural)
90
A medio do contedo
informativo de uma previso
Suponha que a previso do evento no
ano anterior havia afirmado que ele iria
ocorrer e admitamos que, tendo em
vista os resultados das previses
anteriores, a probabilidade de que o
evento realmente corra seja y = 0,6.
Portanto, o contedo da informao de
que o evento ocorre dado por:
I(y) = ln (1/0,6) = 0,5108 nits
91
A medio do contedo
informativo de uma previso
Podemos dizer que, quando uma
mensagem est sujeita a erro (como
no caso de uma previso), o contedo
informativo da mensagem que afirma
(ou prev) que o evento ir ocorrer
dada por:
I(y;p) = log (y/x)
92
TEORIA MATEMTICA
DA INFORMAO
FIM
93