Você está na página 1de 3

MEDIDA DE INFORMAÇÃO

1. Calcular a frequência, probablidade e a quantidade de


informação das letras na frase seguinte: “Amanhã é um
dia útil de trabalho”
2. Utilizando o “Word” fazer o mesmo para textos maiores.
3. Qual é a quantidade de informação total para P0=1/4 e
P1=3/4? (R: 2,41 bits)
ENTROPIA – EXERCÍCIOS

1) Qual é a informação média, em bits/caracter, da língua


portuguesa (23 letras), supondo cada letra equiprovável?
(R: 4,52 bits/caracter)

2) Admitindo que as letras ocorrem com as probablidades de


p=0,1 para A,E,O,T; p=0,07 para H,I,N,R,S; p=0,02 para
C,D,M,L,F,P,U e p = 0,01 para B,G,J,Q,V,X,Z (na
realidade as letras não são equiprováveis), quanto vale a
entropia? (R: 3,92 bits/caracter)
EXTENSÃO DA FONTE

Você também pode gostar