1. Calcular a frequência, probablidade e a quantidade de
informação das letras na frase seguinte: “Amanhã é um dia útil de trabalho” 2. Utilizando o “Word” fazer o mesmo para textos maiores. 3. Qual é a quantidade de informação total para P0=1/4 e P1=3/4? (R: 2,41 bits) ENTROPIA – EXERCÍCIOS
1) Qual é a informação média, em bits/caracter, da língua
portuguesa (23 letras), supondo cada letra equiprovável? (R: 4,52 bits/caracter)
2) Admitindo que as letras ocorrem com as probablidades de
p=0,1 para A,E,O,T; p=0,07 para H,I,N,R,S; p=0,02 para C,D,M,L,F,P,U e p = 0,01 para B,G,J,Q,V,X,Z (na realidade as letras não são equiprováveis), quanto vale a entropia? (R: 3,92 bits/caracter) EXTENSÃO DA FONTE