Escolar Documentos
Profissional Documentos
Cultura Documentos
Introdução.
Fonte
codificador canal
R ≤ C
I i = log (1 / Pi )
2
INSTITUTO SUPERIOR DE TRANSPORTES E COMUNICAÇÕES
4.- Qual é a expressão para calcular a Autoinformação, dado o caso de que as mensagens
sejam estatisticamente independentes?
5.- Qual é a expressão para calcular a Autoinformação, dado o caso de que as mensagens
sejam equiprováveis?
I”A” = I”B”
N
H = ∑ Pi log (1 / Pi )
2
i =1
Desenvolvimento:
Problema No. 1.
Uma fonte de informação fornece 4 símbolos (X1, X2, X3, X4), os quais tem probabilidades de
ocorrência ½, ¼, 1/8 e 1/8 respectivamente. Calcule a informação contida na mensagem de
três símbolos X= X1 X2 X3. Suponha que os mesmos são estatisticamente independentes.
Solução:
Como os símbolos são independentes, a medida da informação é aditiva e pode-se
expressar
Problema No. 2.
Determine a informação média por símbolos para
Solução:
4
H = ∑ Pi log (21 / pi )
a)
i =1
H = N (PX log2(1/PX)
Problema No. 3.
Uma fonte dispõe dum alfabeto composto por 8 símbolos diferentes. Os símbolos se
transmitem em blocos de 3 símbolos a uma frequência de 1000 blocos/seg. O primeiro
símbolo de cada bloco sempre é fixo para propósitos de sincronização. Os restantes
símbolos são equiprováveis.
Solução:
1 2 3 4 5 6 7 8
Como o primeiro símbolo sempre é fixo, a sua probabilidade é
igual a 1, pois não contêm informação.
2
O sistema transmitirá 8 símbolos diferentes Æ N = 82
símbolos.
4
H = ∑ Pi log (21 / pi )
i =1
1 1
T = = seg
f 1000
H 6bits / símb
R= = = 6 x10 3 bits / seg
T 1
1000blo cos/ seg
R = 6 kbps
Problema No. 4.
Seja uma fonte que produz símbolos na língua espanhola, num total de 27 caracteres (26
letras + 1 espaço). Se todos os símbolos tivessem a mesma probabilidade qual seria o valor
da informação média fornecida pela fonte?
Hmáx = log N2
Hmáx = log227 = 4, 755 bit/carácter
Curiosidade:
- Na verdade não todos os caracteres têm a mesma probabilidade de ocorrência, é a letra “E”
a de maior probabilidade, porem a sua H”E” = 4,2 bit;
- Uma palavra em língua espanhola têm uma entropia equivalente a H”palavra” = 9,3 bits
INSTITUTO SUPERIOR DE TRANSPORTES E COMUNICAÇÕES
Estudo independente:
1.- Calcule a quantidade de informação que se precisa para abrir um cadeado, cujas
combinações são 3 números e cada um deles pode ter 100 amplitudes diferentes.
Solução:
A probabilidade seria
1 1 1 1
P= 3 =
100 100 100 100
2
H = ∑ Pi log(21 / pi )
i =1
Como apenas são dois caracteres a entropia tem o valor máximo,
0 ≤ H ≤ log2N
H = 2/3 log2(3/2) + 1/3 log2(3) = 2/3 [ 3,32 log10(3/2)] + 1/3[ 3,32 log10(3)]
H = 0, 917 bit/símbolo