Escolar Documentos
Profissional Documentos
Cultura Documentos
Introdução.
A entropia é o valor médio da informação produzida pela fonte, e é igual a soma ponderada
das quantidades de informação de todos os estados possíveis aleatórios,
N ( 1 )
H ( s ) = ∑ Pi log 2 Pi
i =1
N
O valor máximo da entropia é quando os símbolos são equiprováveis H(s) = log2
−
H( S ) ≤ L ≤ H( S ) + 1
Desenvolvimento:
Problema No. 1:
Seja uma fonte que produz N símbolos independentes e equiprováveis, os quais foram
codificados na forma em que se mostram na figura: cinco impulsos quaternários com pulsos
de arranque e parada (codificação multi-nível com redundância). A velocidade de modulação
é de 10 kbauds.
a) Determine o número de
estados modulados
(símbolos);
b) Qual é a quantidade de
informação média
produzida pela fonte?;
c) Calcule as velocidades
da fonte, de modulação e
da informação,
respectivamente;
d) Calcule a largura de
banda mínima necessária
para transmitir a informação fornecida pela fonte:
e) Quanta informação transmitirá a fonte em 1 hora?
Solução:
Da gráfica observa-se que o número de níveis de informação (m) é 4 ( -3; -1; 1; 3), o número
de pulsos de informação (n) é 5; Portanto o número de elementos da fonte (N) é 45 = 1024.
1 1
Como fb = = 10 4 Bd = ; T = 10-3 S;
τ T
10
1
A velocidade da fonte fs = = 10 3 símbolos / s
T
A velocidade da informação
n
H log m2 n log m2 n log m2 n 5 1
Vi = = = = = fb log m2 = 10 4 log 42 = 10 4.2 = 10 4 bps
T T T 10τ 10 10 2
A largura de banda mínima será B = fb = 10 kHz.
Considere agora que a fonte utilizada no problema anterior, produz os mesmos 1024
símbolos independentes e equiprováveis, que são codificados em binário sem redundância e
que o tempo de duração dos símbolos é o mesmo, também 1mS.
a) Determine o número de bits de informação;
b) Qual será a informação média produzida pela fonte;
c) Esboce a representação gráfica da sequência de bits;
d) Calcule a velocidade da informação;
e) Qual será a largura de banda mínima que se precisará para transmitir esta informação
Solução:
a), b) e c)
Neste caso, se o número de níveis m = 2 e número de símbolos N mantêm-se igual a 1024,
então o número de bits será N = mn Æ n = 10 bits.
Informação
A velocidade da informação será fi = H/T = fb = 104 bps Æ dado que o sistema é binário;
A codificação efectuada nos casos anteriores ilustra a maneira de ajustar a fonte com uma
velocidade de informação. Repara-se que as duas fontes produzem sinais com as mesmas
velocidades de informação e de modulação.
A codificação multi-nível é utilizada muitas vezes para diminuir a largura de banda mínima do
canal. O que não significa que na realidade vai se diminuir, senão que é possível utilizar
outro canal de menor largura de banda, porque a largura de banda dum canal pelo geral é
fixo e não pode se modificar.
Problema No. 3:
Solução:
8 ( 1 )
H ( s ) = ∑ Pi log 2 Pi
= 1 log 22 + 1 log 42 + 1 log 82 + 1 log16
2 +
1 log 32
2 +
1 log 64 1 1
2 + 128 log 2 + 128 log 2
128 128
i =1
2 4 8 16 32 64
1 2 3 4 5 6 7 7
= + + + + + + +
2 4 8 16 32 64 128 128
H ( s ) = 1,984375bits / símbolos
8
H ( s ) = ∑ Pi nbits / representa ção = 1 1 + 1 2 + 1 3 + 1 4 + 1 5 + 1 6 + 1 7+ 1 7
i =1
2 4 8 16 32 64 128 128
H ( s ) = 1,98bits / símbolos
Problema No. 4:
Considere uma fonte que emite os seguintes símbolos e as suas respectivas probabilidades
de ocorrências:
A, PA = ½; C, PC = 1/4; G, PG = 1/8; T, PT = 1/8;
Solução:
( 1 )
a) A I = log 2 PA
= log 22 = 1bit
( 1 )
I C = log 2 PC
= log 42 = 2 bit
( 1 )
I G = log 2 PG
= log 82 = 3 bit
( 1 )
IT = log 2 PT
= log 82 = 3 bit
b)
4
(1
∑ Pi log 2
)
H (S ) = Pi
= 1 log 22 + 1 log 42 + 1 log 82 + 1 log 82
i =1
2 4 8 8
H ( S ) = 1,75 bits / símbolos
AÆ1
C Æ 01
G Æ 000
T Æ 001
Problema No. 5:
Considere uma fonte que gera os seguintes símbolos S= (A1, A2, A3 , …. A8), com as
seguintes probabilidades de ocorrência, respectivamente, ½,1/4, 1/8, 1/16, 1/64, 1/64, 1/64,
1/64
Solução:
a)
8 ( 1 )
H ( s ) = ∑ Pi log 2 Pi
= 1
2 + 1
2 + 38 + 1
4 + 4( 6 64 ) = 2bits / símbolos
i =1
_
b) L = N = mn = 2n = 23 Æ o comprimento médio de cada palavra de código deve ser de 3
bit ;
_
Lmín ≤ H ≤ 2 bit Æ como as probabilidades são diferentes, o mais adequado é utilizar
descrições mais curtas para símbolos mais prováveis e mais longas para os símbolos
menos prováveis.
Problema No. 6
Uma determinada fonte emite os seguintes símbolos dum alfabeto de texto
S= A, B, C, D, E, F, G, H, I
A, B, ….I -1, 0, 1
O comprimento médio mínimo está determinado pelo valor da entropia da fonte, Portanto
_
Lmín = H (s);
_ 9
L mín = ∑ Pi log
i =1
(1 )
b
Pi
3
[ 9
2
] [
= 1 log33 + 5 1 log33 + 3 1 log33 =
27
3
]
= 1 + 10 + 9 = 1,77dígitosternários / símbolos
3 9 27
Usa-se a base 3 porque o código é ternário.
N ( 1 )
H (S ) = ∑ Pi log 2 = 1 log32 + 5 log32 + 3 log 32 = 2,81bits / símbolos
Pi 2 3
i =1
3 9 27
Problema No. 7
Solução:
Como N = mn = 2n = 32
25 ≤ 37 ≤ 26; 32 ≤ 37 ≤ 64;
Pelo que se necessitam 6 bits/símbolos, mas isto resulta um desperdiço, toda vez que
sobram 64 – 37 = 27 palavras de código, que não correspondem a qualquer símbolo do
alfabeto original.