Escolar Documentos
Profissional Documentos
Cultura Documentos
( Modelo de Shannon)
CANAL ∑ Ruído
Destinatário
Decodificador Decodificador Receptor
de
de Fonte de Canal
Informação
42
Princípios básicos de Teoria de Informação
2. Codificação da Informação
Alfabeto de Símbolos
Alfabeto de Elementos Cada símbolo
ALFABETO X
xi: elemento i do Alfabeto X
n: número de codificado
pi: probabilidade de
elementos segundo os
ocorrência de xi
Ex.: digitos símbolos do
N: numero total de
elementos
binários alfabeto de
elementos
Relação entre N e n:
Arranjo de n elementos tomados m a m é dado por : N = n m
Exemplo: Os caracteres do alfabeto Internacional N.5 (ou ASCII)
são formados pelo Alfabeto de elementos binarios zero e um
segundo os arranjos destes elementos tomados 8 a 8, ou seja
N = n m => 2 8 = 256 caracteres de 8 bits cada
3. Variedade de um Símbolo
O número total de configurações possíveis que pode assumir um símbolo é definido
como a variedade deste símbolo. Obviamente é função de N e é representado por v e
definida matematicamente como:
v = log2N
como N = n e se a fonte de elementos é binária, n = 2, temos;
m
v = log2 2 m = m
43
4. Velocidade de sinalização e velocidade de modulação
Para que o fluxo de informação da fonte seja máximo o valor médio de informação de
cada símbolo deverá ser máximo, ou seja, a entropia deverá ser máxima. Pode-se
demonstrar que para que H(X) seja máximo devemos ter que as probabilidades de
ocorrência dos símbolos seja equiprovável, ou seja, pi = 1/n (n: número total de símbolos
do alfabeto). Nestas condições temos então que:
n n
H( X ) max = ∑ pi. I(xi ) = − ∑ 1 / n.log
i=1 i=1
2 (1 / n ) = log2 n, ou
H(X)max = log2 n
que é entropia máxima de uma fonte com n elementos. Podemos definir a eficiência da
Fonte como ηf = H(X)/ H(X)max , ou então como;
H( X )
ηf =
log. n
Num código qualquer, por outro lado, podemos definir n , como o número médio de
bits por símbolo deste código.
N
n = ∑ pi. ni , podemos então definir a eficiência do código como:
i=1
H( X )
ηcod = [sh/bit]
n
A eficiência ótima será aquela que associa 1sh a cada bit e neste caso temos ηcod = 1
44
H( X )
ηcod = = 1, ou seja, n otimo =1[sh/bit] e portanto, n otimo = H(X)
n
6.Teorema de Nyquist
Nyquist demonstrou pela primeira vez que a capacidade máxima de um canal físico, C,
com uma largura de banda de B Herz, pode ser expressa por :
CT = 2B [Baud]
1
Lembrando que VM = [Baud] , Nyquist demonstrou que existe um τmin associado a
τ
um canal físico com largura de banda B e neste caso VM está maximizado e representa
portanto a capacidade máxima de transmissão do canal, representada por CT. Se
quisermos, portanto, a capacidade máxima de sinalização do canal em [bit/s] temos que
multiplicar a expressão anterior pela variedade v do símbolo. Com isto obtemos a
expressão geral do teorema como:
CT = 2B v
e lembrando que, se os símbolos são formados por bits v=m e
CT = 2B m
Portanto m representa o número de bits associados a cada símbolo. Se;
m=1 os símbolos são os próprios digitos binários (neste caso a taxa em Baud e em
bit/s é igual)
m=2 o símbolo é o dibit e pode ser representado por um sinal de 4 níveis,
m=3 o símbolo é o tribit e pode ser representado por um sinal de 8 níveis,
m=4 o símbolo é o quadribit e pode ser representado por um sinal de 16 níveis.
Se representarmos o número de níveis de um símbolo por n podemos escrever que ;
m = log2 n, e a expressão do Teorema de Nyquist será:
CT = 2B log2 n [bit/s]
7. O Teorema de Shannon
45
A expressão acima pode ser derivada a partir do próprio teorema de Nyquist
maximizando o número de níveis:
Exemplo:
46