Escolar Documentos
Profissional Documentos
Cultura Documentos
Codificação de Fonte
4. Compactação de Fonte
A AB B
Seja um evento C={números menores que 2}. Logo C=? Qual é P[C]?
P[C]=P[0]+P[1]
B1 B2 B3 B4 Qual é a P[A]?
P[A]=P[AB1]+P[AB2]+P[AB3]+P[AB4]
4
P[ A] = ∑ P[ A ⋅ Bi ]
A i =1
FX ( x) = P[ X ≤ x] = ∫f
−∞
X ( y )dy Função densidade de probabilidade 0.55
Função distribuição cumulativa
0.44
0.33
0.22
0.11
a) Distribuição uniforme
1
X ∈ {x0 , x1 , x2 ,..., x N −1} f X ( x) = a≤ X ≤b
1
f X ( x) = b−a
N
0.2
0.2
0.18
0.15 0.16
0.14
f (x)
0.12
f (x)
X
0.1
X
0.1
0.08
0.05 0.06
0.04
0.02
0
1 2 3 4 5 6 0
X 0 1 2 3 4 5 6 7
X
Calcule a média e a variância das duas F.D.P’s.
Teoria da Informação 12/62 Prof. Dr. Luciano Leonel Mendes
Pós-graduação – Redes e Sistemas de Telecomunicações
Revisão de Probabilidade
Continuando...
b) Gaussiana
1 ( x − µ )2 µ = E[ X ]
f X ( x) = exp
2σ
2
2πσ 2
σ 2 = E[ X 2 ] − µ 2
0.4
0.35
0.3
0.25
f (x)
X
0.2
0.15
0.1
0.05
0
-3 -2 -1 0 1 2 3
X
Teoria da Informação 13/62 Prof. Dr. Luciano Leonel Mendes
Pós-graduação – Redes e Sistemas de Telecomunicações
Fontes de Informação
• As fontes de informação em um sistema de comunicação digital são os
dispositivos que geram os dados que devem ser transmitidos.
Bits
mk s(t) r(t) ^
m
Fonte Digital Transmissor Canal Receptor k
Destino
Binária Digital Ruidoso Digital
Símbolos Bits ^
s(t) r(t) ^
m Ak
Fonte Ak mk Transmissor Canal Receptor k De-
Codificador Destino
Discreta Digital Ruidoso Digital codificador
Símbolos Bits
Fonte Ak mk Transmissor s(t) Canal
Amostragem Quantizador Codificador
Analógica Digital Ruidoso
r(t)
^ ^
Filtro de Ak De- m k Receptor
Destino
Recuperação codificador Digital
Amostragem temporal
1.0
t=kTs .5
-.5
-1.0
0 .5 1 1.5 2 2.5 3 3.5 4
Tempo [s]
t=kTs 1
-1
-2
0 .5 1 1.5 2 2.5 3 3.5 4
Tempo [s]
-.5
-1.0
0 .5 1 1.5 2 2.5 3 3.5 4
Tempo [s]
.5
-.5
-1.0
0 .5 1 1.5 2 2.5 3 3.5 4
Tempo [s]
2 ¢2
¾Q =
12
pertencentes S={a, b, c, d}, sendo que p(sk) = {0.5, 0.3, 0.15, 0.05}.
Teoria da Informação 29/62 Prof. Dr. Luciano Leonel Mendes
Pós-graduação – Redes e Sistemas de Telecomunicações
Teoria da Informação
• Entropia: é a quantidade média de informação fornecida por uma fonte
discreta.
K −1 K −1
1
H (S ) = ∑ pk I (sk ) = ∑ pk log 2 bits
k =0 k =0 pk
• Propriedades da Entropia:
1) 0 = H(S) = log2(K)
A entropia é nula quando a fonte possui um evento certo.
A entropia é máxima quando a fonte é equiprovável.
Exercício: calcule a entropia de uma fonte binária onde o símbolo “0”
possui probabilidade p0 e o símbolo “1” possui probabilidade p1.
Teoria da Informação 30/62 Prof. Dr. Luciano Leonel Mendes
Pós-graduação – Redes e Sistemas de Telecomunicações
Teoria da Informação
• Fonte discreta sem memória: é uma fonte que envia símbolos discretos
a cada T segundos, onde a ocorrência de um símbolo específico não
muda a probabilidade de ocorrência do próximo símbolo.
Entropia
Redundância
Entropia Entropia
Redundância
Compactação Compressão
1 0 ξ1
1 0 ξ2
1
ξ3
Teoria da Informação 37/62 Prof. Dr. Luciano Leonel Mendes
Pós-graduação – Redes e Sistemas de Telecomunicações
Teoria da Informação
• Exemplo: encontre um código do prefixo para representar a seguinte
fonte: S ={s0, s1, s2 , s3}, onde p0=0.7, p1=0.2, p2=0.15 e p3=0.05.
ξ1 0,20
0,25 0,35 0
0,40
1
ξ3 0,15
0
0,15
1
ξ4 0,10
1
Estado 1 ξ2
inicial
0 1 1 ξ4
0
0 ξ3
1 ξ0
0
ξ1
Teoria da Informação 42/62 Prof. Dr. Luciano Leonel Mendes
Pós-graduação – Redes e Sistemas de Telecomunicações
Teoria da Informação
• Código Lempel-Ziv: é um código de comprimento fixo que é
adaptativo à fonte discreta.
M M O M
p ( y0 / x j −1 ) p ( y1 / x j −1 ) L p ( yk −1 / x j −1 )
∑ p( y
k =0
k / xj) =1
p p
x1 = 1 y1 = 1
1-p
1 − p p
P=
p 1 − p
Teoria da Informação 48/62 Prof. Dr. Luciano Leonel Mendes
Pós-graduação – Redes e Sistemas de Telecomunicações
Teoria da Informação
• Exemplo: um canal binário discreto sem memória apresenta p=0.1.
K −1 J −1 1
H (Y / X ) = ∑∑ p ( x j , yk ) log 2
p( y / x )
k =0 j =0 k j
b) Polaridade: I(X:Y) = 0
K −1 J −1 1
H ( X , Y ) = ∑∑ p ( x j , yk ) log 2
p( x , y )
k =0 j =0 j k
H (X | Y) I ( X ;Y ) H (Y | X )
H(X ) H (Y )
0.8
Capacidade do Canal
0.6
0.5
0.4
0.2
p = 0, p = 0.5 e p = 1? 0.1
0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
Probabilidade de transição
Ruído
H (S ) C
≤
Ts Tc
• Ts é o tempo de emissão dos símbolos pela fonte e TC é o tempo de bit
após a codificação de canal.
Teoria da Informação 56/62 Prof. Dr. Luciano Leonel Mendes
Pós-graduação – Redes e Sistemas de Telecomunicações
Teoria da Informação
• Aplicação do Teorema de Codificação de Canal:
a) Taxa de codificação: é a razão entre o número de bits de informação
pelo número total de bits inseridos pelo codificador de canal:
k k
r= =
n k+p
b) Se a vazão do sistema tiver que se manter constante, então o tempo
de sinalização na saída do codificador terá que ser menor do que o
tempo de sinalização na entrada.
Tc
r=
Ts
c) Portanto a condição para que a probabilidade de erro possa ser tão
baixa quanto necessária pode ser reescrita como
r·C
a) Média nula.
SN(f)
c) Distribuição Gaussiana e independente.
N0/2
10
Fronteira onde
Eficiência de BW (Rb/B) Rb=C
0.1
0 10 20 30
Eb/N0 em dB