Escolar Documentos
Profissional Documentos
Cultura Documentos
Luanda, 2022
INSTITUTO DE TECNOLOGIAS DE INFORMAÇÃO E COMUNICAÇÃO (INSTIC)
COORDENAÇÃO DO CURSO DE ENGENHARIA DE TELECOMUNICAÇÕES
Ano: 5o
Autores: Nº Processo:
Luanda, 2022
Índice
Objetivos Gerais .................................................................................................................................. I
Objetivos Específicos.......................................................................................................................... I
1. Introdução............................................................................................................................................ 1
6. Conclusão.......................................................................................................................................... 10
7. Referências Bibliográficas............................................................................................................... 11
Objetivos Gerais
Objetivos Específicos
I
1. Introdução
1
2. Teorema da Capacidade de Informação
𝑹𝒃
𝜼= (2.2)
𝑪
𝑷
𝑪 = 𝑩𝒍𝒐𝒈𝟐 (𝟏 + ) (2.3)
𝑵𝒐𝑩
2
O teorema da capacidade de informação é um dos resultados mais notáveis da teoria
da informação porque, em uma fórmula simples, ele realça mais vividamente a ação reciproca
entre três parâmetros de sistema fundamentais: largura de banda do canal, potência média
de transmissão (ou, de maneira equivalente, potência média recebida) e densidade espectral
de potência do ruido na saída do canal. A dependência que a capacidade de informação C
tem da largura de banda do canal B é linear, ao passo que sua dependência da relação sinal-
informação de uma canal de comunicação ampliando sua largura de banda do que aumentar
a potência transmitida para uma variância de ruido predefinida.
O teorema implica que, para dada potência transmitida P e largura de banda de canal
B, podemos transmitir informação a taxa de C bits por segundo, como é definido na equação
do teorema da capacidade da informação, com probabilidade de erro arbitrariamente
pequena, empregando sistemas de codificação suficientemente complexos. Não é possível
transmitirmos a taxa mais elevada do que C bits por segundo em qualquer sistema de
codificação sem termos uma probabilidade de erro definida. Então, o teorema da capacidade
de canal define o limite fundamental para a taxa de transmissão isenta de erros para um canal
gaussiano limitado em potências e em banda. Para aproximar-se desse limite, entretanto, o
sinal transmitido deve ter propriedades estatísticas próximas as do ruido branco.
3
3.1. Largura de Banda
Quanto mais rápidas as variações de um sinal, maior sua frequência máxima e maior
sua largura de banda. Sinais ricos em conteúdo que variam rapidamente (como os associados
a cenas de batalhas em um vídeo) têm maior largura de banda do que sinais maçantes que
variam lentamente (como os de uma novela diurna ou de um vídeo de um animal dormindo).
Um sinal pode ser transmitido com sucesso através de um canal se a largura de banda do
canal for maior que a do sinal.
4
4. Capacidade do Canal e Taxa de Dados
A largura de banda do canal limita as larguras de banda de sinais que podem ser
transmitidos com sucesso, enquanto a relação sinal/ruído (SNR) no receptor determina a
qualidade da recuperação dos sinais transmitidos. Uma maior SNR significa que o pulso de
sinal transmitido pode usar mais níveis de sinais, o que permite o transporte de um número
maior de bits em cada transmissão de pulso. Uma maior largura de banda B também significa
que podemos transmitir mais pulsos (variação mais rápida) ao longo do canal. Em
consequência, SNR e largura de banda B afetam a “vazão” do canal. A máxima vazão que
pode ser transportada de modo confiável por um canal é denominada capacidade do canal.
Um dos tipos de canais mais comumente encontrados é conhecido como canal com
ruído gaussiano branco aditivo (AWGN — Additive White Gaussian Noise). O modelo de canal
AWGN assume que a única distorção presente é ruído gaussiano branco aditivo com largura
de banda finita B. Esse modelo ideal acomoda aplicações com canal sem distorção e provê
um limite superior de desempenho para canais genéricos sujeitos a distorções. A capacidade
do canal AWGN com largura de banda limitada foi estabelecida, de forma brilhante, na
equação (2.1) de Shannon.
por B e pela SNR. Se não houvesse ruído no canal (o que corresponderia a SNR = ∞), a
capacidade C seria ∞ e a taxa de comunicação poderia ser arbitrariamente alta. Poderíamos,
então, transmitir qualquer quantidade de informação em um canal sem ruído. Essa afirmação
pode ser comprovada com facilidade.
5
Se o ruído fosse zero, não haveria incerteza na amplitude do pulso recebido e o
receptor seria capaz de detectar qualquer amplitude de pulso sem erro. A menor separação
entre amplitudes de pulsos pode ser tão pequena quanto desejarmos e, para um dado pulso
qualquer, teríamos disponível um número infinito de níveis próximos. Poderíamos alocar um
nível a cada mensagem possível. Como um número infinito de níveis estaria disponível, seria
possível alocar um nível a cada mensagem concebível.
A implementação de um código desse tipo pode não ser prática, mas isso não é
relevante nesta argumentação. O importante, aqui, é que, se o ruído fosse zero, a
comunicação deixaria de ser um problema, ao menos em teoria. A implementação de um
esquema como esse seria difícil, pois requereria a geração e detecção de pulsos com
amplitudes precisas. As dificuldades práticas decorrentes imporiam um limite sobre a taxa de
comunicação. Vale a pena ressaltar que o resultado de Shannon, que representa um limite
superior para a taxa de comunicação em um canal, seria alcançável somente com um sistema
de complexidade monstruosa e impraticável, e o atraso temporal na recepção tenderia ao
infinito. Sistemas práticos operam a taxas inferiores à de Shannon.
Tal exemplo ilustra o conceito de permuta de recursos entre SNR e B. Vale notar que,
no entanto, essa relação não é linear. Dobrar o volume do orador permite que ele fale um
pouco mais rápido, mas não duas vezes mais rápido.
6
Esse efeito de permuta desigual é totalmente capturado na equação de Shannon (2.1),
na qual a duplicação da SNR não pode sempre compensar a perda de 50% em B.
𝑷 = 𝑬𝒃 ∗ 𝑪 (5.1)
𝑪 𝑬𝒃 𝑪
= 𝒍𝒐𝒈𝟐 (𝟏 + ∗ ) (5.2)
𝑬𝒃 𝑵𝒐 𝑩
7
1. Para a largura de banda infinta, a relação Eb/No se aproxima do valor limite
𝑬𝒃 𝑬𝒃
(𝑵𝒐) = 𝒍𝒊𝒎 (𝑵𝒐) = 𝐥𝐨𝐠 𝟐 = 𝟎, 𝟔𝟗𝟑 (5.4)
𝒃→∞
Este valor denomina limite de Shannon para um canal AWGN, supondo uma taxa
de código igual a zero. Expresso em decibéis, ele é igual a -1,6 dB. O valor limite
correspondente da capacidade de canal é obtido permitindo-se que a largura de
banda de canal B da equação (2.2) se a aproxime do infinito; desse modo
descobrimos que :
𝑷
𝑪∞ = 𝐥𝐢𝐦 𝑪 = ∗ 𝐥𝐨𝐠 𝟐 𝒆 (5.5)
𝒃→∞ 𝑵𝒐
8
2. O limite da capacidade, definido pela curva correspondente a taxa de bits critica ,
Rb = C, separa as combinações de parâmetros de sistema que tem potencial para
suportar a transmissão isenta de erros (Rb < C). Esta última região é exibida em
sombreado na figura acima.
3. O diagrama realça potências compensações entre Eb/No, R/B e probabilidade de
erro de símbolos Pe. Em especial podemos ver o ponto operacional se movendo
ao longo de uma linha horizontal como uma compensação de Pe versus Eb/No para
uma Rb/B fixa. Além disso, podemos ver o movimento do ponto operacional ao
longo de uma linha vertical como uma compensação de Pe versus Rb/B para uma
Eb/No fixa.
9
6. Conclusão
Infelizmente, o teorema de Shannon da capacidade de informação não nos diz como projetar
um sistema. Entretanto, do ponto de vista de projeto, o teorema é muito valioso pelas
seguintes razões:
10
7. Referências Bibliográficas
11