Você está na página 1de 15

INSTITUTO DE TECNOLOGIAS DE INFORMAÇÃO E COMUNICAÇÃO (INSTIC)

COORDENAÇÃO DO CURSO DE ENGENHARIA DE TELECOMUNICAÇÕES

TRABALHO DE PESQUISA DE SISTEMAS DE


COMUNICAÇÃO IV

TEMA: TEOREMA DA CAPACIDADE DE


INFORMAÇÃO

Luanda, 2022
INSTITUTO DE TECNOLOGIAS DE INFORMAÇÃO E COMUNICAÇÃO (INSTIC)
COORDENAÇÃO DO CURSO DE ENGENHARIA DE TELECOMUNICAÇÕES

TRABALHO DE PESQUISA DE SISTEMAS DE


COMUNICAÇÃO IV

TEMA: TEOREMA DA CAPACIDADE DE INFORMAÇÃO

Ano: 5o

Autores: Nº Processo:

Dário E. Prazeres 2130

Eduane V. Domingos 2142

Érica D. Bonito 1524

José N. Matazi 2184

Docente: Mateus A. B. Tauana

Luanda, 2022
Índice
Objetivos Gerais .................................................................................................................................. I

Objetivos Específicos.......................................................................................................................... I

1. Introdução............................................................................................................................................ 1

2. Teorema da Capacidade de Informação ........................................................................................ 2

3. Efeito da relação Sinal/Ruido e Capacidade do Canal ................................................................ 3

3.1. Largura de Banda ...................................................................................................................... 4

3.2. Potência de Sinal ....................................................................................................................... 4

4. Capacidade do Canal e Taxa de Dados......................................................................................... 5

5. Implicações do Teorema da Capacidade de Informação ............................................................ 7

6. Conclusão.......................................................................................................................................... 10

7. Referências Bibliográficas............................................................................................................... 11
Objetivos Gerais

 Explicar com propriedades como o teorema da capacidade de informação se


comportar em um sistema de comunicação.

Objetivos Específicos

 Enunciar o teorema da capacidade da informação


 Explicar como funciona em um Sistema de comunicação
 Destacar a importância do teorema da capacidade da informação

I
1. Introdução

A meta do projetista de um sistema de comunicação é configurar um dispositivo que


transporte um sinal de mensagem de uma fonte de interesse, através de um canal ruidoso,
até um usuário na outra extremidade do canal com o seguinte objetivo:

O sinal de mensagem deve ser entregue ao usuário de maneira eficiente e confiável,


sujeito a certas restrições de projeto: potência de transmissão permissível, largura de banda
do canal disponível e custo viável de construção do sistema.

No caso de um sistema de comunicação digital, a confiabilidade geralmente é expressa


em termos de taxa de erro de bits (BER) ou probabilidade de erro de bits medida na saída do
receptor. Evidentemente, quanto menor o BER, mais confiável será o sistema de
comunicação. Nesse contexto, pode-se perguntar se é possível projetar um sistema de
comunicação que opere com BER zero apesar de o canal ser ruidoso. Em um ambiente ideal,
a resposta a esta pergunta é um enfático sim. A resposta esta em um dos célebres teoremas
de Shannon, o qual é chamado teorema da capacidade de informação.

1
2. Teorema da Capacidade de Informação

Admitamos que B seja a largura de banda do canal e SNR, a relação sinal-ruído. O


teorema da capacidade da informação afirma que, idealmente, esses dois parâmetros estão
relacionados por

𝑪 = 𝑩𝒍𝒐𝒈𝟐 (𝟏 + 𝑺/𝑵) (2.1)

onde C é capacidade de informação do canal. A capacidade de informação é definida como


a taxa máxima em que informação pode ser transmitida sem erros através do canal; é a
medida em bits por segundo (b/s). Para uma determinada largura de banda de canal B e SNR
recebido, o teorema da capacidade de informação diz nos que um sinal de mensagem pode
ser transmitido através do sistema sem erros mesmo quando o canal é ruidoso, desde que a
taxa de transmissão de sinais real Rb em bits por segundo, na qual os dados são transmitidos
através do canal, seja menor do que a capacidade de informação C.

𝑹𝒃
𝜼= (2.2)
𝑪

A equação de capacidade de Shannon demonstra, de modo qualitativo, os papéis


básicos desempenhados por B e SNR na limitação do desempenho de um sistema de
comunicações. Esses dois parâmetros representam, então, a principal limitação sobre a taxa
de comunicação. A possibilidade da troca de valores entre esses dois parâmetros básicos
também é demonstrada pela equação de Shannon.

A capacidade de informação de um canal continuo com largura de banda B hertz,


perturbado por ruido branco gaussiano aditivo com densidade espectral de potencia No/2 e
limitado em banda a B, é dada por:

𝑷
𝑪 = 𝑩𝒍𝒐𝒈𝟐 (𝟏 + ) (2.3)
𝑵𝒐𝑩

onde P é a potencia media transmitida.

2
O teorema da capacidade de informação é um dos resultados mais notáveis da teoria
da informação porque, em uma fórmula simples, ele realça mais vividamente a ação reciproca
entre três parâmetros de sistema fundamentais: largura de banda do canal, potência média
de transmissão (ou, de maneira equivalente, potência média recebida) e densidade espectral
de potência do ruido na saída do canal. A dependência que a capacidade de informação C
tem da largura de banda do canal B é linear, ao passo que sua dependência da relação sinal-

ruido (P/NoB) é logarítmica. Consequentemente, é mais fácil aumentar a capacidade de

informação de uma canal de comunicação ampliando sua largura de banda do que aumentar
a potência transmitida para uma variância de ruido predefinida.

O teorema implica que, para dada potência transmitida P e largura de banda de canal
B, podemos transmitir informação a taxa de C bits por segundo, como é definido na equação
do teorema da capacidade da informação, com probabilidade de erro arbitrariamente
pequena, empregando sistemas de codificação suficientemente complexos. Não é possível
transmitirmos a taxa mais elevada do que C bits por segundo em qualquer sistema de
codificação sem termos uma probabilidade de erro definida. Então, o teorema da capacidade
de canal define o limite fundamental para a taxa de transmissão isenta de erros para um canal
gaussiano limitado em potências e em banda. Para aproximar-se desse limite, entretanto, o
sinal transmitido deve ter propriedades estatísticas próximas as do ruido branco.

3. Efeito da relação Sinal/Ruido e Capacidade do Canal

No projeto de sistemas de comunicação, são essencial o entendimento e a análise de


fatores importantes como características do sinal e do canal, amplitude relativa de ruído,
número máximo de bits por segundo que pode ser transmitido por um canal e, principalmente,
a qualidade do sinal.

Em um dado sistema de comunicação (digital), os parâmetros e as limitações físicas


fundamentais que controlam a taxa de transmissão e qualidade do canal são a largura de
banda B e a potência de sinal P.

3
3.1. Largura de Banda

A largura de banda de um canal é o intervalo de frequências que ele é capaz de


transmitir com razoável fidelidade. Por exemplo, se um canal transmite com razoável
fidelidade um sinal cujas componentes de frequência variam de 0 Hz a um máximo de 5.000
Hz (5 kHz), a largura de banda B do canal é 5 kHz. Da mesma forma, cada sinal tem uma
largura de banda que mede a separação máxima entre suas componentes de frequência.

Quanto mais rápidas as variações de um sinal, maior sua frequência máxima e maior
sua largura de banda. Sinais ricos em conteúdo que variam rapidamente (como os associados
a cenas de batalhas em um vídeo) têm maior largura de banda do que sinais maçantes que
variam lentamente (como os de uma novela diurna ou de um vídeo de um animal dormindo).
Um sinal pode ser transmitido com sucesso através de um canal se a largura de banda do
canal for maior que a do sinal.

3.2. Potência de Sinal

A potência de sinal P desempenha duplo papel na transmissão. Primeiro, P está


relacionada à qualidade de transmissão. O aumento de P reforça o pulso de sinal e diminui
os efeitos do ruído e interferência do canal. Na verdade, a qualidade de sistemas de
comunicação analógicos e digitais varia com a relação sinal/ruído (SNR). Em qualquer
situação, um valor mínimo da SNR no receptor é necessário para comunicação com
qualidade. Portanto, um grande valor da potência de sinal P permite que o sistema mantenha
uma SNR mínima ao longo de uma distância maior, garantindo comunicação com qualidade
com um alcance maior.

O segundo papel da potência de sinal é menos óbvio, embora igualmente importante.


Do ponto de vista da teoria da informação, a largura de banda B e a potência de sinal P são,
até certo ponto, intercambiáveis; ou seja, para manter determinada taxa e precisão de
transmissão de informação, podemos negociar entre os valores de P e B. Assim, podemos
reduzir B se estivermos dispostos a aumentar P ou podemos diminuir P se uma maior largura
de banda B estiver disponível.

4
4. Capacidade do Canal e Taxa de Dados

A largura de banda do canal limita as larguras de banda de sinais que podem ser
transmitidos com sucesso, enquanto a relação sinal/ruído (SNR) no receptor determina a
qualidade da recuperação dos sinais transmitidos. Uma maior SNR significa que o pulso de
sinal transmitido pode usar mais níveis de sinais, o que permite o transporte de um número
maior de bits em cada transmissão de pulso. Uma maior largura de banda B também significa
que podemos transmitir mais pulsos (variação mais rápida) ao longo do canal. Em
consequência, SNR e largura de banda B afetam a “vazão” do canal. A máxima vazão que
pode ser transportada de modo confiável por um canal é denominada capacidade do canal.

Um dos tipos de canais mais comumente encontrados é conhecido como canal com
ruído gaussiano branco aditivo (AWGN — Additive White Gaussian Noise). O modelo de canal
AWGN assume que a única distorção presente é ruído gaussiano branco aditivo com largura
de banda finita B. Esse modelo ideal acomoda aplicações com canal sem distorção e provê
um limite superior de desempenho para canais genéricos sujeitos a distorções. A capacidade
do canal AWGN com largura de banda limitada foi estabelecida, de forma brilhante, na
equação (2.1) de Shannon.

Nessa equação, a capacidade do canal (C) representa o limite superior da taxa de


transmissão de informação por segundo. Em outras palavras, C é o máximo número de bits
que podem ser transmitidos por segundo com uma probabilidade de erro arbitrariamente
próxima de zero; ou seja, a transmissão é tão confiável quanto desejarmos. Contudo, a
capacidade apenas ressalta essa possibilidade, pois não especifica como pode ser
implementada. É importante ressaltar que é impossível transmitir a uma taxa superior a essa
sem incorrer em erros.

A equação de Shannon deixa bem clara a limitação imposta à taxa de comunicação

por B e pela SNR. Se não houvesse ruído no canal (o que corresponderia a SNR = ∞), a
capacidade C seria ∞ e a taxa de comunicação poderia ser arbitrariamente alta. Poderíamos,

então, transmitir qualquer quantidade de informação em um canal sem ruído. Essa afirmação
pode ser comprovada com facilidade.

5
Se o ruído fosse zero, não haveria incerteza na amplitude do pulso recebido e o
receptor seria capaz de detectar qualquer amplitude de pulso sem erro. A menor separação
entre amplitudes de pulsos pode ser tão pequena quanto desejarmos e, para um dado pulso
qualquer, teríamos disponível um número infinito de níveis próximos. Poderíamos alocar um
nível a cada mensagem possível. Como um número infinito de níveis estaria disponível, seria
possível alocar um nível a cada mensagem concebível.

A implementação de um código desse tipo pode não ser prática, mas isso não é
relevante nesta argumentação. O importante, aqui, é que, se o ruído fosse zero, a
comunicação deixaria de ser um problema, ao menos em teoria. A implementação de um
esquema como esse seria difícil, pois requereria a geração e detecção de pulsos com
amplitudes precisas. As dificuldades práticas decorrentes imporiam um limite sobre a taxa de
comunicação. Vale a pena ressaltar que o resultado de Shannon, que representa um limite
superior para a taxa de comunicação em um canal, seria alcançável somente com um sistema
de complexidade monstruosa e impraticável, e o atraso temporal na recepção tenderia ao
infinito. Sistemas práticos operam a taxas inferiores à de Shannon.

Em resumo, a equação de capacidade de Shannon demonstra, de modo qualitativo,


os papéis básicos desempenhados por B e SNR na limitação do desempenho de um sistema
de comunicações. Esses dois parâmetros representam, então, a principal limitação sobre a
taxa de comunicação. A possibilidade da troca de valores entre esses dois parâmetros
básicos também é demonstrada pela equação de Shannon.

Como exemplo prático da troca de valores entre SNR e a largura de banda B,


consideremos o cenário em que um homem de voz suave fala um pouco rápido demais e não
conseguimos entender completamente o que diz. Isso significa que, como ouvintes, nossa
largura de banda B é muito pequena e, em consequência, a capacidade de informação do
canal C não é alta o bastante para acomodar as frases faladas rapidamente. Contudo, se o
homem puder falar mais alto (aumentando a potência e, portanto, a SNR), é provável que o
entendamos melhor sem nenhuma outra alteração.

Tal exemplo ilustra o conceito de permuta de recursos entre SNR e B. Vale notar que,
no entanto, essa relação não é linear. Dobrar o volume do orador permite que ele fale um
pouco mais rápido, mas não duas vezes mais rápido.

6
Esse efeito de permuta desigual é totalmente capturado na equação de Shannon (2.1),
na qual a duplicação da SNR não pode sempre compensar a perda de 50% em B.

5. Implicações do Teorema da Capacidade de Informação

Agora que temos uma compreensão intuitiva do teorema da capacidade de informação,


podemos passar a discutir suas implicações no contexto de um canal gaussiano limitado em
termos de potência e de largura de banda. Para que a discussão seja útil, necessitamos de
uma estrutura ideal em relação a qual o desempenho de um sistema de comunicação pode
ser avaliado. Para essa finalidade introduzimos a noção de sistema que transmite dados a
uma taxa de bits Rb igual a capacidade de transmissão C. então podemos expressar a
potência média transmitida como

𝑷 = 𝑬𝒃 ∗ 𝑪 (5.1)

Onde Eb é a energia transmitida por bit. Consequentemente, o sistema ideal é definido


pela equação

𝑪 𝑬𝒃 𝑪
= 𝒍𝒐𝒈𝟐 (𝟏 + ∗ ) (5.2)
𝑬𝒃 𝑵𝒐 𝑩

De maneira equivalente, podemos definir a relação energia do sinal por bit-densidade


espectral de potência Eb/No em termos da relação C/B para o sistema ideal como
𝑪
𝑬𝒃 𝟐𝑩 −𝟏
= (5.3)
𝑵𝒐 𝑪/𝑩

Um gráfico da eficiência de largura de banda Rb/B versus Eb/No é chamado de diagrama


da eficiência de largura de banda. Uma forma genérica desse diagrama é exibida na figura
abaixo onde a curva rotulada como limite da capacidade corresponde ao sistema ideal pra o
qual Rb = C. Baseando na figura abaixo podemos fazer as seguintes observações:

7
1. Para a largura de banda infinta, a relação Eb/No se aproxima do valor limite

Figura 1 - Diagrama da eficiência de largura de banda

𝑬𝒃 𝑬𝒃
(𝑵𝒐) = 𝒍𝒊𝒎 (𝑵𝒐) = 𝐥𝐨𝐠 𝟐 = 𝟎, 𝟔𝟗𝟑 (5.4)
𝒃→∞

Este valor denomina limite de Shannon para um canal AWGN, supondo uma taxa
de código igual a zero. Expresso em decibéis, ele é igual a -1,6 dB. O valor limite
correspondente da capacidade de canal é obtido permitindo-se que a largura de
banda de canal B da equação (2.2) se a aproxime do infinito; desse modo
descobrimos que :

𝑷
𝑪∞ = 𝐥𝐢𝐦 𝑪 = ∗ 𝐥𝐨𝐠 𝟐 𝒆 (5.5)
𝒃→∞ 𝑵𝒐

Onde 𝒆 é a base do logaritmo natural.

8
2. O limite da capacidade, definido pela curva correspondente a taxa de bits critica ,
Rb = C, separa as combinações de parâmetros de sistema que tem potencial para
suportar a transmissão isenta de erros (Rb < C). Esta última região é exibida em
sombreado na figura acima.
3. O diagrama realça potências compensações entre Eb/No, R/B e probabilidade de
erro de símbolos Pe. Em especial podemos ver o ponto operacional se movendo
ao longo de uma linha horizontal como uma compensação de Pe versus Eb/No para
uma Rb/B fixa. Além disso, podemos ver o movimento do ponto operacional ao
longo de uma linha vertical como uma compensação de Pe versus Rb/B para uma
Eb/No fixa.

9
6. Conclusão

Infelizmente, o teorema de Shannon da capacidade de informação não nos diz como projetar
um sistema. Entretanto, do ponto de vista de projeto, o teorema é muito valioso pelas
seguintes razões:

1. O teorema da capacidade de informação fornece um limite no qual a taxa de


transmissão de dados é teoricamente possível para valores determinados de largura
de banda de canal B e SNR recebido. Baseando-se nisso, podemos usar a relação da
equação (2.2) como uma medida de eficiência do sistema de comunicação digital em
estudo. Quanto mais próximo 𝜂 estiver da unidade, mais eficiente será o sistema.
𝑹𝒃
𝜼=
𝑪
2. A Equação (2.1) constitui uma base para compromisso entre largura de banda de canal
B e SNR recebido. Em especial, para uma determinada taxa de transmissão Rb,
podemos reduzir a SNR recebida, aumentando a largura de banda do canal B; daí a
motivação para utilizarmos um esquema de modulação de banda larga (ex: modulação
por codificação de pulsos) para melhor desempenho sob ruído.
3. A equação (2.1) constitui uma estrutura ideal para compararmos o desempenho sob
ruído de um esquema de modulação em relação a outro.

10
7. Referências Bibliográficas

1. Lathi, B. P. e Ding, Zhi. Sistemas de Comunicaçoes Analógicos e Digitais Modernos. [trad.]


J. R. Souza. 4. Rio de Janeiro : LTC, 2019. p. 889. 978-852-163-606-9.

2. Haykin, Simon. Sistemas de Comunicações Analógicas e Digitais. [trad.] José Carlos


Barbosa dos Santos. 4. Porto Alegre RS : ARTMED EDITORA SA, 2004. p. 831. 90040-340.

3. Capacidade de um Canal. Wikipédia, a enciclopédia livre. [Online] 17 de Dezembro de


2022. [Citação: 17 de Dezembro de 2022.]
https://pt.wikipedia.org/w/index.php?title=Capacidade_de_um_canal&oldid=59622084.

4. Teoria da Informação. Wikipédia, a enciclopédia livre. [Online] 22 de Setembro de 2022.


[Citação: 17 de Dezembro de 2022.]
https://pt.m.wikipedia.org/wiki/Teoria_da_informa%C3%A7%C3%A3o.

5. Teorema de Shannon-Hartley. Wikipédia, a enciclopédia livre. [Online] 27 de Julho de


2021. [Citação: 13 de Janeiro de 2022.]
https://pt.wikipedia.org/w/index.php?title=Teorema_de_Shannon%E2%80%93Hartley&oldid
=61715770.

11

Você também pode gostar