Escolar Documentos
Profissional Documentos
Cultura Documentos
2019
ii
Conteúdo
Lista de Figuras ix
1 INTRODUÇÃO ÀS TELECOMUNICAÇÕES 1
1.1 OBJECTIVO: TELECOMUNICAR . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 MEIOS E TECNOLOGIAS DAS TELECOMUNICAÇÕES . . . . . . . . . . . . 3
1.3 NOÇÕES BÁSICAS SOBRE RÁDIO-COMUNICAÇÕES . . . . . . . . . . . . . 6
1.3.1 S ISTEMAS DE R ÁDIO -F REQUÊNCIA . . . . . . . . . . . . . . . . . . . . 6
1.3.2 BANDAS DE R ÁDIO -F REQUÊNCIA . . . . . . . . . . . . . . . . . . . . . 7
1.4 INTRODUÇÃO AOS SINAIS . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4.1 S INAIS P ERIÓDICOS , A PERIÓDICOS E Q UASE - PERIÓDICOS . . . . . . . 8
1.4.2 S INAIS DE I NTERESSE EM T ELECOMUNICAÇÕES . . . . . . . . . . . . . 10
1.4.3 Energia e Potência de um Sinal . . . . . . . . . . . . . . . . . . . . . . . 17
1.4.4 R EPRESENTAÇÃO T EMPO - F REQUÊNCIA : T RANSFORMADA DE F OURIER 18
1.4.5 P ROPRIEDADES DA T RANSFORMADA DE F OURIER . . . . . . . . . . . . 19
1.4.6 T RANSFORMADA DE F OURIER DE F UNÇÕES S INUSOIDAIS . . . . . . . 19
1.4.7 S ÉRIE T RIGONOMÉTRICA DE F OURIER E SUA T RANSFORMADA DE F OU -
RIER . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.4.8 E XEMPLOS DE A PLICAÇÃO . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.4.9 S ÉRIE T RUNCADA DE F OURIER . . . . . . . . . . . . . . . . . . . . . . 24
1.4.10 T RANSFORMADA DE F OURIER DA C ONVOLUÇÃO DE D OIS S INAIS . . . 26
1.4.11 T RANSFORMADA DE F OURIER DO P RODUTO DE D OIS S INAIS . . . . . . 27
1.4.12 D UALIDADE T EMPO -F REQUÊNCIA . . . . . . . . . . . . . . . . . . . . . 28
1.4.13 TABELA DE PARES DE T RANSFORMADAS DE F OURIER . . . . . . . . . . 29
1.4.14 T RANSFORMADAS DE F OURIER DE JANELAS DE A NÁLISE . . . . . . . 29
1.5 PROBLEMAS RESOLVIDOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2 PROCESSOS ESTOCÁSTICOS 45
2.1 PROBABILIDADES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.1.1 C ONCEITO DE P ROBABILIDADE . . . . . . . . . . . . . . . . . . . . . . 45
2.1.2 I NTRODUÇÃO À A XIOMÁTICA DE KOLMOGOROV . . . . . . . . . . . . . 45
iii
iv CONTEÚDO
Bibliografia 347
Lista de Figuras
ix
x LISTA DE FIGURAS
1.21 Onda rectangular e transformada de Fourier em função do factor de ciclo FC, res-
pectivamente em cima e em baixo, igual a 50%: TT01 = 0, 50. . . . . . . . . . . . . . 27
1.22 Onda rectangular e transformada de Fourier em função do factor de ciclo FC, res-
pectivamente em cima e em baixo, igual a 80%: TT01 = 0, 80, em baixo. . . . . . . . 28
1.23 Síntese da onda quadrada por série de Fourier truncada (equação (1.53)) para os
vários valores de N assinalados. . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
1.24 Janelas no tempo (à esquerda) e respectivos espectros (dB) à direita, para T = 1; de
cima para baixo: janelas rectangular, triangular, Hamming e Hanning. . . . . . . . 32
1.25 Janelas no tempo (à esquerda) e respectivas transformadas de Fourier à direita, para
T = 1; em cima, janela sinc e, em baixo, janela de Gauss. . . . . . . . . . . . . . . 34
1.26 Circuito RC passa-baixo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
1.27 Módulo da função de resposta em frequência do circuito RC Passa-baixo para RC =
0, 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
1.28 Diagramas de Bode para a função de resposta em frequência do circuito RC Passa-
baixo para RC = 0, 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
1.29 Sistema de modulação de amplitude. . . . . . . . . . . . . . . . . . . . . . . . . . 38
1.30 Impulso de Rádio-frequência. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
1.31 Espectro da janela rectangular (em cima) e do Impulso de Rádio-frequência, sendo
f0 = 7, 5 GHz e T1 = 0, 55 s, em baixo. . . . . . . . . . . . . . . . . . . . . . . . . 41
1.32 Janelas (lado esquerdo) e seus espectros (à direita) de Hanning para T = 1/2 (azul)
e para T = 1/4, a vermelho. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
1.33 Onda triangular periódica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
1.34 Espectro da onda triangular periódica. . . . . . . . . . . . . . . . . . . . . . . . . 44
4.6 Impulsos de sinalização, a cor azul; as funções da base estão assinaladas a cor verde
e a vermelho, respectivamente, φ1 (t) e φ1 (t). . . . . . . . . . . . . . . . . . . . . . 175
4.7 Constelação ou representação da modulação digital QPSK no espaço de sinais (no
texto, xi (t) = si (t)). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176
4.8 Constelação da modulação digital QPSK no espaço de sinais do receptor após ruído
gaussiano no canal, xi (t) = si (t) +W (t). . . . . . . . . . . . . . . . . . . . . . . . 176
4.9 Diagrama de blocos de um sistema de recepção discreto. . . . . . . . . . . . . . . 178
4.10 Representação gráfica de ln[p/(1 − p)] em função de p. . . . . . . . . . . . . . . . 181
4.11 Sinais ortogonais de energia unitária. . . . . . . . . . . . . . . . . . . . . . . . . . 182
4.12 Receptor de máxima verosimilhança (caso particular). . . . . . . . . . . . . . . . 182
4.13 Regiões de decisão correspondentes à equação (4.40). . . . . . . . . . . . . . . . . 183
4.14 Sinalização e detecção com sinais antipodais de igual energia. . . . . . . . . . . . 185
4.15 Funções Densidade de Probabilidades Condicionais, η = 1, 5 e si = (−1)i , i = 1, 2. 186
4.16 Correlador. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187
4.17 Sequência 0011001 utilizando sinalização unipolar (cima), Polar (centro) e ASK
(baixo), considerando A = 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
4.18 Sequência «0011001» utilizando sinalização unipolar (cima), PSK (centro) e FSK
(baixo), considerando A = 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190
4.19 Diagrama de sistema de comunicação digital. . . . . . . . . . . . . . . . . . . . . 192
4.20 Diagrama do modulador de BASK; NRZ (no return to zero) significa que quando a
sequência é «1» o nível de amplitude se mantém constante, não retornando a zero. . 194
4.21 Diagrama do modulador de BFSK. . . . . . . . . . . . . . . . . . . . . . . . . . . 194
4.22 Diagrama do modulador de BPSK. . . . . . . . . . . . . . . . . . . . . . . . . . . 195
4.23 Constelação de 16-QAM. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
4.24 Diagrama do modulador de QPSK. . . . . . . . . . . . . . . . . . . . . . . . . . . 196
4.25 Diagrama do modulador de QPSK. . . . . . . . . . . . . . . . . . . . . . . . . . . 196
4.26 Constelações de QPSK (à esquerda) e OQPSK (à direita). . . . . . . . . . . . . . . 197
4.27 Sequência binária ”010011010101” (em cima) e respectiva modulação 2-PSK (em
baixo). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198
4.28 Sinalizações da modulação 2-PSK. . . . . . . . . . . . . . . . . . . . . . . . . . . 199
4.29 Constelações M-PSK: 2-PSK, à esquerda e 4-PSK, à direita. . . . . . . . . . . . . 199
4.30 Formas de onda das sub-portadoras da modulação 4-PSK. . . . . . . . . . . . . . . 200
4.31 Sequência binária ”0100110101” (em cima) e respectiva modulação 4-PSK. . . . . 201
4.32 Constelação 8-PSK (Código de Gray). . . . . . . . . . . . . . . . . . . . . . . . . 202
4.33 Sequência binária ”0100110101” (em cima) e respectiva modulação 8-PSK. . . . . 203
4.34 Formas de onda das sub-portadoras em 8-PSK. . . . . . . . . . . . . . . . . . . . 203
4.35 Constelação 8-QAM. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204
4.36 Sequência binária ”0100110101” (em cima) e respectiva modulação 8-QAM. . . . 204
4.37 Formas de onda das sub-portadoras em 8-QAM. . . . . . . . . . . . . . . . . . . . 205
4.38 Espaço de sinais para a sinalização unipolar. . . . . . . . . . . . . . . . . . . . . . 206
4.39 Detector Integrate-and-Dump. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207
xiv LISTA DE FIGURAS
5.49 Modulador de Banda Lateral Única, método de Weaver (banda lateral superior).
Note-se que as amplitudes relativas dos espectros não estão à escala. . . . . . . . . 258
5.50 Modulador de Banda Lateral Única Inferior. Note-se que as amplitudes relativas dos
espectros não estão à escala. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 259
5.51 Modulador com onda quadrada. . . . . . . . . . . . . . . . . . . . . . . . . . . . 259
5.52 Diversas formas de modulador. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 261
6.1 Obtenção da modulação em banda lateral única superior (SSB-UB) e banda lateral
inferior (SSB-LB). Note-se que as amplitudes dos espectros não estão representadas
com as proporções correspondentes. . . . . . . . . . . . . . . . . . . . . . . . . . 266
6.2 Obtenção das componentes em fase e em quadratura de um processo passa-banda. . 268
6.3 Obtenção de um processo passa-banda a partir das suas componentes em fase e em
quadratura. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 268
6.4 Interpretação geométrica dos sinais da equação (6.22) . . . . . . . . . . . . . . . . 269
6.5 Filtragem passa-banda do ruído na entrada do receptor. . . . . . . . . . . . . . . . 271
6.6 Caracterização de um processo passa-banda a partir das suas componentes em fase
e em quadratura. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 271
6.7 Sistema de Telecomunicações na presença de ruído aditivo. . . . . . . . . . . . . . 272
6.8 Sistema de Comunicações PCM na presença de ruído aditivo. . . . . . . . . . . . . 274
6.9 SNRPCM (dB) em função da probabilidade de erro para vários valores de N (número
de bits de quantificação). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 277
6.10 Desmodulação de amplitude por detecção coerente. . . . . . . . . . . . . . . . . . 278
6.11 Desmodulação de amplitude por detecção de envolvente. . . . . . . . . . . . . . . 280
6.12 Inversão de fase em modulação de amplitude. . . . . . . . . . . . . . . . . . . . . 282
6.13 Inversão de fase da portadora em modulação de amplitude com sobremodulação. . 283
6.14 Componentes em fase e em quadratura do sinal de Frequência Modulada. . . . . . 285
6.15 Detecção de Frequência Modulada. . . . . . . . . . . . . . . . . . . . . . . . . . . 286
6.16 Desempenho da modulação de frequência face à modulação de banda lateral dupla
(DSB) para fB∆ = 2 (cor azul) e fB∆ = 5 (cor magenta). . . . . . . . . . . . . . . . . 289
6.17 Densidade Espectral de Potência do Ruído na saída do Discriminador de FM. . . . 289
6.18 Densidades espectrais de potência à saída do desmodulador (em cima) e à saída do
filtro de pós-ênfase (em baixo), bem como a resposta em frequência deste filtro (ao
centro). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 290
6.19 Desempenho da modulação de frequência face à modulação de amplitude (AM e
DSB ou SSB) para fB∆ = 5, com e sem pré-ênfase. . . . . . . . . . . . . . . . . . . 291
C.1 Curva da função de Gauss de média nula e variância unitária e da sua primitiva. . . 307
E.4 Resposta ao escalão da malha linearizada (ver texto) de captura de fase, sendo:
p
Kvco = 100π e H(s) = H(0) · s+p , sendo o pólo p = −0, 01 e os ganhos estáticos
H(0) estão assinalados. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 318
E.5 Resposta a uma rampa na frequência da malha de captura de fase e da malha linea-
0,01
rizada, para Kvco = 100π, H(s) = s+0,01 e fc = 1000 Hz. . . . . . . . . . . . . . . 319
E.6 Resposta a uma modulação FSK por uma sequência binária «01010» da malha de
captura de fase (cor azul) e da malha linearizada (vermelho), para Kvco = 100π,
0,01
H(s) = s+0,01 e fc = 1000 Hz. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 320
E.7 Resposta a uma modulação de frequência por uma rampa no tempo da malha de
0,025
captura de fase, para Kvco = 100π, H(s) = s+0,025 e fc = 1000 Hz. . . . . . . . . . 321
E.8 Resposta a uma modulaçãode frequência da malha de captura de fase (cor azul) e da
0,01
malha linearizada (a vermelho), para Kvco = 100π, H(s) = s+0,01 e fc = 1000 Hz. . 322
E.9 Resposta a uma modulação FSK por uma sequência binária «01010» da malha de
captura de fase (cor azul) e da malha linearizada (a vermelho), para Kvco = 100π,
p
H(s) = s+p e fc = 1000 Hz: em cima, p = −0, 1; ao centro, p = −0, 01 e em baixo,
p = −0, 001. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 323
E.10 Resposta a uma modulação FSK por uma sequênc1a binária «01010» da malha de
0,01
captura de fase e da malha linearizada, para Kvco = 100π, H(s) = s+0,01 e fc = 1000
Hz. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 324
E.11 Resposta a uma modulação FSK por uma sequência binária «01010» da malha de
0,01
captura de fase e da malha linearizada, para Kvco = 100π, H(s) = H(0) · s+0,01 e
fc = 1000 Hz, sendo os diferentes ganhos estáticos H(0) assinalados. . . . . . . . . 325
xix
xx LISTA DE TABELAS
5.1 das potências de sinais AM para várias amplitudes de X(t), sendo XDC = 1 e AC = 1,
arredondadas à 2a casa decimal. . . . . . . . . . . . . . . . . . . . . . . . . . . . 223
5.2 da função de Bessel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254
5.3 das potências para diferentes modulações . . . . . . . . . . . . . . . . . . . . . . 260
6.1 das transformadas de Hilbert, supondo m(t) com suporte numa banda B. . . . . . . 265
6.2 das componentes em fase, em quadratura, das amplitudes e das fases instantâneas de
portadoras moduladas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 270
Este trabalho teve como ponto de partida os apontamentos que Victor Barroso, Professor Ca-
tedrático do Departamento de Engenharia Electrotécnica e de Computadores do Instituto Superior
Técnico, elaborou em 2006 para a Cadeira homóloga que ministrava nesse Instituto. Esses apon-
tamentos seguiam a excelente obra de Aykin: «Communication Systems». De igual forma estas
nossas notas de estudo também se apoiam, entre outras, e como não poderia deixar de ser, nessa
obra.
A experiência acumulada ao longo de vários anos a leccionar estes tópicos aos Cadetes-
Alunos da Academia Militar, levaram-nos a consolidar quer as matérias a apresentar, quer a sua
sequência ao longo do semestre, tentando com que os conceitos se sucedam sem grandes «saltos»
ou descontinuidades. Assim, se tenta uma melhor aprendizagem de matérias que nem sempre são
de fácil compreensão e assimilação.
Estamos cientes de que, neste trabalho, existem muitas lacunas e que alguns tópicos carecem
de melhor enquadramento e desenvolvimento teórico e, portanto, procuraremos ir diminuindo estas
fragilidades com o evoluir do tempo. As matérias ilustradas constituem apenas uma abordagem aos
diferentes modos de comunicação; não se pretende uma abordagem nem exaustiva nem completa
às Telecomunicações. Para tal, existe vasta bibliografia especializada, destacando-se, entre outras,
as obras de (Haykin, 2001) e (Proakis, 2000). Estes apontamentos estão organizados em seis ca-
pítulos e sete apêndices1 , seguindo a ordem cronológica da apresentação nas aulas. Para facilitar
o enquadramento seguido, na figura inclusa ilustra-se, num sistema genérico de comunicação, a
correspondência entre os seus blocos constituintes e os capítulos respectivos.
1 As matérias constantes dos apêndices não são, regra geral, objecto primário da avaliação.
xxi
xxii
Fonte
Condicionamento
de Discretização Quantificação
Espectral
Sinal
Modulação
Fonte Codificação
de
Mensagem
Legenda: B/M
A/D - Analógico / Digital A/D
B/M - Banda de base / Modulação de Portadoras
Condicionamento
Espectral
Passa-Baixo
Estimativa
de Decisão
Mensagem Condicionamento
Desmodulação Espectral
Passa-Banda
Estimativa
de Detecção
Sinal
B/M
Prefácio
Advertências ao Leitor
Este trabalho, mercê da sua directa ligação ao Ensino, está em constante actualização. Por este
motivo, devem os Cadetes-Alunos conferir, na sua capa, através das datas das revisões, se possuem
a versão mais actualizada.
Este trabalho foi redigido usando a aplicação Texmaker2 como editor de LaTex3 . As figu-
ras foram concebidas pelo autor na aplicação Omnigraffle4 para Mac OS. Todas as aplicações e
programas utilizados na feitura deste trabalho são ou freeware, ou adquiridas pelo autor ou, ainda,
licenciadas ao INESC ID e à Academia Militar, como é o caso do Matlab R 5 .
A escrita deste trabalho é conforme ao acordo ortográfico de 1945 seguido de várias modifi-
cações mais ou menos oficiais... Propositadamente não se redigiu segundo o acordo ortográfico de
1990 com o qual o autor está em completo desacordo.
Para facilitar a identificação das definições, dos teoremas, corolários, preposições e propri-
edades e dos problemas ou exemplos, são colocados à margem do texto os seguintes símbolos,
respectivamente: D, T e Ex.
2 http://www.xm1math.net/texmaker/
3 http://www.latex-project.org
4 https://www.omnigroup.com/omnigraffle
5 www.mathworks.com/matlab/
xxiii
xxiv
INTRODUÇÃO ÀS
TELECOMUNICAÇÕES
Comunicar é uma necessidade permanente e inata das espécies animais e vegetais e reveste
várias formas: químicas, físicas, visuais, sonoras, etc., consoante os sentidos envolvidos. Contudo, e
por necessidade de representação analítica, salientaremos quase exclusivamente as formas de comu-
nicação que se baseiam em sinais eléctricos; sinais estes provenientes de transductores (microfones,
altifalantes, câmaras de vídeo, etc.). Assim, imagens e sons que normalmente usaremos para comu-
nicar, serão naturalmente representados pelos seus equivalentes eléctricos.
D
Definição: Sinal diz-se de toda a entidade física capaz de transmitir informação.
1
2 CAPÍTULO 1. INTRODUÇÃO ÀS TELECOMUNICAÇÕES
Em termos históricos, nos últimos 150 anos, houve uma notável evolução tecnológica que
acompanhou desde logo a descoberta da electricidade. Para o grande público, os grandes marcos
nesta evolução são o telégrafo, o telefone, a rádio-telefonia e, mais recentemente, o telemóvel. Se,
no domínio da técnica, sem os trabalhos de Cavendish, Galvani, Volta, Oersted, Ampère, Ohm, Fa-
raday, Henry, Wheatstone, Gauss, Weber, Morse, Bell, Watson, Hertz, Edison, Tesla, Marconi, nada
do que hoje damos por adquirido nas telecomunicações existiria, já no domínio dos conceitos teó-
ricos, os grandes alicerces das comunicações são Maxwell, Nyquist, Shannon e Hartley. Sem eles,
ainda usaríamos os métodos tradicionais de sinais de luz ou de bandeiras... Esta lista de nomes não é
de forma alguma exaustiva pois, para além destas individualidades, muitos brilhantes cientistas con-
tribuíram de forma indelével para os avanços extraordinários das tecnologias das telecomunicações
e que, por motivos óbvios, não são aqui mencionados.
A codificação a que se alude no parágrafo anterior não deve ser confundida com a encriptação
da mensagem. Trata-se, tão-sòmente, da adequação da mensagem a um suporte conceptual. Vejamos
com maior detalhe: a saudação «bom dia» que proferimos verbalmente, necessita de ser captada por
um microfone que a irá «codificar» electricamente antes de a entregar ao emissor para ser enviada
por um dado canal. Já a mesma saudação, se for na forma escrita, deverá ser codificada através de,
por exemplo, o código Morse ou, em alternativa, o código ASCII. A codificação pode ainda revestir
outros aspectos como veremos oportunamente.
revestir uma amplificação ou uma desmodulação do sinal recebido na antena ou por uma fibra óptica.
Deixámos para o final o canal de comunicação ou de transmissão. Este pode revestir várias
formas, desde o ar ao «vazio»... e é precisamente aqui que as ondas rádio-eléctricas são de extrema
utilidade, pois não necessitam de qualquer suporte físico para se propagarem. Em qualquer caso, a
comunicação à distância implica uma degradação acentuada da energia emitida. A este facto, acresce
a influência do ruído que, também, pode revestir várias formas mas que, infelizmente, degrada
sempre a comunicação. O ruído pode ter uma amplitude tal que impossibilite a comunicação ou no
seu todo, ou em parte.
A título de exemplo, veja-se na figura 1.2 a degradação por ruído1 de uma imagem de veículos
de combate2 . Neste caso, a comunicação não é impossibilitada mas, em contrapartida, ocorre uma
degradação substancial na mensagem enviada, ao ponto de muitos pormenores virem mascarados e
irreconhecíveis.
Figura 1.2: Imagem de veículos de combate (à esquerda) e após a influência de ruído (à direita).
A forma mais usual de comunicação é, na nossa espécie, a fala. Esta baseia-se na produção
de sons que resultam de variações de pressão originadas pela movimentação do diafragma que com-
1 Normalmente, o ruído ao se sobrepor à mensagem, pode ser, do ponto de vista analítico, considerado como estando-
lhe adicionado e, neste pressuposto, é designado por ruído aditivo.
2 A imagem da esquerda foi retirada de http://defesanacionalpt.blogspot.pt/2015/04/brigada-mecanizada-festeja-o-seu-
prime/expande a caixa torácica e, por conseguinte, o ar contido nos pulmões. Este movimento das
moléculas de ar é depois modificado pela sua passagem pelas cordas vocais e pelas cavidades nasal
e bucal. Os mecanismos de produção da fala estão fora do âmbito destes apontamentos mas o que
nos importa reter são as características necessárias à sua adequada reprodução/envio pelos diferentes
canais de transmissão.
Independentemente dos requisitos anteriores, é importante termos uma noção dos desempe-
nhos dos diversos modos de comunicar, seja em termos de alcance, seja quanto ao débito de infor-
mação. Na evolução histórica destes meios, poderemos criar um referencial baseado na «descoberta
da electricidade» uma vez que esta veio revolucionar de forma irreversível as nossas capacidades de
comunicar.
Assim, poderemos distinguir uma época, seguramente a mais longa, que designaremos por
pré-electrónica3 . Nesta, desde os nossos primórdios, a comunicação fez-se recorrendo aos meios
disponíveis que, ao longo dos tempos, se foram aperfeiçoando quer para vencer a distância e quer
torná-la mais rápida e, logo, mais eficiente:
• Sinais Acústicos
- voz / grito
- assobio4
- instrumentos sopro e percussão
• Sinais Visuais
- gestos (figura 1.3, à esquerda)
- fogo
- telégrafo5 (figura 1.3, ao centro)
- heliógrafo6 (figura 1.3, à direita)
A grande evolução nos meios de comunicação ocorre com o uso da electricidade e, poste-
riormente, com os avanços da electrónica. Assim, na era «pós-electrónica», em que vivemos, os
alcances e os ritmos de transmissão são de tal ordem elevados que consideramos a rapidez de comu-
nicação como um facto adquirido! Esta evolução, comparada com a da era pré-electrónica, foi quase
instantânea, pois decorre de um período de tempo muitíssimo reduzido, embora se estenda por cerca
de 200 anos. Na tabela 1.2 apresentam-se, de forma necessariamente resumida e simplificada, os
meios de comunicação «pós-electrónicos».
3 Electricidade e electrónica são conceitos distintos; muito embora o segundo só faça sentido depois da existência do
primeiro. Contudo, ir-nos-emos apenas, por abuso de linguagem, referir a electrónica mesmo quando se trate, efectiva-
mente, do primeiro conceito.
4 Nas ilhas Canárias ainda persiste uma forma de comunicação à distância, com alfabeto próprio, baseada em assobios.
5 Ou telégrafo óptico; o significado da palavra telégrafo é o de letra ao longe originado no grego τηλε+γραϕω.
6 Heliógrafo ou escrita com (a luz de) o sol, do grego ηλιο+γραϕω, em que, através de espelhos, como os represen-
Figura 1.3: Meios de comunicação visual: à esquerda, gestos; ao centro, telégrafo e à direita, o heliográfico.
Tabela 1.2: dos meios de comunicação «pós-electrónicos»; onde ADSL, Asymetric Digital Subscriber Line;
CW, Continuous Wave; AM, Amplitude Modulation; FM, Frequency Modulation; GPRS, General Packet Ra-
dio Service; 3G, 3rd Generation; UTMS, Universal Mobile Telecommunication System; SMS, Short Message
Service
Figura 1.4: Modelos de transceptores: rádio táctico PRC-525 para transporte individual (cima e à esquerda)
ou montagem veicular (cima eà direita), Kenwood TS-2000 (baixo-esquerda) e Midland G7 (baixo-direita).
O estudo dos emissores e dos receptores, bem como das antenas de rádio-comunicação, está
para além do âmbito deste trabalho.
1.3. NOÇÕES BÁSICAS SOBRE RÁDIO-COMUNICAÇÕES 7
Figura 1.5: Modelos de antenas (da esquerda-cima, segundo sentido retrógrado): «chicotes» verticais em
viatura militar, dipólo dobrado vertical, reflector parabólico com antena de abertura, agregado para GSM,
agregado de 4 antenas helicoidais e agregado de 2 antenas Yaggi-Uda.
No quadro da tabela 1.3 apresenta-se uma lista com as bandas de frequências normalmente
em uso, bem como as suas designações.
Tabela 1.3: das bandas utilizadas na comunicações em rádio-frequência; onde ITU designa a International
Telecommunication Union.
D
Definição: Sinal Determinístico Entende-se por sinal determinístico todo o sinal passível de ser
determinado com rigor em qualquer instante do seu domínio.
Resumindo, os sinais podem ser classificados quanto às suas características temporais como
se apresenta no quadro seguinte:
Aperiódicos
Determinísticos Periódicos
Quasi-periódicos
SINAIS
(
Aleatórios
Não-Determinísticos Irregulares
Como se sabe, sinal periódico é todo aquele que se repete a si próprio (periodicamente!).
Mais concretamente,
D
9O impulso de Dirac não é, na verdadeira acepção da palavra, um sinal; trata-se antes de um elemento de uma classe
de funções generalizadas ou distribuições.
1.4. INTRODUÇÃO AOS SINAIS 9
1
f0 , [Hz] (1.2)
T0
ω0 , 2π f0 [rad/s] (1.3)
teremos
2π = ω0 × T0 (1.4)
Os sinais periódicos desempenham um papel fundamental na Teoria dos Sinais mas devem
ser vistos como uma abstracção matemática, pois têm uma energia infinita10 .
Todos os sinais que não verifiquem a equação (1.1) dizem-se aperiódicos. Está nesta classe
a função de Heaviside, por exemplo. Contudo, há sinais que, sendo aperiódicos, se comportam
«localmente» como periódicos e a estes chamam-se de quase-periódicos. Como exemplo, atente-se
na figura 1.6 onde se representa a forma de onda temporal de um som vocálico. Reparemos que, a
Figura 1.6: Forma de onda de fala (vogal ó), assinalando-se a azul o intervalo de periodicidade.
partir dos 40 ms (aproximadamente), a forma de onda apresenta uma certa regularidade, podendo-se
mesmo verificar que apresenta uma periodicidade de 10 ms. Estritamente, trata-se de um sinal não-
periódico mas, após o transitório inicial, apresenta-se como se fosse um sinal periódico, advindo
então a denominação de quase-periódico.
10 CAPÍTULO 1. INTRODUÇÃO ÀS TELECOMUNICAÇÕES
e que não se define na origem, local onde apresenta uma descontinuidade de 1a ordem12 .
F UNÇÃO sinc
D
O sinal (função) sinc(x) define-se como sendo:
sen(πx)
sinc(x) , (1.6)
πx
0.8
0.6
0.4
sinc(x)
0.2
−0.2
−0.4
−5 0 5 10
x
Esta função tem zeros nos múltiplos inteiros (positivos e negativos) de x, e goza das seguintes
propriedades:
T
Corolário A função sinc(x) é uma função par, isto é: sinc(x) = sinc(−x).
T
Corolário sinc(0) = 1
1.4. INTRODUÇÃO AOS SINAIS 11
JANELA R ECTANGULAR
D
d
A janela rectangular (·) é um sinal não-periódico de larga aplicação em Telecomunicações.
É definida como
l 1
|t| < T1
t
, u(t + T1 ) − u(t − T1 ) = (1.7)
2T1
0 c.c.
0.8
0.6
0.4
0.2
−10 −8 −6 −4 −2 0 2 4 6 8 10
( 2Tt 1 ), sendo T1 = 2.
d
Figura 1.8: Janela rectangular
JANELA T RIANGULAR
D
V
A janela triangular (·) é um sinal não-periódico de larga aplicação em Telecomunicações
e Processamento de Sinais. É definida como
1 − T|t|1
l l |t| < T1
^ t t t
, ∗ = (1.8)
T1 T1 T1
0 c.c.
0.8
0.6
0.4
0.2
−5 −4 −3 −2 −1 0 1 2 3 4 5
JANELA DE H AMMING
D
0.8
0.6
0.4
0.2
JANELA DE H ANNING
D
A janela de Hann WHamming é um sinal não-periódico de larga aplicação em Telecomunica-
ções e Processamento de Sinais. É definida como
(
t 0, 5 + 0, 5 · cos( 2πt
T ) |t| < T2
WHann ( ) , (1.10)
T 0 c.c.
A representação gráfica desta função é apresentada na figura 1.11 para T = 1.
0.8
0.6
0.4
0.2
0.4
0.35
0.3
0.25
0.2
0.15
0.1
0.05
0
−5 −4 −3 −2 −1 0 1 2 3 4 5
0.8
0.6
y(t)
0.4
0.2
0
−2 0 2 4 6 8 10
tempo (s)
Assim, se considerarmos que σ < 0, quer a parte real quer a parte imaginária da exponencial
complexa resultam em sinusoides amortecidas (figura 1.14).
1.4. INTRODUÇÃO AOS SINAIS 15
0.5
Re[y(t)]
0
−0.5
−2 0 2 4 6 8 10
tempo (s)
0.8
0.6
Im[y(t)]
0.4
0.2
−0.2
−0.4
−2 0 2 4 6 8 10
tempo (s)
Figura 1.14: Partes real (em cima) e imaginária (em baixo) da exponencial complexa amortecida para σ =
−0, 5 e ω = 2 para y(t) = e(σ + jω)t · u(t).
Impulso de Dirac
D
Postulemos a existência de uma função16 δ (·) tal que a função de Heaviside (ou para o mesmo
efeito, o escalão unitário) dela decorra por integração,
Z t
∀t, τ ∈ R : u(t) = δ (τ)dτ (1.15)
−∞
Rapidamente se verifica que esta função δ (t) é forçosamente nula em todo o seu domínio, com
excepção da origem, onde ocorre uma singularidade. Outra forma de definir este impulso, é através
da derivada da função de Heaviside
d
δ (t) = u(t) (1.16)
dt
mas que levanta óbvias dificuldades para t = 0. Vejamos, no seguimento, uma forma de ultrapassar
esta dificuldade. Assim, consideremos a função distribuição normal ou função de Gauss,
2
1 − t
n(t) = √ e 2σ 2 (1.17)
2πσ 2
e sabemos que o seu integral (integral de Euler-Poisson17 ) é unitário
Z +∞ Z +∞ 2
1 − t
n(t)dt = √ e 2σ 2 dt = 1 (1.18)
−∞ −∞ 2πσ 2
t R
Seja então a função integral de Gauss Nσ (t) = −∞ n(τ)dτ e atentemos na figura 1.15 onde se
apresentam vários gráficos de n(t) (em cima) e Nσ (t) (em baixo) para diversos valores de σ .
15 Como é sabbido, a fórmula de Euler é e jθ = cos(θ ) + jsen(θ ) .
16 Como veremos, a utlização do termo função é, para esta classe de sinais um pouco abusiva; na verdade, estes sinais
são conhecidos por distribuições.
17 Veja-se a demonstração deste importante resultado no apêndice C.1.
16 CAPÍTULO 1. INTRODUÇÃO ÀS TELECOMUNICAÇÕES
0
−2 −1.5 −1 −0.5 0 0.5 1 1.5 2
1.4
1.2
0.8
0.6
0.4
0.2
0
−2 −1.5 −1 −0.5 0 0.5 1 1.5 2
t
Figura 1.15: Família de funções normal de média nula (em cima) e do seu integral, a função integral de
Gauss (em baixo), em função do desvio-padrão σ , onde na abcissa t = 0, 25 e de baixo para cima temos a
seguinte correspondência σ = 1, 0, 3, 0, 2, 0, 1, 0, 05.
Estes gráficos sugerem que Nσ (t) vai, no limite, «tender» para a função de Heaviside com o
progressivo anulamento de σ ou seja:
Z t
lim Nσ (t) = lim n(τ)dτ → u(t) (1.19)
σ →0 σ →0 −∞
e que, por consequência, sendo n(t) = dtd Nσ (t), então também se terá, no limite18 , δ (t) = dtd u(t).
Vemos assim que o impulso de Dirac resulta duma sucessão de funções normais ou de Gauss, n-
R
deriváveis em todos os pontos do seu domínio, preservando uma área unitária, pois R δ (t)dt = 1.
Também se verifica que este processo de «definir» ou aproximar a função de Heaviside, mediante
uma sucessão de funções integral de Gauss, nos leva à determinação19 de u(0), sendo, portanto,
u(0) = 12 .
18 Chama-se a atenção para a falta de rigor desta apresentação, uma vez que a preocupação se centra no resultado que
se pretende transmitir.
19 Este facto não invalida a afirmação anterior de que u(0) pode ser qualquer valor, desde que diferente de infinito.
1.4. INTRODUÇÃO AOS SINAIS 17
d
δ (t) =
dt u(t)
(1.20)
Rt
u(t) = −∞ δ (ε)dε
T
Corolário Z +∞
δ (t)dt = 1 (1.21)
−∞
Convém reparar que este corolário explicita claramente que é a área do impulso de Dirac que é
unitária e não a sua amplitude. Aliás, para esta classe de sinais, não se pode falar de amplitude uma
vez que, efectivamente, tenderá, no limite, para infinito. Assim, nas representações gráficas deste
sinal, o valor que se coloca junto ao impulso indica não a sua amplitude mas antes a sua área.
T
Corolário
x(t)δ (t) = x(0)δ (t) (1.22)
ou, se forma equivalente,
x(t)δ (t − t0 ) = x(t0 )δ (t − t0 ) (1.23)
T
Corolário
∀t, τ ∈ R : x(t) ∗ δ (t − τ) = x(t − τ) (1.24)
Comecemos por dizer, embora a energia ou potência de um sinal não correspondam exacta-
mente aos conceitos (físicos) de energia e potência, são métricas válidas para caracterizar o compor-
tamento de um sinal.
D
Definição: Energia de um Sinal Define-se energia E de um sinal x(t) como sendo
Z ∞
E= |x(t)|2 dt (1.26)
−∞
20 A designação correcta é distribuição ou função generalizada.
18 CAPÍTULO 1. INTRODUÇÃO ÀS TELECOMUNICAÇÕES
D
Definição: Potência de um Sinal Define-se a potência P de um sinal x(t) como
Z T
1
P = lim |x(t)|2 dt (1.27)
T →∞ 2T −T
D
Definição: Sinal de Energia Diz-se de um sinal para o qual se tem 0 < E < ∞.
D
Definição: Sinal de Potência Diz-se de todo o sinal que verifica 0 < P < ∞.
Esta definição tem algumas implicações... vejamos: um sinal de energia tem de ter, de acordo
com as definições acima, uma potência nula21 ! Por outro lado, todo o sinal de potência tem energia
infinita. Pode ainda haver sinais que não são nem de energia nem de potência. Uma forma de obviar
a estes paradoxos, é classificar como sendo um sinal de potência todo o sinal que não for um sinal
de energia.
É fácil de ver que os sinais periódicos serão forçosamente sinais de potência. Definamos
então, para um sinal periódico de período fundamental T0 a energia num período:
Z T0 /2
ET0 , |x(t)|2 dt (1.28)
−T0 /2
D
Condições de Dirichlet São condições suficientes da existência da transformada de Fourier de um
dado sinal x(t), as seguintes restrições:
Facilmente se verifica que os sinais periódicos não apresentam transformada de Fourier. Mas
não só estes sinais periódicos não têm transformada de Fourier; por exemplo, a função de Heaviside
também se encontra neste caso. Contudo, recorrendo a uma generalização do conceito de função, é
possível determinar as transformada de Fourier de alguns sinais de interesse para as telecomunica-
ções.
23 Um exemplo de uma função que não obedece a esta condição é x(t) = sen( 1 ).
t (
24 Um exemplo de uma função que não verifica esta condição é a função de Dirichlet, x(t) = 0 t ser racional
.
1 t ser irracional
25 Na verdade, as 6a e 7a propriedades (produto e convolução no tempo) serão mais adiante desenvolvidas e demonstra-
das.
20 CAPÍTULO 1. INTRODUÇÃO ÀS TELECOMUNICAÇÕES
transformada de Fourier de uma exponencial complexa e j2π f0t . Esta transformada, a existir, depara-
R T j2π f t
se com uma dificuldade analítica resultante da indeterminação do limT →∞ −T e dt, pelo que não
poderemos determinar TF[e j2π f 0 t ] directamente a partir da definição de integral de Fourier.
Este resultado permite-nos agora abordar a TF inversa duma exponencial complexa: sendo
então X( f ) = δ ( f − f0 ) qual é o correspondente sinal no tempo, x(t)? Façamos então o desenvolvi-
mento a partir da definição da transformada inversa de um sinal, equação (1.31):
Z Z
TF−1 [δ ( f − f0 )] = δ ( f − f ) e j2π f t d f = δ ( f − f0 )e j2π f0t d f =
| {z 0}
R 6=0 sse f = f0 R
Z
= e j2π f0t δ ( f − f0 )d f = e j2π f0t (1.34)
R
sendo k um número inteiro, T0 o seu período fundamental e f0 = T10 a sua frequência fundamental;
os coeficientes ak são os coeficientes da série Fourier. Estes coeficientes são obtidos a partir da
equação:
T
1
Z
∀t, T0 ∈ R, k ∈ Z : ak = x(t)e− j2πk f0t dt (1.38)
T0
T0
R
onde o operador T0 (·) representa um integral definido num intervalo (suporte) de T0 unidades de
tempo, arbitrariamente localizado em torno da origem, pois que sendo x(t) periódico, teremos,
R R T0 R T0 /2
T0 (·) = 0 (·) = −T0 /2 (·) = · · · .
A equação (1.37) é a designada equação de síntese pois permite a reconstrução de x(t) à custa
de um somatório de termos exponenciais de frequências múltiplas da frequência fundamental, as
harmónicas. Na figura 1.16 ilustram-se funções sinusiodais de frequências múltiplas da fundamen-
tal, as harmónicas.
0.8
0.6
0.4
0.2
−0.2
−0.4
−0.6
−0.8
−1
−1 0 1 2 3 4 5 6
Figura 1.16: Sinusoides de frequências fundamentais múltiplas, com k = 1 a cor azul, k = 2 a cor verde,
k = 3 a vermelho, k = 4 a cor ciano.
26 Referimo-nos à classe de funções periódicas que verificam as condições de existência de Dirichlet. Recorde-se que
estas condições são condições suficientes de existência.
22 CAPÍTULO 1. INTRODUÇÃO ÀS TELECOMUNICAÇÕES
Esta decomposição de Fourier numa soma de infinitos termos sinusoidais só é válida pela
ortogonalidade das funções sinusoidais e, por extensão, das exponenciais complexas
(
0 k 6= l
Z
∀t, f0 ∈ R, k, l ∈ Z : cos(2πk f0t) · cos(2πl f0t) · dt = 1
(1.39)
2 k=l
T0
Se à equação (1.37) aplicarmos a TF, e fazendo uso do resultado expresso na equação (1.34),
teremos a transformada de Fourier para a classe de sinais periódicos que (implicitamente) admitem
a série trigonométrica de Fourier
T
1
∀t, f ∈ R, ∀n, k ∈ Z, ∃T0 = ∈R:
f0
+∞
x(t) = x(t − nT0 ) = ∑ ak e j2πk f0t = TF−1 [X( f )]
k=−∞
1 1
Z
∀T0 = ∈R: ak = x(t)e− j2πk f0t dt
f0 T0
T0
+∞
X( f ) = TF[x(t)] = ∑ ak δ ( f − k f0 ) (1.40)
k=−∞
O seu desenvolvimento em série harmónica é trivial, uma vez que os coeficientes de Fourier
são constantes27
Z T0 /2
1 1 1
Z
− j2πk f0 t
ak = p(t)e dt = δ (t)e− j2πk f0t dt = (1.42)
T0 T0 −T0 /2 T0
T0
1
Este resultado permite-nos obter a seguinte igualdade para ∀t ∈ R, k, n ∈ Z, ∃T0 = f0 ∈R
T
+∞
1 +∞ j2πk f0t
∑ δ (t − nT0 ) = ∑ e (1.43)
n=−∞ T0 k=−∞
Teremos então que a TF do trem de impulsos é
1 +∞
X( f ) = ∑ δ ( f − k f0 )
T0 k=−∞
(1.44)
27 Recordemos que a função integranda só é não-nula numa vizinhança arbitrariamente próxima da origem e, nesse
domínio, a exponencial é unitária. Por conseguinte, o integral fica reduzido ao impulso e que, pela equação (1.21), o
integral vem unitário.
1.4. INTRODUÇÃO AOS SINAIS 23
1.4
1.2
0.8
y(t)
0.6
0.4
0.2
0
−2 0 2 4 6 8 10
tempo (s)
O NDA R ECTANGULAR
e cuja representação gráfica se indica na figura 1.18a). Seja agora r(t) a função periódica de período
fundamental T0 obtida à custa desta janela (figura 1.18b)),
0.8
0.6
0.4
0.2
0
−10 −5 0 5 10 15 20
t
0.8
0.6
0.4
0.2
0
−10 −5 0 5 10 15 20
t
+∞ l t − nT0
r(t) = ∑ (1.46)
n=−∞ T1
24 CAPÍTULO 1. INTRODUÇÃO ÀS TELECOMUNICAÇÕES
1 T0 /2 l t
1 l t
Z Z
− j2πk f0 t
ak = e dt = e− j2πk f0t dt =
T0 T1 T0 −T0 /2 T1
T0
Z T1 /2 T1 /2
1 − j2πk f0 t 1 1
= e dt = · · e− j2πk f0t =
T0 −T1 /2 T0 j2πk f0
−T1 /2
T1 sen(πk f0 T1 ) T1
ak = · = · sinc(k f0 T1 ) (1.47)
T0 πk f0 T1 T0
Estes coeficientes da série harmónica da onda rectangular, equação (1.47), estão representados
na figura 1.19, onde se assinala a ponteado a função sinc(·).
0.2
0.15
0.1
0.05
−0.05
−10 −5 0 5 10 15 20
Pode-se verificar que o estreitamento no tempo dos impulsos rectangulares (factor de ciclo
mais baixo) se traduz por um espalhamento do espectro na frequência (figura 1.22 em cima) e, ao
invés, o alargamento dos impulsos, tem como contrapartida o estreitamento do espectro (figura 1.22
em baixo).
Outro facto interessante é o anulamento dos coeficientes da série de Fourier para k par quando
o factor de ciclo é de 50%, ou seja, a inexistência de harmónicas pares (figura 1.22 ao centro) nesta
situação (simetria do sinal). Neste caso, quando FC=50% a onda rectangular é denominada por onda
quadrada.
1.4. INTRODUÇÃO AOS SINAIS 25
0.8
0.6
0.4
0.2
0
−10 −5 0 5 10 15 20
t
0.2
0.15
0.1
0.05
−0.05
−10 −5 0 5 10 15 20
k
Figura 1.20: Onda rectangular e transformada de Fourier em função do factor de ciclo FC, respectivamente
em cima e em baixo, igual a 20%: TT10 = 0, 2.
A aproximação de uma função descontínua por uma série (ilimitada) de funções contínuas
(senos e cossenos) em todo o seu domínio é, no mínimo, contra-intuitiva. As questões relacionadas
com a convergência das séries de Fourier em muito ultrapassam o âmbito deste trabalho, pelo que
não serão aqui tratadas.
que se obtém a partir da equação (1.47) fazendo TT10 = 12 28 . A série de Fourier (equação (1.49)) pode
ser agora explicitada unicamente em termos de funções reais (cossenos) da seguinte forma:
+∞ −1 +∞
k j2πk f0 t k j2πk f0 t k
∑ sinc 2 e = ∑ sinc e + 1 + ∑ sinc e j2πk f0t (1.50)
k=−∞ k=−∞ 2 k=1 2
0.8
0.6
0.4
0.2
0
−10 −5 0 5 10 15 20
t
0.5
0.4
0.3
0.2
0.1
−0.1
−0.2
−10 −5 0 5 10 15 20
k
Figura 1.21: Onda rectangular e transformada de Fourier em função do factor de ciclo FC, respectivamente
em cima e em baixo, igual a 50%: TT10 = 0, 50.
+∞ +∞
l − j2πl f0 t k
= ∑ sinc e + 1 + ∑ sinc e j2πk f0t =
l=1 2 k=1 2
+∞
k
= 1 + ∑ sinc [e j2πk f0t + e− j2πk f0t ] =
k=1 2
+∞
k
= 1 + 2 ∑ sinc cos(2πk f0t) (1.51)
k=1 2
pelo que se obtém, finalmente, a partir desta equação e da equação (1.49),
1 +∞
k
r(t) = + ∑ sinc cos(2πk f0t) (1.52)
2 k=1 2
Na figura 1.23 representa-se r̃(t) para vários valores de N ≥ 1 e onde poderemos intuir que
r̃(t) → r(t) com o aumento de N, se exceptuarmos as vizinhanças das descontinuidades, onde ocor-
rem oscilações cujas amplitudes permanecem constantes. Estas oscilações são conhecidas pelo fe-
nómeno ou oscilações de Gibbs29 .
29 Pode-se questionar, efectivamente, a validade de, quando k → ∞, a série truncada r̃(t) que é, em todo o seu domínio
um sinal contínuo, tender para uma função descontínua. Seja então ek (t) , r(t) − r̃(t) o sinal resultante da aproximação
mencionada. Pode-se mostrar que a energia média de ek (t) tender para zero quando k → ∞, validando (em termos da
energia do erro da aproximação ser, no limite, nula) a série de Fourier.
1.4. INTRODUÇÃO AOS SINAIS 27
0.8
0.6
0.4
0.2
0
−10 −5 0 5 10 15 20
t
0.8
0.6
0.4
0.2
−0.2
−10 −5 0 5 10 15 20
k
Figura 1.22: Onda rectangular e transformada de Fourier em função do factor de ciclo FC, respectivamente
em cima e em baixo, igual a 80%: TT10 = 0, 80, em baixo.
Consideremos o sinal y(t) resultante da convolução de dois sinais, y(t) = h(t) ∗ x(t) e deter-
minemos a sua transformada de Fourier
Z
Y ( f ) = TF[y(t)] = TF[h(t) ∗ x(t)] = TF[ h(τ)x(t − τ)dτ] =
R
Z Z Z Z
− j2π f t
= [ h(τ)x(t − τ)dτ]e dt = h(τ)[ x(t − τ)e− j2π f t dt]dτ =
R R R R
Z Z Z
− j2π f ε − j2π f t
= h(τ)[ x(ε)e dε ]e dτ = X( f ) · h(τ)e− j2π f τ dτ (1.54)
R R R
| {z } | {z }
X( f ) H( f )
ou seja,
T
TF[h(t) ∗ x(t)] = H( f ) · X( f ) (1.55)
Seja agora y(t) o sinal resultante do produto de dois sinais, y(t) = h(t) × x(t) e determinemos
a sua transformada de Fourier
28 CAPÍTULO 1. INTRODUÇÃO ÀS TELECOMUNICAÇÕES
1.5 1.5
1 1
0.5 0.5
0 0
−0.5 −0.5
−5 0 5 10 −5 0 5 10
t (N=1) t (N=3)
1.5 1.5
1 1
0.5 0.5
0 0
−0.5 −0.5
−5 0 5 10 −5 0 5 10
t (N=5) t (N=7)
1.5 1.5
1 1
0.5 0.5
0 0
−0.5 −0.5
−5 0 5 10 −5 0 5 10
t (N=15) t (N=25)
Figura 1.23: Síntese da onda quadrada por série de Fourier truncada (equação (1.53)) para os vários valores
de N assinalados.
x(t)=TF−1 [X( f )]
Z zZ }| {
Y ( f ) = TF[y(t)] = TF[h(t) · x(t)] = h(t) [ X(µ)e j2π µt
dµ] e− j2π f t dt =
R R
Z Z Z Z
= X(µ)[ x(t)e− j2π f t e j2π f µ dt]dµ = X(µ) [ h(t)e− j2π( f −µ)t dt] dµ =
R R R
|R {z }
H( f −µ)
Z
= X(µ) · H( f − µ)dµ (1.56)
R
que identificamos como o integral de convolução de dois sinais (embora seja não no domínio do
tempo, como foi apresentada anteriormente, mas no da frequência) ou seja,
T
Este resultado acaba por ser a essência das telecomunicações! Veremos mais adiante no capí-
tulo 5 que, escolhendo adequadamente o sinal h(t) e consequentemente H( f ), poderemos deslocar
o espectro da mensagem x(t) a transmitir para uma gama de frequências adequadas à mais eficiente
transmissão e propagação dos sinais rádio-eléctricos.
1.4. INTRODUÇÃO AOS SINAIS 29
Podemos ver pelas equações (1.55) e (1.57) que há uma «simetria» ou dualidade entre os
operadores binários convolução e produto, ou seja, a transformada de Fourier do produto no tempo
de dois sinais é a convolução das transformadas de Fourier desses sinais na frequência e que a
convolução na frequência das transformadas de Fourier de dois sinais é a transformada de Fourier
do seu produto no tempo:
T
x(t) · h(t) ⇐⇒ X( f ) ∗ H( f )
(1.58)
x(t) ∗ h(t) ⇐⇒ X( f ) · H( f )
Apresentam-se na tabela 1.5, sem dedução, alguns pares de transformadas de Fourier que se
utilizarão frequentemente nos capítulos seguintes.
Sinal ⇐⇒ Transformada
1 δ(f)
δ (t) 1
1 1
u(t) 2 δ (t) + j2π f
e j2π f0t δ ( f − f0 )
1
cos(2π f0t) 2 [δ ( f − f 0 ) + δ ( f + f 0 )]
1
sen(2π f0t) 2 j [δ ( f − f 0 ) − δ ( f + f 0 )]
e−t u(t) 1
1+ j2π f
e−|t| 1
1+(2π f )2
2 2
e−πt e−π f
t 2 2 f2
√1 e− 2 e−2π
2π
2
− t 2σ 2 f 2
√ 1 e 2σ 2 e−2π
2πσ 2 (
d 1 |t| < 21
rect(t) = (t) , sinc( f )
0 c.c.
t d t
rect( T ) = ( T ) T sinc(T f )
(
1 − |t| |t| < 1
tri(t) = ∧(t) , sinc2 ( f )
0 c.c.
Em situações reais não é possível conhecer os sinais na sua totalidade, pois que tal obrigaria
a protelar cálculos e outros algoritmos de análise. Assim é usual analisar os sinais em intervalos de
30 CAPÍTULO 1. INTRODUÇÃO ÀS TELECOMUNICAÇÕES
Assim, o espectro de x(t) vai ser convolvido pelo espectro da janela, alterando-o irremedia-
velmente. Repare-se que a simples truncactura do sinal x(t) é equivalente ao seu produto por uma
d
janela rectangular w(t) = (t/T ), onde T é a duração pretendida do sinal truncado.
Portando, para que se tenha uma noção das consequências em termos da representação es-
pectral dos sinais por aplicação de janelas, apresentaremos seguidamente os espectros de algumas
janelas de aplicação generalizada quer em telecomunicações quer em processamento de sinais30 .
JANELA R ECTANGULAR
JANELA T RIANGULAR
e cujo espectro (transformada de Fourier) é, após alguma manipulação elementar31 que pode ser
vista mais adiante nos Problemas Resolvidos (P. 6:)
^ T fT
(f) = · sinc2 ( ) (1.64)
2 2
30 Convém ter presente que, actualmente, a quase totalidade do processamento de sinais se efectua em tempo discreto,
ao invés de tempo contínuo que aqui se apresenta.
31 Para se obter este resultado, convém ter presente que R x · eax dx = ( x − 1 ) · eax e que 1 − cos(θ ) = 2 sin2 ( θ ).
a a2 2
1.4. INTRODUÇÃO AOS SINAIS 31
Na figura 1.24 na segunda linha a contar de cima, respectivamente à esquerda e à direita, representam-
se os sinais no tempo e na frequência.
JANELA DE H AMMING
t 2πt
WHamming ( ) = 0, 54 + 0, 46 · cos( ) (1.65)
T T
T
WHamming ( f ) = 0, 54 · T · sinc( f T ) + 0, 46 · · [sinc( f T − 1) + sinc( f T + 1)] (1.66)
2
JANELA DE H ANNING
t 2πt
WHanning ( ) = 0, 5 · (1 + cos( )) (1.67)
T T
T
WHanning ( f ) = 0, 5 · T · sinc( f T ) + 0, 5 · · [sinc( f T − 1) + sinc( f T + 1)] (1.68)
2
JANELA DE G AUSS
2
g(t) = e−πt (1.69)
1
repare-se que se trata de uma guassiana cuja variância é σ 2 = π2
e pode-se mostrar que a sua
transformada de Fourier é dada por
2
G( f ) = e−π f (1.70)
0
1
−20
0.5 −40
−60
0 −80
−0.5 0 0.5 −5 0 5
1 0
−20
0.5 −40
−60
0 −80
−0.5 0 0.5 −5 0 5
0
1
−20
0.5 −40
−60
0 −80
−0.5 0 0.5 −5 0 5
0
1
−20
0.5 −40
−60
0 −80
−0.5 0 0.5 −5 0 5
tempo [s] frequencia [Hz]
Figura 1.24: Janelas no tempo (à esquerda) e respectivos espectros (dB) à direita, para T = 1; de cima para
baixo: janelas rectangular, triangular, Hamming e Hanning.
JANELA sinc(x)
NOTA Normalmente as janelas de análise podem ser afectadas de um factor de escala corres-
pondente ao inverso da sua energia; desta forma se possibilita uma melhor comparação entre
os respectivos espectros. Contudo, e dado o carácter introductório deste trabalho, esta «correc-
32 Naverdade, esta transformada de Fourier obtém-se por inspecção da transformada inversa da janela rectangular na
frequência.
1.5. PROBLEMAS RESOLVIDOS 33
1 1
0.8
0.5
0.6
0.4
0
0.2
0
−0.5
−2 −1 0 1 2 −5 0 5
1 1
0.8 0.8
0.6 0.6
0.4 0.4
0.2 0.2
0 0
−2 −1 0 1 2 −5 0 5
tempo [s] frequencia [Hz]
Figura 1.25: Janelas no tempo (à esquerda) e respectivas transformadas de Fourier à direita, para T = 1;
em cima, janela sinc e, em baixo, janela de Gauss.
ção» não foi efectuada. Efectivamente, inspeccionando os valores do espectro para f = 0 nas
figuras 1.24 e 1.25 de imediato se verificam valores distintos. A título de exemplo, se verifica
d
que (0) = 2 × (0) uma vez que a área da janela rectangular é efectivamente o dobro da área
V
da janela triangular (reparemos que, na figura 1.24, do lado direito, segunda linha a contar de
cima, esta está 6 dB abaixo).
Resolução Da Análise de Circuitos, sabemos que se trata de um divisor de tensão nas impe-
dâncias dos componentes eléctricos: resistência (ZR = R) e condensador (ZC = j2π1 fC ), pelo
34 CAPÍTULO 1. INTRODUÇÃO ÀS TELECOMUNICAÇÕES
x(t) C y(t)
0.9
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0 1 2 3 4 5 6 7 8 9 10
P. 2: Considere um SLIT caracterizado pela resposta impulsiva h(t) = τ1 e−t/τ u(t) em que τ é
uma constante33 , e sujeito a uma entrada sinusoidal de frequência f0 e amplitude X, x(t) =
X cos(2π f0t).
1
(a) supondo que f0 = 2πτ determine o sinal de saída y(t);
33 Efectivamente, a denominada constante de tempo.
1.5. PROBLEMAS RESOLVIDOS 35
-20
-30
-40
10 -1 10 0 10 1 10 2
-20
Diag. Bode de Fase
-40
-60
-80
-100
10 -1 10 0 10 1 10 2
[Hz]
Figura 1.28: Diagramas de Bode para a função de resposta em frequência do circuito RC Passa-baixo para
RC = 0, 1.
(b) qual a relação entre as potências médias do sinal de saída e do sinal de entrada?
Resolução
Z+∞
1 1 −t/τ
H( f ) = TF[ e−t/τ u(t)] = e u(t)e− j2π f t dt =
τ τ
−∞
Z+∞ Z+∞
1 −t/τ − j2π f t 1
= e e dt = e−(1/τ+ j2π f )t dt =
τ τ
0 0
1/τ 1
= = (1.75)
1/τ + j2π f 1 + j2π f τ
Por outro lado, recordando que a saída de um SLIT se obtém convolvendo a respectiva
resposta impulsiva com o sinal de entrada, y(t) = h(t) ∗ x(t), e aplicando o resultado
expresso na equação (1.55), teremos Y ( f ) = H( f ) · X( f ) o que, neste caso resulta em
1 X
Y(f) = · [δ ( f − f0 ) + δ ( f + f0 )] =
1 + j2π f τ 2
X/2 X/2
= · δ ( f − f0 ) + · δ ( f + f0 ) (1.76)
1 + j2π f0 τ 1 − j2π f0 τ
36 CAPÍTULO 1. INTRODUÇÃO ÀS TELECOMUNICAÇÕES
(b) uma vez que estamos a lidar com sinais periódicos, recordemos que a potência média
TR/2
1
de um sinal periódico com período fundamental T0 , vem dada por P = T |x(t)|2 dt,
−T /2
pelo que teremos para o sinal de entrada,
TZ0 /2 TZ0 /2
1 2X2
PX = |X cos(2π f0t)| dt = cos2 (2π f0t)dt =
T0 T0
−T0 /2 −T0 /2
TZ0 /2
X2 1 X2
= (1 + cos(2 · 2π f0t)dt = (1.79)
T0 2 2
−T0 /2
e para a potência do sinal de saída, teremos de imediato PY = 12 PX , pelo que a razão das
potências de saída pela entrada vem PPYX = 21 .
(b) para m(t) = (1 + cos(2π f1t) determine analiticamente yAM (t) e YAM ( f ) e represente-os
d − f0 d + f0
graficamente, sabendo que H( f ) = ( f 2B ) + ( f 2B ) e sendo B = 1, 5 f1 e f0 = 20 f1 .
1.5. PROBLEMAS RESOLVIDOS 37
Resolução
(a) Interpretemos o sinal x(t) como sendo uma repetição de T0 em T0 unidades de tempo
de impulsos (janelas) rectangulares de amplitude unitária e de duração (total) de T0 /2.
Assim, vamos desenvolvê-lo na sua série trigonométrica de Fourier (equações (1.37) e
(1.38)):
+T
Z 0 /2
+∞
1
x(t) = ∑ al · e j2πl f0 t
∴ al = x(t) · e− j2πl f0t dt (1.81)
l=−∞ T0
−T0 /2
T0
Como no intervalo de integração se tem ∀|t| ≤ 4 : x(t) = p(t) = 1 podemos de imediato
calcular os coeficientes da série de Fourier:
+T T0
Z 0 /4 4
1 1 1
al = e− j2πl f0t dt = · · e− j2πl f0t =
T0 T0 − j2πl f0 −T0
−T0 /4
4
1 l
= sinc (1.82)
2 2
1 +∞
k
X( f ) = ∑ sinc · δ ( f − k f0 ) (1.83)
2 k=−∞ 2
1
M( f ) = TF[1 + cos(2π f1t)] = δ ( f ) + [δ ( f − f1 ) + δ ( f + f1 )] (1.84)
2
38 CAPÍTULO 1. INTRODUÇÃO ÀS TELECOMUNICAÇÕES
Então, teremos
1 +∞
k
Z( f ) = ∑ sinc δ ( f − k f0 )∗
2 k=−∞ 2
1
∗ {δ ( f ) + [δ ( f − f1 ) + δ ( f + f1 )]} =
2
+∞
1 k
= ∑ sinc δ ( f − k f0 )+
2 k=−∞ 2
1 +∞
k 1
+ ∑ sinc δ ( f − k f0 ) ∗ [δ ( f − f1 ) + δ ( f + f1 )] =
2 k=−∞ 2 2
1 +∞
k
= ∑ sinc [2δ ( f − k f0 ) + δ ( f − k f0 − f1 ) + δ ( f − k f0 + f1 )] (1.85)
4 k=−∞ 2
uma vez que se aplica a propriedade (1.24) mas expressa no domínio da frequência, ou
seja: X( f ) ∗ δ ( f − f0 ) = X( f − f0 ). Passando finalmente para o domínio do tempo,
teremos z(t) = TF−1 [Z( f )] e que resulta em:
+∞
1 k
z(t) = + ∑ sinc · cos(2πk f0t)+
2 k=−∞ 2
1 +∞
k
+ ∑ sinc · [cos(2π(k f0 − f1 )t) + cos(2π(k f0 + f1 )t)] (1.86)
2 k=−∞ 2
Em seguida, iremos obter yAM (t) = TF−1 [Z( f ) · H( f )], que resulta da aplicação da pro-
priedade da transformada de Fourier da convolução de dois sinais à entrada do filtro com
a sua resposta impulsiva, equação (1.55).
A forma mais fácil de obter o resultado pretendido passa por verificar que a função
de resposta em frequência do filtro é nula para ∀ f ∈] / − f0 − 1, 5 f1 ; − f0 + 1, 5 f1 ]∨] f0 −
1, 5 f1 ; f0 + 1, 5 f1 [; assim, só as componentes de z(t) para k = 1 estarão presentes na
saída do filtro, ou seja:
1
yAM (t) = cos(2π f0t) + [cos(2π( f0 − f1 )t) + cos(2π(k f0 + f1 )t)] (1.87)
2
0.8
0.6
0.4
0.2
−0.2
−0.4
−0.6
−0.8
−1
−10 −8 −6 −4 −2 0 2 4 6 8 10
pois, como já se viu, a transformada de Fourier do produto de dois sinais resulta na convolução
das transformadas desses sinais. Assim,
e j2π f T1 − e j2π f T1
l Z +T
t 1 2 j sen(2π f T1 )
TF ( ) = 1 · e− j2π f t dt = = =
2Ti −T1 −2 jπ f 2 jπ f
sen(2π f T1 )
= 2T1 · = 2T1 sinc(2 f T1 )
(2π f T1 )
Este espectro está representado na figura 1.31a), supondo T1 = 0, 55 s.
e, portanto,
h(t) = TL−1 [H(s)] = a · e−at u(t) (1.90)
40 CAPÍTULO 1. INTRODUÇÃO ÀS TELECOMUNICAÇÕES
1.5
0.5
−0.5
−25 −20 −15 −10 −5 0 5 10 15 20 25
a)
0.6
0.4
0.2
−0.2
−1.5 −1 −0.5 0 0.5 1 1.5
b) 10
x 10
Figura 1.31: Espectro da janela rectangular (em cima) e do Impulso de Rádio-frequência, sendo f0 = 7, 5
GHz e T1 = 0, 55 s, em baixo.
Tendo presente que x · eax dx = ( ax − a12 ) · eax , determinemos o segundo membro da equação
R
T at 2 T T · sen(π f T ) 1 − 2 cos(π f T )
= [e − e−at ] + 2 [1 − e−at ] = · + 2T 2 · =
2a a a=− j2π f 2 π fT (− j2π f T )2
T2 T 2 1 − 2 cos(π f T )
· sinc( f T ) −
= · =
2 2 (π f T )2 1−cos(θ )=2 sen2 (θ /2)
T2 T 2 sen2 (π f T /2 T2
1 2 T
= sinc( f T ) − · )= sinc( f T ) − · sinc (π f )
2 4 (π f T /2)2 2 2 2
Ora, substituindo este resultado na equação (1.93), dará a transformada pretendida
^ T T
(f) = · sinc2 ( f ) (1.94)
2 2
P. 7: Analise o efeito da duração de uma janela de análise no seu espectro, exemplificando para a
janela de Hanning.
Resolução Procedamos directamente a partir da equação (1.68), utilizando dois valores para
T ; este resultado apresenta-se na figura seguinte (figura 1.32), onde se pode verificar que ao
se «encurtar» a duração da janela, se «alarga» a sua ocupação espectral.
Resolução Comecemos por representar graficamente o sinal x(t) tendo em atenção a defini-
ção da janela triangular (equação (1.8)) onde podemos, por inspecção, identificar que T = 1,
figura 1.33.
Z + T0 Z +T
1 2
− j2πk f0 t 1 2
ak = T0
x(t) · e dt = x(t) · e− j2πk f0t dt =
T0 − 2
2 − T2
1 1 1
= · · sinc2 (k f0 )
2 2 2
42 CAPÍTULO 1. INTRODUÇÃO ÀS TELECOMUNICAÇÕES
1
−10
0.8 −20
−30
0.6
−40
0.4
−50
−60
0.2
−70
0
−80
−0.5 0 0.5 −10 −5 0 5 10
Tempo [s] [Hz]
Figura 1.32: Janelas (lado esquerdo) e seus espectros (à direita) de Hanning para T = 1/2 (azul) e para
T = 1/4, a vermelho.
x(t)
T0
… …
T 1 2 t
V
uma vez que podemos utilizar a equação de ( f ) já obtida em (1.64) substituindo f por k f0 .
Finalmente,
1 +∞ 1 1
X( f ) = · ∑ sinc2 (k ) · δ ( f − k ) (1.95)
4 k=−∞ 4 2
Esta transformada está representada na figura 1.34.
1.5. PROBLEMAS RESOLVIDOS 43
0.3
0.25
0.2
0.15
0.1
0.05
-4 -2 0 2 4 6
[Hz]
PROCESSOS ESTOCÁSTICOS
2.1 PROBABILIDADES
Probabilidade é um conceito abstracto que não tem suporte experimental directo. Já «evento»,
«ocorrência» ou «realização» de uma experiência é um conceito natural, facilmente explicável ou
verificável. Destes conceitos decorre a noção de frequência relativa que, no fundo, resulta da cons-
tatação de uma sequência de eventos. Desta, por um mecanismo de indução, surge o conceito de
probabilidade. Contudo, esta forma de «definir» probabilidade carece de rigor.
De outra forma, mais formal, e a que seguiremos, é preferível apresentar a Probabilidade sob
a forma de uma axiomática que a define e caracteriza, de acordo com a formalização de Kolmogorov.
Comecemos por recordar um conjunto de conceitos essenciais a estes tópicos. Assim, seja J
o conjunto dos acontecimentos elementares de uma experiência: J = {Ai , i = 1, 2, · · · , N}. Estes
acontecimentos elementares, por serem elementares, são por conseguinte mutuamente exclusivos:
D
45
46 CAPÍTULO 2. PROCESSOS ESTOCÁSTICOS
∀i, j = 1, 2, · · · , N : i 6= j Ai , A j ∈ J Ai ∩ A j = 0/ (2.1)
Ex
Exemplo Seja então uma dada experiência que consiste em registar a soma dos números das faces
superiores de dois dados que são sucessivamente lançados. Então, teremos
Como se verifica de imediato, não é possível ter como resultado desta experiência (ou seja, a
soma mencionada) simultaneamente «2» e «8».
V
A priori nada nos permite supor ou afirmar sobre as ocorrências destes acontecimentos serem
ou não equiprováveis. Sobre o exemplo apresentado, parece ser razoável supor que a soma das duas
faces não caia preferencialmente em «4» ou noutro valor qualquer... o que é impossível de verificar
experimentalmente. Mas a prática leva-nos a supor que, não havendo vício no processo, qualquer
resultado da experiência é tão «provável» quanto outro qualquer. Efectivamente, e havendo 11 resul-
tados possíveis, é tentador afirmar que a probabilidade de se obter o resultado «4» é de 1/11, pois de
outra forma, uma das faces de um ou dos dois dados teria a «tendência» de ocorrer mais vezes1 . Seja
agora B o acontecimento de se ter a soma par, ou seja B = {2, 4, 6, 8, 10, 12}, e seja C = {3, 5, 7, 9, 11}
o acontecimento da soma ser ímpar: estes dois acontecimentos são mutuamente exclusivos, pois a
mesma soma não pode ser, simultâneamente, par e ímpar. Já não seriam mutuamente exclusivos
caso redefiníssemos esses acontecimentos como B = {soma ≤ 10}, e C = {soma > 5}.
D
Definição: Espaço de amostras como sendo o conjunto de todos os subconjuntos de J e designemo-
lo por Ω. Claramente se tem que J ⊂ Ω.
A XIOMAS DE KOLMOGOROV
T
1o Axioma para qualquer acontecimento A ∈ J se tem que a probabilidade desse acontecimento é
não-negativa: Pr(A) ≥ 0.
T
2o Axioma Pr(J) = 1
T
3o Axioma se os acontecimentos Ai ∈ J, com i = 1, 2, · · · , N, forem mutuamente exclusivos (equa-
ção (2.1)) então
N
[ N
Pr(A1 ∪ A2 ∪ · · · ∪ AN ) = Pr( Ai ) = ∑ Pr(Ai ) (2.2)
i=1 i=1
1O mesmo é dizer que o(s) dado(s) estaria(m) viciado(s)
2.1. PROBABILIDADES 47
T
Monotonicidade ∀A, B ∈ Ω : A ⊆ B ⇒ Pr(A) ≤ Pr(B)
T
Contra-domínio ∀A ∈ Ω : 0 ≤ Pr(A) ≤ 1
T
Conjunto Complementar A, Ā ∈ Ω : Pr(Ā) = 1 − Pr(A)
Seja Pr(M) a probabilidade não-nula da ocorrência do acontecimento M que, por sua vez,
determina ou condiciona a ocorrência de um acontecimento A. Então, a probabilidade da ocorrência
do acontecimento A condicionada na certeza da ocorrência de M é definida por
D
Pr(A ∩ M)
Pr(A|M) = (2.3)
Pr(M)
T
1a Propriedade Pr(A|M) ≥ 0
T
2a Propriedade Pr(J|M) = 1
T
3a Propriedade se A ∩ B 6= 0/ ⇒ Pr(A ∪ B|M) = Pr(A|M) + Pr(B|M) − Pr(A ∩ B|M)
D
Definição: Independência Estatística os acontecimentos A e B dizem-se estatisticamente inde-
pendentes sse
Pr(A ∩ B) = Pr(A) · Pr(B) (2.4)
Pr(A|B) = Pr(A)
(2.5)
Pr(B|A) = Pr(B)
N
[ N
Pr(B) = Pr( B ∩ Ai ) = ∑ Pr(B ∩ Ai ) (2.6)
i=1 i=1
o que, de acordo com a definição de probabilidade condicional (equação (2.3)), se traduz no
T 2 : Teorema de Bayes
O teorema de Bayes é uma forma de, conhecidas as probabilidades a priori Pr(Ai ), se obterem
as probabilidades a posteriori (isto é, por estarem condicionadas à ocorrência de B):
T
Pr(B|Ai ) Pr(Ai )
Pr(Ai |B) = N (2.8)
∑k=1 Pr(B|Ak ) Pr(Ak )
Ex
Exemplo Considere o caso de um radar de defesa anti-míssil que, aos acontecimentos m0 (não ter
sido lançado um míssil) e m1 (ter sido efectivamente lançado um míssil) de probabilidades p(m0 )
e p(m1 ), associa uma probabilidade de não detecção p(r0 ) ou de detecção p(r1 ) sendo que r0 é o
míssil não ter sido detectado e r1 a sua detecção. Suponha-se, então, que a probabilidade de não ter
sido lançado um míssil é p(m0 ) = 1/2, que a probabilidade de se ter detectado um míssil, embora
não tivesse havido lançamento, é p(r1 |m0 ) = 0, 1 e p(r0 |m1 ) = 0, 2. Pretende-se determinar qual a
probabilidade
2. de erro;
Resolução Este é um típico problema de aplicação do teorema de Bayes. Para melhor se entender
a sua resolução, considere-se a figura 2.1,
p(r0 | m0 )
m0 r0
| m 1)
p(r0
p( r
1 |m
0 )
m1 r1
p(r1 | m1 )
2.2. VARIÁVEIS ALEATÓRIAS 49
A partir dos dados disponíveis, determinemos: a probabilidade de ter sido lançado um mís-
sil, p(m1 ) = 1 − p(m0 ) = 1/2; a probabilidade de não se detectar dado que não houve lançamento,
p(r0 |m0 ) = 1 − p(r1 |m0 ) = 1 − 0, 1 = 0, 9; a probabilidade de se ter detectado o míssil dado que
houve lançamento, p(r1 |m1 ) = 1 − p(r0 |m1 ) = 1 − 0, 2 = 0, 8. Podemos agora determinar (teorema
da probabilidade total) a probabilidade p(r0 ) de não haver detecção e, obviamente a sua comple-
mentar, P(r1 ) a de haver detecção de um lançamento. Assim,
1. a probabilidade de não haver lançamento do míssil dado que não houve detecção, p(m0 |r0 ) é
(teorema de Bayes),
p(r0 |m0 )p(m0 )
p(m0 |r0 ) =
p(r0 )
e que terá o valor de 0,818; completando,
p(r1 |m1 )p(m1 )
p(m1 |r1 ) = = 0, 889
p(r1 )
ou seja, a probabilidade de ter havido um lançamento de um míssil, dado que se detectou um
lançamento.
2. a probabilidade de erro é
François Marie Arouet (Voltaire) afirmou no seu E SSAI SUR L’ HISTOIRE GÉNÉRALE ET
SUR LES MOEURS ET L’ ESPRIT DES NATIONS em 1756 que o «Sacro Império Romano» não foi
nem Sacro, nem Romano e muito menos Império. De forma semelhante, as Variáveis Aleatórias
não são nem variáveis nem aleatórias!
D
Definição: Variável Aleatória Uma variável aleatória é uma função definida sobre um espaço de
amostras.
Ex
50 CAPÍTULO 2. PROCESSOS ESTOCÁSTICOS
Ex
Exemplo Seja o espaço de amostras J definido no conjunto dos alunos de uma dada universidade.
Determinemos o peso de cada estudante i em kg, w(i). Neste caso, a variável aleatória H pode ser
definida como H(·) : J → R.
V
Estes dois exemplos servem-nos para apresentar 3 classes de variáveis aleatórias: contínua,
discreta e mista. Assim, uma variável aleatória contínua é uma função com contradomínio num
dado intervalo em R; sendo discreta quando tiver contradomínio num conjunto contável de números
reais e mista caso tenha suporte numa união de contradomínios anteriores.
Seja X uma variável aleatória discreta e seja um dado valor a ∈ CD[X]; qual a probabilidade
desta variável aleatória assumir o valor a? Mais concretamente, consideremos então o acontecimento
A = {x ∈ J : X(x) = a}; e determine-se a sua probabilidade de ocorrência, isto é Pr(X = a) = Pr({x ∈
J : X(x) = a}).
D
Definição: Função Probabilidade de Massa Seja a função probabilidade de massa como sendo
uma função, tabela ou fórmula que nos permita obter Pr(X = a) para cada elemento a no contrado-
mínio da variável aleatória X.
D
Definição Duas variáveis aleatórias X e Y têm a mesma distribuição sse os valores que assumem e
as respectivas função probabilidade de massa forem idênticas e representa-se este facto como X ∼ Y .
D
Definição: Valor Expectável
+∞
E{X} = mX , ∑ ai Pr(X = ai ) (2.9)
i=1
D
Definição: Variância A variância da variável aleatória X:
T
Propriedades do Valor Expectável
• E{k · X} = k · E{X}
• E{k1 · X + k2 } = k1 · E{X} + k2
Seja a variável aleatória discreta X que toma valores a1 , a2 , · · · , an que consideraremos orde-
nados por ordem crescente, a1 < a2 < · · · < an .
D
Definição: Função Distribuição Cumulativa A Função Distribuição Cumulativa da variável
aleatória discreta X é dada por FX (ai ) = Pr(X ≤ ai ) e obtém-se a partir de:
Desta forma, a função probabilidade de massa pode ser obtida a partir da função distribuição
cumulativa:
Pr(X = ai ) = FX (ai ) − FX (ai−1 ) (2.12)
D
Variável aleatória de Bernoulli A variável aleatória na sua forma mais simples é a de Bernoulli
pois só assume 2 valores «0» e «1» com função probabilidade de massa p e q de acordo com a tabela
2.1, onde, naturalmente q = 1 − p.
x 0 1
Pr(X = x) p q
E{X} = mX = 0 · 1 + 1 · q = q (2.13)
D
Variável Aleatória Binomial Uma variável aleatória binomial permite determinar o número de
sucessos em n acontecimentos independentes, cada um dos quais associado a uma variável aleatória
de Bernoulli.
Seja, por exemplo, o lançamento de uma moeda viciada em que a probabilidade de sair cara
é p; claramente que a probabilidade de sair coroa3 é q = 1 − p. Lancemos então a moeda n vezes
e contabilizemos o número k de vezes em que sai cara. Este número é Bin(n, p) e é caracterizado
pela função probabilidade de massa:
n n−k k
Pr(X = k) = q p para k = 0, 1, 2, · · · , n e q = 1 − p (2.15)
k
E{X} = n · p (2.16)
e a sua variância
Var{X} = σX2 = n · p · q (2.17)
D
Variável Aleatória de Poisson Uma variável aleatória de Poisson descreve a probabilidade de
uma série de eventos decorrer num certo período de tempo, admitindo-se que estes acontecimentos
são independentes da ocorrência do último evento.
0.4
0.35
0.3
0.25
Pr(X=x)
0.2
0.15
0.1
0.05
0
0 5 10 15 20 25 30
x
Figura 2.2: Variável aleatória de Poisson para λ = 1(preto), 2 (azul), 5 (vermelho), 10 (magenta) e 20
(ciano).
E{X} = λ (2.20)
e a sua variância,
Var{X} = σX2 = λ (2.21)
2 Conforme enunciado no 1o axioma de Kolmogorov.
3 Independentemente de a moeda ser ou não viciada!
54 CAPÍTULO 2. PROCESSOS ESTOCÁSTICOS
Lembremos que a probabilidade de ter uma variável aleatória contínua X igual a um dado va-
lor na recta real é exactamente zero4 . Desta forma, o conceito de função probabilidade de massa não
é apropriado, pois seria sempre nula e, por consequência, nenhuma informação nos transmitiriam
sobre as variáveis aleatórias. Para este tipo de variáveis aleatórias é preferível apresentar o conceito
de função distribuição cumulativa e que se desenvolverá nos parágrafos seguintes.
D
Definição: Função Distribuição Cumulativa de uma variável aleatória contínua X como sendo
T
Corolário a função distribuição cumulativa FX (x) é uma função não-decrescente e não-negativa
que se aproxima da unidade quando x → +∞. Este facto decorre da própria definição de função
distribuição cumulativa.
Demonstração sejam x e y dois valores reais distintos que verifiquem ∀x, y ∈ R : x < y, então
T
Corolário se x → +∞ ⇒ FX (x) = 1 pois a variável aleatória tem de assumir forçosamente qualquer
valor em R.
Corolário se x → −∞ ⇒ FX (x) = 0 , pois a variável aleatória não pode assumir nenhum valor
inferior a −∞.
T
Corolário fX (x) ≥ 0 pois resulta da derivada de uma função não-decrescente.
T
Corolário a função densidade de probabilidade, ao contrário da função distribuição cumulativa de
que resulta, não está limitada à unidade, ou seja, fX (x) poderá ser, num intervalo finito, superior a 1.
Por outro lado, conhecendo-se a função densidade de probabilidade de uma dada variável ale-
atória contínua, a correspondente função distribuição cumulativa pode ser obtida através da equação
seguinte
Z x T
FX (x) = fX (ε)dε (2.25)
−∞
T
Rb
Corolário Pr(a < X ≤ b) = FX (b) − FX (a) = a fX (x)dx
D
Definição: Valor Expectável
Z∞
mX , E{X} = x · fX (x)dx (2.27)
−∞
T
Propriedades do Valor Expectável
• E{k · X} = k · E{X}
• E{k1 · X + k2 } = k1 · E{X} + k2
D
Definição: Correlação
Z∞
(2) 2
mX = Corr{X} , E{X } = x2 · fX (x)dx (2.28)
−∞
D
Definição: Momentos Centrados São também interessantes os momentos centrados duma variá-
vel aleatória e que se definem como
Z
(n) n
µX , E{(X − mX ) } , (ε − mX )n fX (ε)dε (2.29)
R
Propriedades da Variância:
T
Corolário Var{a · X + b} = a2 · Var{X}
T
(2) (2)
Corolário σX = Corr{X} − m2X = mX − m2X
Ex
4 No
fundo, pensemos que a «dimensão» do conjunto de chegada, o CD da variável aleatória, é infinita, pelo que
teremos forçosamente Pr(X = a) = 0.
2.2. VARIÁVEIS ALEATÓRIAS 57
Exemplo Seja a variável aleatória X suportada5 em [0, 1] e com função densidade de probabilidade
dada por (
2x 0 ≤ x ≤ 1
fX (x) =
0 c.c.
onde c.c. significa «em caso contrário». Determinemos a respectiva função distribuição cumulativa
FX (x)
Z x 0
x<0
FX (x) = fX (ε)dε = x2 0 ≤ x ≤ 1
−∞
1 x>1
1.5
f(x)
0.5
0
−1 −0.5 0 0.5 1 1.5 2
x
1.4
1.2
0.8
F(x)
0.6
0.4
0.2
0
−1 −0.5 0 0.5 1 1.5 2
x
Figura 2.3: Funções densidade de probabilidade (em cima) e distribuição cumulativa (em baixo).
Sejam dois números reais a e b tais que a < b. A função densidade de probabilidade de uma
variável aleatória uniforme é dada por:
(
1
b−a a≤x≤b
fX (x) = (2.31)
0 c.c.
0.7
0.6
0.5
0.4
f(x)
0.3
0.2
0.1
0
−1 −0.5 0 0.5 1 1.5 2
x
1.4
1.2
0.8
F(x)
0.6
0.4
0.2
0
−1 −0.5 0 0.5 1 1.5 2
x
b+a
mX = (2.33)
2
e a sua variância é
(b − a)2
σX2 = (2.34)
12
2.2. VARIÁVEIS ALEATÓRIAS 59
1.5
f(x)
0.5
0
−1 −0.5 0 0.5 1 1.5 2
x
0.8
0.6
F(x)
0.4
0.2
0
−1 −0.5 0 0.5 1 1.5 2
x
x−µ
√
1 2 1 1 x−µ
Z
2σ −λ 2
= √ e dλ = + · erf √ (2.40)
2 π −∞ 2 2 2σ
onde se utilizou a seguinte definição:
D
Definição: Função de Erro como sendo
Z z
2 2
erf (z) , √ e−ν dν (2.41)
π 0
Este integral não tem uma solução fechada e como consequência, a função distribuição cumulativa
também não tem uma forma fechada, pelo que é normalmente tabelada. A função densidade de
probabilidade e a função distribuição cumulativa representam-se na figura 2.6.
1.4
1.2
0.8
f(x)
0.6
0.4
0.2
0
−1 −0.5 0 0.5 1 1.5 2
x
0.8
0.6
F(x)
0.4
0.2
0
−1 −0.5 0 0.5 1 1.5 2
x
T
Corolário Seja uma variável aleatória X normalmente distribuída, X ∼ N(µ, σ 2 ) e seja uma nova
variável aleatória Y definida por Y = (X − µ)/σ . Então Y ∼ N(0, 1).
4 0.4
3 0.3
f(y)
2 0.2
1 0.1
0
0
−6 −4 −2 0 2 4
y
−1
y
0.35
−2
0.3
−3 0.25
0.2
F(y)
−4
0.15
0.1
−5
0.05
−6 0
−1 0 1 2 −6 −4 −2 0 2 4
x y
Figura 2.7: Transformação das variável aleatória X ∼ N(µ, σ 2 ) e Y (lado esquerdo) por Y = (X − µ)/σ e,
à direita, as respectivas função densidade de probabilidade e função distribuição cumulativa de Y ∼ N(0, 1)
para µ = 1/2 e σ 2 = 0, 12.
Z ∞√ √
1 2
=√ 2σ 2 ( 2σ 2 y + µ) · e−y dy
2πσ 2 −∞
x−µ
após se ter efectuado a mudança de variável y = √ e que resulta em
2σ 2
√
2σ 2 ∞ 1
Z Z ∞
2 2
E{X} = mX = √ y · e−y dy + √ µ · e−y dy (2.42)
π −∞ π −∞
2 2
Observando que y · e−y = − 12 dy
d −y
e , de imediato se verifica o primeiro integral da equação (2.42)
R ∞ −y2 √
é nulo. Então, resta-nos obter −∞ e dy que, como se pode demonstrar6 , é igual a π. Portanto,
tem-se finalmente que, como era esperado,
E{X} = mX = µ (2.43)
6 Para a determinação deste integral, veja-se o apêndice C.1.
62 CAPÍTULO 2. PROCESSOS ESTOCÁSTICOS
2σ 2 2σ 2
Z ∞ Z ∞
2 2
E{(X − µ)2 } = √ y2 e−y dy = √ y · ye−y dy
π −∞ π −∞
2σ 2
∞
1 1 ∞ −y2
Z
2
E{(X − µ)2 } = √ − y · e−y − e dy
π 2 −∞ 2 −∞
R∞ −y2 dy
√
Facilmente se verifica que o primeiro termo resulta nulo e, recordando que −∞ e = π, tere-
mos, como se esperava,
E{(X − µ)2 } = σ 2 (2.44)
Assim, pode-se provar que, para uma variável aleatória contínua X caracterizada por uma
dada função densidade de probabilidade fX (x), se tem
T
1
Pr(|X − mX | ≥ kσX ) ≤ (2.45)
k2
ou, de forma equivalente,
T 1
Pr(|X − mX | < kσX ) ≤ 1 − (2.46)
k2
Este resultado é a conhecida desigualdade de Chebyshev.
Ex
√
Exemplo Uma variável aleatória arbitrária encontra-se distribuída no intervalo x ∈ [mX − 2 ·
√
σ , mX + 2 · σ ] com probabilidade superior a 0,5; a mesma variável ou outra qualquer encontra-
se ainda distribuída no intervalo x ∈ [mX − 2σ , mX + 2σ ] com probabilidade superior a 0,75. Da
mesma forma, mesma variável ou outra qualquer também se encontra distribuída no intervalo x ∈
[mX − 3σ , mX + 3σ ] com probabilidade superior a 0,88(8). Ou seja, quanto mais alargado for o
intervalo, tanto maior é a certeza de se ter a distribuição da variável aleatória.
V
2.2. VARIÁVEIS ALEATÓRIAS 63
É fácil de ver que a desigualdade de Chebyschev só é de aplicação não trivial para k > 1 uma
vez que é sabido que qualquer probabilidade é sempre majorada à unidade.
Seja então uma variável aleatória contínua X ∼ fX (x) e uma transformação Y = g(X) deter-
minada, tal que ∀y : x = g−1 (y) é única. Neste caso, estaremos a excluir transformações g(.) não
monotónicas.
Põe-se agora o problema de determinar a função densidade de probabilidade fY (y) que carac-
teriza a variável aleatória Y . Nestas condições pode-se demonstrar que fY (y) se pode obter a partir
de
fX (g−1 (y0 )) T
∀x0 , y0 ∈ R : y0 = g(x0 ) ⇒ fY (y0 ) = 0 −1 (2.47)
|g (g (y0 ))|
0 d
em que g = dx g(x).
Ex
Exemplo A título ilustrativo, retome-se o exemplo apresentado no corolário anterior; seja então
0
X ∼ N(µ, σ 2 ) e Y = g(x) = (X − µ)/σ . Neste caso, teremos g (x) = 1/σ e g−1 (y) = x = σ y + µ e
substituam-se na equação (2.47),
√
(1/ 2πσ 2 ) · exp[−(σ y + µ − µ)2 /2σ 2 ] 1
fY (y) = = √ exp(−y2 /2)
1/σ 2π
que facilmente se identifica com uma gaussiana de média nula e variância unitária, Y ∼ N(0, 1);
completando-se assim a prova do corolário anterior.
V
Contudo, se g−1 (·) tiver mais do que uma raiz, N por exemplo, é necessário considerar cada
uma das suas raízes, pelo que teremos
T
N
fX (xi )
fY (y) = ∑ 0 (2.48)
i=1 |g (xi )| xi = g−1 (y)
0 d
em que, como anteriormente, g = dx g(x).
Se bem que não se trate de uma demonstração deste resultado, o exemplo seguinte permite
verificar a sua validade.
Ex
0.8
0.6
f(x)
0.4
0.2
0
−5 0 5
x
5 5
4 4
3 3
y
y
y
0 2 2
1 1
0 0
−5 0 5 0 0.5 1 1.5 2
-x 0 x x0 f(y)
Figura 2.8: Função Densidade de Probabilidade de X ∼ fX (x) = λ2 exp(−λ |x|), Transformação Y = |X| e
função densidade de probabilidade de Y , fY (y).
e por conseguinte
λ λ −λ |y|
∀y ≥ 0 : fY (y) = e−λ |y| + e = λ e−λ |y|
| − 1| · 2 |1| · 2
enquanto que, para y negativo, a respectiva função densidade de probabilidade é nula, resultando
finalmente em (
0 y<0
fY (y) = −λ |y|
λe y≥0
V
2.2. VARIÁVEIS ALEATÓRIAS 65
Sejam novamente X e Y duas variáveis aleatórias contínuas; defina-se então Função Distri-
buição Cumulativa Conjunta de X e Y ,
D
Definição: Função Distribuição Cumulativa Conjunta de duas variáveis aleatórias X e Y como
sendo a função de duas variáveis reais,
D
Definição: Variáveis Aleatórias Independentes Duas variáveis aleatórias X e Y dizem-se inde-
pendentes se
Pr(X ≤ x,Y ≤ y) = Pr(X ≤ x) · Pr(Y ≤ y) (2.50)
D
Definição: Função Densidade de Probabilidade Conjunta A função densidade de probabili-
dade conjunta é definida por
∂2
fXY (x, y) = FXY (x, y) (2.52)
∂ x∂ y
e, por sua vez, a probabilidade de que o par (X,Y ) corresponda a um dado ponto numa região D do
plano é dada por
ZZ
Pr(a ≤ X ≤ b, c ≤ Y ≤ d) = fXY (x, y)dxdy (2.53)
D
D
Definição: Função Densidade de Probabilidade Condicional A função densidade de probabi-
lidade condicional de X|(Y = b) é dada por
T
fXY (x, b)
fX|(Y =b) (x) = (2.55)
fY (b)
66 CAPÍTULO 2. PROCESSOS ESTOCÁSTICOS
D
Correlação A correlação de duas variáveis aleatórias X e Y é
Z Z
RXY , E{XY } = xy fXY (x, y)dxdy (2.57)
R R
D
Covariância A covariância (ou momento centrado) de X e Y é
RR
= (x − mX )(y − mY ) fXY (x, y)dxdy = (2.58)
RR
T
Corolário Cov{XY } = Cov{Y X}
T
Corolário Cov{XX} = Var{X}
T
Corolário Cov{aXY } = a · Cov{Y X}
T
Corolário Cov{∑ni=1 Xi ∑mj=1 Y j } = ∑ni=1 ∑mj=1 Cov{XiY j }
D
Definição: Coeficiente de Correlação O coeficiente de correlação é definido como sendo
Cov{X,Y } CXY
ρX,Y , √ = (2.59)
Var X VarY σX σY
T
Corolário o módulo do coeficiente de correlação (equação (2.59)) situa-se entre 0 e 1, |ρXY | ≤ 1,
ocorrendo a igualdade quando X = cY : |ρXY | = 1.
2.2. VARIÁVEIS ALEATÓRIAS 67
D
Definição: Independência Duas variáveis aleatórias contínuas dizem-se independentes sse fXY (x, y) =
fX (x) · fY (y). O mesmo é dizer que a função densidade de probabilidade conjunta é o produto das
funções densidade de probabilidade marginais.
D
Definição: Ortogonalidade Duas variáveis aleatórias dizem-se ortogonais se RXY = 0.
D
Definição: Incorrelação Duas variáveis aleatórias dizem-se incorrelacionadas se CXY = 0, o que
é equivalente a ter ρXY = 0 e que corresponde a ter a sua correlação igual ao produto dos respectivos
valores expectáveis, RXY = mX mY .
T
Corolário Sejam X e Y duas variáveis aleatórias estatìsticamente independentes, então também
são incorrelacionadas (a inversa não é verdadeira).
Z Z Z+∞ Z+∞
= xy fX (x) fY (y)dxdy = x fX (x) y fY (y)dydx =
R R −∞ −∞
Z+∞
= x fX (x)mY dx = mX mY (2.60)
−∞
De imediato se verifica a ortogonalidade das duas variáveis aleatórias, pois basta substituir RXY =
mX mY na equação (2.58) o que resulta em CXY = 0, correspondendo à incorrelação das variáveis
aleatórias.
T
Corolário Este colorário é a conhecida Desigualdade de Schwarz
68 CAPÍTULO 2. PROCESSOS ESTOCÁSTICOS
T 4 : Teorema do Limite Central Seja a variável aleatória Z obtida pela soma de N variáveis ale-
T
atórias Xi , i = 1, 2, · · · , N estatisticamente independentes e com funções densidade de probabilidade
fXi (x) arbitrárias mas identicamente distribuídas (iid7 ), ou seja,
N
Z = ∑ Xi
i=1
Então,
lim fZ (z) = Gauss(µ, σ 2 ) (2.62)
N→+∞
ou seja, no limite, a variável aleatória tem uma função densidade de probabilidade normal.
Este teorema aparece sob várias formas; vejamos uma delas com bastante divulgação.
1 N
Z = √ ∑ Ui (2.63)
N i=1
onde
Xi − mX
∀i = 1, · · · , N : Ui = (2.64)
σX
sendo as variáveis aleatórias Xi iid, com médias (valores expectáveis) e variâncias finitas, respecti-
vamente, mXi e σX2i . Então,
T
1 z2
lim fZ (z) = Gauss(0, 1) = √ e− 2 (2.65)
N→+∞ 2π
pois as variáveis aleatórias Ui têm médias nulas (mUi = E{Ui } = 0) e variâncias unitárias, σU2i = 1.
Na figura 2.9 ilustra-se a convergência da distribuição da variável aleatória Z para uma função
densidade de probabilidade normal, ou de Gauss, em função de N.
2000 4000
1500 3000
1000 2000
500 1000
0 0
−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1 −2 −1.5 −1 −0.5 0 0.5 1 1.5 2
histograma (azul) e Distribuição Normal ajustada (vermelho) histograma (azul) e Distribuição Normal ajustada (vermelho)
0.8 0.7
0.7 0.6
0.6 0.5
0.5 0.4
0.4 0.3
0.3 0.2
0.2 0.1
0.1 0
−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1 −2 −1.5 −1 −0.5 0 0.5 1 1.5 2
histograma acumulado
7000
6000
5000
4000
3000
2000
1000
0
−6 −4 −2 0 2 4 6
0.3
0.25
0.2
0.15
0.1
0.05
0
−6 −4 −2 0 2 4 6
Figura 2.9: Exemplificação do Teorema do Limite Central: com N = 1 em cima esquerda; N = 2 em cima,
à direita e com N = 6 em baixo. Os gráficos superiores (e as linhas a azul nos gráficos inferiores) ilustram
o histograma da variável aleatória Z. As linhas vermelhas dos gráficos inferiores representam uma curva
normal ajustada aos valores das realizações de Z.
Então a função densidade de probabilidade conjunta das variáveis aleatórias Xi é dada por
T
1 1 T Σ−1 (X−m
fX1 ,X2 ,··· ,XN (x1 , x2 , · · · , xN ) = e− 2 (X−mX ) X)
(2.66)
(2π)N/2 |Σ|1/2
Contudo, este estudo seria muito incompleto pois é dependente do instante da realização da
experiência, uma vez que o peso de cada pessoa é variável ao longo do tempo. Por conseguinte,
seria útil «estender» a variável aleatória para que pudesse passar a incluir explicitamente a sua
dependência temporal.
Seja então uma função temporal xξi (t) = x(ξi ,t) que caracteriza para cada elemento ξi ∈ J a
sua evolução ao longo do tempo; a função x(ξi ,t) é designada por função-amostra.
D
Definição: Processo Estocástico Um Processo Estocástico X (t) é uma colecção de funções-
amostra (sinais determinísticos), cada uma resultante da realização de um dado fenómeno ou expe-
riência.
Ou seja, para um dado valor temporal tk , todos os valores assumidos pelas funções-amostra
correspondem à realização de uma variável aleatória X(tk ).
D
Definição um processo estocástico (contínuo) é uma colecção de variáveis aleatórias definidas
para todos os instantes de tempo, X (t) = {X(t), ∀t ∈ R}.
em muitos casos de interesse prático é suficiente a descrição de 2a ordem, ou seja, para além do
conhecimento de fX(t1 ) (x), é ainda necessário deter a função densidade de probabilidade conjunta
fX(t1 )X(t2 ) (µσ ) do par {X(t1 )X(t2 )} para todos os pares de valores t1 ,t2 ∈ R2 .
Tenha-se presente que, em geral, quer a função densidade de probabilidade fX(t) (x) quer a
função densidade de probabilidade conjunta fX(t1 )X(t2 ) (µσ ) variam, respectivamente, com t e com
{t1 ,t2 }.
Como vimos, cada realização para um dado valor de t ∈ R de um processo estocástico X (t)
corresponde a uma variável aleatória X(t). Assim sendo, poderemos determinar os seus momentos,
bem como os momentos centrados que, com generalidade, serão função dos instantes de tempo em
que são determinados ou obtidos.
D
Valor expectável
Z
mX (t) , E{X(t)} = x · fX(t) (x)dx ∀t ∈ R (2.70)
R
D
Autocorrelação Seja agora fX(t1 )X(t2 ) (µσ ) a função densidade de probabilidade conjunta das va-
riáveis aleatórias {X(t1 )X(t2 }, ∀(t1 ,t2 ) ∈ R2 do processo X (t). Define-se função de autocorrelação
como sendo10
RX (t1 ,t2 ) , E{X(t1 )X(t2 )} =
Z Z
= µσ fX(t1 )X(t2 ) (µσ )dµdσ ∀(t1 ,t2 ) ∈ R2 (2.71)
R R
D
Autocovariância A autocovariância é o momento centrado conjunto
Z Z
= (µ − mX (t1 ))(σ − mX (t2 )) fX(t1 )X(t2 ) (µσ )dµdσ ∀(t1 ,t2 ) ∈ R2 (2.72)
R R
D
Definição: Estacionaridade em Sentido Lato Um processo estocástico diz-se Estacionário em
Sentido Lato (WSS11 ) sse verificar as condições
mX (t) = E{X(t)} = mX
∀t ∈ R
(2.73)
RX (t,t − τ) = E{X(t)X(t − τ)} = RX (τ) ∀t, τ ∈ R
Estas condições podem-se resumir a ter a média (valor expectável) constante e uma função
de autocorrelação que não depende explicitamente dos instantes de tempo t1 e t2 mas sim da sua
distância temporal τ = t1 − t2 .
Esta noção de estacionaridade é mais geral do que a estacionaridade em sentido estrito, que
se define:
T
Corolário Todo o processo X (t) SSS é WSS.
T
Corolário A autocorrelação de um processo WSS é uma função par,
T
Corolário O máximo da autocorrelação é sempre positivo e ocorre para τ = 0, ou seja RX (0) ≥
|RX (τ)|.
10 Estamos implicitamente a admitir que se trata de um processo estocástico real. De contrário, ter-se-á RX (t1 ,t2 ) ,
E{X(t1 )X ∗ (t2 )} onde o símbolo ∗ representa o respectivo processo conjugado.
11 do inglês Wide Sense Stationarity
12 A variância resulta da autocovariância para média constante e autocorrelação estacionária, ou seja, C (t ,t ) =
X 1 2
E{[X(t1 ) − mX (t1 )][X(t2 ) − mX (t2 )]} = E{X(t1 )}E{X(t2 )} − mX (t1 )X(t2 ) + mX (t2 )X(t1 ) + mX (t1 )mX (t2 )} e fazendo a
média constante e igual a mX e RX (t1 ,t2 ) = RX (τ) resulta em CX (t1 ,t2 ) = RX (τ) − m2X e fazendo τ = 0 teremos finalmente
CX (0) = σX2 .
13 do inglês Strict Sense Stationarity
2.3. PROCESSOS ESTOCÁSTICOS 73
E{X 2 (t)} + E{X 2 (t − τ)} ∓ 2E{X(t)X(t − τ)} = RX (0) + RX (0) ∓ 2RX (τ) ≥ 0
pelo que,
RX (0) ≥ |RX (τ)|
Ex
Exemplo Seja o processo X (t) = cos(ωt + Θ) em ( que Θ é uma variável aleatória uniformemente
1
2π |θ | < π
distribuída no intervalo ] − π, π], ou seja, fΘ (θ ) = .
0 c.c.
Determine a sua média (valor expectável) e a sua autocorrelação e mostre que, efectivamente,
se trata de um processo WSS.
1
Z π
mX (t) = E{cos(ωt + Θ)} = cos(ωt + θ ) dθ = 0 (2.76)
−π 2π
Como se verifica de imediato, equação (2.76), a média deste processo é constante no tempo,
concretamente é nula15 , pelo que mX (t) = mX . Por outro lado, a autocorrelação vem dada por
= 21 cos(ω(t1 − t2 ))
o que significa que a autocorrelação só depende da distância temporal entre os instantes de tempo
considerados, ou seja,
1 1
RX (t1 ,t2 ) = cos(ω(t1 − t2 )) = cos(ωτ) = RX (τ) (2.78)
2 2
o que, aliado ao facto de ter uma variância σX2 = 21 , ou seja, constante, prova a estacionaridade em
sentido lato.
V
14 Uma vez que toda a grandeza real ao quadrado é sempre não negativa!
15 efectivamente, não é necessário que o seja!
74 CAPÍTULO 2. PROCESSOS ESTOCÁSTICOS
Recordemos que o operador valor expectável, como foi definido, faz uma média, para cada
instante de tempo, de todos os possíveis valores assumidos pelas funções-amostra nesse mesmo
instante de tempo. No caso do processo ser WSS, acresce que essa média é constante ao longo do
tempo, ou seja, ∀t : mX (t) = mX .
Por outro lado, poder-nos-á interessar obter, para uma dada função-amostra, obter a média ao
longo do tempo. Poderemos questionar se e quando estas duas médias são intermutáveis: a resposta
fica para a secção seguinte.
Seja então x(ξi ,t) uma função-amostra do processo X (t) e obtenhamos a sua média temporal
num dado intervalo de observação T ,
T
1
Z
2
mx (ξi , T ) =≺ x(ξi , T ) = x(ξi ,t)dt (2.79)
T − T2
Uma vez que para cada realização mX (ξi , T ) do processo X (t), temos uma média, então,
estas médias são uma variável aleatória mX (T ) que, como é claro, depende da (duração da) janela
temporal T de observação. Assim, podemos obter o seu valor expectável,
T
1
Z
2
E{mX (T )} = E{ X(t)dt} (2.80)
T − T2
e, dada a linearidade do operador valor expectável, podemos proceder à sua troca com o operador
integral,
Z T
1 2
E{mX (T )} = E{X(t)}dt (2.81)
T − T2
Admitindo que X (t) é estacionário em sentido lato, então teremos
Por este facto, diz-se que mX (T ) é uma estimativa não-enviesada do valor expectável mX do pro-
cesso X (t) WSS.
que é referida à ξi realização do processo; o seu conjunto para todas as realizações, também pode
ser encarada como uma variável aleatória RX (τ, T ), da qual se obtém o valor expectável,
T T
1 1
Z Z
2 2
E{RX (τ, T )} = E{ X(t)X(t − τ)dt} = E{X(t)X(t − τ)}dt
T − T2 T − T2
2.3. PROCESSOS ESTOCÁSTICOS 75
Como acabámos de ver, a média de um processo estocástico pode envolver dois domínios:
o do tempo (denominando-se média temporal) e o do espaço de amostras (originando a média no
conjunto). Esta última já foi apresentada na equação (2.70) e que se recorda agora
Z
mX (t) , E{X(t)} = x · fX(t) (x)dx ∀t ∈ R
R
Consideremos uma função amostra do processo X (t), x(ξi ,t) = xξi (t) e definamos a sua
média temporal,
1
Z D
mX (ξi ) =≺ x(ξi ,t) , lim x(ξi ,t)dt (2.85)
T →+∞ T
T
A média temporal mX (ξi ) assim definida resulta de uma dada função amostra x(ξi ,t) e, por
conseguinte, pode ser considerada, por sua vez, como uma amostra de uma variável aleatória «mé-
dia» que se define
1
Z
MX , lim X(t)dt (2.86)
T →+∞ T
T
D
Ergodicidade na Média Seja um dado processo X (t) WSS e seja mX o seu valor expectável. O
processo X (t) é ergódico na média sse
lim ≺ X(t) = mX
T →+∞
D
Ergodicidade na Correlação Seja um dado processo WSS X (t) e seja RX (τ) a sua autocorrela-
ção. O processo é ergódico na correlação sse
1
Z
lim X(t)X(t − τ)dτ = RX (τ)
T →+∞ T
T
Caso não se verifique a condição expressa na equação (2.89), o sinal diz-se sinal de potência.
Assim, facilmente se vê que os sinais periódicos são sinais de potência. A pertença à classe dos sinais
de potência não é exclusiva dos sinais periódicos: por exemplo, o sinal de Heaviside é claramente
um sinal de potência.
No caso dos processos estocásticos, comecemos por particularizar para uma dada função
amostra x(ξi ,t) e definamos a sua energia
D
Z Z
Ei , |x(ξi ,t)|2 dt = x2 (ξi ,t)dt (2.90)
R R
sempre que este integral seja diferente de infinito. Podemos também definir potência desta função
amostra como sendo
D 1
Z
Pi , lim x2 (ξi ,t)dt (2.91)
T →∞ T
T
Quer a energia quer a potência são ambas dependentes da função amostra que as determina.
Assim sendo, podemos encará-las como sendo, por sua vez, realizações das variáveis aleatórias EX
e PX que são, naturalmente, definidas por
D
EX = X 2 (t)dt
R
R
(2.92)
1R 2
PX = limT →∞ X (t)dt
T
T
pelo que as Energia Média e Potência Média são os momentos de 1a ordem das variáveis aleatórias
EX e PX , definidas na equação (2.92)
D
EX = E{EX } = E{ X 2 (t)dt}
R
R
(2.93)
1R 2
PX = E{PX } = E{limT →∞ X (t)dt}
T
T
A equação a que se chegou, equação (2.94), levanta um sério problema pois, por hipótese,
o processo é um processo de energia mas o integral é infinito porque, como se sabe, RX (0) é uma
2.3. PROCESSOS ESTOCÁSTICOS 77
grandeza positiva. Ora, este facto implica que o integral é infinito, o que contraria a hipótese inicial.
Por conseguinte, um processo estacionário só é um processo de energia se for nulo em toda a parte17
e, consequentemente, sem qualquer interesse prático.
PX = RX (0) (2.95)
Consideremos, no que se segue, que X (t) e Y (t) são dois processos estocásticos; assim,
para todos os pares de instantes de tempo (t1 ,t2 ) ∈ R2 , teremos as seguintes definições.
D
Definição: Processos Estatisticamente Independentes os processos estocásticos dizem-se es-
tatisticamente independentes quando as variáveis aleatórias X(t1 ) e Y (t2 ) forem estatisticamente
independentes.
D
Definição: Processos Incorrelacionados os processos estocásticos dizem-se incorrelacionados
quando as variáveis aleatórias X(t1 ) e Y (t2 ) forem incorrelacionadas.
D
Definição: Processos Ortogonais os processos estocásticos dizem-se ortogonais quando as va-
riáveis aleatórias X(t1 ) e Y (t2 ) forem ortogonais.
D
Definição: Correlação Cruzada e Estacionaridade Conjunta Define-se correlação cruzada como
sendo
RXY (t1 ,t2 ) , E{X(t1 )X(t2 )} = RY X (t2 ,t1 ) (2.96)
As realizações dos processos estocásticos são, como vimos, funções (mais correctamente,
funções amostra); o mesmo é dizer: são sinais. Assim, da mesma forma que caracterizámos o sinal
17 Designa-se um processo nulo no seu suporte por processo trivial.
78 CAPÍTULO 2. PROCESSOS ESTOCÁSTICOS
(determinístico) de saída y(t) através da resposta impulsiva h(t) do sistema para uma dada entrada
x(t) que lhe é aplicada,
Z Z
y(t) = h(t) ∗ x(t) = x(t) ∗ h(t) = h(τ)x(t − τ)dτ = x(τ)h(t − τ)dτ (2.97)
R R
também, no caso das funções amostra, teremos relações semelhantes à expressa na equação (2.97):
Então, a função amostra y(ξi ,t), no fundo, a saída do SLIT quando solicitado por uma rea-
lização do processo estocástico X (t), é também uma realização do processo estocástico de saída
Y (t), pelo que, com propriedade, teremos
T
Repare-se que a equação (2.99) traduz, para os processos estocásticos, uma relação entrada-
saída em tudo semelhante à relação entrada-saída de um SLIT para sinais determinísticos, figura
2.11.
x(t) y(t)
−→ h(t) −→
X (t) Y (t)
Valor Expectável Contudo, no desconhecimento de uma expressão analítica fechada para X (t),
necessitamos de outro formalismo que, sem determinação explícita do processo de saída Y (t), nos
permita obter uma caracterização sua que seja adequada.
em que H(0) que é o denominado ganho estático do SLIT. Este resultado tem uma contrapartida
directa nos sinais determinísticos, em que o valor contínuo da saída se obtém pelo produto do ganho
estático com o valor contínuo da entrada. Se admitirmos que os processos de entrada e de saída são
ergódicos na média, a equação (2.100) confirma esta última afirmação.
2.3. PROCESSOS ESTOCÁSTICOS 79
R R
= E{ X(µ)h(t1 − µ)dµ · X(ν)h(t2 − ν)dν} =
R R
(2.101)
RR
= E{ X(µ)h(t1 − µ)X(ν)h(t2 − ν)dµdν} =
RR
RR
= E{X(µ)h(t1 − µ)X(ν)h(t2 − ν)}dµdν
RR
Supondo que os processos de entrada e de saída são WSS, esta equação assume o seguinte
desenvolvimento fazendo t1 = t e t2 = t − τ:
RR
RY (t1 ,t2 ) = E{X(µ)X(ν)}h(t1 − µ)h(t2 − ν)dµdν =
RR
RR
= RX (µ − ν)h(t − µ)h(t − τ − ν)dµdν =
RR η=µ−ν
R R
= h(t − τ − ν)[ RX (η)h(t − ν − η)dη]dν =
R R
(2.102)
R
= h(t − τ − ν)[RX (t) ∗ h(t − ν)]dν =
R
R
= RX (τ) ∗ h(t − τ − ν)h(t − ν)dν = RX (τ) ∗ h(τ) ∗ h(−τ) =
R
= RY (τ)
Ou seja, resumindo, RY (τ) = RX (τ) ∗ h(τ) ∗ h(−τ), o que confirma a hipótese do processo de saída
Y (t) ser WSS.
Correlações Cruzadas Saída - Entrada Podemos de igual forma obter as correlações cruzadas
saída - entrada como se segue
ou seja ainda,
R R
= E{X(t) h(ε)X(t − τ − ε)dε} = E{ h(ε)X(t)X(t − τ − ε)dε} =
R R
(2.105)
R R
= h(ε)E{X(t)X(t − τ − ε)}dε = h(ε)RX (τ + ε)dε =
R R
= h(−τ) ∗ RX (τ)
ou seja
RXY (t,t − τ) = RXY (τ) = h(−τ) ∗ RX (τ) (2.106)
Consideremos, contudo, que a variável aleatória do processo em causa tem suporte num inter-
valo de tempo T finito. Assim sendo, trata-se seguramente de um processo de energia pois as suas
funções amostras serão sinais de energia18 e, por conseguinte, admitem transformada de Fourier,
Z∞
X̂ξi ( f ) , TF[x̂(ξi ,t)] = x̂(ξi ,t)e− j2π f t dt (2.109)
−∞
18 pois são de duração limitada e amplitude < ∞.
2.3. PROCESSOS ESTOCÁSTICOS 81
Desta forma as funções amostra X̂ξi ( f ) resultam da i-ésima realização (ξi ) de um processo Xˆ ( f )
que, por sua vez, sendo um processo de energia, podemos considerar existente a sua transformada
de Fourier, X̂( f ) = X̂(t)e− j2π f t dt.
R
R
onde Z( f ) = TF[z(t)].
A função GX ( f ) é designada por (função) densidade espectral de potência, pois a sua integração no
seu domínio da frequência permite-nos (através da equação (2.111)) obter a potência do processo.
T
Corolário Z
E{X 2 (t)} = RX (0) = GX ( f )d f (2.113)
R
T
Corolário Z
GX (0) = RX (t)dt (2.114)
R
T
Corolário se o processo X(t) é estacionário em sentido lato (WSS),
∀f GX ( f ) ≥ 0 (2.115)
T
Corolário a função densidade espectral de potência é uma função par,
GX ( f ) = GX (− f ) (2.116)
82 CAPÍTULO 2. PROCESSOS ESTOCÁSTICOS
T
Corolário a função densidade espectral de potência tem as propriedades de uma função densidade
de probabilidade (ser não negativa e o seu integral ser unitário). Seja
GX ( f )
pX ( f ) , R ≥0
R GX ( f )d f
pelo que Z
pX ( f )d f = 1
R
Sejam X (t) e Y (t) dois processos estocásticos caracterizados pelas suas médias (valores
espectáveis) mX (t) e mY (t) e funções de autocorrelação RX (t1 ,t2 ) e RY (t1 ,t2 ), respectivamente. Seja
agora o processo Z (t) definido como a soma dos processos anteriores, Z (t) = X (t) + Y (t). Pela
linearidade do operador valor expectável, de imediato se conclui que:
T
mZ = mX + mY (2.120)
Se admitirmos que os processos X (t) e Y (t) são estacionários na correlação e que ainda são
conjuntamente estacionários, teremos
T
= RXY (τ), E{[X(t2 )Y (t1 )]} = RY X (τ), E{[Y (t1 )Y (t2 )]} = RY (τ)
Desta equação se conclui que a potência da soma de dois processos19 é dada por:
T
e que, no caso de se tratar de dois processos ortogonais, isto é, as suas correlações cruzadas serem
nulas, RXY (0) = RY X (0) = 0, teremos
T
PZ = PX + PY (2.124)
GZ ( f ) = GX ( f ) + GY ( f ) (2.125)
Um processo WSS gaussiano X (t) ∼ Gauss(mX , σX2 ) aplicado na entrada de um SLIT estável
vai produzir na sua saída um processo Y (t) também WSS gaussiano, Y (t) ∼ Gauss(mY , σY2 ), figura
2.12.
Seja então X(t) uma função amostra do processo estocástico X (t) que modela o ruído im-
pulsivo:
+∞
X(t) = ∑ h(t − τk ) (2.126)
k=−∞
E{ν} = λ · τ (2.127)
onde λ é o ritmo do processo. O número total de cargas geradas no intervalo em causa vem então
e que segue uma distribuição de Poison cujo valor médio é dado pela equação (2.130).
T 8 : Teorema de Campbell Z T
CX (τ) = λ h(t)h(t + τ)dt (2.131)
R
Se, a título de exemplo, supusermos que esta forma de onda é rectangular, ou seja, se h(t) =
d
A (t/T ), teremos que as equações (2.128) e (2.131) resultam, respectivamente, em
Z Z
µX = λ h(t)dt = λ Adt = λ AT (2.132)
R T
e
t l t +τ
Z Z l
2
CX (τ) = λ h(t)h(t + τ)dt = λ A ( ) ( )dt =
T T
R R
l τ
= λ A2 (T − |τ|)
( ) (2.133)
2T
Na figura 2.13 ilustra-se a autocovariância da equação (2.133) para λ = 3, A = 2 e T = 1, 5.
20
18
16
14
12
10
0
−3 −2 −1 0 1 2 3
A densidade espectral de potência 4kB T [W/Hz] é uniforme numa gama alargada de frequên-
cias (estendendo-se até aos 300 GHz) e, por esse facto, este ruído é designado por ruído branco.
Expressando a equação (2.134) em dBm20 e a uma temperatura de 27oC (300 K), teremos
Desta equação se verifica que a potência do ruído térmico medida numa largura de banda de 1 MHz
seria de -107,8 dBm ou 1, 66 · 10−14 W. Do ponto de vista eléctrico, poderemos considerar que o
ruído térmico gerado aos terminais de uma dada resistência R sujeita a uma certa temperatura T é
modelado por um gerador de tensão ideal vTN (t) em série com uma resistência ideal21 de valor R,
figura 2.14.
Teremos então que o valor quadrático médio da tensão vTN (t) vem
Sabemos da teoria dos circuitos que a máxima transferência de potência do gerador de ruído
para uma carga ocorre quando esta se encontra adaptada à resistência do gerador. Assim, e como a
tensão aos terminais da carga adaptada se reduz a metade da tensão do gerador, a potência de ruído
transitada para a carga é 1/4 da potência expressa na equação (2.134). Resumindo, a tensão do
gerador de ruído (circuito em vazio) e a potência máxima entregue a uma resistência de valor R vêm
dadas por
√
vTN = 4kB T R∆ f [V]
(2.137)
PN = kB T ∆ f [W]
α GN ( f ) ./ f −α Designação
−2 GN ( f ) ./ f2 violeta
−1 GN ( f ) ./ f azul
0 GN ( f ) = η2 branco
1 GN ( f ) ./ 1f rosa
1
2 GN ( f ) ./ f2
castanho
proveniente da agitação (movimento browniano) dos átomos em condutores aquecidos tem um es-
pectro de potência relativamente constante numa banda extraordinariamente extensa de frequências,
pelo que é razoavelmente modelizado por um processo branco. Por outro lado, as suas amplitudes
ao longo do tempo resultam, graças ao teorema do valor central, numa função densidade de pro-
babilidade normal ou de Gauss. Assim, caracterizaremos o ruído "térmico"através de um processo
N (t) branco e Gaussiano.
Recordando que uma densidade espectral uniforme corresponde a uma autocorrelação que
apresenta um impulso de Dirac, caracterizaremos o ruído branco gaussiano através das equações
η
∀f ∈ R : GN ( f ) = 2
(2.138)
η
∀τ ∈ R : RN (τ) = 2 δ (τ)
Normalmente, considera-se o ruído branco caracterizado por uma colecção de variáveis alea-
tórias de média nula e com uma dada variância.
Nesta classe de sinais de ruído colorido estão os ruídos cujas densidades espectrais de potên-
cia sejam proporcionais a f1α e são denominados em função de α, conforme se indica na tabela 2.2,
onde ./ significa proporcional a.
P. 1: Seja a variável aleatória X(x, y) = x + y que associa ao lançamento de dois dados a soma das
suas faces. Determine o valor expectável e a variância de X.
88 CAPÍTULO 2. PROCESSOS ESTOCÁSTICOS
Resolução Vejamos que, havendo em cada dado 6 faces, haverá 36 possibilidades de re-
sultados, se bem que haja somas repetidas; por exemplo, a soma X = 6 pode resultar das
seguintes experiências ou lançamentos: (1, 5), (2, 4),(3, 3), (4, 2) e (5, 1). Assim, podemos
construir uma tabela, já condensada das repetições, com os valores da variável aleatória bem
como das probabilidades correspondentes, tabela 2.3.
Tabela 2.3: (condensada) dos domínio, contradomínio e probabilidades da variável aleatória X(·)
i 1 2 3 4 5 6 7 8 9 10 11
X(x, y) = ai 2 3 4 5 6 7 8 9 10 11 12
No de ocorrências 1 2 3 4 5 6 5 4 3 2 1
1 2 3 4 5 6 5 4 3 2 1
Pr(X(x, y) = ai ) 36 36 36 36 36 36 36 36 36 36 36
Podemos agora obter o valor expectável desta variável aleatória, conforme a equação (2.9), e
que neste exemplo resulta em
11
1 2 3 4 5
E{X} = ∑ ai · Pr(X = ai ) = 2 · +3· +4· +5· +6· +
i=1 36 36 36 36 36
6 5 4 3 2 1
+7· + 8 · + 9 · + 10 · + 11 · + 12 · =7 (2.139)
36 36 36 36 36 36
Já o cálculo da variância desta variável aleatória, passa por recordar a equação (2.10): σX2 =
E{X 2 } − E 2 {X}. Mas, para facilitar a sua determinação, atente-se na tabela 2.4:
i 1 2 3 4 5 6 7 8 9 10 11
X 2 = ai 4 9 16 25 36 49 64 81 100 121 144
No de ocorrências 1 2 3 4 5 6 5 4 3 2 1
1 2 3 4 5 6 5 4 3 2 1
Pr(X 2 (x, y) = ai ) 36 36 36 36 36 36 36 36 36 36 36
" #
1
]T
P. 2: Para o vector aleatório X = [X1 , X2 caracterizado pelas estatísticas mX = , RX =
−1
" #
5 −1
, diga, justificando se X1 e X2 são (ou não) estatisticamente independentes.
−1 2
2.5. PROBLEMAS RESOLVIDOS 89
E{(X1 − mX1 )2 } E{(X1 − mX1 )(X2 − mX2 )}
= (2.142)
E{(X2 − mX2 )(X1 − mX1 )} E{(X2 − mX2 )2 }
Vejamos como se obtêm cada uma das componentes da diagonal da matriz de covariância:
e obtenhamos g(a)
(a−mX )2
d d −
q
2 2
g(a) = ln(pX (a)) = ln( 2πσX e 2σX ) =
da da
d d (a − mX )2 2(a − mX )
q
= ln( 2πσX2 ) + (− 2
) = 0− =
da da 2σX 2σX2
= −2a + 2
Finalmente,
Z
E{Y } = E{g(X)} = E{−2X + 2} = −2 xpX (x)dx = −2mX + 2 = 0
R
Resolução
(a) Seja X a variável aleatória que modela o número de erros nos pacotes de 16 bit e, dado
que a probabilidade de ocorrência de um erro num qualquer bit da sequência é indepen-
dente da sua posição no pacote e independente da ocorrência de outro(s) bit errado(s), X
é bem modelado por uma distribuição binomial, X ∼ Bin. Logo, o valor expectável do
número de erros E{X} é
2.5. PROBLEMAS RESOLVIDOS 91
(b) Mostre que, nestas condições, este processo é ergódico na média e na variância.
Resolução
(a) Relembremos que a estacionaridade em sentido lato implica que, quer a média (valor
esperado), quer a autocorrelação, sejam independentes do instante da realização do pro-
cesso e que, no caso da autocorrelação, a dependência seja unicamente da distância tem-
poral considerada: E{X(t)} = mX (t) = mX e E{X(t1 )X(t1 + τ} = RX (τ). Comecemos
pela determinação do valor esperado:
e que, como se verifica, para eliminar a sua variação temporal há que forçar os valores
esperados das variáveis aleatórias A e B a serem nulos, E{A} = E{B} = 0. Para a
autocorrelação, teremos
+ sen(2ωt + ωτ)E{AB}
E{A2 } = E{B2 } = σ 2 ⇒
E{AB} = 0 ⇒
= 12 [A2 + B2 ]
uma vez que estamos a calcular valores médios de funções sinusoidais. Se, admitirmos
que A2 = B2 = σ 2 , de imediato se verifica que
RX (τ) = σ 2 cos(ωτ) →
RX (0) = σ 2 =≺ X 2 (t)
P. 6: Considere o processo estocástico Y (t) = X(t) cos(2π fct + Θ) em que se supõe que X(t) é um
processo estocástico WSS de média nula e com suporte numa banda B e que modela a fonte
de mensagens aleatórias, Θ é uma variável aleatória uniformemente distribuída no intervalo
] − π, π] e fc é uma constante. Supõe-se ainda que X(t) e Θ são independentes.
(a) Determine mY (t) e RY (t,t − τ), ou seja, o valor esperado e a autocorrelação do processo
Y (t), respectivamente, e verifique que é também WSS;
Resolução
(a) mY (t) = E{Y (t)} = E{X(t) cos(2π fct + Θ)} = E{X(t)}E{cos(2π fct + Θ)} uma vez
que, por hipótese do enunciado, X(t) e Θ são independentes. Como se admitiu que
E{X(t)} = 023 , então mY (t) = 0. Quanto à autocorrelação de Y (t):
onde RX (τ) é a autocorrelação do processo WSS X(t). Pode-se ainda verificar que,
por este resultado, RY (t,t − τ) = RY (τ), o que, conjuntamente com o facto do valor
expectável de Y (t) ser constante (nulo, efectivamente), garante a estacionaridade em
sentido lato do processo Y (t).
(b) Uma vez que se pede GY ( f ) não temos mais do que calcular a transformada de Fourier
de RY (τ):
= 12 GX ( f )] ∗ 12 [δ ( f − fc ) + δ ( f + fc )] =
= 14 [GX ( f − fc ) + G( f + fc )]
Z+∞ Z+∞
1 1
PY = GY ( f )d f = [GX ( f − fc ) + G( f + fc )]d f = PX
4 2
−∞ −∞
+∞
R
onde se utilizou o facto de que GX ( f )d f = PX .
−∞
1 η f2 η
GN ( f ) = |H( f )|2 GW ( f ) = · = 2 c 2·
|1 + j ffc |2 2 fc + f 2
Z+∞ +∞
fc2 η η fc2 f η
PY = · d f = · · arc tg( ) =π· · fc
fc2 + f 2 2 2 fc fc 2
−∞ −∞
P. 8: Determine a frequência de corte do filtro passa-baixo ideal que, na sua saída, produzisse um
processo filtrado com a mesma energia do processo Y (t) da alínea anterior.
P. 9: Sejam X1 (t) = X(t) · cos(2π fc t + Θ) e X2 (t) = X(t) · sen(2π fc t + Θ), onde Θ é uma variável
aleatória uniformemente distribuída no intervalo [−π, π[, dois processos estocásticos obtidos
a partir do processo WSS X (t). Mostre que os processos X1 (t) e X2 (t) são ortogonais.
P. 10: Seja um dado processo estocástico N (t) cuja densidade espectral de potência é GN ( f ) = 1
2B
para | f | < B.
2.5. PROBLEMAS RESOLVIDOS 95
(b) Determine a autocorrelação RX (t1 ,t2 ) do processo N (t) e mostre que é estacionário na
autocorrelação;
(c) Mostre que os processos NI (t) = N (t) · cos(2π fct + Θ) e NQ (t) = N (t) · sen(2π fct +
Θ) obtidos a partir do processo N (t), onde Θ é uma variável aleatória uniformemente
distribuída no intervalo ] − π; π], são ortogonais.
Resolução
(b) A autocorrelação é, para os processos WSS (pelo menos no que toca à autocorrelação),
pelo teorema de Wiener-Khintchine, a transformada de Fourier inversa da densidade
espectral de potência,
RN (τ) = TF−1 [GN ( f )]
e que resulta em
Z +B
1 1 2 j sen(2πBτ)
RN (τ) = TF−1 [GN ( f )] = e j2π f τ d f = · = sinc(2Bτ)
2B −B 2B j2πτ
sendo que a estacionaridade do processo na autocorrelação está implícita na aplicação
do teorema.
(c) A resolução é imediata, admitindo24 que os processos N (t) e cos(2π f t + Θ) são inde-
pendentes. Assim, determinemos a sua correlação cruzada RNI NQ (0),
RNI NQ (0) = E{NI (t)NQ (t + 0)} = E{N (t) · cos(2π fct + Θ) · N (t) · sen(2π fct + Θ)} =
24 O que é mais do que razoável pois não há qualquer relação entre os processos N (t) e cos(2π f t + Θ).
96 CAPÍTULO 2. PROCESSOS ESTOCÁSTICOS
Capítulo 3
SISTEMAS DE COMUNICAÇÃO EM
BANDA DE BASE
Um texto escrito é um óptimo exemplo de uma fonte discreta. Lembremos que um texto é
uma sequência de palavras e que estas, por sua vez, resultam da sequência de letras que pertencem
a um dado alfabeto. A sequência de letras, ao formar uma palavra, não é aleatória para que esta
faça sentido. Ou seja, a sequência de letras da palavra casa não pode ser modificada porque, doutra
forma, teremos ou uma nova palavra (saca) ou apenas uma sequência de letras sem qualquer sentido
97
98 CAPÍTULO 3. SISTEMAS DE COMUNICAÇÃO EM BANDA DE BASE
(por exemplo, aasc). Naturalmente que o aparecimento de uma dada letra numa palavra numa dada
posição é dependente das letras que (eventualmente) a precedam. Será, portanto, possível tentar
estabelecer a probabilidade de se ter uma dada letra numa certa posição de uma determinada pala-
vra a partir do conhecimento das ocorrências das outras letras (probabilidades condicionais). Num
patamar superior, teremos que a sequência de palavras numa frase é também ditada por regras ou
gramáticas específicas da língua dos intervenientes na comunicação.
pi = Pr(ocorrer o símbolo si )
D
Tornando esta probabilidade independente da ocorrência (ou não) de outros símbolos, ob-
temos uma fonte discreta sem memória (FDSM). Como se depreende, ∑Ai=1 pi = 1. Considere-
mos agora uma sequência qualquer de símbolos (formando uma mensagem), por exemplo, M =
{s2 , s1 , s1 , · · · , sA , · · · , sA−3 , } e, supondo que a fonte não tem memória, a probabilidade desta men-
sagem ter sido gerada por esta fonte é pM = p2 · p1 · p1 · · · · · pA · · · · · pA−3 .
∀i = 1, · · · , A 1
I(si ) , logb = − logb pi (3.1)
∀si ∈ A pi
Note-se que a base logarítmica b é arbitrária; contudo, como veremos, é usual utilizar-se a base
2. Assim, a informação é medida em bit/símbolo. Esta definição tem o mérito de atribuir ao sím-
bolo certo um ganho de informação nulo; de facto, qual o ganho de informação com a ocorrência
do mesmo símbolo que é sempre seleccionado? Por outro lado, o sinal menos (ou o inverso da
probabilidade) garante que a informação assim definida é sempre não-negativa.
T
Corolário pi = 1 ⇒ I(si ) = 0
T
Corolário ∀i = 1, · · · , A → I(si ) ≥ 0
3.1. FONTES DE SINAL DISCRETAS 99
T
Corolário pi < p j ⇒ I(si ) > I(s j )
A
I(M) = − log(· · · pi · · · p j , · · · ) = −[· · · + log(pi ) + · · · + log(p j ) + · · · ] = − ∑ log(pk )
k=1
Identificando, na equação anterior cada termo como a informação da ocorrência de cada símbolo
isolado, teremos
T
A
I(M) = · · · + I(si ) + · · · + I(s j ) + · · · = ∑ I(sk )
k=1
ou seja, a informação associada à mensagem resulta da soma da informação associada aos símbolos
que a constituem.
Seja uma fonte binária de informação em que o alfabeto é composto apenas por dois símbolos:
A = {0, 1}. Consideremos, por hipótese, a equiprobabilidade da ocorrência dos símbolos deste
alfabeto; nestes pressupostos, define-se a unidade binária de informação (bit) como se segue.
D
Definição: Bit 1 bit é a informação associada a qualquer um dos símbolos de um alfabeto binário
quando equiprováveis1 . Ou seja, 1 [bit] = I(s0 ) = I(s1 ) sendo, naturalmente, s0 =«0»; s1 =«1» e
onde a base logarítmica utilizada2 é a base 2, log(· · · ) = log2 (· · · ).
Definição: Entropia Define-se entropia H(A ) de uma FDSM como sendo o valor expectável da
informação própria dos símbolos da fonte o que, recordando a equação (3.1), se traduz em:
A A
H(A ) , E{I(M)} = ∑ pi · I(si ) = − ∑ pi logb (pi ) (3.2)
i=1 i=1
T
Corolário Se os A símbolos da fonte forem equiprováveis, a entropia da FDSM é dada por
T
Corolário Se um dos símbolos da fonte tiver uma probabilidade de ocorrência unitária (símbolo
«certo»), ∃˙ 1 ≤ i ≤ A : pi = 1, então a fonte terá uma entropia nula:
∃˙ 1 ≤ i ≤ A : pi = 1 ⇒ H(A ) = 0 (3.5)
Lembrando que sendo lima→0 [a log(a)] = 0, teremos como consequência que a equação (3.2) resulta
numa entropia nula. Esta demonstração é, naturalmente, válida para uma base logarítmica diferente
da base 2 que utilizámos na definição da entropia.
T
Corolário a entropia de uma FDSM verifica a desigualdade 0 ≤ H(A ) ≤ log2 (A) onde, como
anteriormente, A é o número de símbolos do alfabeto A .
Ex
Exemplo Consideremos uma fonte binária sem memória B em que p representa a probabilidade
de ocorrência do símbolo «0», p = Pr(s0 ) e, logicamente, 1 − p = Pr(s1 ). A entropia H desta fonte
vem dada por:
H(B) = −[p log(p) + (1 − p) log(1 − p)] (3.7)
Recordemos que, sendo limx→0 [x log(x)] = 0, a entropia associada ao símbolo «certo» ou ao símbolo
«impossível» é nula. Por outro lado, o máximo da entropia da fonte binária sem memória, ocorrerá
para p = 1/2 resultado que se obtém a partir da solução de ddp H(B) = 0 através de manipulação
matemática elementar. Na figura 3.1 apresenta-se a variação da entropia de uma FDSM binária.
1 Obviamente que, havendo unicamente dois símbolos, e sendo estes equiprováveis, teremos as suas probabilidades de
ocorrência idênticas, pelo que: p0 = p1 = 1/2 ⇒ I(s0 ) = I(s1 ) = − log2 1/2 = 1 [bit].
2 Quando a base logarítmica é a natural ou neperiana, a unidade de informação denomina-se nat(s); tratando-se da base
0.9
0.8
0.7
0.6
0.5
H
0.4
0.3
0.2
0.1
0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
p
Figura 3.1: Entropia de uma FDSM binária em função da probabilidade de ocorrência p de um dos seus
símbolos.
Seja um dado alfabeto A de uma FDSM caracterizado por uma certa distribuição de proba-
bilidades de ocorrência dos seus símbolos que designaremos abreviadamente por pi , i = 1, 2, · · · , A.
Seja ainda qi uma outra distribuição de probabilidades definida sobre as ocorrências dos símbolos
de A (em que forçosamente teremos ∑Ai=1 qi = 1). Então mostra-se que:
T
A A
qi pi
∑ pi log pi ≤ 0 ⇔ ∑ pi log qi ≥ 0 (3.8)
i=1 i=1
sendo a igualdade expressa na equação (3.8) obtida para qi = pi e a base logarítmica arbitrária.
−2
−4
−6
−8
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
D
Definição: Distância de Kullback-Leibler ou Entropia Relativa define-se a divergência4 de
Kullback-Leibler como sendo
pi
D(PkQ) = ∑ pi ln (3.9)
i∈A qi
e que também se pode expressar da seguinte forma
T
Corolário em geral a «distância» de K-L é não simétrica, ou seja
Em geral os símbolos gerados por uma fonte discreta (com ou sem memória) não são equi-
prováveis. Contudo, por uma questão de simplicidade iremos supor, como anteriormente, a inde-
pendência estatística dos símbolos dessa(s) fonte(s). Suponhamos ainda que o canal de transmissão
4 Esta
definição de distância ou divergência de Kullback-Leibler é a, por vezes, denominada divergência simétrica de
Kullback-Leibler (K-L). Na realidade, a divergência de K-L é definida como sendo a «distância» entre as distribuições
conjuntas de 2 variáveis aleatórias e as respectivas distribuições e é assimétrica, como se apresenta no corolário seguinte.
3.1. FONTES DE SINAL DISCRETAS 103
é um canal binário, isto é, que apenas admite a transmissão de dois símbolos binários que, no se-
guimento, designaremos por 0 e 1. Se, num canal binário, quiséssemos transmitir os dez dígitos
(1, 2, ..., 9, 0) iríamos necessitar de um mínimo de 4 bit, pois como sabemos, 23 < 10 < 24 . Mas os
4 bits permitir-nos-iam transmitir até 16 símbolos distintos pelo que, nestas circunstâncias, o nosso
codificador dígitos ↔ código binário seria pouco eficiente; na verdade estaríamos a utilizar 10/16
ou seja 62, 5% da sua capacidade de codificação.
Contudo, se alguns dos dígitos fossem mais prováveis de ocorrer do que outros, talvez se pu-
desse utilizar uma codificação em que os dígitos mais prováveis fossem codificados com menos do
que 4 bit, conseguindo-se um desejável aumento de eficiência. Samuel Morse, em 1839, concebeu
um sistema de codificação, o célebre código Morse, que se baseia na transmissão de «pontos ·» e
«traços −» (separados invariavelmente por silêncios) em que as letras do alfabeto mais frequen-
tes são representadas por um número reduzido de pontos e/ou traços5 , conseguindo-se um notável
eficiência na transmissão das mensagens (figura 3.3)
Regressemos ao exemplo da codificação dos (dez) dígitos. Pensemos que, em vez de codifi-
carmos os dígitos di , i = 1, 2, · · · , 10 individualmente, tentaríamos codificar pares de dígitos, ou seja
codificaríamos (di , d j ), i, j = 1, 2, · · · , 10. Como teríamos 100 diferentes «novos» símbolos, iríamos
necessitar de 7 bit, pois 100 < 27 = 128, o que resultaria numa melhor utilização do codificador.
Concretamente iríamos utilizar 100/128 da capacidade da sua codificação, ou seja 78%. Este au-
mento de eficiência acarreta, contudo, um atraso de um símbolo para codificar pois necessitamos de
ter pares de dígitos presentes na entrada do codificador. Este mecanismo de codificação designa-se
por codificação por fonte extendida ou extensão de fonte.
5 Por exemplo, na língua inglesa, a letra mais frequente é a letra «e» que é codificada por um único ponto «·».
104 CAPÍTULO 3. SISTEMAS DE COMUNICAÇÃO EM BANDA DE BASE
Extensão de Fonte Seja então uma extensão de ordem K de uma FDSM que resulta num alfabeto
A K = {σ1 , σ2 , · · · , σAK } em que cada novo símbolo σi se obtém por uma sequência de K símbolos
da fonte A , isto é σi = (si1 , si2 , · · · , siK ). Dado que, por hipótese, os símbolos são independentes, a
distribuição de probabilidade dos símbolos σi da fonte estendida é dada por
K
qi , Pr(σi ) = ∏ Pr(símbolo s j ) (3.13)
j=1
Entropia da Fonte Estendida Pode-se mostrar que a entropia da extensão de ordem K de uma
fonte discreta sem memória é
T
H(A K ) = K · H(A ) (3.14)
O problema que se coloca é o de encontrar uma forma óptima para codificar os símbolos do
alfabeto de modo a reduzir o tempo de transmissão associado. No fundo, pretende-se um aumento
da eficiência da ocupação do canal. De facto, uma forma de aumentar essa eficiência passa pela
utilização de códigos de comprimento variável, reservando aos símbolos do alfabeto que ocorrem
mais frequentemente um menor número de bits. Esta atribuição pode ser efectuada heuristicamente
ou através de algoritmos, dos quais se destacam o código de Huffman e o algoritmo de Lempel-Ziv
que serão descritos com pormenor mais adiante.
D
Definição: Comprimento Médio de um Código define-se comprimento médio de um código
como sendo
A
L̄ = ∑ pi li (3.15)
i=1
D
Definição: Eficiência do Código define-se eficiência do código como sendo
H(A )
η= (3.16)
L̄
A
∑ r−l i
≤1 (3.17)
i=1
T 9 : 1o Teorema de Shannon
T
3. forma-se um novo símbolo com uma probabilidade de ocorrência que é a soma das probabili-
dades anteriores;
4. cria-se uma nova lista (reduzida em 1 símbolo) e reordena-se por ordem crescente de proba-
bilidades;
5. repetir os passos 2 a 4 até que restem somente 2 símbolos das sub-listas resultantes, atribuindo-
lhes os bits «0» e «1»;
6. obter, percorrendo a lista do fim para o princípio (backtracking), as palavras de código asso-
ciadas a cada símbolo da fonte.
Ex
7 Um código univocamente descodificável permite sempre recuperar a palavra ou o símbolo do alfabeto codificado.
106 CAPÍTULO 3. SISTEMAS DE COMUNICAÇÃO EM BANDA DE BASE
Exemplo Pretende-se obter uma codificação de Huffman para a fonte de mensagens caracteri-
zada como se segue. Assim, suponhamos uma fonte B = {si , i = 1, · · · , 7} com 7 símbolos cujas
probabilidades se assumem na tabela 3.1.
Símbolo s1 s2 s3 s4 s5 s6 s7
Pr(·) 0,60 0,02 0,15 0,04 0,04 0,05 0,1
bits «0» e «1» conforme o ponto 2. do algoritmo, associaram-se estes dois simbolos (s2 e s4 ) após o
que se segue uma nova reordenação (zona III) e assim sucessivamente até se esgotar os símbolos da
tabela. O codificador resultante apresenta-se (ponto 6. do algoritmo) na tabela 3.2.
Símbolo Código
s1 0
s2 1111
s3 100
s4 1110
s5 1101
s6 1100
s7 101
L̄ = 1 · 0, 6 + 4 · 0, 02 + 3 · 0, 15 + 4 · 0, 04 + 4 · 0, 04 + 4 · 0, 05 + 3 · 0, 01 = 1, 95[bit/símbolo] (3.19)
e a entropia desta fonte é H(B) = 1, 885 [bit/símbolo], o que se traduz num rendimento de η =
1,885
1,950 = 0, 967.
Nota A codificação apresentada neste exemplo contém duas situações em que há valores de proba-
bilidades repetidas, nomeadamente nas zonas I e V da figura 3.4. Observando o exemplo, verifica-se
que se procedeu a uma troca da ordenação dos símbolos a que correspondem iguais probabilidades.
Esta troca é facultativa mas, a ocorrer, obtém-se um codificador que apresenta uma menor variância
do comprimento médio das palavras; definindo-se esta variância como sendo
A
σl2 = ∑ pi · (li − L̄)2 (3.20)
i=1
O exemplo anterior ilustra um processo que, de uma forma óptima, nos produz uma codificação
de comprimento variável. Outros processos há que nos permitem obter códigos de comprimento
variável mas correm-se dois riscos: não serem univocamente descodificáveis ou terem eficiência
mais baixa. Vejamos de seguida um exemplo.
Ex
Exemplo ainda baseado na fonte B apresentada no exemplo anterior em que usaremos agora a
seguinte heurística: atribuamos o bit «0» como indicativo de começo de palavra e vamos adicionando
o bit «1» por cada palavra (tabela 3.3) depois de ordenada por probabilidades.
Para este exemplo, o comprimento médio é de 2,45 bit/símbolo o que se traduz num ren-
dimento de 0, 77; valor este superior ao do codificador uniforme mas ainda bem inferior ao do
codificador de Huffman. Contudo, este código enferma de um «problema»: repare-se que o bit «0»
tanto assinala o símbolo s1 como o início de qualquer um dos outros 6 símbolos. Efectivamente
repare-se que o símbolo s1 é "prefixo"de todos os outros símbolos; o mesmo sucedendo ao símbolo
s3 que é prefixo do s7 e do s6 , etc. e assim sucessivamente. Neste caso, a descodificação só será
possível depois de se receber um novo «0» pois é indicativo do aparecimento de uma nova palavra.
V
108 CAPÍTULO 3. SISTEMAS DE COMUNICAÇÃO EM BANDA DE BASE
Símbolo Código
s1 0
s2 0111111
s3 01
s4 011111
s5 01111
s6 0111
s7 011
D
Definição: Código de Prefixo Definimos então código de prefixo como todo o código em que
nenhuma palavra é prefixo de outra. Caso uma palavra seja prefixo de outra, a descodificação pode
ficar comprometida, inviabilizando a distinção de duas ou mais palavras da mensagem. Repare-se
que o código de Huffman é forçosamente um código de prefixo.
Ex
M = 000101110010100101 . . .
Índice do ldc 1 2
Subsequência 0 1
Falta codificar - -
pelo que iremos procurar uma subsequência maior: «00» que não pertence ainda a ldc; ficamos
3.1. FONTES DE SINAL DISCRETAS 109
assim com a tabela 3.5. Nesta fase, como se pode ver pela sequência que ainda não foi codificada
Índice do ldc 1 2 3
Subsequência 0 1 00
Falta codificar - - 0101110010100101...
(0101110010100101), aparece-nos agora a subsequência «01» que ainda não tinha sido encontrada,
pelo que vai ter de ser acrescentada ao ldc, conforme a tabela 3.6.
Índice do ldc 1 2 3 4
Subsequência 0 1 00 01
Falta codificar - - - 01110010100101...
Índice do ldc 1 2 3 4 5
Subsequência 0 1 00 01 011
Falta codificar - - - - 10010100101...
Índice do ldc 1 2 3 4 5 6
Subsequência 0 1 00 01 011 10
Falta codificar - - - - - 010100101...
Índice do ldc 1 2 3 4 5 6 7 8 9
Subsequência 0 1 00 01 011 10 010 100 101
Falta codificar - - - - - - - - ...
Vamos agora codificar as palavras do ldc, pelo que usaremos o índice (posição no ldc) já
determinado. Assim, a subsequência «00» (3a posição do ldc) é constituída pelo símbolo «0» (1a
110 CAPÍTULO 3. SISTEMAS DE COMUNICAÇÃO EM BANDA DE BASE
posição do ldc) seguida pelo símbolo «0» (novamente a 1a posição) pelo que lhe atribuiremos a
palavra de código «11»; de igual forma, por exemplo, a 7a posição será codificada pela palavra de
código 41 pois teremos que é constituída pela subsequência «01» (4a posição) seguida pelo símbolo
«0» (1a posição). Neste caso, o da 7a posição, a codificação atribuída não poderia ser 16 (símbolo
«0», 1a posição seguido de «10», 6a posição) pois o processo de construção da tabela seria violado!
Vejamos agora como atribuir um código binário a cada uma das palavras do ldc. Verifiquemos que
a 3a posição do ldc se obteve da 1a posição justapondo-lhe o símbolo «0» (chamemos a este «novo»
símbolo uma inovação); na 2a linha da tabela 3.10 assinalámos a negrito as inovações
Índice do ldc 1 2 3 4 5 6 7 8 9
Subsequência 0 1 00 01 011 10 010 100 101
código a atribuir - - 11 12 42 21 41 61 62
código binário - - 0010 0011 1001 0100 1000 1100 1101
O código binário resultante obtém-se codificando (em binário) o primeiro dígito do código
(assinalado em itálico) do código atribuído, justapondo-lhe a respectiva inovação.
V
Comparando com o código de Huffman, o L-Z tem a vantagem de atribuir um número fixo
de bits a sequências de tamanho variável o que lhe permite ser usado em sistemas de comunicação
síncrona. Na prática, usam-se blocos de 12 bits de código binário, o que corresponde a um ldc de
dimensão 4096. Relativamente a situações onde a compressão de dados pode ter um papel relevante
(por exemplo, o algoritmo de compressão ZIP) o código de L-Z atinge uma eficiência de 55%
enquanto que o código de Huffman se fica pelos 43%.
Neste caso, o domínio dos sinais ou dos processos estocásticos que representam ou mo-
delam este tipo de fontes são intervalos não-contáveis, ou seja, em que a variável independente
(normalmente o tempo) é uma variável contínua. Como exemplos de fontes analógicas temos sinais
determinísticos ou estocásticos, de energia ou de potência. Normalmente é suposto que os sinais
são de banda limitada (sinais determinísticos) ou de suporte limitado (sinais estocásticos). Neste
último caso, é ainda usual supor que são de média (valor expectável) nula e com uma dada função
densidade de probabilidade que se supõe conhecida a priori.
3.2. FONTES ANALÓGICAS 111
A comunicação de sinais digitais pressupõe uma digitalização dos sinais analógicos. A título
de exemplo, refira-se que a rede móvel de comunicações assenta, na sua quase totalidade, em co-
municações digitais. Assim, é importante apresentar, embora de forma introdutória, o processo de
digitalização que, na realidade, compreende várias etapas: limitação do espectro (filtragem passa-
baixo ou passa-banda), amostragem, quantificação e codificação, figura 3.5.
Conversão
~ Quantificação
~ Amostragem Retenção Paralelo -
- Série
Codificação
Comunicação
Compensação Conversão
x/sen(x) Reconstrução Série - Descodificação
- Paralelo
Amostragem Ideal Seja então X (t) um processo estocástico cuja densidade espectral de potên-
cia é nula para | f | > B (processo passa-baixo) e seja B a frequência de corte (banda passante) do
filtro passa-baixo8 que se supõe ideal. A amostragem, se bem que na realidade seja efectuada num
dispositivo de amostragem-retenção, é melhor compreendida considerando uma situação idealizada
em que um interruptor fecha e abre instantaneamente a um ritmo de Ta vezes na unidade de tempo.
Este mecanismo é modelado pelo produto do sinal por um trem de impulsos de Dirac, figura 3.6.
Seja ainda x(t) uma função amostra do processo X (t) e p(t) = ∑+∞
k=−∞ δ (t − kTa ) um trem de
9
impulsos unitários de Dirac , em que Ta é o período de amostragem.
+∞
xa (t) = x(t) · ∑ δ (t − kTa ) (3.21)
k=−∞
8 No fundo, o filtro passa-baixo limita em frequência o processo de entrada. No caso da fala, este filtro limita a cerca
de 3,4 kHz a frequência máxima do sinal. É também frequente uma remoção de baixas frequências, de forma a que a
banda útil do sistema de comunicação se estende dos 300 Hz aos 3,4 kHz.
9 Impulso unitário significa que, para ε arbitrariamente pequeno, se tem R ε δ (t)dt = 1.
−ε
112 CAPÍTULO 3. SISTEMAS DE COMUNICAÇÃO EM BANDA DE BASE
1 +∞ 1
Xa ( f ) = TF[xa (t)] = X( f ) ∗ P( f ) = X( f ) ∗ ∑ δ ( f − k Ta ) =
Ta k=−∞
1 +∞ 1 +∞
= X( f ) ∗ ∑ δ ( f − k f a ) = ∑ X( f − k fa ) (3.23)
Ta k=−∞ Ta k=−∞
onde f a = 1/Ta representa a frequência de amostragem. Este resultado, recordando que, por hi-
pótese, temos ∀ f : | f | > B → X( f ) = 0, encontra-se ilustrado na figura 3.7, para vários valores da
frequência de amostragem10 .
De imediato se verifica ser necessário ter fa = 1/Ta ≥ 2B para que haja a possibilidade de
reconstruir o sinal x(t) por filtragem passa-baixo ideal de xa (t). Este resultado é conhecido pelo
teorema da amostragem e é de extrema importância em Telecomunicações e em Processamento de
Sinais; o seu enunciado será de seguida apresentado.
D
Definição: Ritmo de Nyquist diz-se do ritmo de amostragem tal que, nas condições do teorema
10, se tem rN = 2 × B.
O processo de, a partir da sua versão amostrada, obter novamente o sinal original, é deno-
minado reconstrução do sinal. Assim, consideremos que a amostragem se efectua a um ritmo de
fa = T1a ≥ 2B amostra/s garantindo, como se viu, a não sobreposição das versões transladadas em
múltiplos de fa do espectro do sinal. No fundo, o processo resume-se a eliminar em Xa ( f ) todas
as componentes para | f | > B, ou seja, filtrar Xa ( f ) através de um filtro passa-baixo. Idealmente,
10 O
espectro apresentado para a mensagem é arbitrário no sentido de que a sua densidade espectral de potência pode
assumir quaisquer valores desde que limitada a uma banda de frequências de 0 a B Hz; a sua forma triangular deve-se
apenas a uma maior facilidade gráfica.
3.2. FONTES ANALÓGICAS 113
Figura 3.7: Amostragem ideal de um sinal de banda limitada a B, de cima para baixo: espectro arbitrário de
x(t), para fa < 2B, fa = 2B e finalmente fa > 2B.
d f
este filtro seria caracterizado por uma função de resposta em frequência H( f ) = Ta ( 2B ) que nos
garantiria o anulamento das componentes de alta frequência resultantes do processo de amostragem.
Este filtro, anulando efectivamente quaisquer componentes em frequência superiores a B, é um filtro
passa-baixo ideal. Em termos do domínio do tempo, esta operação traduz-se em aplicar xa (t) a um
filtro passa-baixo de resposta impulsiva
Z B
−1
h(t) = TF [H( f )] = Ta e j2π f t d f = 2Ta B sinc(2Bt) = sinc(2Bt) (3.24)
−B
pois 2Ta B = 1. Assim, o sinal reconstruído x̃(t) obtém-se pela convolução de h(t) (equação (3.24)),
+∞
x̃(t) = h(t) ∗ xa (t) = h(t) ∗ ∑ x(kTa )δ (t − kTa ) =
k=−∞
+∞
= ∑ x(kTa ) sinc(2Bt) ∗ δ (t − kTa ) =
k=−∞
+∞
= ∑ x(kTa ) sinc[2B(t − kTa )] (3.25)
k=−∞
Ou seja, x̃(t) resulta da interpolação das amostras do sinal equi-espaçadas xa (t) = x(kTa )
através da função sinc(·) e que, pelo facto de permitir que o sinal reconstruído seja igual ao sinal
original, x̃(t) = x(t), é denominada de interpolador ideal:
D
+∞
x̃(t) = ∑ x(kTa ) sinc[2B(t − kTa )] (3.26)
k=−∞
Convém notar que o interpolador ideal não é fisicamente realizável! Efectivamente, trata-se
de um filtro não-causal, pois a sua resposta impulsiva (equação (3.24)) é não nula para t < 0, como
se ilustra na figura 3.8 a vermelho.
114 CAPÍTULO 3. SISTEMAS DE COMUNICAÇÃO EM BANDA DE BASE
0.8
0.6
0.2
−0.2
Figura 3.8: Resposta impulsiva do interpolador ideal, assinalando-se a vermelho a resposta para t < 0.
Há formas de, na prática, ultrapassar esta impossibilidade: por exemplo, pode-se utilizar um
filtro cuja função de resposta em frequência não apresente a descontinuidade em f = B11 . Claro
que, em qualquer caso, a interpolação deixará de ser a ideal, pelo que haverá sempre uma distorção
do sinal reconstruído de saída mas, desde que esta distorção seja inferior ao ruído introduzido pelo
sistema de comunicação e pelo canal, poderemos desprezar o seu efeito.
Mais uma vez, a realidade não corresponde à situação ideal apresentada; ou seja, há que man-
ter o valor da amostra durante um período de amostragem12 (figura 3.9), ou seja, há que utilizar um
dispositivo de retenção das amostras. Um retentor nestas condições, que mantém o valor da amostra,
é conhecido por retentor de ordem zero (zero-order hold), ROZ, e tem uma resposta impulsiva dada
por (
1 0 ≤ t ≤ Ta
h(t) = (3.27)
0 c.c.
Desta forma, o sinal à saída do ROZ é o resultado da convolução do sinal amostrado pela
resposta impulsiva do ROZ, xR (t) = xa (t) ∗ h(t). No domínio da frequência, teremos que o espectro
do sinal amostrado vem modificado pela resposta em frequência do ROZ, pois, XR ( f ) = Xa ( f ) ·
H( f ). Sendo, como sabemos, a resposta em frequência igual à TF da resposta impulsiva, teremos
então
H( f ) = TF[h(t)] = Ta · e− jπTa · sinc( f Ta ) (3.28)
11 Repare-seque, assim sendo, a resposta em frequência deixará de ser nula para ∀ f > B, pelo que se torna necessário
amostrar a um ritmo superior ao ritmo de Nyquist para se reduzir ao máximo a corrência de aliasing. Efectivamente, e
por exemplo, no PCM telefónico, a banda útil B e limitada aos 3, 4 kHz enquanto se amostra a 8.000 Hz.
12 Dado que os dispositivos electrónicos de conversão analógico-digital necessitam de alguns instantes de tempo para
que essa conversão seja efectuada, o sinal de entrada a converter deve manter-se constante durante esse intervalo.
3.2. FONTES ANALÓGICAS 115
0.8
0.6
0.4
0.2
−0.2
−0.4
−0.6
−0.8
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
t
Figura 3.9: Amostragem ideal com retenção de ordem zero (a vermelho) de um sinal sinusoidal (a azul).
Por conseguinte, no descodificador há que efectuar uma correcção em frequência inversa desta
resposta em frequência para que se preservem as características do sinal original. Normalmente, nos
dispositivos electrónicos CODEC13 destinados à comunicação digital, esta correcção vem já incluída
x
pelo fabricante e é conhecida por correcção sen(x) .
−4
x 10
1.4
1.2
0.8
0.6
0.4
0.2
0
−1.5 −1 −0.5 0 0.5 1 1.5
frequência 4
x 10
Figura 3.10: Módulo da resposta em frequência do ROZ (azul), assinalando-se a cor verde a gama de frequên-
cias correspondente ao suporte B da mensagem, B = 2T1a = 4 kHz.
Este erro, denominado erro de quantificação, define-se pela diferença do sinal quantificado para o
sinal original,
eq (t) = x(t) − xq (t) (3.30)
Se, por hipótese, o intervalo de quantificação for suficientemente pequeno, poderemos aproximar
o erro de quantificação por uma processo estocástico caracterizado por uma variável aleatória que
se distribui uniformemente no intervalo [− ∆2 , ∆2 [ e, portanto, a função densidade de probabilidade do
erro de quantificação vem fe (ε) = ∆1 ( ∆ε ). Assim sendo, poderemos calcular a potência do erro de
d
quantificação
∆
Z2
1 1 1 ∆3 ∆3 ∆2
Peq = Ee (0) = E{eq (t)eq (t)} = ε 2 dε = · ( + )= (3.31)
∆ ∆ 3 8 8 12
− ∆2
uma vez que, nestas circunstâncias, PX = 12 X 2 . A título de exemplo, este resultado permite-nos
determinar a relação sinal/ruído de um CD de áudio, cuja quantificação (linear) sendo a 16 bit, é de
98,1 dB.
3.2. FONTES ANALÓGICAS 117
1 1
0.5 0.5
0 0
−0.5 −0.5
−1 −1
−1 −0.5 0 0.5 1 −1 −0.5 0 0.5 1
0.15 25
0.1
20
0.05
0 15
−0.05 10
−0.1
5
−0.15
−0.2 0
−1 −0.5 0 0.5 1 −0.2 −0.1 0 0.1 0.2
Figura 3.11: Quantificação uniforme com 3 bit (8 níveis): cima e à esquerda, sinal original e quantificado;
cima e direita, curva de quantificação; baixo e à esquerda, erro de quantificação e histograma do erro de
quantificação, em baixo e à direita.
No caso do sinal de fala, verificou-se ser necessário um mínimo de 10 bit para que, usando
uma quantificação uniforme, haja uma qualidade aceitável na comunicação. Contudo, as amplitudes
das amostras de fala não se encontram uniformemente distribuídas. Verifica-se que é nas amplitudes
mais baixas que se encontra o maior número de ocorrências de amostras de fala, como se mostra
na figura 3.12. Efectivamente, a quase totalidade das amplitudes ocorrem em menos de ≈ 20% do
seu máximo, pelo que poderá ser vantajoso utilizar uma quantificação que privilegie as pequenas
amplitudes. Desta forma, promove-se uma quantificação fina nas baixas amplitudes, aumentando
o intervalo de quantificação à medida que as amplitudes do sinal aumentam. Como resultado, é
possível, usando um quantificador não linear e para a mesma qualidade de comunicação, utilizar
menos níveis de quantificação e, logo, um ritmo de transmissão mais baixo. No caso concreto da
fala, é utilizada uma quantificação de 8 bits, segundo a norma A (A-law) na Europa e a norma µ (µ
-law) nos EUA e no Japão. Esta quantificação não uniforme corresponde a utilizar um compressor14
seguido de um quantificador uniforme. A característica entrada-saída do compressor é, no caso na
norma A (o valor utilizado é A = 87, 6), considerando que a entrada é x0 e a saída é y0
D
14 Um compressor é um dispositivo que modifica as amplitudes do sinal de entrada, através de um ganho variável.
Assim, as pequenas amplitudes são mais amplificadas do que as grandes amplitudes.
118 CAPÍTULO 3. SISTEMAS DE COMUNICAÇÃO EM BANDA DE BASE
4
x 10
3.5
2.5
1.5
0.5
0
−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8
A·|xi | 1
1+ln(A) |xi | < A
x0 = F(xi ) = sign(xi ) ·
1+ln(A·|xi |)
1
≤ |xi | ≤ 1
1+ln(A) A
(3.34)
1+ln(A)
1
A · |yi | |yi | < 1+ln(A)
y0 = F −1 (yi ) = sign(yi ) ·
exp[(1+ln(A))·|yi |−1)]
1
≤ |xi | ≤ 1
A A
Na figura 3.15 apresenta-se o histograma do sinal de fala utilizado no exemplo da figura 3.12,
depois de comprimido pela norma-µ. Como resultado, obtém-se uma distribuição das amplitudes
aproximadamente constante, pelo que um quantificador uniforme irá produzir na sua saída um sinal
com um erro de quantificação consideravelmente maior do que se teria sem esta compressão.
Na quase totalidade dos sistemas actuais de telecomunicações telefónicas, o sinal de fala é en-
viado após ter sido digitalizado, pois a transmissão digital oferece óbvias vantagens face à transmis-
são analógica, dado que apresenta uma superior imunidade ao ruído. Há várias formas de efectuar a
digitalização da fala, sendo que as mais simples operam directamente nas amplitudes das amostras
do sinal:
D
3.2. FONTES ANALÓGICAS 119
lei A
1
0.8
0.6
0.4
0.2
y(t)
−0.2
−0.4
−0.6
−0.8
−1
−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1
x(t)
Figura 3.13: Quantificação uniforme (a preto) e não uniforme, norma-A, a cor azul (a vermelho, A=87,6).
Na ordenada 0, 5 e de baixo para cima: A = 1, 2, 5, 10, 50, 87, 6, e 100.
Pela sua larga divulgação nas ligações telefónicas, apenas iremos abordar o sistema PCM.
Na figura 3.16 estão assinalados, dentro de dois rectângulos vermelhos, dois sub-blocos de-
signados por coder e decoder, respectivamente. Normalmente, nos sistemas de comunicação co-
merciais, estes dois sub-blocos encontram-se dentro do mesmo dispositivo electrónico, conhecido
por codec15 .
D
Nos sistemas PCM, o espectro do sinal de fala é limitado aos 3, 4 kHz, mediante uma filtragem
passa-baixo; segue-se-lhe uma amostragem ao ritmo de 8.000 amostras/segundo, correspondendo a
um período de amostragem de 125 µs. A quantificação efectuada é não-uniforme, utilizando-se na
Europa a lei-A (veja-se 3.2.5), de 8 bit/amostra, o que resulta num ritmo de bit total de 64 kbit/s
na saída/entrada de cada codec. O «espaço» entre duas amostras é, como se disse, de 125 µs e que
15 Recordemos que CODEC provém de COder+DECoder.
120 CAPÍTULO 3. SISTEMAS DE COMUNICAÇÃO EM BANDA DE BASE
lei u
1
0.8
0.6
0.4
0.2
y(t)
−0.2
−0.4
−0.6
−0.8
−1
−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1
x(t)
Figura 3.14: Quantificação uniforme (a preto) e não uniforme, norma-µ a cor azul (a vermelho, µ = 255.
Na ordenada 0, 5 e de baixo para cima: µ = 0, 1, 5, 10, 100, 255, e 300.
pode ser preenchido sequencialmente por outras amostras (canais) provenientes de outros codecs,
como se ilustra na figura 3.17; na Europa são utilizados 32 canais16 . O conjunto destes 32 canais é
designado por trama E1.
D
Dado que se está a utilizar a «posição» ou localização temporal para identificar cada ca-
nal, estamos perante um mecanismo de multiplexagem temporal dos sinais, também conhecido por
TDM17 .
D
Por sua vez, as tramas E1 podem ser agrupadas entre si, em grupos de 4 constituindo uma
trama E2 que, por sua vez podem ser novamente agrupadas em grupos de 4 tramas E2, resulando
numa trama E3 e assim sucessivamente até ao nível hierárquico E5, conforme se exemplifica na
figura 3.18 (até ao nível 4).
Na tabela 3.11 são apresentados os diferentes ritmos PCM europeus, em função do respectivo
nível hierárquico.
16 Destes 32 canais, o primeiro ou canal 0 é utilizado para sincronismo e canal 16 para sinalização.
17 TDM de Time Division Multiplexing.
3.2. FONTES ANALÓGICAS 121
2000
1800
1600
1400
1200
1000
800
600
400
200
0
−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1
CODER
Conversão
~ Quantificação
~ Amostragem Retenção Paralelo -
- Série
Codificação
Comunicação
DECODER
Compensação Conversão
x/sen(x) Reconstrução Série - Descodificação
- Paralelo
Bit 0
Bit 7
1 Trama
125 µs
canal 15
canal 16
canal 17
canal 31
canal 0
canal 1
canal 2
canal 3
canal 0
canal 1
canal 2
canal 3
Sinalização 3, 9 µs
Sinalização de Trama
Todo o sistema de comunicação deve ser concebido para que a mensagem recebida seja o mais
fiel possível à mensagem enviada. Uma forma de proceder no sentido de diminuir a ocorrência de
erros é através de um aumento de redundância dos dados transmitidos. Naturalmente que o aumento
de redundância se obtém acescentando à mensagem inicial um conjunto adicional de bits, que por
si só não transmitem informação útil e consequentemente, eficiência global diminui por isso. Há
sempre um preço a apagar pelo aumento de qualidade na comunicação e, nesta óptica, passa por ter
um ritmo de transmissão eficaz mais baixo. Do lado do receptor podem ser adoptadas estratégias de
detectar a ocorrência de erros e de corrigir o efeito desses erros. Assim, nos casos mais simples, os
erros podem ser detectados e imediatamente corrigidos; no caso mais severo da ocorrencia de erros,
o receptor pode detectar a sua existência mas não consegue proceder à sua correcção e em casos
mais extremos, os erros podem passar sem serem sequer detectados. Recordemos que o transmissor
codifica a mensagem adaptando-a ao canal de comunicação; o receptor, a partir dos bits recebidos
tenta obter uma estimativa da mensagem enviada. A (boa) codificação de canal consiste nos proce-
dimentos de codificação-descodificação de forma a que a probabilidade de erro de bit seja reduzida.
A detecção de erro consiste em, com elevada probabilidade, virmos a saber se a mensagem foi bem
descodificada.
Assim, seja ε a probabilidade de, num canal binário simétrico19 , se ter um bit errado. Claro
que se ε = 1/2 o canal é inútil, pelo que consideraremos apenas o caso em que ε < 1/2. Admitindo
que a lei dos grandes números é aplicável, uma forma de estimar a probabilidade de erro passa por
enviar N bit e contabilizar o número de erros ocorridos Ne , pelo que ε = limN→∞ NNe . Podemos ter
uma noção do efeito desta probabildade numa comunicação digital. Por exemplo, consideremos,
uma probabilidade bastante baixa de 10−9 ou , em linguagem corrente, um erro em mil milhoes de
bit. Na figura 3.19 ilustra-se, em função do ritmo de dados, o tempo médio para ocorrer um erro de
um bit. Embora se tenha partido de um valor de probabilidade aparentemente baixo (ε = 10−9 ), se
tivermos uma comunicação a 100 Mbit/s como vai sendo norma nas nossas residências, teríamos no
espaço de uma hora cerca de 360 erros!
Se considerarmos que, na maior dos casos na prática, a probabilidade de erro é muito reduzida,
18 Numa comunicação de voz, o ruído traduz-se por uma maior dificuldade em percepcionar a mensagem. A grande
redundância da comunicação verbal permite que, mesmo com (bastante) ruído, o destinatário consiga muitas vezes com-
preender a mensagem.
19 Ou seja, num canal em que a probabilidade de detectar um ”1” quando foi enviado um ”0” é igual à probabilidade de
6
10
5
10
4
10
Tempo de erro (s)
3
10
2
10
1
10
0
10
0 100 200 300 400 500 600 700 800 900 1000
Ritmo de dados (Mbit/s)
pode-se mostrar que, a partir da equação (3.80) a probabilidade de termos um erro num pacote
(string) de N bits é Pr(pacote) ≈ ε · N.
O código mais simples consiste apenas em repetir n vezes cada bit da mensagem; assim
obtêm-se sequências de n ”1” e de n ”0” por cada ”1” e cada ”0” da mensagem original. Claro que,
neste caso, a eficiência do código decresce significativamente com o número n de repetições! Na
figura 3.20 apresenta-se a probabilidade de erro em função do índice m de repetições, ou seja, o
número de repetições (sendo ímpar) vem n = 2 × m + 1.
E como se desenha uma estratégia no receptor? Suponhamos, então, que cada bit da mensa-
gem é codificado com n repetições, independentemente de ser ”1” ou ”0”. Assim, por cada conjunto
de n bits recebido, decida-se pelo ”1” ou pelo ”0” consoante, nesse conjunto a maioria de bits recebi-
dos for, respectivamente, de ”1” ou de ”0”. É óbvio que, nesta estratégia, n não pode ser um número
par para se garantir a desambiguação20 . Recordemos que esta assunto já foi tratado no exemplo
apresentado em 3.4.4.
Designemos por (x, y) o código de repetição21 ; assim, suponhamos que tínhamos palavras de
20 Admitindo que os símbolos binários na fonte são equiprováveis.
21 Não se trata, neste caso, de uma repetição efectiva, pois acrescentam-se x − y bit a cada palavra de código.
3.3. INTRODUÇÃO AOS CÓDIGOS BINÁRIOS 125
0
10
−1
10
−2
10
Probabilidade de erro
−3
10
−4
10
−5
10
−6
10
0 5 10 15 20 25 30 35
n
Figura 3.20: Probabilidade de erro em função do número n de repetições, obtidas para uma probabilidade
de erro no canal binário simétrico ε = 1/2.
1 único bit (código (1, 1)). Obviamente são possíveis duas palavras distintas, ”0” e ”1”, figura 3.21
a). Ocorrendo um único erro na transmissão, poderíamos ter um de dois casos (figura 3.21 b)):
”0” −→ ”1”
”1” −→ ”0”
Dado que no receptor, quer o ”0” quer o ”1” são ambas palavras de código possíveis ou válidas, não
há a possibilidade de detectar e muito menos de corrigir a ocorrência de um erro.
0 0 0 0
1 1 1 1
a) b)
00 00 00 00
10
01
11 11 11 11
c) d)
Figura 3.21: Exemplos de códigos de Hamming (1,1), em cima e (2,1) em baixo; à esquerda sem erro no
canal e, à direita, com a ocorrência de um erro.
Acrescentemos agora um bit idêntico ao bit de cada palavra a emitir (código (2, 1)) de sorte
126 CAPÍTULO 3. SISTEMAS DE COMUNICAÇÃO EM BANDA DE BASE
a que à palavra ”0” corresponda a palavra ”00” e façamos o mesmo à palavra ”1” que será enviada
como ”11”, figura 3.21 c). Não havendo nenhum erro, as palavras recebidas correspondem a uma
das duas situações possíveis. Se, contudo, ocorrer um erro (indiferentemente)em qualquer um dos
dois bits de cada palavra, obter-se-ão duas palavras que não pertencem ao código; referimo-nos às
palavras ”10” e ”01” assinaladas a cor vermelha na figura 3.21 d). Neste caso já é possível a detecção
de um erro, muito embora ainda não seja possível determinar qual a palavra correcta. Veja-se que,
esta codificação não permite detectar a ocorrência de dois erros em simultâneo.
Consideremos agora o envio de palavras de dois bit e que, obviamente, pertencerão a uma
das = 4 possibilidades; acrescentemos-lhe um bit extra, resultando em 23 = 8 possibilidades das
22
quais apenas nos interessam as 4 anteriores, resultando numa codificação (3, 2). Tentemos desenhar
o código (3, 2) que nos permita determinar (mas não corrigir) a ocorrência de um erro e comecemos,
por exemplo, com a palavra de código ”000”. Uma vez que apenas poderá, por hipótese, ocorrer um
erro, receber-se-ia uma de três hipóteses: ”001” ou ”010” ou ainda ”100”. Então, isto significa que
nenhuma das outras palavras de código válidas poderia ser uma destas. De outra forma, as palavras
válidas teriam que se distinguir umas das outras em 2 bit ou seja, concretamente, ”101” ou ”011” ou
ainda ”110”. Para melhor se visualizar o exposto, representemos estas palavras de forma a que se
situem nos vértices não contíguos de um cubo, como se ilustra na figura 3.22.
100 110
000 010
101 111
001 011
Figura 3.22: Exemplos de código de Hamming (3,2), assinalando-se com um círculo as palavras de código
válidas e a vermelho as que resultam da ocorrência de um erro de um bit.
D
Definição: Distância de Hamming HD como sendo o número de vezes que duas palavras (men-
sagens) w1 e w2 de l bit de comprimento cada difiram entre si.
T 11 : Teorema Um código cujas palavras tenham entre si uma distância de Hamming HD pode
detectar qualquer padrão resultante da ocorrência de HD − 1 erros.
T
Corolário Nestes termos, existe pelo menos um padrão com HD erros que não pode ser detectado
com fiabilidade.
Sem constituir uma demonstração deste teorema, vejamos como se verifica nos exemplos
atrás dados:
Ex
1. no código (1, 1), cada palavra dista da outra de 1 bit ou seja, HD = 1, logo, e como se viu, não
é possível detectar um erro;
2. no código (2, 1) , cada palavra dista da outra de 2 bit, isto é HD = 2, logo, e como se viu, é
possível detectar apenas um erro;
Importa saber se, ao aumentarmos a distância de Hamming entre as palavras de código, advém
alguma vantagem na detecção de erros.
Assim, voltemos ao caso em que pretendemos codificar apenas duas palavras ”0” e ”1” e
utilizemos um código (3, 1).
Ex
Seja então S = {000, 111} o conjunto das palavras válidas deste código e que, como de
imediato se verifica, distam entre si de 3 bits ou seja, HD (w1 , w2 ) = 3. Seja ainda E o conjunto das
palavras «corrompidas» por um único erro de S : E000 = {001, 010, 100} e E111 = {110, 101, 011},
como se assinala na figura 3.23, respectivamente a vermelho e violeta.
Este código permite corrigir a ocorrência de um erro e detectar a ocorrência de dois erros.
Observando a figura 3.23, é muito fácil saber, determinando a distância de Hamming se o erro
22 Ademonstração é por redução ao absurdo: admitamos que a intersepção é não-vazia; então isso significa que há
duas palavras de E000 e E111 comuns. Assim sendo, teríamos forçosamente que a distância de Hamming entre elas seria
nula. Ora, tal não pode suceder pois então uma das palavras de E000 ou de E111 teria sido obtida pela modificação de 2
bits, contrariando a hipótese de apenas ter ocorrido um erro. Este caso é, por exemplo, assinalado na figura 3.23 pela seta
vermelha (a tracejado).
128 CAPÍTULO 3. SISTEMAS DE COMUNICAÇÃO EM BANDA DE BASE
100 110
000 010
101 111
001 011
Figura 3.23: Código de Hamming (3,1), assinalando-se com um círculo as palavras de código válidas e a
vermelho e a violeta as que resultam da ocorrência de um erro de um bit.
proveio da sequência ”000” ou da ”111”. Podemos também racionar da seguinte forma: a sequência
u ou palavra recebida verifica uma das seguintes condições:
onde ⊕ significa «ou exclusivo». Então, a decisão no receptor, ud , sobre o bit enviado pode
expressar-se como sendo:
u = ”000”
⊕ −→ ud = ”0”
u ∈ E000
⊕ (3.38)
u = ”111”
⊕ −→ ud = ”1”
u ∈ E111
T 12 : Teorema Num canal binário simétrico cuja probabilidade de erro seja inferior a 1/2, a
estratégia do receptor é optar pela palavra de código válida que tenha menor distância à sequência
recebida.
T
T 13 : Teorema Seja um dado código cuja distância seja HD ; então, esse código permite corrigir
qualquer padrão ou palavra recebida com um número Ne erros
HD − 1
Ne ≤ b c
2
e detectar HD − 1 ocorrências de erros.
3.3. INTRODUÇÃO AOS CÓDIGOS BINÁRIOS 129
T
T 14 : Teorema A distância de Hamming entre palavras de n bits verifica a desigualdade triangular,
O problema com os códigos de Hamming é o seu desenho uma vez que não há uma forma
expedita conhecida para serem obtidos.
0+0 = 1+1 = 0
0+1 = 1+0 = 1
e a multiplicação como
0·0 = 0·1 = 1·0 = 0
1·1 = 1
T
23 Sendo que um anel é uma estrutura algébrica que consiste num conjunto A com um elemento nulo (0) e duas operações
binárias + (adição ou soma) e · (produto ou multiplicação) que satisfazem as condiçõe de a) associatividade da adição
∀a, b, c ∈ A : (a + b) + c = a + (b + c); b) existência de elemento neutro (0) da adição: ∀a ∈ A : a + 0 = 0 + a = a; c)
existência de simétrico da adição: ∀a ∈ A, ∃b ∈ A : a + b = 0; d) comutatividade da adição: ∀a, b ∈ A : a + b = b + a;
e) associatividade do produto: ∀a, b, c ∈ A : (a · b) · c = a · (b · c); f) distributividade do produto em relação à adição (à
esquerda e à direita): ∀a, b, c ∈ A : a · (b + c) = a · b + a · c ∧ (a + b) · c = a · c + b · c; g) existência de elemento neutro (1)
do produto (axioma do elemento neutro): ∃1 ∈ A, 1 6= 0 ∧ (∀a ∈ A, 1.a = a.1 = a). Dado que a multiplicação tem elemento
neutro, o anel é dito anel com identidade ou anel com unidade.
130 CAPÍTULO 3. SISTEMAS DE COMUNICAÇÃO EM BANDA DE BASE
Ex
Exemplo Mostre que o código de bloco C = {000, 011, 101} não é um código linear.
Resolução Para tal, basta ver que, em F2 , se tivermos 011 + 101 obteremos 110 que é uma
palavra que não pertence a C .
Ex
Exemplo Mostre agora que o código de bloco B = {000, 011, 101, 110} é linear e que a distância
de Hamming entre quaisquer duas palavras de B é HD = 2.
V
D
Definição: Peso de uma Palavra de Código como sendo o número de ”1” dessa palavra.
T
T 16 : Teorema A mínima distância de Hamming de código de bloco linear é igual ao menor peso
das suas palavras de código não-nulas.
D
Definição: Paridade de uma Palavra de Código w como sendo o ou exclusivo dos seus bits, ou
seja, P(w) = b1 ⊕ b2 ⊕ · · · ⊕ bn em que w = b1 b2 · · · bn .
Uma palavra tem paridade (ím)par quando P é (ím)par; o mesmo é dizer quando o número de
”1” dessa palavra for (ím)par.
D
Definição: Código de Paridade Par diz-se de todo o código que verifica a equação (3.40).
Num código de paridade par, a ocorrência de um erro resulta numa paridade ímpar pelo
que é, no receptor, uma situação trivial de ser detectada. Ora, esta situação resulta de termos um
código obtido pela concatenação do código original com a sua paridade, resultando numa distância
de Hamming de 2 entre todas as suas palavras.
Vamos usar este conceito para construir o denominado código rectangular; posteriormente
veremos como descodificá-lo.
b1 b2 b3 b4
b5 b6 b7 b8
b1 b2 b3 b4 P(b1 , b2 , b3 , b4 )
b5 b6 b7 b8 P(b5 , b6 , b7 , b8 )
P(b1 , b5 ) P(b2 , b6 ) P(b3 , b7 ) P(b4 , b8 )
Com generalidade: se o número de bits de wi for N, teremos que se pode construir uma matriz
de l linhas e k colunas sendo naturalmente l × k = N; havendo l linhas, teremos l bits de paridade de
linhas (um por cada linha) e k bits de paridade de colunas (um por cada coluna), pelo que o número
de bits da palavra estendida u é de N + l + K, resultando num ritmo:
N l ×k
r= =
N +l +k l ×k+l +k
Vejamos como este código permite corrigir um único erro. Para tal, suponha-se a existência
de duas palavras arbitrárias mi e m j pertencentes ao código C . Sejam ui e u j as correspondentes
palavras resultantes das operações u = w L C. Então, a distância de Hamming entre elas pode
ser dada por uma das três hipóteses seguintes:
24 Nada obsta a que uma mensagem ou uma sequência possa ser composta unicamente por um bit.
25 Poderia também ser 4 × 2 ou 8 × 1 ou ainda 1 × 8.
132 CAPÍTULO 3. SISTEMAS DE COMUNICAÇÃO EM BANDA DE BASE
• HD (mi , m j ) = 1 ou seja, as duas palavras diferem de apenas 1 bit. Neste caso, o código rec-
tangular de cada uma das duas palavras conterá 3 bits distintos entre si: um bit da paridade
da linha, outro bit da paridade da coluna e, finalmente, o bit que distingue as duas palavras.
Assim, a distância de Hamming entre as duas palavras resultantes da codificação rectangular
é HD (ui , u j ) = 3;
• HD (mi , m j ) = 2 ou seja, as duas palavras diferem de apenas 2 bit. Ora, ao construir o código
rectangular, os bits distintos ou a) ocorrem na mesma linha ou b) na mesma coluna ou ainda c)
ocorrem em linhas e colunas diferentes. No caso a) mantém-se a paridade de linha, alterando-
se as paridades das 2 colunas; em b) mantém-se a paridade da coluna e alteram-se as paridades
das 2 linhas e em c) alteram-se as paridades da linha e da coluna. Em resumo, a distância de
Hamming entre as duas palavras resultantes da codificação rectangular é HD (ui , u j ) > 3;
• HD (mi , m j ) ≥ 3 ou seja, as duas palavras diferem de 3 ou mais bits. Este caso é o mais simples
de analisar pois os códigos rectangulares distarão mais de 3 bits uma vez que ui ⊃ mi e u j ⊃ m j ;
logo HD (ui , u j ) ≥ 3.
Conclui-se assim que HD (ui , u j ) ≥ 3 e, portanto, este simples código rectangular, de acordo com o
teorema 13, permite corrigir a ocorrência de um erro.
Vejamos agora como se procede à descodificação do código rectangular; trata-se de, rece-
bendo uma mensagem u determinar a mensagem ou palavra de código original w que lhe deu origem
e, sendo caso, determinar se ocorreram erros e, quando possível, corrigi-los. Assim, suponhamos
que, se ocorrer um erro, apenas um bit será afectado. No receptor, será efectuado um cálculo (em
F2 ) de paridade por linhas e por colunas e da mensagem recebida. Então, uma das quatro situações
será possível:
• ocorreu um único erro de paridade da linha ou da coluna: neste caso, o erro ocorreu no
próprio bit de paridade26 , pelo que a correspondente mensagem pode ser obtida directamente
(retirando os bits das paridades);
• ocorreram dois erros, um na paridade da linha e outro na paridade da coluna: agora isto
significa que o bit correspondente a essa linha e a essa coluna sofreu um erro. Assim, basta
inverter o seu valor lógico e reconstruir a mensagem;
• ocorreram mais erros de paridades das linhas e colunas: então houve mais do que um bit
errado... nesta situação o receptor não tem forma de localizar o(s) erro(s).
Ex
Exemplo Para facilidade de compreensão do exposto, suponhamos que se pretendia enviar uma
mensagem de 8 bits através de um código rectangular: w = ”10100011”.
26 pois de outro modo, teríamos 2 erros de paridade!
3.3. INTRODUÇÃO AOS CÓDIGOS BINÁRIOS 133
1 0 1 0 P(1010) = 0
0 0 1 1 P(0011) = 0
P(10) = 1 P(00) = 0 P(11) = 0 P(01) = 1
Para facilidade de visualização repetimos a tabela, omitindo a indicação explícita das parida-
des (que assinalamos a cor azul):
1 0 1 0 0
0 0 1 1 0
1 0 0 1
u = ”10100011 0 0 1 0 0 1” = ”10100011001001”
Construamos agora a tabela 3.13 na hipótese de ter ocorrido um erro único de paridade da
linha:
1 0 1 0 0
0 0 1 1 1
1 0 0 1
Dado que, no receptor, o cálculo das paridades de linha resultará em 0 para a primeira linha e,
também, 0 para a segunda e que neste lugar se recebeu um ”1”, então o erro só pode ter ocorrido no
próprio bit da paridade27 , pelo que basta descartar os bits das paridades para recuperar, sem erros, a
mensagem w.
Suponhamos agora que o erro cai sobre sobre um dos bits da mensagem; no receptor detecta-
se de imediato uma inconsitência entre a paridade da linha e da coluna calculadas em contraste com
as recebidas, conforme se assinala com →:
1 0 1 0 0
0 1 1 1 0→ 1
1 0→ 1 0 1
Definição: Códigos Sistemáticos dizem-se dos códigos lineares onde cada palavra de código de
n bits pode ser decomposta em k bits da palavra inicial concatenada com n − k bits de paridade.
Na tabela 3.14 apresentam-se o número total mínimo de bits n de um código sistemático que
verifique a equação (3.41).
Tabela 3.14: do número mínimo total de bits de um Código Sistemático, onde k é o número de bits da palavra
inicial e n é o número total de bits resultante.
Reparemos que os códigos rectangulares não verificam esta condição no que respeita ao mí-
nimo número de bits.
Ex
Suponhamos agora que as nossas palavras de código têm k = 4 bits, w = b1 b2 b3 b4.
Da tabela anterior, tabela 3.14, podemos ver que serão necessários 7 − 4 = 3 bits de paridade que
podem «proteger» 4 bits (a negrito). Estes bits de paridade devem, cada um, proteger grupos de 3
bits; ou seja, cada bit de paridade deve ter a mesma importância na protecção de bits das palavras
do código que os restantes bits de paridade. Assim, teremos de associar os quatro bits em grupos de
três (sem repetição). Concretamente, teríamos as seguintes C34 = 4 combinações:
P(b1 b2 b3) = p1
P(b1 b2 b4) = p2
(3.42)
P(b2 b3 b4) = p3
P(b1 b3 b4)
onde não se indica o bit de paridade da última combinação; isto porque, como se viu, bastam 3 bits
de paridade e, atentando na figura 3.24, onde se apresentam os 4 bits da mensagem bem como os
bits de paridade correspondentes, nota-se que cada bit da mensagem aparece envolvido pelo menos
2 vezes nas determinações das paridades.
b1
p2 p1
b2
b4 b3
p3
É fácil verificar que acções correctivas devem ser aplicadas à palavra recebida para se recupe-
rar do (eventual) erro. Este processo assinala-se na tabela 3.15 e é facilmente obtido por inspecção
da figura 3.24.
P3 P2 P1 Acção
000 (não ocorreu erro)
001 p1 está errado → inverta-se
010 p2 está errado → inverta-se
011 b1 está errado → inverta-se
100 p3 está errado → inverta-se
101 b3 está errado → inverta-se
110 b4 está errado → inverta-se
111 b2 está errado → inverta-se
Recordemos que, a partir de palavras de código com k bits, se obtêm palavras de n bits através
da concatenação de n − k bits de paridade. Este processo pode ser formalizado recorrendo ao cálculo
matricial, dado tratar-se de um problema linear:
D · G=C (3.44)
F2
Ex
Exemplo Vejamos no caso apresentado do código (7 × 4); teremos então, e recordando o cálculo
das paridades, conforme a equação (3.42):
b1
b2
1 0 0 0 1 1 0
b3
0 1 0 0 1 1 1
(b1 b2 b3 b4 ) · = b4 (3.46)
| {z } 0 0 1 0 1 0 1
D p1
0 0 0 1 0 1 1
p2
| {z }
G
p3
| {z }
C
Analisemos a transposta da submatriz A que assume a forma
1 1 1 0
AT = 1 1 0 1 (3.47)
0 1 1 1
Supondo que a probabilidade de erro de um canal binário simétrico é ε < 1/2, a descodi-
ficação no receptor «limita-se» a determinar a palavra do seu livro de código que tenha a menor
distância de Hamming da palavra recebida (com ou sem erros). Este problema pode ser equacio-
nado como sendo a maximização da probablidade de se ter recebido r quando se enviou a palavra c,
ou seja max Pr(r|c); suponha-se ainda que a distância de Hamming entre as duas palavras de código
é de d (ou seja, as palavras diferem entre si de d bits), HD (r, c) = d então, a probabilidade Pr(r|c) de
se ter r dado que se enviou c vem
onde, como anteriormente, n é o número de bits das palavras de código. Aplicando logaritmos a esta
equação, resulta em
ε
log Pr(r|c) = d log(ε) + (n − d) log(1 − ε) = d · log + n · log(1 − ε) (3.49)
1−ε
3.3. INTRODUÇÃO AOS CÓDIGOS BINÁRIOS 137
Para um desenvolvimento deste tema veja-se (Balakrishnam et al. , 2012), por exemplo.
Nesta secção iremos tratar de uma classe de códigos que tem grande importância nos sistemas
de comunicação sem fios, nomeadamente nos protocolos 802.11 e nas comunicações via-satélite;
fazem ainda parte de códigos mais evoluídos que têm utilização nas redes celulares, nomeadamente
em 3G, LTE e 4G.
Suponha-se uma palavra de código com N bits, conforme se ilustra na figura 3.25, onde o
cálculo das paridades assenta numa janela deslizante de 3 bits, onde
(
p0 (n) = bn ⊕ bn−1 ⊕ bn−2
(3.50)
p1 (n) = bn ⊕ bn−1
onde, para facilidade de visualização, se substituiu bn− j por b(n − j) e que, de imediato, se identifica
com o somatório de convolução e, portanto, justifica-se assim o nome deste código. A notação
(· · · )F2 reporta-se a uma aritmética módulo 2, como tem vindo a ser usual. Nesta equação podemos
ainda observar que gi não é mais do que a coluna índice j da matriz A da equação (3.47).
28 Se esta hipótese não se verificar, teremos duas situações: ou ε = 1/2 e que corresponde ao canal inútil, ou ε > 1/2 e,
neste caso, basta inverter a palavra recebida e proceder como se descreve.
138 CAPÍTULO 3. SISTEMAS DE COMUNICAÇÃO EM BANDA DE BASE
p (3)
0
p (3)
1
p (n)
0
p (n)
1
Independentemente do tipo de código utilizado, seja ele de blocos, linear, etc., o receptor
terá de optar pela palavra de código que seja a mais provável de ter sido transmitida, dada uma
sequência detectada. Esta decisão deve basear-se na menor distância de Hamming entre as sequência
recebida e a(s) existente(s) no livro de código. Um pequeno exemplo numérico pode ajudar a ter
uma noção do efeito da distância de Hamming na probabilidade anterior. Assim, reportemo-nos à
equação (3.48) e particularizemos para uma sequência de 8 bit (n = 8) e vários erros de bit num
canal binário simétrico; a probabilidade de se ter recebido uma palavra que diste DH bits em função
de DH para várias probabilidades de erro do canal ε, é dada na figura 3.26. Podemos ver que,
no caso de ε = 10−6 a variação da probabilidade é de 10−7 para 10−18 , ou seja, de onze ordens
de grandeza, quando a distância de Hamming passa de 1 bit para 3 bits. O problema consiste na
procura exaustiva das palavras de código mais próximas que se torna rapidamente inviável com N. O
processo de tornar esta descodificação mais eficaz passa pela utilização de métodos de optimização
(local) da busca, entre os quais se destaca a utilização da treliça29 e o algorimto de Viterbi para
determinar qual a sequência mais provável. A treliça é uma estrutura onde se explicita a evolução
temporal (geralmente na horizontal) e os estados do descodificador para cada instante de tempo30 .
O estudo mais aprofundado destas matérias extravasa claramente o âmbito destas notas, pelo que se
recomenda a leitura de (Balakrishnam et al. , 2012), por exemplo.
0
10
−5
10
−10
10
Pr(u,w)
−15
10
−20
10
−25
10
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
Distancia de Hamming
Figura 3.26: Pr(u, w) em função da distância de Hamming para (de cima para baixo) ε igual a 10−3 , 10−4 ,
10−5 e 10−6 , respectivamente asinaladas com os símbolos ◦, +, × e ∗.
Definição: Canal Discreto sem Memória um canal discreto sem memória é um modelo estatís-
tico com uma entrada X e uma saída Y que se entende como sendo uma versão ruidosa de X.
Naturalmente que, no que se segue, X e Y são variáveis aleatórias. Em cada instante de tempo,
o canal aceita na entrada um dado símbolo xi pertencente ao alfabeto ou dicionário de entrada X,
∀i = 1, 2, · · · : xi ∈ X, e, por sua vez, produz na sua saída um símbolo yk que pertencerá ao alfabeto
de saída Y , ∀k = 1, 2, · · · : yk ∈ Y . Sendo, respectivamente, as dimensões I e K dos alfabetos X e
Y finitas31 , o canal diz-se discreto.
Quando, num dado instante de tempo, o símbolo de saída depende apenas do símbolo de
entrada nesse instante e não de outros símbolos em instantes anteriores, o canal diz-se sem memória.
Sendo assim, o canal é caracterizado por ter um alfabeto de entrada, um alfabeto de saída e um
31 Em geral, os dicionários podem ter dimensões de entrada e de saída distintas: I = dim(X) 6= K = dim(Y ).
140 CAPÍTULO 3. SISTEMAS DE COMUNICAÇÃO EM BANDA DE BASE
X = {x0 , x1 , . . . , xI−1 }
Notemos que, nesta matriz, cada linha representa a saída para um dado símbolo de entrada
constante, enquanto que, cada coluna representa saída constante para distintos símbolos de entrada.
Reparemos também que a soma das probabilidades de transição em cada linha de Pc é unitária, ou
seja, ∀i = 0, 1, · · · , I − 1 : ∑K−1
k=0 p( jk |xi ) = 1. Claro que, se se tratasse de um canal perfeito, onde
não ocorressem trocas de símbolos, teríamos que a matriz do canal seria agora uma matriz quadrada
(pois I = K):
1 0 ... 0
0 1 ... 0
Pc = (3.54)
... ... ... ...
0 0 ... 1
Como, por outro lado, se tem que p(yk ) = Pr(Y = yk ) (usando o resultado da equação (2.7)),
obtemos
I−1
∀k = 0, 1, · · · , K − 1 → p(yk ) = ∑ p(yk |xi )p(xi ) (3.56)
i=0
que nos permite a probabilidade de se ter um dado símbolo yk na saída do canal, conhecendo a
distribuição a priori de símbolos na entrada. Assim, sendo
e
PY = [p(y0 ), p(y1 ), · · · , p(yK−1 )]T
PY = PcT · PX (3.57)
Este é um tipo de canal com bastante interesse prático e que corresponde, nas equações
anteriores, a ter-se K = I = 2. Assim teremos 2 símbolos enviados e recebidos, o «0» e o «1».
Se admitirmos que a probabilidade de recebermos um «1» quando se enviou um «0» é igual à
probabilidade de recebermos um «0» quando se enviou um «1» teremos um canal simétrico. Seja
p a probabilidade (condicional) de se ter um erro (recebeu-se um «1» quando se enviou um «0» e
vice-versa). Então a matriz do canal, (equação (3.53)) fica
T
1− p p
Pc = (3.58)
p 1− p
Comecemos por tentar responder à questão de determinar qual a incerteza sobre X dado que
se observou Y ? Para tal, definamos a entropia condicional:
D
I−1 I−1
1
H(X|Y = yk ) = − ∑ p(xi |yk ) log2 p(xi |yk ) = ∑ p(xi |yk ) log2 p(xi |yk ) (3.59)
i=0 i=0
D
Definição: Entropia Condicional a entropia H(X|Y ), definida na equação (3.61), denomina-se
entropia condicional.
Esta entropia condicional dá-nos uma medida da incerteza da entrada do canal depois de
observar a sua saída. Por outro lado, a entropia da fonte de entrada H(X) dá-nos uma medida
da incerteza da fonte (entrada do canal) antes de observar a saída; pelo que H(X) − H(X|Y ) dar-
nos-á a incerteza sobre a entrada do canal determinada pela sua saída. Esta diferença denomina-se
informação mútua do canal.
142 CAPÍTULO 3. SISTEMAS DE COMUNICAÇÃO EM BANDA DE BASE
D
Definição: Informação Mútua a informação mútua é definida como
T
Corolário a informação mútua é simétrica32
Demonstração
I(X;Y ) = H(X) − H(X|Y ) =
I−1 K−1 I−1
1 1
= ∑ p(xi ) log2 p(xi ) − ∑ ∑ p(xi , yk ) log2 p(xi |yk ) =
i=0 k=0 i=0
I−1 K−1 K−1 I−1
1 1
= ∑ p(xi ) log2 ∑ p(yk |xi ) − ∑ ∑ p(xi , yk ) log2 p(xi |yk ) =
i=0 p(xi ) k=0 k=0 i=0
| {z }
=1
K−1 I−1 K−1 I−1
1 1
= p(x )p(y |x ) log −
∑ ∑ | i {z k i} 2 p(xi ) ∑ ∑ p(xi , yk ) log2 p(xi |yk ) =
k=0 i=0 k=0 i=0
=p(yk ,xi )
K−1 I−1
1 1
= ∑ ∑ p(yk , xi )[log2 p(xi ) − log2 p(xi |yk ) ] (3.65)
k=0 i=0
dado que p(xi , yk ) = p(yk , xi ). Desenvolvendo o termo entre parêntesis rectos, vemos que
1 1 p(xi |yk )
[log2 − log2 ] = log2 (3.66)
p(xi ) p(xi |yk ) p(xi )
e ainda que
p(yk , xi ) = p(yk |xi )p(xi )
p(xi |yk ) p(yk |xi )
⇒ = (3.67)
p(xi ) p(yk )
p(xi , yk ) = p(xi |yk )p(yk )
E, da igualdade dos resultados das equações (3.68) e (3.69), se completa finalmente a de-
monstração.
T
Corolário a informação mútua é sempre não-negativa
I(X;Y ) ≥ 0 (3.70)
e a igualdade a zero ocorre sse p(yk , xi ) = p(yk )p(xi ) ou seja, se os símbolos de entrada e de saída
no canal forem estatisticamente independentes.
T
Corolário
I(X;Y ) = H(X) + H(Y ) − H(X,Y ) (3.71)
sendo a maximização efectuada para todas as possíveis probabilidades a priori da fonte; a capacidade
do canal é medida em bit por símbolo transmitido.
Canal Sem Perdas No canal sem perdas, temos que H(X|Y ) = 0, logo I(X,Y ) = H(X) e, conse-
quentemente,
T
Cs = max I(X;Y ) = log2 (I)
{p(xi )}
Canal Determinístico No canal determinístico, temos que H(Y |X) = 0, logo I(X,Y ) = H(Y ) e,
consequentemente,
T
Cs = max I(X;Y ) = log2 (K)
{p(xi )}
Canal Sem Ruído Uma vez que um canal sem ruído é, simultaneamente, sem perdas e determi-
nístico, então H(Y |X) = 0 e logo I(X,Y ) = H(Y ) = H(X), pelo que
Canal Binário Simétrico No caso particular do canal binário simétrico, isto é, onde os erros de
transmissão são idênticos, p(y0 |x1 ) = p(y1 |x0 ) = p e, por conseguinte, p(y0 |x0 ) = p(y1 |x1 ) = 1 − p
teremos
T
C = 1 + p log(p) + (1 − p) log(1 − p) (3.74)
0.9
0.8
0.7
0.6
0.5
C
0.4
0.3
0.2
0.1
0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
p
D
Definição: Ritmo de Codificação seja então o ritmo de codificação r definido através do quoci-
ente
k
r= (3.75)
n
e que logicamente é inferior à unidade. Se aumentarmos o número de bit extra a enviar, faremos
com que o ritmo da codificação tenda para zero. Poderemos agora formular a seguinte pergunta:
existirá algum esquema de codificação de canal para o qual a probabilidade de um bit errado seja
menor do que um dado valor (positivo) ε, tão pequeno quanto se queira e, no entanto, o código
seja suficientemente eficiente, ou seja r não seja demasiado pequeno? A resposta a esta pergunta é
afirmativa e é dada pelo 2o teorema de Shannon.
T
T 17 : 2o Teorema de Shannon
Seja um alfabeto J de uma fonte discreta sem memória com entropia H(J ) e que produz
símbolos a cada Ts unidades de tempo. Seja ainda um canal discreto sem memória com capacidade
C usado cada Tc unidades de tempo. Então, existe uma codificação de canal para a qual a saída da
fonte pode ser transmitida pelo canal e reconstruída com uma probabilidade de erro arbitrariamente
pequena, desde que se verifique
H(J ) C
≤ (3.76)
Ts Tc
C
onde o quociente Tc é o ritmo crítico.
Infelizmente, este teorema não nos permite determinar qual o código de canal mas especifica
um limite teórico no débito de informação para uma comunicação fiável.
Ex
Exemplo Admitindo equiprobabilidade dos símbolos de uma fonte binária de mensagens, a equa-
ção (3.18) resulta em (mostre porquê)
1 C
≤ (3.77)
Ts Tc
e, de acordo com as premissas do teorema anterior, o ritmo de informação é T1s símbolos por segundo.
Por sua vez, o ritmo de transmissão no canal é T1c símbolos por segundo e, sendo a capacidade do
canal C imposta pela probabilidade de transição p, teremos que
r ≤C (3.78)
onde
Tc k
r= = (3.79)
Ts n
146 CAPÍTULO 3. SISTEMAS DE COMUNICAÇÃO EM BANDA DE BASE
Ex
Exemplo Seja um canal com uma dada probabilidade de transição p = 10−2 (o que corresponde
a um bit trocado em 100 bit enviados). Teremos, pela equação (3.74), que C = 0, 9192; então para
∀ε > 0 e r ≤ 0, 9192 haverá um código com n suficientemente grande e um dado ritmo r e ainda uma
descodificação apropriada tal que, quando se envia a informação no canal, a probabilidade média
do erro é inferior a ε. Suponha-se que a estratégia de codificação passa pela repetição de cada bit a
enviar e que, no receptor, se usa um sistema de decisão baseado na maioria de votos. Então, seja cada
bit transmitido através de um bloco de n bits, tal que33 n = 2m + 1 sendo m ∈ Z. A probabilidade de
erro vem dada por
n
n i
Pe = ∑ p (1 − p)n−i (3.80)
i=m+1 i
Assim, podemos ver que, se pretendermos uma probabilidade de erro de 10−5 ainda na hipó-
tese de se ter p = 10−2 , necessitaremos de um rimo de codificação de 51 = 0, 2 que é quase cinco
vezes menor do que a capacidade do canal34 . Se agora considerarmos que p = 0, 1, podemos ver na
tabela que seria necessário ter-se um eficiência r ainda mais baixa pois, nem com r = 1/11 se con-
segue o valor de Pe pretendido35 . Ou seja, embora apropriada, uma estratégia baseada na repetição
dos bits é, como se verifica, pouco eficiente.
33 Estamos, no fundo, a forçar a que n seja um inteiro ímpar o que garante sempre uma maioria no receptor para se
basear a decisão de qual o bit transmitido.
34 Uma probabilidade p = 10−3 (ou seja, o canal trocar um bit em cada 1.000) pode parecer muito baixa mas, por
0 0
10 10
−5 −5
10 10
−10 −10
10 10
−15 −15
10 10
−20 −20
10 10
−25 −25
10 10
−30 −30
10 10
0 2 4 6 8 10 0 0.2 0.4 0.6 0.8 1
m r
Figura 3.28: Probabilidade de erro em função do número m de repetições (à esqerda) e do ritmo no canal
1
r = n1 = 2·m+1 (à direita) para vários valores da probabilidade de transição p, sendo, de cima para baixo,
p = 0, 1, p = 0, 01 e p = 0, 001.
O envio dos sinais digitais em canais de banda limitada é um tópico das telecomunicações
que assume grande importância. O efeito da largura de banda limitada é melhor compreendido com
os exemplos seguintes onde se transmite sempre a mesma mensagem «11010010», figura 3.29
Em qualquer um dos casos se pode observar uma considerável distorção do sinal enviado, em
que os dois níveis de sinal (0 e 1) são modificados pelas características do canal. É certo que pode
ser argumentado que a mensagem (neste caso os sinais enviados) eram desadequados ao canal. O
que importa, neste momento, é verificar efectivamente que o sinal recebido após a sua transmissão
no canal pode ter poucas semelhanças com o sinal que lhe deu origem. Estas modificações poderão
originar, como consequência, o aparecimento de erros no receptor (trocas de «1» por «0» e vice-
versa). Importa, portanto, adequar os sinais a enviar para o canal às suas características que será o
tema que simplificadamente iremos abordar. Para podermos transmitir a informação ou as mensa-
gens, teremos que fazer corresponder aos valores lógicos «0» e «1» níveis de tensão ou corrente que
serão enviados no canal. Tal correspondência é efectuada mediante uma interface electrónica que
148 CAPÍTULO 3. SISTEMAS DE COMUNICAÇÃO EM BANDA DE BASE
0.5
0
0 2 4 6 8 10 12
4
x 10
1
0.5
−0.5
−1
0 2 4 6 8 10 12
4
x 10
1
0.5
−0.5
−1
0 2 4 6 8 10 12
4
x 10
Figura 3.29: Transmissão da mensagem binária «0110100010» (a azul) em diversos canais de banda limitada
(a vermelho); de cima para baixo: canal passa-baixo, canal passa-alto e canal passa-banda.
não importa estudar neste âmbito. Contudo, esta correspondência, do ponto de vista do sinal pode
assumir várias formas ao longo do tempo e que constituem os impulsos ou sinais de sinalização ou
ainda códigos de linha.
Seja, então T o tempo de duração de um bit, independentemente do seu valor lógico ser «0»
ou «1». O ritmo R de transmissão de dados é, naturalmente, o número de bits enviados na unidade
de tempo, que se obtém através de R = T1 [baud]36 . Os formatos de sinalização mais usuais são:
Unipolar
Polar
Formato de Sinalização
Bipolar
Manchester
sendo que os formatos unipolar e polar poderão ser ou não com retorno a zero. Na figura 3.30
exemplificam-se as formas de onda correspondentes a estes formatos de sinalização para a mensa-
gem do exemplo anterior, "11010010". Cada um dos formatos descritos acarreta diferentes suportes
na frequência o que, consequentemente, irá ter implicações quer no ritmo de transmissão, quer nos
requisitos a observar nos canais de transmissão. Vejamos então as respectivas densidades espectrais
de potência.
36 Baud ou bit/s.
3.4. CANAIS DISCRETOS SEM MEMÓRIA 149
Figura 3.30: Formatos de Sinalização, de cima para baixo: unipolar, unipolar com retorno a zero, polar,
polar com retorno a zero, bipolar e Manchester. Os tracejados sinalizam a duração do bit.
Seja p(t) o impulso de sinalização de um dado formato de transmissão binária. Este impulso
poderá ter representações analíticas distintas para os valores lógicos «0» e «1» mas consideremos
apenas um único sinal para representar este impulso de sinalização. Nestes considerandos, a mensa-
gem a enviar pode ser uma combinação de impulsos deslocados no tempo de sucessivos valores de
T e cujos pesos Ak são os valores lógicos da mensagem
No fundo, estes pesos Ak constituem uma variável aleatória que modelará a fonte discreta. A
colecção ou o conjunto das variáveis aleatórias X(t) constituirá, por sua vez, um processo estocástico
X . Recordando que a função densidade espectral de potência é (equação (2.112))
1
GX ( f ) , lim E{|X( f )|2 } (3.82)
T →∞ T
pode-se mostrar que, com recurso a alguma manipulação matemática, esta função densidade espec-
tral de potência virá dada por
T
|P( f )|2 +∞
GX ( f ) = ∑ RA (k)e− j2πk f T (3.83)
T k=−∞
em que, como de costume, RA (·) designa a função de autocorrelação que, no caso em apreço, resulta
de RA (k) = E{An An−k }; e onde P( f ) = TF[p(t)].
150 CAPÍTULO 3. SISTEMAS DE COMUNICAÇÃO EM BANDA DE BASE
A2
Unipolar GX ( f ) = 4 [δ ( f ) + T sinc( f T )]
Polar GX ( f ) = A2 T sinc2 ( f T )
(3.84)
2
Bipolar GX ( f ) = A2 T sinc ( f T ) sen2 (π fT)
Reparemos que, no caso dos impulsos unipolar e polar, existe uma componente contínua na
forma de onda a transmitir (como se depreende da figura 3.30), o que se confirma pelo facto de,
nestes casos, GX (0) 6= 0. Este facto significa que o canal de transmissão deverá apresentar um
ganho estático não-nulo para que se preserve ao máximo a forma de onda dos impulsos. Na figura
3.31 apresentam-se as respectivas densidades espectrais de potência, considerando que a amplitude
A dos impulsos de sinalização é unitária.
2.5
1.5
0.5
−0.5
−1.5 −1 −0.5 0 0.5 1 1.5
Figura 3.31: Densidades Espectrais de Potência para os impulsos de sinalização unipolar (vermelho), polar
(magenta), bipolar (azul) e Manchester (negro). Foram usados os seguintes parâmetros: duração do bit,
T = 3; amplitude A do impulso p(t), A = 1.
Reparemos ainda que a ocupação espectral do código de Manchester é dupla da ocupação dos
outros códigos, facto que se deve a haver, na unidade de tempo, o dobro das transições A → −A
(figura 3.30) e vice-versa ou seja, uma duração dos impulsos p(t) de T /2 instantes de tempo.
3.4. CANAIS DISCRETOS SEM MEMÓRIA 151
O problema que iremos tratar resume-se a determinar a que velocidade (ritmo) poderemos
enviar informação num dado canal. Necessitamos primeiramente das seguintes definições.
D
Definição: Ritmo de transmissão o ritmo de transmissão R é definido como sendo o número de
bits enviados na unidade de tempo (1 segundo).
D
Definição: Capacidade de um Canal de Comunicação define-se esta grandeza C como sendo o
ritmo máximo de envio ou transporte de informação. Se o ritmo de envio (real) de informação for
inferior à capacidade do canal, a comunicação efectuar-se-á sem erros ou com uma taxa de erros
diminuta.
S
onde N é o quociente das potências do sinal e do ruído (e não a relação sinal/ruído em dB).
Na figura 3.33 representa-se a capacidade do canal em função da relação sinal/ruído (em dB)
para vários valores da largura de banda B do canal em Hz; assim, se suposermos uma largura de
banda de 4 MHz e para uma S/N de 30 dB, teremos uma capacidade de 40 Mbit/s37
37 Note-seque do gráfico se retira C = 40 mas onde B = 1; ora como, efectivamente, B = 4 MHz logo há que afectar a
capacidade do factor multiplicativo 106 correspondente à largura de banda ser dada em MHz.
152 CAPÍTULO 3. SISTEMAS DE COMUNICAÇÃO EM BANDA DE BASE
200
C
180
B=10
160
140
B=8
120
100
80
60
B=4
40
B=2
20
B=1
0
0 10 20 30 40 50 60 S/N dB
Figura 3.33: Capacidade do canal em função da relação sinal/ruído em dB, para vários valores (assinalados)
da sua largura de banda. (ver texto)
Na equação (3.85), NS obtém-se a partir de PPNX sendo PN a potência do ruído (na ausência de
sinal) à saída do filtro caracterizado por uma função de resposta em frequência H( f ) e que resulta
de Z
PN = |H( f )|2 GW ( f )d f = ηB (3.86)
R
ou seja, o filtro passa-baixo é um filtro passa-baixo ideal. Assim, a equação (3.85) reescreve-se
como
T
PX
C = B · log2 (1 + ) (3.88)
ηB
Esta equação permite-nos verificar que, sendo possível, para uma dada variância do ruído,
é preferível aumentar a largura de banda do canal do que aumentar a potência das unidades de
informação para se ter uma maior capacidade de informação. A equação (3.88) coloca um limite
máximo ao ritmo de comunicação no canal com uma probabilidade de erro arbitrariamente pequena
mas desde que se utilizem sistemas de codificação suficientemente complexos.
Se considerarmos que a potência média para enviar uma unidade de informação (enviada ao
ritmo de R bit/s) é PB então, a partir da equação (3.88) teremos para a potência de transmissão
C C · PB PB 2C/B − 1
PX = C · PB −→ = log2 (1 + ) ←→ = C
(3.89)
B η ·B η B
3.4. CANAIS DISCRETOS SEM MEMÓRIA 153
que nos dá a densidade espectral de potência da energia por bit face ao ruído. Se representarmos
graficamente o quociente RB , que nos representa a eficiência espectral ρ = R/C, em função da relação
PX 38
η |dB (equação (3.89) ao centro) obteremos o diagrama da figura 3.34 .
Limiar da
capacidade
do canal
Limite de Shannon
-1,6 dB
• a linha a azul que representa a transmissão num canal ideal, ao ritmo máximo RB = C;
• a zona do plano acima da curva que corresponde a uma codificação sempre com erros em que
se transmite acima da capacidade do canal RB > C;
• a zona abaixo da curva, que corresponde a uma comunicação potencialmente isenta de erros,
transmitindo-se abaixo da capacidade do canal, RB < C;
• o limite de Shanon (SNR=-1, 6 dB) é obtido fazendo, na equação (3.89), uma eficiência es-
pectral unitária, CB = 139 .
Notas
• A equação (3.85) sugere que, para uma relação sinal/ruído infinita (ausência de ruído), a
capacidade do canal é efectivamente infinita, qualquer que seja a largura de banda B do canal.
38 Na realidade, esta figura é obtida calculando a relação sinal/ruído em função da eficiência ρ = R/B e depois efectu-
ando a troca dos eixos ordenados.
39 Ou seja, uma eficiência espectral ρ = C = 1. Contudo, PB resulta numa indeterminação que se levanta aplicando a
B η
d
PB dρ (2ρ −1) PB
regra de l’Hôpital/Cauchy: η = limρ→1 d
ρ
= limρ→1 ln(2) · 2ρ = 0, 693 ou seja η |dB = −1, 591 ≈ −1, 6 dB.
dρ
154 CAPÍTULO 3. SISTEMAS DE COMUNICAÇÃO EM BANDA DE BASE
PX
C∞ , lim C = 1, 44 · (3.90)
B→∞ η
Como anteriormente, estes pesos Ak constituem uma variável aleatória que modelará a fonte dis-
creta. A colecção ou o conjunto das variável aleatória X(t) constituirá, por sua vez, um processo
estocástico X . Ao enviarmos estes impulsos num canal de banda limitada (figura 3.29, em cima)
verificamos que parte da energia utilizada para transmitir o nível lógico «1» vai aparecer no inter-
valo destinado ao valor lógico «0». No entanto, se o impulso de sinalização recebido obedecesse à
condição
(
1 t =0
pR (t) = (3.92)
0 t = kT k = 1, 2, · · ·
Vejamos em que condições se pode comunicar sem IIS. Assim, vamos supor que a comu-
nicação se procede através de um canal do tipo passa-baixo, cuja largura de banda é B. Seja então
a condição a respeitar pelos impulsos de sinalização recebidos após a sua transmissão no canal,
equação (3.92). Esta equação não restringe a duração temporal destes impulsos, mas apenas impõe
que nos múltiplos dos instantes de amostragem (o período de amostragem é igual à duração do im-
pulso de sinalização), esses impulsos recebidos sejam nulos. Amostrando os impulsos de sinalização
referidos na equação (3.81), teremos
+∞ +∞
pa (t) = p(t) ∑ δ (t − kTa ) = ∑ p(kTa )δ (t − kTa ) (3.93)
k=−∞ k=−∞
sendo, como é sabido, fa = 1/Ta , tendo-se aplicado o resultado expresso na equação (1.57) e ainda
o facto de se ter ∀ε, ε0 ∈ R : Y (ε) ∗ δ (ε − ε0 ) = Y (ε − ε0 ). Por outro lado, aplicando agora a TF ao
lado direito da equação (3.94), teremos
1 +∞ +∞
Z
P( fa ) = ∑ P( f − k fa ) = [ ∑ p(kTa )δ (t − kTa )]e− j2π f t dt =
Ta k=−∞ k=−∞
R
+∞ Z +∞
= ∑ p(kTa ) δ (t − kTa )e− j2π f t dt = ∑ p(kTa )e− j2π f kTa (3.95)
k=−∞ k=−∞
R
Dado que o canal tem, por hipótese, largura de banda B, então os impulsos de sinalização
deverão ter igual largura de banda, ou seja,
T
1 l f
P( f ) = ( ) (3.97)
2B 2B
«aproveita-se» assim o canal até à sua máxima largura de banda. Por outro lado, a equação (3.96)
estabelece que a soma, para qualquer valor de frequência, dos espectros do impulso de sinalização
seja constante; o que só será possível se rT X = 2B que é um resultado em tudo semelhante ao do
teorema da amostragem!
156 CAPÍTULO 3. SISTEMAS DE COMUNICAÇÃO EM BANDA DE BASE
Em muitas situações práticas, são utilizados impulsos denominados cosseno-elevado (raised cosine)
que são definidos por
D
1
2B | f | < (1 − α)B
1
π
4B [1 + cos( 2αB (| f | − (1 − α)B)] (1 − α)B < | f | < (1 + α)B
P( f ) =
(3.100)
0 | f | > (1 − α)B
cos(2παBt)
p(t) = sinc(2Bt) · 1−4(2αBt)
2
onde o parâmetro α é o factor de decaimento (roll-off factor) e pode variar de 0 (que corresponde ao
impulso sinc) a 1 (correspondendo a um cosseno elevado de 0,25). Na figura 3.35 exemplificam-se o
espectros (em cima) e a forma de onda (em baixo) destes impulsos para vários valores de α. Quando
se utilizam estes impulsos, o ritmo máximo de transmissão será dado por
T
2B
rT X = (3.101)
1+α
Esta equação usa-se para, sabendo a largura de banda do canal, determinar qual o ritmo de trans-
missão; de forma equivalente, se for necessário transmitir ao ritmo de rT X , a largura de banda B
necessária do canal vem
T
40 Recordemos que esta função tende para zero com x.
3.5. INTERFERÊNCIA INTER-SIMBÓLICA 157
1
B = (1 + α) · rT X (3.102)
2
Em qualquer destas duas equações, recordemos que o ritmo de transmissão é o inverso da duração
do bit a transmitir, rT X = T1 .
0.4
0.3
P(f)
0.2
0.1
0
−2.5 −2 −1.5 −1 −0.5 0 0.5 1 1.5 2 2.5
f
0.8
0.6
0.4
p(t)
0.2
−0.2
−0.4
−2 −1.5 −1 −0.5 0 0.5 1 1.5 2
t
Figura 3.35: Impulsos de Sinalização Cosseno-Elevado para vários factores de decaimento α para B = 1,
sendo: α = 1 a preto, α = 0, 75 a azul, α = 0, 5 a magenta, α = 0, 25 a verde, α = 0 a ciano.
O envio de impulsos de sinalização por canais de banda limitada traduz-se, como se viu, no
«espalhamento» dos impulsos de sinalização no tempo. Para melhor visualizarmos esta questão,
suponha-se que se pretende o envio de símbolos binários por um canal de banda limitada mas ope-
rando dentro do ritmo de Nyquist (equação (3.101)) usando impulsos cosseno levado com factor de
decaimento α, figura 3.36. É importante atentar, nesta figura, ao seguinte:
• a amplitude dos impulsos filtrados varia de símbolo para símbolo (gráfico ao centro)
Se visualizarmos o sinal à saída do canal (suposto sem ruído) num osciloscópio, por exem-
plo, e se escolhermos uma base de tempo igual à duração do impulso de sinalização, obteremos,
158 CAPÍTULO 3. SISTEMAS DE COMUNICAÇÃO EM BANDA DE BASE
0
0 20 40 60 80 100 120 140 160 180 200
10
−5
0 20 40 60 80 100 120 140 160 180 200
10
−5
0 20 40 60 80 100 120 140 160 180 200
Figura 3.36: Envio de impulsos cosseno elevado com α = 0, 5 num canal de banda limitada; em cima:
sequência binária; ao centro: sinal à saída do canal, considerando ausência de ruído; em baixo: sinal à
saída do canal, considerando ruído branco gaussiano N(0, σ 2 = 0, 16).
por sobreposição de varrimentos sucessivos, uma figura semelhante à da figura 3.36.Esta figura ou
D
diagrama é o conhecido diagrama de olho. Na figura 3.38 apresenta-se o diagrama na situação
de ruído de canal correspondente à figura 3.36 em baixo; na parte direita desta figura, assinalam-se
alguns parâmetros de interesse.
Este diagrama permite-nos ainda identificar o tipo de fonte que, neste caso analisado foi bi-
nária. Na figura 3.39 apresentam-se os diagramas de olho para uma fonte ternária (esquerda e em
baixo) e quaternária (à direita e em baixo) correspondentes às respectivas sequências (gráficos em
cima); em ambos os casos, supôs-se um canal não-ruidoso.
3.5. INTERFERÊNCIA INTER-SIMBÓLICA 159
−1
−2
1 2 3 4 5 6 7
C
A
Figura 3.38: Diagrama de olho: A, intervalo de tempo adequado à amostragem do sinal; B, margem do sinal
relativamente ao ruído; C, variações (distorções) nas passagens por zero, resultantes do «jitter»; D, instante
óptimo de amostragem.
160 CAPÍTULO 3. SISTEMAS DE COMUNICAÇÃO EM BANDA DE BASE
1 1.2
0.8
0.6 1
0.4
0.8
0.2
0
0.6
−0.2
−0.4
0 10 20 30 40 50 60 70 80 90 100 0.4
0.2
1.5
0
1
0.5 −0.2
0 −0.4
−0.5 −0.6
0 10 20 30 40 50 60 70 80 90 100 1 2 3 4 5 6 7
1 1.5
0.5
1
0
−0.5
0.5
−1
0 10 20 30 40 50 60 70 80 90 100
0.5 −0.5
−0.5 −1
−1
−1.5 −1.5
0 10 20 30 40 50 60 70 80 90 100 1 2 3 4 5 6 7
Figura 3.39: Sinalização no canal (lado esquerdo) e diagramas de olho (metade direita); em cima, código
ternário e em baixo, código quaternário.
3.6. PROBLEMAS RESOLVIDOS 161
P. 1: Considere uma fonte discreta sem memória B que gera símbolos si com probabilidades de
ocorrência indicadas na tabela 3.17, bem como um dado código heurístico XPTO.
Determine a eficiência deste código XPTO e compare-a com a do código de Huffman indicado
na tabela 3.2, bem com a de um código uniforme.
Tabela 3.18: das características dos códigos utilizados para B sendo H(B) = 1, 885.
P. 2: Uma dada FDSM gera mensagens obtidas a partir de símbolos si com i = 1, · · · 9 cujas proba-
bilidades de ocorrência são indicadas na tabela 3.19.
Símbolo s1 s2 s3 s4 s5 s6 s7 s8 s9
Pr(·) 0,4 0,02 0,15 0,04 0,04 0,05 0,1 0,08 0,12
(b) Supondo uma codificação uniforme, qual o seu comprimento médio e respectivo rendi-
mento?
(d) Determine, para este código, o seu comprimento médio e respectivo rendimento.
Resolução
(a) Basta recordar a definição de entropia de uma fonte discreta sem memória,
N 9
H(B) = − ∑ pk · log2 (pk ) = − ∑ pk · log2 (pk ) = 2, 6306 bit/símbolo (3.103)
k=1 k=1
(b) O número de bit de cada mensagem, considerando um código uniforme, é dado por
log2 (#B), onde #B representa a cardinalidade do alfabeto da fonte B. Ora, neste caso,
teremos log2 (#B) = log2 (9) = 3, 1699 → L = 4. Assim sendo, a eficiência é dada por
H(B) 2, 6306
η= = 0, 658
L 9
Símbolo s1 s2 s3 s4 s5 s6 s7 s8 s9
Pr(·) 0,4 0,02 0,15 0,04 0,04 0,05 0,1 0,08 0,12
Codificação 0 10100 110 10101 11100 11101 1111 1011 100
lk 1 5 3 5 5 5 4 4 3
(d) Utilizando o resultado da tabela da alínea anterior, e sendo o comprimento médio dado
por
N
L= ∑ lk · pk
k=1
S
C = B · log2 (1 + ) (3.104)
N
e determinemos o limite da capacidade C do canal quando a sua largura de banda B tende para
infinito,
S
C∞ = lim B · log2 (1 + )
B→∞ N
e recordemos que, para um canal com ruído aditivo branco e gaussiano, a potência do ruído é
N = η · B. Assim,
S
C∞ = lim B · log2 (1 + )
B→∞ η ·B
S
e façamos a seguinte mudança de variável γ = η·B ; então, a equação anterior resulta em
S S log2 (1 + γ) S log2 (1 + γ)
C∞ = lim · log2 (1 + γ) = lim · = · lim
γ→0 η · γ γ→0 η γ η γ→0 γ
164 CAPÍTULO 3. SISTEMAS DE COMUNICAÇÃO EM BANDA DE BASE
P. 4: Considere a câmara de vídeo principal do veículo Curiosity, figura 3.41, que se encontra
actualmente em missão no planeta Marte. Segundo a NASA, esta câmara tem as seguintes
características: 1600x1200 píxeis, enviados a um ritmo máximo de 10 quadros por segundo.
Admita que o sinal resultante de cada píxel tem uma amplitude máxima de 5 V em 95% das
vezes e ainda que o seu valor médio é nulo. Sabendo que se pretende quantificar uniforme-
mente o sinal de cada píxel com uma relação sinal/ruído de quantificação igual ou superior a
50 dB, determine:
(a) o número de bit do conversor analógico-digital necessário para se ter este desempenho;
Resolução
(a) recordando a equação (3.32) que nos permite obter a relação sinal/ruído de quantifica-
ção, SNRQ = δ 2P/12
X
, verificamos que se torna necessário conhecer a potência do processo
estocástico que modela o sinal de vídeo de cada pixel, PX . Uma vez que a única infor-
mação disponível se prende com a probabilidade das amplitudes das funções amostra
deste processo não ultrapassarem o valor de 5 V com uma probabilidade de 0,95, iremos
utilizar a desigualdade de Chebyshev que nos permitirá obter o respectivo desvio padrão
1
Pr(|X − mX | ≥ kσX ) ≤ k2
→
1
Pr(|X − 0| ≥ kσX = 5) ≤ k2
= (1 − 0, 95) →
(3.105)
k= √1 = 4, 472 →
0,05
5
σX = k = 1, 118
Ora, na posse do desvio padrão, obtemos de imediato a variância, σX2 = 1, 25 que nos
permitirá, finalmente, obter a potência deste processo
PX
SNRQ |dB = 50 ↔ SNRQ = 105 = ( 2X 2 ↔
M ) /12
(3.107)
5 (2·5)2
M= ( 1012·1,25 )1/2 = 816, 5
(b) Assim, cada pixel vai ser convertido em 10 bit e a câmara tem 1600 × 1200 = 1, 92 · 106
pixéis que são enviados 10 vezes em cada segundo. Assim, o ritmo de transmissão será
de 1, 92 · 106 · 10 · 10 bit/s. Na prática, este ritmo de transmissão é bastante elevado, pelo
teremos que utilizar algoritmos de compressão de dados.
P. 5: Uma comunicação digital tem uma largura de banda para o sinal de fala de 3,3 kHz que é
digitalizado ao ritmo de 8.000 amostras por segundo. Supondo que se utilizam conversores
analógico-digital e digital-analógico com retenção de ordem zero das amostras, determine
qual a atenuação máxima no extremo da banda de áudio relativamente às baixas frequências.
H( f ) = Ta · e− jπ f Ta sinc( f Ta ) →
estação de controlo remoto. Estes sinais são analógicos, têm uma largura de banda de 1,5 kHz
e irão ser digitalizados a 1,25 vezes o ritmo de Nyquist e com um erro que se pretende inferior
a 0,5% da sua amplitude máxima. Determine a largura de banda mínima do canal, sabendo
que se utilizam impulsos cosseno-elevado com factor de decaimento de 0,25.
P. 7: Seja um canal de 8 kHz de largura de banda afectado por ruído branco gaussiano quja densi-
dade espectral de potência η/2 é de 10−12 W/Hz. Sabendo que a potência no receptor deve
ser de 200 µW, determine a capacidade do canal.
P. 8: Seja uma fonte de sinal de 8 kHz de largura de banda que é amostrada a 1, 5 vezes o ritmo
de Nyquist, sendo as amostras quantificadas a 10 bit por amostra (admita que as amostras são
estatisticamente independentes entre si).
(b) É possível transmitir sem erros estes dados num canal de 30 kHz de largura de banda e
com uma relação sinal/ruído de 30 dB? Justifique.
3.6. PROBLEMAS RESOLVIDOS 167
Resolução
(a) Uma vez que a largura de banda da fonte é de 8 kHz, o ritmo de Nyquist é, como se sabe,
de 16 kHz. Como se amostra a 1,5× este ritmo, teremos que o ritmo de dados vem
(b) Para saber se é possível transmitir sem erros estes dados num canal de 30 kHz de largura
de banda e com uma relação sinal/ruído de 30 dB, vamos determinar a capacidade C
deste canal. Se esta for inferior ao ritmo dos dados, então será possível a transmissão
sem erros.
S
C = B · log2 (1 + ) = 30 · 103 · log2 (1 + 103 ) = 299 · 103 bit/s
N
168 CAPÍTULO 3. SISTEMAS DE COMUNICAÇÃO EM BANDA DE BASE
Capítulo 4
INTRODUÇÃO À TEORIA DA
DETECÇÃO E À COMUNICAÇÃO
DIGITAL
Comecemos por estabelecer uma representação geométrica de sinais, pelo que usaremos uma
representação de um conjunto de M de sinais de energia através de uma combinação de N funções
de base (ortonormada), sendo N ≤ M.
169
170CAPÍTULO 4. INTRODUÇÃO À TEORIA DA DETECÇÃO E À COMUNICAÇÃO DIGITAL
Transmissor
Sejam, então:
D
• um dado alfabeto de símbolos digitais de dimensão M;
• uma fonte digital sem memória que gera símbolos mi , i = 0, 1, · · · , M − 1 com probabili-
dade pi = Pr(mi ) a um ritmo r = 1/T bit/s, sendo T a duração de um bit;
• a cada símbolo mi , faz-se corresponder um vector si = [si1 , si2 , · · · , siN ]T , sendo N ≤ M tal
que s = {si , i = 0, 1, · · · , M − 1};
• estes símbolos vão ser enviados pelo canal através de impulsos de sinalização1 si (t), i =
0, 1, · · · , N − 1;
Banco de Correladores
Por sua vez, a partir destes coeficientes poderemos reconstruir os impulsos de sinalização
através da combinação linear
T
1 Estes impulsos são sinais de energia pois a sua duração é finita (T unidades de tempo).
4.1. MODELO DE SISTEMA DE COMUNICAÇÃO DIGITAL 171
N−1
∀i = 0, 1, · · · , M − 1 si (t) = ∑ si j φ j (t) (4.3)
j=0
Assim, a equação (4.2) corresponde à equação de análise dos impulsos de sinalização e que
representamos na figura 4.2 (à esquerda); enquanto que a equação (4.3) corresponde à equação de
síntese e que se apresenta no lado direito da mesma figura. Cada ramo do lado esquerdo da figura
4.2, correspondendo a uma multiplicação por uma componente da base do espaço de sinais, seguida
da sua integração temporal, é denominado de correlador, pelo que o sistema de análise consiste num
banco de correladores.
Figura 4.2: Análise de Sinais por banco de correladores (à esquerda) e Síntese (à direita).
que não são mais do que a sua projecção nas componentes da base.
D
Definição: Constelação de Sinais diz-se do conjunto de M vectores si , i = 0, 1, · · · , M − 1
definido no plano das funções de base Φ.
D
Definição: Espaço de Sinais diz-se do correspondente conjunto de sinais ou formas de onda
moduladas {si (t) = ∑N−1
k=0 sik · φk (t), i = 0, 1, · · · , M − 1}.
é denominado vector de sinal, definido num espaço Euclidiano N-dimensional, onde os eixos deste
espaço são as componentes φi , i = 0, 1, · · · , N − 1. Dado que estamos em presença de um espaço
euclidiano, podemos obter a norma dos seus vectores de sinal si
T
√
k si k, ≺ si , si (4.5)
172CAPÍTULO 4. INTRODUÇÃO À TEORIA DA DETECÇÃO E À COMUNICAÇÃO DIGITAL
ou seja, a norma de um vector é, como é sabido, a raiz quadrada do seu produto interno por si
próprio.
N−1
= ∑ s2i j (4.7)
j=0
pois, como se viu, as componentes da base do espaço de sinais são ortogonais (equação (4.1))
anulando o integral 0T φ j (t)φk (t)]dt para todos os i 6= k. Finalmente, identificando o resultado da
R
equação (4.7) com a definição de norma (equação (4.5) de um vector, teremos que a energia dos
impulsos de sinalização não é mais do que
T
Ei =k si k2 (4.8)
Estas equações encerram uma propriedade importante que é o facto de a energia dos impulsos
ser invariante à escolha das funções de base φi 2 .
Dado que os impulsos de sinalização são vectores no espaço N-dimensional, podemos deter-
minar a distância (euclidiana) entre eles,
T
N−1 Z T
2 2
k si − sk k = ∑ [si j − sk j ] = [si (t) − sk (t)]2 dt (4.9)
j=0 0
Ex
Exemplo 1 Consideremos os sinais de uma base ortonormada φ1 (t) e φ2 (t) que se apresentam na
figura 4.3. Esta base corresponde à codificação de Manchester, como se viu anteriormente.
Com estas duas funções de base podemos com facilidade gerar quatro impulsos de sinalização,
recurrendo à equação (4.3), fazendo s11 = 1, s12 = 1, s21 = 1, s22 = −1, s31 = −1, s32 = 1, s41 = −1
e s42 = −1,
s1 (t) 1 1
" #
→
−s (t) = s2 (t) 1 −1
· φ 1 (t)
s (t) = −1 (4.11)
3 1 φ2 (t)
s4 (t) −1 −1
4.1. MODELO DE SISTEMA DE COMUNICAÇÃO DIGITAL 173
φ1 (t) φ2 (t)
2 /T 2 /T
T/2 T t T/2 T t
s1 (t) s2 (t)
2 /T 2 /T
T
T/2 T t T/2 t
- 2 /T
s3 (t) s4 (t)
2 /T
T
T/2 T t T/2 t
- 2 /T - 2 /T
e que resultam nos impulsos representados na figura 4.4, correspondendo-lhes, no plano da base do
espaço assim definido uma «constelação» que se assinala na figura 4.5.
Podemos «aproveitar» cada um destes pontos da constelação para lhes fazer corresponder
pares de bit, por exemplo
s1 ↔ 00
s2 ↔ 01
s3 ↔ 11
s4 ↔ 10
Ex
√
Exemplo 2: QPSK ou 4-PSK Consideremos agora os sinais φ1 (t) = 2 cos(2π fc t) e φ2 (t) =
√
2 sen(2π fc t) para ∀t : t ∈ [0, 1[, sendo fc 1, que formam uma base ortonormada.
2 Obviamente que estamos a considerar que a energia destas componentes é unitária.
174CAPÍTULO 4. INTRODUÇÃO À TEORIA DA DETECÇÃO E À COMUNICAÇÃO DIGITAL
φ2 (t)
s3 (t) s1 (t)
φ1 (t)
s4 (t) s2 (t)
À semelhança do exemplo anterior, com estas duas funções de base podemos com facilidade
gerar quatro impulsos de sinalização, recurrendo novamente à equação (4.3), fazendo como anteri-
ormente s11 = 1, s12 = 1, s21 = 1, s22 = −1, s31 = −1, s32 = 1, s41 = −1 e s42 = −1,
s1 (t) 1 1
" #
−s (t) = √2 ·
→ s2 (t) 1 −1
· cos(2π f c t)
s (t) = −1 (4.12)
3 1
sen(2π fc t)
s4 (t) −1 −1
e que resultam nos impulsos representados na figura 4.6, correspondendo-lhes a «constelação» assi-
nalada na figura 4.7.
No canal, o sinal vai ser contaminado por ruído w(t) e sobre o qual se admitem as seguintes
hipóteses: o ruído é aditivo, é branco (densidade espectral de potência constante) e as suas amostras
são normalmente distribuídas. Assim, o sinal à saída do canal de transmissão (entrada do receptor)
vem dado por
∀t ∈ [0, T [, i = 0, 1, · · · , M − 1 X(t) = si (t) +W (t) (4.13)
3 Embora não seja evidente, este procedimento ao ser usado numa comunicação série leva a criar-se alguma latência;
efectivamente, só após se coleccionarem log2 (M) bit, se pode proceder à sua codificação.
4.1. MODELO DE SISTEMA DE COMUNICAÇÃO DIGITAL 175
2 2
1 1
s1(t)
s2(t)
0 0
−1 −1
−2 −2
0 0.2 0.4 0.6 0.8 1 0 0.2 0.4 0.6 0.8 1
t t
2 2
1 1
s3(t)
0 s4(t) 0
−1 −1
−2 −2
0 0.2 0.4 0.6 0.8 1 0 0.2 0.4 0.6 0.8 1
t t
Figura 4.6: Impulsos de sinalização, a cor azul; as funções da base estão assinaladas a cor verde e a
vermelho, respectivamente, φ1 (t) e φ1 (t).
onde W (t) é suposto ser de média nula e autocorrelação RW (τ) = η2 δ (τ) ⇔ GW ( f ) = η2 . É a partir
deste sinal que, no receptor, se terá de decidir sobre o símbolo transmitido e esta decisão pode
envolver, como veremos, vários critérios.
Comecemos então por ver qual a resposta do banco de correladores ao ruído de canal. Assim,
determinar wk , ou seja, a saída índice k do banco de correladores ao ruído branco gaussiano passa,
claramente, por obter a projecção do ruído pela componente k da base do espaço de sinais definido,
T
Z T
wk =≺ w, φk = w(t) · φk (t)dt (4.14)
0
φ2 (t)
x3 (t) x1 (t)
φ1 (t)
x4 (t) x2 (t)
Figura 4.7: Constelação ou representação da modulação digital QPSK no espaço de sinais (no texto, xi (t) =
si (t)).
φ2 (t)
2
1.5
x3 (t) x1 (t)
1
0.5
0
φ1 (t)
−0.5
−1
x4 (t) x2 (t)
−1.5
−2
−2 −1.5 −1 −0.5 0 0.5 1 1.5 2
Figura 4.8: Constelação da modulação digital QPSK no espaço de sinais do receptor após ruído gaussiano
no canal, xi (t) = si (t) +W (t).
RT RT
= E{ 0 0 w(t) · φk (t) · w(ε) · φl (ε)dtdε} =
RT RT
= 0 0 E{w(t) · w(ε)} · φk (t) · φl (ε)dtdε =
RT RT η (4.15)
= 0 0 2 δ (t − ε) · φk (t) · φl (ε)dtdε =
RT RT
= 0 φl (ε) 0 δ (t − ε) · φk (t)dtdε =
(
η RT η 1 k=l
= 2 0 φl (ε) · φk (ε)dε = 2 ·
0 k 6= l
4.2. DETECTOR DE MÁXIMA VEROSIMILHANÇA 177
Assim, e uma vez que a saída do banco de correladores é constituída por todos os wk com
k = 0, 1, · · · , N − 1, então o vector das componentes do ruído à saída do banco de correladores é
→
−
w = [w0 , w1 , · · · , wN−1 ]T .
que o resultado expresso na equação (4.15) permite-nos, de imediato, obter a matriz de covariância
do vector de ruído à saída do banco de correladores,
T
1 0 ··· 0
→
− →
− T η 0 1 · · · 0 η
CW = E{ w · w } = · = IN (4.16)
2 ··· ··· ··· 0
2
0 0 ··· 1
Este detector também é conhecido por observador ideal e pode-se mostrar que tem um de-
sempenho equivalente aos detectores MAP7 (Das et al. , 1986). Comecemos com uma importante
definição: verosimilhança.
D
Definição: Verosimilhança como sendo a função densidade de probabilidade condicionada
p0 = Pr(ocorrer 0)
p1 = Pr(ocorrer 1)
Do lado do receptor, figura 4.9, e observado um sinal x(t) recebido põe-se a questão de saber qual o
símbolo da mensagem que efectivamente se transmitiu.
CANAL
ído
Receptor Ru
Descodificador símbolos
Mensagens Vectorial Desmodulador
mi { xi }
Consideremos, por exemplo, x(t) = sk + wk (t) como uma função amostra do processo X (t)
que modela a resposta do canal índice k à transmissão dos impulsos de sinalização nesse canal
que se supõe linear e invariante no tempo, com ruído aditivo de média nula e variância conhecida.
Então, como a saída do banco de correladores conta com N funções amostra, ao caracterizarmos a
variável aleatória xk a que corresponde a função amostra x(t) = sk + wk (t) acima referida, estaremos
a caracterizar o processo estocástico que modela a saída do banco de correladores.
pois, por hipótese, o ruído é de média nula; por outro lado, a sua variância virá
η
σx2k = E{(xk − mxk )2 } = E{(wk )2 } = (4.22)
2
Este resultado é muito importante, pois mostra que a componente k à saída do banco de cor-
reladores é uma variável aleatória normalmente distribuída de média sk (equação (4.21)) e variância
4.2. DETECTOR DE MÁXIMA VEROSIMILHANÇA 179
η
2 (equação (4.22)), ou seja, xk ∼ N(sk , η2 ) e, por conseguinte, a variável aleatória N-dimensional X
é normalmente distribuída
X ∼ N(→ −s , η I )
N (4.23)
2
onde IN é, como anteriormente, a matriz identidade [N × N]. Posto o que poderemos obter de se-
guida a função densidade de probabilidade dos processos correspondentes às hipóteses formuladas
aquando da equação (4.20)
x −→
k→
− −s k2
(→ − 0
fX|H0 x ) = (ηπ)−N/2 · e− η
− →
→ −
k x − s 1k 2
fX|H1 (→
−
x ) = (ηπ)−N/2 · e− η (4.24)
onde k →
−z k é a norma do vector N-dimensional →
−z que, como se sabe, vem dada por
N−1
k→
−z k= [
∑ z2k ]1/2 (4.25)
k=0
Defina-se agora uma função de custo que atribui a cada acontecimento um peso ou custo que,
D
consoante os casos, favoreça ou penalize as decisões certas ou as erradas, respectivamente. Ora,
neste problema há 4 casos possíveis
Reparemos que os dois primeiros acontecimentos de (4.27) correspondem a acertos, enquanto que
os dois últimos correspondem a decisões erradas. Então deveremos penalizar estes dois últimos e
favorecer (ou, pelo menos, não penalizar) os dois primeiros.
sujeitas, naturalmente, a p0 + p1 = 1.
180CAPÍTULO 4. INTRODUÇÃO À TEORIA DA DETECÇÃO E À COMUNICAÇÃO DIGITAL
onde p = p0 . Este resultado expresso na equação (4.30) não é mais do que a probabilidade de erro,
ou seja, Z Z
Pe = (1 − p) fX|H1 (→
−
x )d→
−x + p fX|H0 (→−x )d→
−x (4.31)
S0 S1
Mas, recordando que o espaço de amostras resulta da união dos dois sub-espaços das partições S0 e
S1 Z Z Z
fX|H0 ( x )d x = 1 ⇒ fX|H0 ( x )d x = 1 − fX|H0 (→
→
− →
− →
− →
− −
x )d→
−
x (4.32)
S0 ∪S1 S1 S0
fX|H1 (→
− x + p − p fX|H0 (→
x )d→
− −
x )d→
−
R R
Pe = (1 − p) x =
S0 S0
(4.33)
= p + [(1 − p) · fX|H1 (→
−
x ) − p · fX|H0 (→
−
x )]d→
−
R
x
S0
Uma vez que p é um valor fixo, minimizar a probabilidade de erro Pe da equação (4.33) é equivalente
a minimizar [(1 − p) · fX|H1 (→
−
x ) − p · fX|H0 (→
−
x )], o que se traduz na seguinte regra de decisão
D
fX|H1 (→
−
x ) H1 p
≷ (4.34)
fX|H0 (→
−
x ) H0 1 − p
onde λ (x) é a razão de verosimilhança (likelihood ratio) e γ o limiar de decisão. Por outro lado, note-
se que a equação λ (x) = γ representa a fronteira entre as regiões de decisão S0 e S1 . Desenvolvendo
a equação (4.34), usando a equação (4.24) e aplicando logaritmos, resulta finalmente em
T
H1 p
x −→
k→
− −s k2 − k →
1 x −→
− −s k2
0 ≶ −η · ln (4.36)
H0 1− p
p
Na figura 4.10 representa-se o factor ln[ 1−p ] em função de p e que afecta o limiar de decisão na
equação (4.36).
Supondo equiprobabilidade dos símbolos da fonte binária, a equação anterior, equação (4.36)
resume-se a
T
k→−x −→ −s k2 H ≶ k→
1
−x −→−s k2 (4.37)
1 0
H0
−2
−4
−6
−8
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
p
Equação esta que traduz de forma óptima8 um resultado intuitivo que corresponde, tão simples-
mente, a escolher o símbolo em função da proximidade da observação x ao afixo do vector →
−s .
Recordemos que este resultado a que se chegou é apenas válido sse o ruído for gaussiano de
média nula e os símbolos «0» e «1» forem equiprováveis. Abordaremos mais adiante o caso em que
as energias dos impulsos de sinalização são, por hipótese, idênticas.
Este resultado apresenta uma dificuldade que se prende, simultaneamente, com as função densidade
de probabilidade fX|Hi (→
−
x ) e com as regiões de decisão Si , pelo que só em casos simples poderemos
determinar esta probabilidade de erro de uma forma fechada. Assim, apresentaremos em seguida
alguns casos de bastante interesse para as telecomunicações.
Sejam os sinais apresentados na figura 4.11, dois sinais com duração T e energia unitária
que, como facilmente se verifica, são dois sinais ortogonais.
8É uma forma óptima pois resulta da aplicação de um critério de máxima verosimilhança ou de mínima probabilidade
de erro.
182CAPÍTULO 4. INTRODUÇÃO À TEORIA DA DETECÇÃO E À COMUNICAÇÃO DIGITAL
Assim, usemos estes dois sinais como base ortonormada Φ = [φ0 , φ1 ]T . Na posse desta
√
base, podemos gerar os sinais sk (t) = E · φk (t), com energia E e que utilizaremos para sinalizar as
diversas mensagens de uma dada fonte binária. Neste caso, as regras de decisão anteriores, equações
(4.36) ou (4.38), resumem-se a
T
H1
≺ x, s1 =≺ x, φ1 = x1 ≷ ≺ x, s0 =≺ x, φ0 = x0 (4.40)
H0
e que corresponde a um receptor se pode obter através, por exemplo, a partir do sistema representado
pelo diagrama de blocos da figura 4.12. A região fronteira às regiões de decisão S0 e S1 é definida
por x0 = x1 a que, naturalmente corresponde uma recta no plano do espaço de amostras (figura 4.13,
√ √
à esquerda) e onde d = 2E, pois sendo sk = E, basta aplicar o teorema de Pitágoras para se obter
a distância d entre s0 e s1 .
Vejamos como resulta o integral da equação (4.39), referente à probabilidade de erro Pe . Neste caso,
e tendo em conta que a função densidade de probabilidade apresenta uma simetria circular9 em torno
do valor médio do impulso de sinalização (equação (4.23) e figura 4.13 ao centro) e, atendendo ao
9 Apresenta simetria circular, porque o expoente da exponencial contém a forma quadrática k x − sk k2 , com k = 0, 1,
que se traduz num valor idêntico para todos os vectores x(t) à volta de sk .
4.2. DETECTOR DE MÁXIMA VEROSIMILHANÇA 183
q0
S0 x0 = x1 S0
x0 = x1
s0 s0
S
1
0
S
E S1 d S1
q1
s0
s1 s1
s1
d
E
facto de que a probabilidade de erro é invariante quer à rotação quer à translacção do sinal (e por
consequência, a função densidade de probabilidade também o é), consideremos o novo referencial
assinalado na figura 4.13 à direita, e que nos vai permitir o cálculo da probabilidade de erro de uma
forma mais expedita,
M−1 Z
Pe = 1 − ∑ pi fX|Hi (→
−
x )d→
−
x =
i=0
Si
1 1
Z Z
= 1− fX|H0 (→
−
x )d→
−
x − fX|H1 (→
−
x )d→
−
x =
2 2
S0 S1
Z∞ Z0
1
Z
fX|H0 (→
−
x )d→
− 2 2
= 1− x = 1− · e−[(q1 +d/2) +q0 ]/η dq1 dq0 =
ηπ
S0 −∞ −∞
Z∞ Z0
1 2 1 2
= 1 − √ e−q0 /η dq0 · √ · e−(q1 +d/2) /η dq1 =
ηπ ηπ
−∞ −∞
| {z }
=1
Z0 √
1 2
= 1− √ · e−(q1 +d/2) /η dq1 ∴ d= 2E (4.41)
ηπ
−∞
√d √d
2 η) √ 2 η)
1 d 1
Z Z
η −ν 2 2
ν = √ (q1 + ) −→ √ e dν = √ e−ν dν (4.42)
η 2 ηπ π
−∞ −∞
e, relembrando que
Z A
1 1 1
Z ∞ Z ∞
2 2 2
√ e−ν dν = 1 = √ e−ν dν + √ e−ν dν = 1 (4.43)
−∞ π −∞ π A π
d
√
R0 2
2 2
2
√1 e(q1 −d/2) /η dq1 √1 √1 e−ν dν
R
Pe = 1 − ηπ = 1− π ηπ =
−∞ −∞
(4.44)
R∞ −ν 2
= √1π e dν = 12 erfc 2√d η
d √
2 2
D
Definição: Função do Erro Complementar como sendo
Z+∞
2 2
∀υ > 0 : erfc (υ) , √ e−ε dε (4.45)
π
υ
Não há uma forma fechada para o integral da função erfc(υ) da equação (4.45) pelo que esta
se encontra tabelada10 em função do parâmetro υ. A função do erro complementar erfc(υ) pode ser
expressa em termos da função Q(·) que se define
D
Z +∞
1 ε2
Q(υ) , √ e− 2 dε (4.46)
2π υ
através da relação
√
erfc(υ) = 2 Q 2υ (4.47)
Claramente que a ortogonalidade dos sinais não é mais verificada11 ; então, trata-se de um
de dimensão unitária, sendo φ (t) a função de base, de energia unitária, φ (t) =
espaço de sinais q
q
E d t−T /2
T ( T ) = T1 s0 (t). Neste caso, e usando a regra de decisão da equação (4.38), teremos
T
√
≺ x(t), s1 (t) = − E ≺ x, φ (t) =
H1
= −x ≷ x= (4.49)
H0
√
= E ≺ x(t), φ (t) = ≺ x(t), s0 (t)
O leitor facilmente verificará que os impulsos em causa não são mais do que os utilizados na
sinalização polar sem retorno a zero, conforme indicado na figura 3.30.
1 (ε−si )2
∀i = 0, 1 : fX|Hi (ε) = √ e− η (4.51)
πη
e que se representam na figura 4.15. A probabilidade de erro, a partir da equação (4.39), virá agora
dada por Z
Pe = 1 − fX|Z1 (ε)dε (4.52)
Z1
e que corresponde à área assinalada a sombreado amarelo na figura 4.15. Esta probabilidade virá,
desenvolvendo a partir das equações (4.52), (4.53) e (4.51)
T
Z+∞ 2 Z0 2
1 − (ε−d/2) 1 − (ε+d/2)
Pe = 1 − √ e η (ε)dε = 1 − √ e η (ε)dε (4.54)
πη πη
0 −∞
186CAPÍTULO 4. INTRODUÇÃO À TEORIA DA DETECÇÃO E À COMUNICAÇÃO DIGITAL
0.35
0.3
0.25
0.2
0.15
0.1
0.05
0
−6 −4 −2 0 2 4 6
− E E
d
√
onde d = 2 E é a distância entre os dois sinais de sinalização.
Então, e de acordo com a definição de função do erro complementar, equação (4.45), a pro-
babilidade de erro vem agora
T s ! s !
1 E 2E
Pe = erfc =Q (4.55)
2 η η
Este resultado é, de certo modo intuitivo porque: por um lado, sendo a função complementar
de erro uma função monotónica decrescente, com o aumento do seu argumento a equação (4.55) re-
sulta numa probabilidade de erro menor do que a traduzida pela equação (4.48); e por outro, sendo a
distância d entre os impulsos antipodais maior do que a distância entre os impulsos ortogonais, seria
de esperar que o erro de detecção viesse menor, o que se verifica e confirma agora analìticamente.
4.3.1 C ORRELADOR
Atentemos num dos ramos da figura 4.2 e que, por facilidade de exposição, se representa
novamente na figura 4.16. O sinal de saída do filtro correlador é, no instante t = T ,
Z T
y(T ) = y(t)|t=T = r(t) · sk (t)dt (4.56)
0
Esta equação é de extrema importância pois, como veremos de seguida, é equivalente à resposta do
filtro adaptado.
4.3. DETECÇÃO ÓPTIMA 187
Dado que, como sabemos, se tem na saída de um canal de comunicação os impulsos de sina-
lização corrompidos por ruído, x(t) = sk (t) + wk (t), seria interessante ter um filtro que maximizasse,
no(s) instante(s) de decisão (ou seja quando t = kT onde T é, como habitualmente, a duração do
intervalo de sinalização), a energia do sinal recebido face à do ruído, «adaptando-se» assim ao im-
pulso de sinalização, pois o ruído tem uma potência que se supõe constante. Trata-se, portanto, de
maximizar a relação sinal/ruído à saída do filtro «adaptado», pelo que teremos de determinar qual a
sua função de transferência ou, de forma equivalente, a sua resposta impulsiva.
Formulemos então o problema, onde y(t) é o sinal de saída do filtro adaptado de resposta
impulsiva h(t) ao impulso de sinalização sk (t)
onde se supôs que w(t) é uma função amostra do processo de ruído W (t), pelo que y(t) também
pode ser encarado como uma função amostra do processo de saída Y (t)
Nesta equação, N(t) é o processo do ruído obtido por filtragem no filtro adaptado do ruído na sua
entrada; assim, seja n(t) uma função amostra deste processo de ruído N(t). Consideremos que a
densidade espectral de potência do processo de ruído é, como habitualmente, GW ( f ) = η/2, pelo
que a densidade espectral de potência do processo de ruído à saída do filtro vem, como se viu
anteriormente (ver equação (2.118))
η
GN ( f ) = |H( f )|2 · GW ( f ) = |H( f )|2 (4.59)
2
Assim, trata-se de determinar H( f ) ou h(t) de modo a que a relação sinal/ruído venha maximizada
nos instantes de amostragem, t = T
sendo que a igualdade na equação (4.61) é obtida quando a função de resposta em frequência do
filtro adaptado verifica a condição
T
Hadaptado ( f ) = K · Sk∗ ( f )e− j2π f T (4.62)
De facto
j2π f t d f | 2
R
| R H( f ) · Sk ( f )e t=T | =
∗
( f ) · S ( f ) e− j2π f T e j2π f t |t=T d f |2
R
= K| RS =
| k {z k } | {z } (4.63)
=|S( f )|2 =1
= K2| 2 2 = K2| 2 2
R R R
R |Sk ( f )| d f | R |Sk ( f )| d f | · | R |Sk ( f )| d f |
que facilmente se identifica com o termo da direita da equação (4.61)
Z Z Z Z
2 j2π f t 2 2 2
|H( f )| d f · |Sk ( f )e | d f |t=T = K |Sk ( f )| d f · |Sk ( f )|2 d f (4.64)
R R R R
Assim sendo, e substituindo a equação (4.62) na equação (4.60) teremos que a relação si-
nal/ruído vem
T
j2π f t d f | 2 K2| 2 2
R R
| R H( f ) · Sk ( f )e t=T | R |Sk ( f )| d f |
SNRH = +∞
= +∞
=
R η η 2 R
2 |Sk ( f )|2 d f
2 |H( f )| d f 2 K
−∞ −∞
2
R
R |Sk ( f )| d f
= η (4.65)
2
que não é mais do que a energia do impulso de sinalização dividida pela potência do ruído e, como se
verifica, independente do ganho K do filtro adaptado; pelo que, se considera ser K = 1 sem qualquer
prejuízo ou perda de generalidade. Ora, a condição expressa na equação (4.62) é, pela transformação
inversa de Fourier
T
hadaptado (t) = TF−1 [Hadaptado ( f )] = sk (T − t) (4.66)
que corresponde a afirmar que a resposta impulsiva do filtro adaptado não é mais do que o próprio
impulso de sinalização correspondente, mas atrasado da sua duração T e invertido no tempo.
e que identificamos como sendo a saída do correlador índice k do banco de correladores, equações
(4.2) e (4.3), no instante de tempo t = T .
4.3. DETECÇÃO ÓPTIMA 189
Os resultados anteriores são agora aplicados a diversas situações de sinalização em banda de base
e à modulação de portadoras sinusoidais para o envio de dados binários. É fácil identificar os dois
primeiros casos, pois já foram apresentados neste capítulo. Nas figuras 4.17 e 4.18 apresentam-se
as sinalizações correspondentes à sequência «0011001» e que serão, de seguidas, analisadas.
0.5
0
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5
4
x 10
1
0.5
−0.5
−1
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5
4
x 10
1
0.5
−0.5
−1
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5
4
x 10
Figura 4.17: Sequência 0011001 utilizando sinalização unipolar (cima), Polar (centro) e ASK (baixo), con-
siderando A = 1.
A2 T
tendo uma energia média por bit de Eb = 2 . Estes impulsos podem ser encarados como sendo
obtidos a partir da função de base
l t − T /2
φs (t) = ( )
T
aplicando os «pesos» s0 = 0 e s1 = A.
0.5
0
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5
4
x 10
1
0.5
−0.5
−1
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5
4
x 10
1
0.5
−0.5
−1
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5
4
x 10
Figura 4.18: Sequência «0011001» utilizando sinalização unipolar (cima), PSK (centro) e FSK (baixo),
considerando A = 1.
tendo uma energia média por bit de Eb = A2 T . Estes impulsos podem ser encarados como sendo
obtidos a partir da função de base
l t − T /2
φs (t) = ( )
T
aplicando os «pesos» s0 = −A e s1 = A.
A2 T
sendo T um múltiplo inteiro de 1/ f1 e tendo uma energia média por bit de Eb = 4 . Estes impulsos
podem ser encarados como sendo obtidos a partir da função de base
l t − T /2
φs (t) = ( ) cos(2π f1t)
T
aplicando os «pesos» s0 = 0 e s1 = A.
A2 T
sendo T um múltiplo inteiro de 1/ f1 e tendo uma energia média por bit de Eb = 2 . Estes impulsos
podem ser encarados como sendo obtidos a partir da função de base
l t − T /2
φs (t) = ( ) cos(2π f1t)
T
aplicando os «pesos» s0 = −A e s1 = A.
A2 T
sendo 2π f1 T 1, 2π f1 T 1 e 2π| f1 − f2 |T 1 e tendo uma energia média por bit de Eb = 2 .
Estes impulsos podem ser encarados como sendo obtidos a partir das funções de base
aplicando os «pesos»
s00 = A s01 = 0
s10 = 0 s11 = A
.
No problema P. 8: deste capítulo faz-se um breve estudo comparativo das sinalizações bipolar,
ASK e FSK no que respeita às amplitudes dos impulsos (no fundo, a respectiva energia) para um
canal com as mesmas probabilidades de erro de bit e densidade espectral de ruído, supondo o mesmo
ritmo de bit.
Do ponto de vista funcional, um sistema de comunicação digital tem uma estrutura de blocos
do tipo da que se apresentada na figura 4.19.
No diagrama anterior, a sequência binária pode provir de uma fonte digital (ficheiros binários,
por exemplo) ou de uma fonte analógica; neste último caso, pressupõe-se uma conversão analógico-
digital entre essa fonte e o transmissor do sistema de comunicação. Claramente que, neste caso, o
receptor terá de incluir um conversor digital-analógico para que se recupere o sinal analógico.
Nos parágrafos seguintes iremos detalhar um pouco os processos da modulação digital, que
consiste na modulação de uma portadora analógica por um dado código digital. A modulação digital
4.4. SISTEMAS DE COMUNICAÇÃO DIGITAL 193
Modulação Aplicação
BPSK modems cabo, telemetria espacial
FSK, GFSK paging, sistemas móveis terrestres
MSK, GMSK sistema global p/ serviço móvel
QPSK, π4 QPSK CDMA, satélites, modems cabo, TFTS
OQPSK CDMA, satélites
8-PSK satélites, aviões, telemetria p/sistemas vídeo banda larga
16-QAM modems, rádio digital micro-ondas
32-QAM micro-ondas terrestre
64-QAM set top boxes banda larga, modems, MMDS
256-QAM modems, vídeo digital (EUA)
Na tabela 4.1 apresenta-se um resumo dos diferentes tipos de modulação digital e da sua res-
pectiva aplicação em sistemas de comunicação digital em uso. Nesta tabela, usaram-se as seguintes
abrviaturas: BPSK, binary phase shift keying12 ; FSK e GFSK, frequency shift keying e gaussian fre-
quency shift keying13 , respectivamente; MSK e GMSK, minimum shift keying e gaussian minimum
shift keying14 , respectivamente; QPSK, quadrature phase shift keying15 ; OQPSK, offset quadrature
phase shift keying16 ; QAM, quadrature amplitude modulation17 ; CDMA, Code Division Multiple
Access é um método de acesso utilizado em sistemas de comunicação celular e GPS; TFTS, Terres-
trial Flight Telecommunications Systems,é um sistema destinado às comunicações de passageiros a
bordo de aeronaves e MMDS, Multichannel, Multipoint Distribution Service também conhecido por
«cabo sem fios», é destinado à difusão de televisão e acesso à internet.
Figura 4.20: Diagrama do modulador de BASK; NRZ (no return to zero) significa que quando a sequência é
«1» o nível de amplitude se mantém constante, não retornando a zero.
Este tipo de modulação necessita de uma largura de banda relativamente elevada, tem fraca
imunidade ao ruído18 mas é de fácil realização.
Neste tipo de modulação, são enviadas duas portadoras de frequências distintas, consoante
se pretende enviar «0» ou «1»; na figura 4.21 apresenta-se uma realização possível para esta modu-
lação. Estas duas portadoras podem ser enviadas sem mais modulações (banda de base) ou poderão
ir modular outra portadora de frequência mais elevada. No capítulo 6, esta forma de modulação foi
referida como FSK.
Esta é a forma mais simples de modulação de fase, em que esta assume apenas dois valores,
˙ π. No fundo, trata-se de inverter a polaridade da portadora19 quando se pretende codificar um
0 ∨
dos valores lógicos da sequência binária, conforme assinalado na figura 4.22.
Este formato de modulação pode ser encarado como um caso particular (unidimensional) da
modulação em quadratura, QAM, que se apresenta de seguida.
18 quando comparada com outras formas de modulação digital.
19 pois resulta de ser desfasada de π radianos.
4.4. SISTEMAS DE COMUNICAÇÃO DIGITAL 195
Anteriormente, no capítulo 4, abordámos esta forma de modulação que vai ser agora esten-
dida a sequências binárias. Nesta forma de modulação, quer a amplitude quer a fase da portadora
serão influenciadas pelos dados a transmitir. Se nos reportarmos à figura 5.12, poderemos ver que
se estão a modular duas portadoras com a mesma frequência mas desfasadas de 90o (ou seja, estão
em quadratura).
Esta codificação é, do ponto de vista da ocupação espectral, muito eficiente; contudo, quando
em presença de ruído ou de distorções de amplitude e de fase que ocorram no canal, a sua desmodu-
lação é difícil.
fase de cada portadora, em vez de ser efectuada pelos valores (individuais) da sequência binária, é
agora realizada por pares de valores binários, conforme se indica na mesma figura.
Esta forma de modulação permite o dobro da eficência espectral quando comparada com a
BPSK. No plano I-Q das componentes em fase e em quadratura teremos, para esta modulação, o
diagrama da figura 4.25, onde se supôs que A é a amplitude da(s) portadora(s).
Esta forma de modulação digital resulta da QPASK em que se limitam as transições de fase
de180o para os 90o , o que se consegue evitando que as variações de amplitude e de fase ocorram si-
multâneamente. Na figura 4.26 do lado esquerdo ilustra-se a modulação QPSK já apresentada, onde
se assinalam todas as possíveis transições de símbolos (conjunto de 2 bits, neste caso), enquanto
que, no lado direito, correspondente à OQPSK, são assinaladas as transições possíveis.
A GMSK resulta de uma filtragem da sequência binária por um filtro com uma característica
de resposta em frequência do tipo passa-baixo e gaussiana, indo depois modular uma portadora em
frequência.
Nesta secção apresentaremos, para alguns dos tipos de modulação digital referidos, as for-
mas de onda dos sinais xi (t) das constelações MPSK (2-PSK e 4-PSK) e 8-QAM, bem como as
formas de onda do sinal a ser enviado para o canal de comunicação e que corresponde a uma dada
sequência binária. Ver-se-á, também, por análise das figuras, a diminuição do tempo necessário
para a transmissão de uma sequência binária, fruto do aumento de complexidade do codificador.
Esta diminuição do tempo de transmissão corresponde, efectivamente, a um aumento do ritmo de
transmissão, aproveitando ao máximo as características do canal de comunicação.
20 «00» e «11», por exemplo.
21 «01» e «10», por exemplo.
198CAPÍTULO 4. INTRODUÇÃO À TEORIA DA DETECÇÃO E À COMUNICAÇÃO DIGITAL
0.8
0.6
0.4
0.2
0
100 200 300 400 500 600 700 800 900 1000 1100 1200
Sequencia Binaria
0.5
−0.5
−1
100 200 300 400 500 600 700 800 900 1000 1100 1200
2−PSK
Figura 4.27: Sequência binária ”010011010101” (em cima) e respectiva modulação 2-PSK (em baixo).
+1 se ”01”
x2 (t) ←→ (4.82)
−1 se ”10”
e utilizarmos o sistema QAM da figura 5.12, teremos uma constelação M-PSK com M = 4, também
conhecida como 4-PSK, conforme se apresenta na figura 4.29.
4.5. EXEMPLOS DE APLICAÇÃO 199
0.5
−0.5
−1
10 20 30 40 50 60 70 80 90 100
x1
0.5
−0.5
−1
10 20 30 40 50 60 70 80 90 100
−x1
01
0 1 11 00
10
2-PSK 4-PSK
Repare-se que a modulação PSK apresentada atrás na figura 4.27 (em baixo), onde ocorre
uma descontinuidade de π radianos quando há uma transição 0 → 1 ou 1 → 0, corresponde a ter-se
uma inversão de polaridade da sinusoide. Assim, trata-se de uma modulação 2-PSK, assinalada na
figura 4.29, à esquerda.
1 1
0.5 0.5
0 0
−0.5 −0.5
−1 −1
20 40 60 80 100 20 40 60 80 100
x1 −x1
1 1
0.5 0.5
0 0
−0.5 −0.5
−1 −1
20 40 60 80 100 20 40 60 80 100
x2 −x2
Símbolos x1 x2
000 1 0
001 √1 √1
2 2
010 - √12 √1
2
011 0 1
100 √1 - √12
2
101 0 -1
110 -1 0
111 - √12 - √12
Repare-se que, nestas codificações M-PSM, o módulo (amplitude) das sub-portadoras modu-
ladas é sempre unitário, característica das modulações de ângulo.
A tabela 4.2 pode ser apresentada de uma forma em que os saltos (variações) de fase é limitada
a π/4 se abandonarmos a codificação binária e adoptarmos a codificação de Gray, em que há uma
mudança de um único bit entre quaisquer duas palavras adjacentes desse código, tabela 4.3. A
constelação 8-PSK (Gray) é conforme se indica na figura 4.32.
0.8
0.6
0.4
0.2
0
100 200 300 400 500 600 700 800 900 1000 1100 1200
Sequencia Binaria
0.5
−0.5
−1
50 100 150 200 250 300 350 400 450 500 550 600
PSK
Figura 4.31: Sequência binária ”0100110101” (em cima) e respectiva modulação 4-PSK.
Podemos verificar que, ao compararmos as figuras 4.28, 4.31, 4.33 e 4.36, ocorre uma dimi-
nuição do tempo necessário para enviar a mesma sequência, fruto do aumento de complexidade do
processo de modulação.
Efectivamente, ao passarmos de PSK (na realidade, 2-PSK) para 4-PSK, a redução foi de
50% no tempo de transmissão (ou, de modo equivalente, aumentou-se o ritmo de transmissão para
o dobro) e, passando para 8-QAM ou 8-PSK, a redução foi de 31 , pois passaram-se a codificar 3 bits
consecutivos.
202CAPÍTULO 4. INTRODUÇÃO À TEORIA DA DETECÇÃO E À COMUNICAÇÃO DIGITAL
011
010
001
110 000
111
100
101
Símbolos x1 x2 sinal
000 1 0 s1
001 √1 √1 s2
2 2
011 0 1 s3
010 - √12 √1
2
s4
110 -1 0 s5
111 - √12 - √12 s6
101 0 -1 s7
100 √1 - √12 s8
2
Símbolos x1 x2 sinal
000 − 12 − 21 s1
001 -1 -1 s2
011 1 -1 s3
1
010 2 - 12 s4
1 1
110 2 2 s5
111 1 1 s6
101 -1 1 s7
100 − 12 1
2 s8
4.5. EXEMPLOS DE APLICAÇÃO 203
0.8
0.6
0.4
0.2
0
100 200 300 400 500 600 700 800 900 1000 1100 1200
Sequencia Binaria
1.5
0.5
−0.5
−1
−1.5
50 100 150 200 250 300 350 400
8−QAM
Figura 4.33: Sequência binária ”0100110101” (em cima) e respectiva modulação 8-PSK.
1 1
0 0
−1 −1
20 40 60 80 100 20 40 60 80 100
s1=000 s2=001
1 1
0 0
−1 −1
20 40 60 80 100 20 40 60 80 100
s3=011 s4=010
1 1
0 0
−1 −1
20 40 60 80 100 20 40 60 80 100
s5=110 s6=111
1 1
0 0
−1 −1
20 40 60 80 100 20 40 60 80 100
s7=101 s8=100
101 111
100 110
000 010
001 011
0.8
0.6
0.4
0.2
0
100 200 300 400 500 600 700 800 900 1000 1100 1200
Sequencia Binaria
1.5
0.5
−0.5
−1
−1.5
50 100 150 200 250 300 350 400
8−QAM
Figura 4.36: Sequência binária ”0100110101” (em cima) e respectiva modulação 8-QAM.
4.5. EXEMPLOS DE APLICAÇÃO 205
1 1
0 0
−1 −1
20 40 60 80 100 20 40 60 80 100
s1=000 s2=001
1 1
0 0
−1 −1
20 40 60 80 100 20 40 60 80 100
s3=011 s4=010
1 1
0 0
−1 −1
20 40 60 80 100 20 40 60 80 100
s5=110 s6=111
1 1
0 0
−1 −1
20 40 60 80 100 20 40 60 80 100
s7=101 s8=100
que pretendemos obter. Comecemos por determinar a probabilidade de erro que contém dois
tipos de erros: decidir por s1 quando, devido ao ruído, foi enviado s0 e, ao invés, decidir por s0
quando, devido ao ruído, foi enviado s1 . Neste caso, sinalização unipolar, s0 é, efectivamente
uma amplitude nula (A0 = 0) e a s1 corresponde uma dada amplitude A1 positiva22 , como se
assinala na figura 4.38,
Z Z
Pe = p1 fY |s1 (y)dy + p0 fY |s0 (y)dy
z0 z1
0.45
0.4
s1 (t)
0.35
s0 (t)
0.3
0.25
0.2
0.15
0.1
0.05
0
y
-0.05
-2 -1 0 1 2 3 4 5
A0 A1
A1
1 − (y−Aη 1 )2
Z Z
2
√ e fY |s1 (y)dy =
dy
z0 −∞ πη
q
Façamos a seguinte mudança de variável y − A1 = u η2 ; assim, teremos
A1 Z − √A1 Z +∞
1 − (y−Aη 1 )2 1 1 − u2 A1
Z
2 2η u2
√ e dy = √ e− 2 du = A
√ e 2 du = Q √ (4.84)
−∞ πη −∞ 2π √1
2η
2π 2η
22 O facto de ser positiva é absolutamente irrelevante, desde que, no receptor se aceite como tal.
4.6. PROBLEMAS RESOLVIDOS 207
A probabilidade de erro Pe é dada pela média ponderada dos resultados das equações (4.84) e
(4.85)
A1 A1
Pe = p1 · Q √ + p0 · Q √
2η 2η
o que, na hipótese de símbolos equiprováveis23 , a ainda recordando que a energia média Eb
A2
dos símbolos de sinalização é 21 , de imediato teremos
s ! s !
A1 Eb 1 Eb
Pe = Q √ =Q = erfc
2η η 2 2η
(a) Sabendo que σn20 = 0, 1 determine o limiar de detecção óptima se Pr(s1 ) = 2/3;
(c) Admitindo que σn20 = 0, 3, determine o limiar de detecção óptima se Pr(s1 ) = 1/2.
Resolução
onde (
A 0≤t ≤T i=1
si (t) = (4.87)
−A 0≤t ≤T i=0
23 Na verdade, é irrelevante a equiprobabilidade dos símbolos «0» e «1» pois Pe = (p1 + p0 ) · Q √A1 = 1·Q √A1 .
2η 2η
208CAPÍTULO 4. INTRODUÇÃO À TEORIA DA DETECÇÃO E À COMUNICAÇÃO DIGITAL
pelo que, a saída do bloco integrador da figura 4.39 virá dada, no instante final de sina-
lização, t = T , por
Z T
(
a + n0 0≤t ≤T i=1
y(T ) = [si (t) + n(t)]dt = (4.88)
0 −a + n0 0≤t ≤T i=0
RT RT
onde a = 0 Adt = A · T e n0 = 0 n(t)dt.
Podemos ver que a equação anterior corresponde, como se sabe, à saída do banco de
correladores (equação (4.2) com t = T . Podemos, portanto, utilizar o resultado expresso
na equação (4.34) e que, por facilidade de exposição, repetimos
fX|H1 (→
−
x ) H1 p
≷
fX|H0 (→
−
x ) H0 1 − p
x −→
k→
− − x −→
s1 k2 − k →
− −
s0 k2 H1 p
exp − ≷
2σn20 H0 1 − p
e que, por manipulação elementar, sendo que X será a amplitude do sinal que decidirá a
favor do símbolo binário recebido, então γ = X e
H1 S1 + S0 σn20 p
γ≷ + ln (4.89)
H0 2 S1 − S0 1 − p
(b) Basta-nos a equação (4.89) para resolver esta alínea, pelo que
H1 0, 3 1 1, 040
γ≷ ln( ) = −
H0 2AT 2 AT
(c) Recorrendo novamente à equação (4.89) e dado que Pr(s1 ) = 1/2 ⇒ Pr(s0 ) = 1/2 = p,
de imediato se conclui que
H1
γ ≷0
H0
24 Veja-se o apresentado na secção Detector de Máxima Verosimilhança.
4.6. PROBLEMAS RESOLVIDOS 209
Como a energia média dos impulsos é 2 · A2 T e T = 1/r sendo r = 105 , teremos finalmente
que r r
Eb 4, 05 · 10−4
A= = = 4, 5
2T 2 · 10−5
(b) Determine a saída y11 (t) deste filtro adaptado ao impulso s1 (t) e determine a máxima
relação sinal/ruído que se obtém;
(c) Verifique que a saída y10 (t) = h1 (t) ∗ s0 (t) do filtro adaptado ao impulso de sinalização
s0 (t) representado na figura 4.41 é nula em t = T .
(d) Obtenha a resposta impulsiva do filtro adaptado h0 (t) e a sua resposta y00 (t) ao impulso
de sinalização s0 (t);
210CAPÍTULO 4. INTRODUÇÃO À TEORIA DA DETECÇÃO E À COMUNICAÇÃO DIGITAL
(e) Determine a resposta y01 (t) = h0 (t) ∗ s1 (t) do filtro adaptado ao impulso de sinalização
s1 (t).
Resolução
(a) A equação (4.66) permite-nos determinar a resposta impulsiva do filtro adaptado h1 (t) =
s1 (T − t) e que pode ser obtida como se representa graficamente na figura 4.42.
(b) Assim, a saída deste filtro vem dada pela equação (4.68) e que neste caso resulta em
T
0 ≤t
2
A2 (t − T )
T
≤t <T
y11 (t) = 2 2 (4.90)
A 2 ( 3 T − t) T ≤ t < 32 T
2
t > 23 T
0
e que se representa na figura 4.43. Recordando a equação (4.91) que nos permite obter
2 2
R R
R |Sk ( f )| d f R |sk (t)| dt
SNRH = η =2 (4.91)
2
η
e que resulta em
A2 T
SNRH = (4.92)
η
(c) Nesta caso, teremos y10 (t) = h1 (t) ∗ s0 (t) e que resulta na equação (4.93), representada
na figura 4.44
0 T ≤t
A2 (t − T ) T ≤ t < 32 T
y10 (t) = 3
(4.93)
A2 (2T − t) 2 T ≤ t < 2T
t > 23 T
0
(d) A obtenção de h0 (t) é imediata pois h0 (t) = s0 (T −t) e que se representa na figura 4.45 A
s (t)
0
1/2 T T t
h (t)
0
1/2 T T t
sua resposta y00 (t) ao correspondente impulso de sinalização é muito fácil de obter pois
é em tudo semelhante a y11 (t) uma vez que a convolução de dois sinais é comutativa e,
212CAPÍTULO 4. INTRODUÇÃO À TEORIA DA DETECÇÃO E À COMUNICAÇÃO DIGITAL
nesta situação, s1 (t) → h0 (t) e h1 (t) → s0 (t). Logo, y00 (t) = h0 (t) ∗ s0 (t) = s1 (t) ∗ h1 (t),
T
0 2 ≤t
A2 (t − T )
T
y00 (t) = 2 2 ≤t <T (4.94)
2 3 3
A ( 2 T − t) T ≤ t < 2 T
t > 23 T
0
(e) A obtenção de y01 (t) é, naturalmente, obtida pela convolução da resposta impulsiva h0 (t)
com o sinal s1 (t), ou seja, y01 (t) = h0 (t) ∗ s1 (t) e que, após alguma manipulação dá
0 0≤t
A2t 0 ≤ t < T2
y01 (t) = T
(4.95)
A2 (T − t)
2 ≤t <T
0 t >T
P. 5: Seja o impulso de sinalização s1 (t) assinalado na figura anterior (figura 4.40). Neste problema
usar-se-á um filtro RC em vez do filtro adaptado.
(b) Determine a máxima relação sinal/ruído que se obtém, comparando-a com a correspon-
dente relação sinal/ruído do problema anterior;
Resolução
t
1
(a) A resposta impulsiva dum filtro RC passa-baixo é, como sabemos, h(t) = RC · e− RC · u(t);
então
y1 (t) = s1 (t) ∗ h(t) = TL−1 [S1 (s) · H(s)] (4.96)
1
onde H(s) = s
1+ RC . Por transformação de Laplace inversa25 , teremos
t
y(t) = A · (1 − e− RC ) · u(t) (4.97)
1 26 1
uma vez que H( f ) = sendo, portanto, fc = e que resulta em
1+ j ff 2πRC
c
η
N= (4.99)
4RC
Teremos agora que S/N virá
T T
S A2 [1 − e− 2RC ]2 A2 T [1 − e− 2RC ]2
= η = η · T
N 4RC 2 2RC
T
e que pretendemos maximizar em ordem a RC; para tal seja ε = 2RC e teremos
S A2 T [1 − e−ε ]2 d S
= η · → =0 (4.100)
N 2
ε dε N
e que se traduz em resolver a equação e−ε (1+2ε) = 1 que tem como solução ε = 0∨ε ≈
1, 256; assim (excluindo naturalmente a solução trivial ε = 027 ) teremos que
T
RC ≈ (4.101)
2 · 1, 256
e que corresponde a termos uma relação sinal/ruído
S A2 T (1 − e−1,256 )2 A2 T
= η · = 0, 8145 · (4.102)
N 2
1, 256 η
ou seja, aproximadamente 0,9 dB inferior à relação sinal/ruído obtida com o filtro adap-
tado (equação (4.92)).
1
onde se fez fc = 2πRC . Este mesmo resultado já tinha sido apresentado no problema P. 1: do capítulo 1.
27 Porquê?
214CAPÍTULO 4. INTRODUÇÃO À TEORIA DA DETECÇÃO E À COMUNICAÇÃO DIGITAL
e como E = 22, 56 · 10−6 então, obtém-se para T o valor de 9, 025 · 10−7 s o que corresponde
a um ritmo de transmissão máximo de R = T1 = 1, 11 Mbit/s.
P. 7: Repita o problema anterior mas usando agora uma sinalização ASK com impulsos de 5 V de
amplitude,
s1 (t) = Acos(2π f0 t)
0≤t <T
si (t) = (4.104)
s0 (t) = 0 0≤t <T
1
onde, como se viu, T é múltiplo de f0 e, pelo enunciado, A = 5.
2
onde, como se viu, a energia média por bit é Eb = A4T . Então, recordando que η = 2 · 10−6 ,
teremos para a duração T do impulso de sinalização, T = 7, 22 · 10−6 s, o que se traduz por
um ritmo máximo de transmissão de
P. 8: Determine quais devem ser as amplitudes dos impulsos de sinalização em ASK e em FSK que,
nas mesmas condições de ruído de canal e duração de bit (ritmo de transmissão), garantam a
mesma probabilidade de erro de bit que se obtém na sinalização polar.
Resolução Não temos mais do que relembrar as probabilidades de erro de bit para cada
sinalização pretendida, bem como as respectivas energias médias de bit, que apresentamos na
tabela seguinte, tabela 4.5. Nas condições pretendidas (igual probabilidade de erro de bit e
Tabela 4.5: das probabilidades de erro (Pe ) e da energia dos impulsos (Eb ) para várias sinalizações binárias.
ritmo de transmissão), teremos que os argumentos das funções Q(·) são idênticos, o que leva
a terem-se os seguintes resultados apresentados na tabela seguinte, tabela 4.6.
4.6. PROBLEMAS RESOLVIDOS 215
Podemos, em conclusão, verificar que a sinalização Polar é a que permite ritmos de transmis-
são mais elevados, o que se deve ao facto de os impulsos de sinalização terem mais energia
do que em ASK ou FSK.
216CAPÍTULO 4. INTRODUÇÃO À TEORIA DA DETECÇÃO E À COMUNICAÇÃO DIGITAL
Capítulo 5
MODULAÇÃO DE PORTADORAS
SINUSOIDAIS
TF 1 1
x(t) · cos(2π fc t) ↔ X( f ) ∗ [δ ( f − fc ) + δ ( f + fc )] = [X( f − fc ) + X( f + fc )] (5.1)
TF−1 2 2
Esta equação mostra que, através do produto do sinal x(t) por um cosseno, se obtém um sinal
cujo espectro se situa agora em torno de fc , ou seja, um sinal «deslocado» em frequência. Esta é a
essência da modulação de amplitude como iremos detalhar seguidamente.
217
218 CAPÍTULO 5. MODULAÇÃO DE PORTADORAS SINUSOIDAIS
Do ponto de vista analítico, a equação (5.1) define a modulação de amplitude na sua forma
mais elementar. Seja então x(t) = X cos(2π fmt) o sinal modulante1 e p(t) = Ac cos(2π fc t) o sinal
da portadora de frequência fc . O sinal modulado em amplitude (AM, amplitude modulation) é então
definido por
D
xAM (t) = x(t) · p(t) = Ac X cos(2π fmt) cos(2π fc t) (5.2)
e cuja TF é
T
1
XAM ( f ) = Ac · X · [δ ( f − fc + fm ) + δ ( f − fc − fm ) + δ ( f + fc − fm ) + δ ( f + fc + fm )] (5.3)
4
representados graficamente na figura 5.1. No gráfico da esquerda e em baixo, sobrepôs-se a cor
verde o sinal modulante para melhor ilustrar a sua influência no sinal AM.
1 0.8
0.6
0.5
X(f))
0.4
0.2
x(t)
0
0
−100 −50 0 50 100
−0.5
0.8
−1
−0.4 −0.2 0 0.2 0.4 0.6
P(f)
0.4
0.2
1
0
−100 −50 0 50 100
0.5
0.4
Xam(t)
0 0.3
Xam(f)
0.2
−0.5
0.1
−1 0
−0.4 −0.2 0 0.2 0.4 −100 −50 0 50 100
t f
Figura 5.1: Modulação de Amplitude (DSB/SC). À esquerda, sinal modulante (cima) e sinal modulado
(baixo); à direita, os espectros do sinal modulante (cima), da portadora (centro) e do sinal modulado (baixo),
considerando sinais sinusoidais de amplitude unitária.
Se observarmos quer as equações quer os gráficos de XAM ( f ), verificamos que não aparece
a componente na frequência da portadora fc . Por outro lado, em torno desta frequência aparecem
as componentes em frequência do sinal modulante. Esta é a razão pela qual se denomina esta
modulação DSB/SC ou seja, banda-lateral dupla com supressão de portadora.
1 Sinal
modulante é o sinal que irá modificar a portadora; na modulação em amplitude, o sinal modulante determina a
amplitude instantânea da portadora e constitui-se como a mensagem que se pretende transmitir.
5.1. MODULAÇÃO DE AMPLITUDE 219
1.5 0.8
0.6
1
X(f))
0.4
0.5
0.2
x(t)
0 0
−100 −50 0 50 100
−0.5
0.8
−1
−0.4 −0.2 0 0.2 0.4 0.6
P(f)
0.4
0.2
1.5
0
1 −100 −50 0 50 100
0.5
0.4
Xam(t)
0 0.3
Xam(f)
−0.5 0.2
−1 0.1
−1.5 0
−0.4 −0.2 0 0.2 0.4 −100 −50 0 50 100
t f
Figura 5.2: Modulação de Amplitude (DSB) com portadora. À esquerda, sinal modulante (cima) e sinal mo-
dulado (baixo); à direita, os espectros do sinal modulante (cima), da portadora (centro) e do sinal modulado
(baixo), considerando sinais sinusoidais de amplitude unitária e que o valor médio de x(t) foi de 1/3.
Se o sinal modulante tivesse um valor médio não-nulo, o resultado seria um pouco diferente,
como se ilustra na figura 5.2. Neste caso verifica-se facilmente o aparecimento de uma componente
em fc pelo que teremos uma modulação DSB com portadora. Se a componente contínua (valor
médio) de x(t) for maior do que a sua amplitude X, o resultado é aquele que se apresenta na figura
5.3.
Esta última situação, em que o valor médio de x(t) > X, resulta numa envolvente superior
do sinal modulado igual ao sinal modulante (à parte um dado factor de escala). Reescrevamos a
equação (5.2), fazendo sobressair o valor médio de x(t)
D
xAM (t) = [xDC + x(t)] · p(t) = Ac [xDC + X cos(2π fmt)] · cos(2π fc t) (5.4)
Se, por hipótese, o sinal modulante tiver valor médio nulo (como é o caso do sinal de fala,
por exemplo), então, para se obter a modulação correspondente à equação (5.2), há que adicionar ao
sinal modulante um dado valor constante xDC , conforme se exemplifica na figura 5.4.
Assim, sempre que xDC ≥ max |x(t)|, teremos uma portadora sub-modulada (modulação [de
amplitude] inferior a 100%); denominando-se a igualdade de modulação de amplitude a 100%.
220 CAPÍTULO 5. MODULAÇÃO DE PORTADORAS SINUSOIDAIS
2.5 1.5
2 1
X(f))
1.5 0.5
x(t)
1 0
−100 −50 0 50 100
0.5
0.8
0
−0.4 −0.2 0 0.2 0.4 0.6
P(f)
0.4
0.2
3
0
2 −100 −50 0 50 100
1
0.8
Xam(t)
0 Xam(f) 0.6
−1 0.4
−2 0.2
−3 0
−0.4 −0.2 0 0.2 0.4 −100 −50 0 50 100
t f
Figura 5.3: Modulação de Amplitude (DSB) com portadora. À esquerda, sinal modulante (cima) e sinal mo-
dulado (baixo); à direita, os espectros do sinal modulante (cima), da portadora (centro) e do sinal modulado
(baixo), considerando sinais sinusoidais de amplitude unitária e que o valor médio de x(t) foi de 1,2.
Naturalmente que, em situações reais, o sinal modulante não terá uma representação ana-
lítica conhecida, pelo que será preferível representá-lo através de um processo estocástico com as
características que passaremos a enunciar.
Seja então o sinal modulante um processo estocástico X (t) WWS de média nula, cuja den-
sidade espectral de potência GX ( f ) tem suporte numa banda ] − B, +B] e com potência PX
D
mX = 0
Processo WSS X (t) ∀ f ∈]
/ − B, +B] : GX = 0 (5.5)
PX = RX (0)
Seja, como anteriormente, p(t) uma portadora de frequência fc mas com uma fase desco-
nhecida e modelada por uma variável aleatória uniformemente distribuída no intervalo ] − π, +π],
que pode ser modelada por um processo estocástico P(t) = AC · cos(2π fc t + Θ) com as seguintes
características,
D
1 d θ
fΘ (θ ) = 2π ( 2π )
Processo WSS P(t) mP = 0 (5.6)
1 2
RP (τ) = 2 AC cos(2π fc τ)
5.1. MODULAÇÃO DE AMPLITUDE 221
X DC p(t)
x(t) xAM(t)
Figura 5.4: Modulação de Amplitude para sinais de média nula, onde p(t) = AC · cos(2π fc t).
= AC2 E{XDC
2 cos(2π f t + Θ) cos(2π f t + Θ)}+
c 1 c 2
(5.8)
+AC2 E{XDC X (t2 ) cos(2π fc t1 + Θ) cos(2π fc t2 + Θ)}+
Nesta equação, e fazendo uso da independência estatística das variáveis aleatórias dos pro-
cessos X (t) e P(t) que, como é sabido, se traduz em que E{X(t) · P(t)} = E{X(t)} · E{P(t)} e
sabendo que, E{X(t)} e E{P(t)} são ambos nulos2 , resulta em
Recordando que o processo X (t) é, por hipótese, estacionário em sentido lato e ainda o resultado
obtido anteriormente na equação (2.78)
∀t1 ,t2 : t2 = t1 − τ →
(5.10)
1 2 2 1 2
RXAM (t1 ,t2 ) = RXAM (τ) = 2 AC XDC cos(2π fc τ) + 2 AC RX (τ) cos(2π fc τ)
222 CAPÍTULO 5. MODULAÇÃO DE PORTADORAS SINUSOIDAIS
0.25
0.2
0.15
Gx(f)
0.1
0.05
0
−1000 −800 −600 −400 −200 0 200 400 600 800 1000
0.35
0.3
0.25
Gam(f)
0.2
0.15
0.1
0.05
0
−1000 −800 −600 −400 −200 0 200 400 600 800 1000
f
Figura 5.5: Modulação de Amplitude (DSB) com portadora. Em cima, densidade espectral de potência
arbitrária do processo modulante de valor médio nulo; em baixo, a densidade espectral de potência do
processo modulado em amplitude. Considerou-se, a título de exemplo, B = 50 Hz e fc = 700 Hz.
1
RXDSB/SC (τ) = AC2 RX (τ) cos(2π fc τ) (5.14)
2
e uma densidade espectral de potência
T
1
GXDSB/SC ( f ) = AC2 [GX ( f − fc ) + GX ( f + fc )] (5.15)
4
e, finalmente, este processo tem uma potência
T
2 Pois, por hipótese, X (t) é de média nula e, sendo P(t) um seno, também é de média nula.
5.1. MODULAÇÃO DE AMPLITUDE 223
Tabela 5.1: das potências de sinais AM para várias amplitudes de X(t), sendo XDC = 1 e AC = 1, arredonda-
das à 2a casa decimal.
1 1
PXDSB/SC = RXDSB/SC (0) = AC2 RX (0) = AC2 PX (5.16)
2 2
Esta equação mostra que a modulação em banda lateral dupla com supressão da portadora
tem uma potência inferior à da modulação em amplitude com portadora. Outra forma de encarar
este resultado consiste em verificar que, para a mesma potência à saída do modulador, a modulação
em amplitude com portadora terá pior eficiência do que em DSB/SC pois estar-se-á a desperdiçar
energia a enviar um sinal que, por si só, não contém informação útil. Esta observação será mais
adiante desenvolvida aquando do estudo do desempenho dos sistemas de comunicação baseado em
modulação de portadoras.
2
Xam(t)
−2
−4
−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1
0
−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1
3
Xd(t)
0
−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1
t
Assim, comecemos por analisar o circuito supondo que o condensador C tem uma capacidade
nula. Neste caso, o circuito constituído pelo díodo e pela resistência promove uma rectificação do
sinal de entrada (sinal modulado), como se mostra na figura 5.7 ao centro (a cor vermelha, o sinal
modulante que se supôs sinusoidal). O condensador C vai carregar-se com a tensão de entrada
sempre que a tensão no ânodo do díodo for superior à tensão do cátodo; se a tensão no ânodo
for inferior à tensão no cátodo, o condensador irá descarregar-se através da resistência. Assim, e
como se mostra na figura 5.7, verifica-se que a envolvente detectada (em baixo, a cor azul) aparece
com uma componente de alta frequência sobreposta que se poderia tentar eliminar aumentando a
constante de tempo do circuito de detecção. No entanto, se esta constante de tempo for demasiado
elevada, a descarga do circuito RC não consegue acompanhar as variações da envolvente do sinal de
entrada, como se mostra na figura 5.8.
Nestas simulações utilizou-se uma portadora com uma frequência que era cerca de 25 vezes
maior do que a frequência do sinal modulante, enquanto que, nas situações reais, esta relação é
superior a 100, permitindo uma detecção mais próxima da ideal. O condensador C1 destina-se a
retirar a componente contínua presente no sinal desmodulado.
Xam(t)
0
−2
−4
−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1
0
−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1
3
Xd(t)
0
−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1
t
Figura 5.8: Detecção de Envolvente onde a constante de tempo do circuito RC é demasiado elevada; a
vermelho assinala-se o sinal modulante.
Para simplificar este estudo, consideremos que o detector de envolvente é constituído por um
díodo ideal, seguido por um filtro passa-baixo também ideal, ou seja, com uma função de resposta
d f
em frequência dada por H( f ) = H(0) · ( 2B ), sendo H(0) o seu ganho estático. A rectificação
de meia-onda de um sinal é facilmente modelada pelo produto do sinal modulado por uma onda
quadrada que varia de 0 a 1, sincronizada com a portadora, figura 5.10.
Seja então XAM (t) uma função amostra do processo estocástico XAM (t) que se supõe um
processo conforme a equação (5.7). Lembremos que a sua densidade espectral de potência aparece
apenas não-nula numa banda 2B centrada em ± fc (fc é a frequência da portadora sinusoidal). Assim,
o sinal rectificado (em meia-onda) XMO (t) resulta do produto de XAM (t) pela hipotética «portadora
local» pL (t). Como pL (t) é um sinal periódico, é fácil ver que o seu espectro é (conforme as
equações (1.40) e (1.47))
1 +∞
k
PL ( f ) = ∑ sinc δ ( f − k fc ) (5.18)
2 k=−∞ 2
Então, a densidade espectral do sinal rectificado é
+∞
1 k
GXMO ( f ) = GXAM ( f ) ∗ PL ( f ) = GXAM ( f ) ∗ ∑ sinc δ ( f − k fc )
2 k=−∞ 2
226 CAPÍTULO 5. MODULAÇÃO DE PORTADORAS SINUSOIDAIS
Xam(t)
0
−1
−2
−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1
−1
−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1
1
Xd(t)
−1
−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1
t
Figura 5.9: Detecção de Envolvente de uma portadora sobremodulada; a vermelho assinala-se o sinal mo-
dulante.
1 +∞
k
= ∑ sinc GXAM ( f ) ∗ δ ( f − k fc ) =
2 k=−∞ 2
1 +∞
k
= ∑ sinc GXAM ( f − k fc ) (5.19)
2 k=−∞ 2
Uma vez que o filtro passa-baixo irá eliminar todas as frequências para as quais se tenha | f | > B,
só os termos da série para k = ±1 na equação (5.19) têm interesse para a desmodulação. Assim,
para se obter XD (t) = X(t), é necessário que H(0), o ganho estático do filtro passa-baixo, seja
2
H(0) = sinc(1/2) = π4 ≈ 1, 27 se considerarmos uma amplitude AC unitária para a portadora (AC = 1).
Se atentarmos nas figuras 5.1 a 5.5, veremos que a modulação de amplitude se baseia numa
translação do espectro da mensagem para a frequência da portadora. Então, a detecção deveria
basear-se numa translação do espectro do sinal modulado para a origem. Esta operação é facilmente
realizável (pelo menos em teoria) através duma multiplicação de XAM (t) por pL (t), uma portadora
local de frequência fc e em fase com a portadora emitida (detecção coerente). Mas esta operação
tem de ser complementada com uma filtragem passa-baixo (figura 5.11), destinada a remover as
componentes de alta frequência: seja, como anteriormente, GX ( f ) a densidade espectral de potência
do processo da mensagem e que tem suporte B e seja a densidade espectral do processo AM emitido
1 1
GXT X ( f ) = AC2 [GX ( f − fc ) + GX ( f + fc )] + AC2 XDC
2
[δ ( f − fc ) + δ ( f + fc )] (5.20)
4 4
5.1. MODULAÇÃO DE AMPLITUDE 227
Figura 5.11: Sistema de Comunicação AM: emissor (modulador) e receptor com detecção coerente.
Assim, e estando o filtro passa-banda (figura 5.11) sintonizado para a frequência da portadora
e com uma largura de banda 2B, o sinal à entrada do receptor será, na ausência de ruído, igual ao
sinal (função amostra do processo) AM. Seja então XR (t) uma função amostra deste processo3
O filtro passa baixo de largura de banda igual ao suporte da mensagem B e encarrega-se de remover
o termo de alta frequência centrado em 2 fc 4 , produzindo à sua saída o sinal
donde, por remoção do termo constante XDC se obtém finalmente o sinal desmodulado
Se a fase da portadora do emissor (ou melhor, a diferença de fase entre as duas portadoras)
for diferente de zero, o sinal modulado será uma versão atenuada do sinal da mensagem e, no caso
3 Considerámos, por questão de generalidade, que a portadora do emissor apresenta uma fase não-nula na origem de
θT X rad.
4 Resultante do termo cos(2π2 f t + θ )
c TX
228 CAPÍTULO 5. MODULAÇÃO DE PORTADORAS SINUSOIDAIS
extremo, quando θT X = π/2, será mesmo nulo! Deste facto ressalta a necessidade de haver um
sincronismo perfeito entre as portadoras. Este resultado pode ser utilizado com vantagem, pois
permite enviar, na mesma banda de frequências duas mensagens distintas, moduladas com sinais em
quadratura (seno e cosseno) e, no receptor, recuperá-las, como se apresenta no parágrafo seguinte.
sendo a desmodulação efectuada pelo sistema da figura seguinte, figura 5.13, que é uma extensão do
detector coerente.
Embora tenhamos identificado este sistema de comunicação como sendo uma modulação de
amplitude em quadratura (que, efectivamente, o é), o termo QAM é, na prática, reservado para
formas de modulação mista. Mais adiante, retomaremos esta questão.
5.1. MODULAÇÃO DE AMPLITUDE 229
5.1.7 R ECEPTORES DE AM
Neste parágrafo serão apresentados os receptores mais utilizados e que se dividem em duas
categorias principais: os regenerativos e super-regenerativos e os super-heterodinos. Trata-se de
sistemas de recepção baseados em princípios distintos e que apresentam características também
distintas. Não nos deteremos em pormenores de electrónica, embora os circuitos sejam apresentados
no intuito de se identificarem os principais blocos constituintes.
Do ponto de vista histórico, os receptores regenerativos foram inventados por Edwin Arms-
trong em 1914 e tiveram grande divulgação entre 1920 e a 2a Guerra Mundial. A sua importância
caiu com a divulgação dos receptores super-heterodinos e, actualmente, a sua divulgação está li-
mitada a receptores onde a simplicidade, o baixo custo e o baixo consumo de energia sejam os
principais critérios de projecto, tais como em sistemas domóticos, em redes de sensores, em equi-
pamentos de biomedicina, etc.. Na figura 5.15 apresenta-se o diagrama de blocos deste tipo de
receptores e na figura 5.16 um circuito electrónico correspondente.
Receptor Super-Heterodino
Trata-se mais uma vez da invenção de E. Armstrong, realizada durante a 1a Grande Guerra,
em 1918. Uma forma de melhorar a selectividade dos receptores passa pela realização de circui-
tos sintonizados ou ressonantes com largura de banda relativamente estreita e grande capacidade
de rejeição de frequências fora da sua banda passante. Esta necessidade leva a que estes disposi-
tivos não possam ser directamente sintonizados para as diferentes frequências das portadoras que
se pretende receber. Assim, eles irão constituir uma etapa de filtragem (designada por filtragem in-
termédia ou frequência intermédia, FI ou IF na terminologia anglo-saxónica) sintonizada para uma
frequência fixa. Assim, torna-se necessário «transladar» as portadoras recebidas para esta frequência
intermédia, através de uma etapa misturadora com um oscilador local, este sim, sintonizável. Este
princípio exemplifica-se na figura 5.18 onde se apresenta um diagrama de blocos de um recpetor
super-heterodino.
A frequência intermédia tem os valores de 455 kHz no caso da onda-média (MW) e de 10,8
MHz no caso do FM em VHF. Na figura 5.19 ilustra-se um circuito eléctrico de um receptor super-
heterodino, onde se assinalam os correspondentes blocos da figura 5.18. Neste circuito, a sintonia é
comandada por uma tensão contínua que polariza inversamente os dois díodos D2 e D3 que actuam
como condensadores variáveis nas malhas ressonantes L1/C7/C8 (oscilador local) e L2/C11/C10
(filtro RF de entrada). A desmodulação é realizada internamente ao circuito integrado IC1 através
de um rectificador de onda-completa.
232 CAPÍTULO 5. MODULAÇÃO DE PORTADORAS SINUSOIDAIS
Figura 5.19: Esquema eléctrico de um receptor super-heterodino baseado no circuito TDA1572 da Philips.
A modulação de amplitude, nas suas várias versões, apenas aproveita um dos parâmetros da
portadora para enviar informação: precisamente, e como o próprio nome indica, a sua amplitude.
Contudo, podemos optar por manter a amplitude da portadora constante e modificar a sua fase. As-
sim, iremos abordar duas formas de modulação de ângulo, a de fase e a de frequência. Comecemos
por apresentar duas definições relevantes para este tipo de modulação.
D
Definição: Fase Instantânea para uma portadora sinusoidal p(t) = AC cos(2π fc t + φ (t)), define-
se fase instantânea da portadora como sendo
D
Definição: Frequência Instantânea a frequência instantânea resulta da derivada da fase instan-
tânea,
1 d
F(t) , Φ(t) (5.27)
2π dt
ou, de modo equivalente
Zt
Φ(t) = 2π F(τ)dτ (5.28)
−∞
Se, na equação (5.26) fizermos o termo φ (t) proporcional à mensagem a enviar, teremos que
a fase instantânea vem proporcional ao sinal modulante, ou seja,
T
onde f∆ representa o índice de modulação de frequência ou, na gíria das telecomunicações, frequên-
cia de desvio.
Modulador de Fase Por inspecção das equações (5.31) e (5.30), pode-se ver que, se usarmos um
modulador de frequência com um sinal modulante proporcional a dtd x(t), obteremos um modulador
de fase, como ilustrado na figura 5.20 (em cima).
Modulador
Derivador de x PM (t)
Frequência
x(t)
Modulador
Integrador de x FM (t)
Fase
Figura 5.20: Esquema eléctrico de um receptor super-heterodino baseado no circuito TDA1572 da Philips.
A determinação do espectro de um sinal de FM é não trivial pelo que o caminho que será
exposto resulta de assumir que o sinal modulante é sinusoidal com uma frequência instantânea cons-
tante. Este resultado servirá de indicador para a determinação da largura de banda, como iremos ver.
Mas antes, mostraremos que a modulação de frequência pode ser dividida em duas «classes».
234 CAPÍTULO 5. MODULAÇÃO DE PORTADORAS SINUSOIDAIS
FM de Banda Estreita
Rt
XFM (t) = AC cos(2π fc t + 2π f∆ x(τ)dτ) =
−∞
(5.32)
Rt Rt
= AC cos(2π fc t) cos(2π f∆ x(τ)dτ) − AC sen(2π fc t) sen(2π f∆ x(τ)dτ)
−∞ −∞
Rt
onde Ẋ(t) = x(τ)dτ).
−∞
Como se pode ver, estamos perante uma modulação de amplitude (pois a amplitude da por-
tadora é «modulada» ou seja, multiplicada, pela mensagem)! Como o suporte de X(t) é B, logica-
mente que o suporte de XFM (t) é, à semelhança da modulação em amplitude 2B, pelo que, a largura
de banda da modulação de frequência de banda estreita é 2B.
FM de Banda Larga
No caso geral, ou seja, quando não se verificar que a frequência de desvio é muito pequena,
o processo analítico mais simples de obter o espectro do sinal FM passa então por supor que X(t) =
X cos(2π f1t) ou seja, que Ẋ(t) = 2π1f1 X sen(2π f1t). Nesta situação, a equação (5.31) vem
f∆
XFM (t) = AC cos(2π fc t + X f1 sen(2π f1t)) =
(5.34)
f∆ f∆
j2π fc t+X sen(2π f1 t)) X sen(2π f1 t))
= AC Re{e f1
} = AC Re{e f1
· e j2π fc t }
Esta equação pode ser interpretada como sendo uma translação na frequência (resultante do
f∆
X sen(2π f1 t))
produto de e j2π fc t por e f1
, função esta que passaremos a analisar com mais detalhe. Trata-
f∆
X sen(2π f1 t))
se de uma função periódica9
com período fundamental T1 = 1/ f1 . Assim sendo, e f1
pode
ser representada pela sua série de Fourier:
+∞
f∆ 1 f∆
Z
X sen(2π f1 t)) X sen(2π f1 t)) − j2πk f1 t
e f1
= ∑ ak e j2πk f1t ∴ ak = e f1
e dt (5.35)
k=−∞ T1
T1
D
Definição: Função de Bessel de 1a espécie a função de Bessel de 1a espécie é definida como
Zπ
1
Jk (β ) , e− j(kε−β sen(ε)) dε (5.36)
2π
−π
0.5
−0.5
0 1 2 3 4 5 6 7 8 9 10
Figura 5.21: Funções de Bessel de 1a Espécie para (de cima para baixo na abcissa β = 1: k = 0, 1, 2, 3, · · · ).
1a espécie em três tabelas: tabela D.1 para 0 ≤ β ≤ 3, tabela D.2 para 3 ≤ β ≤ 6 e tabela D.3 para
6 ≤ β ≤ 9.
T
Corolário
J−k (β ) = (−1)k Jk (β ) (5.37)
T
Corolário
lim Jk (β ) = 0 (5.38)
β →+∞
T
Corolário
+∞
∑ [Jk (β )]2 = 1 (5.39)
k=−∞
f∆ f∆
9 Vejamos X sen(2π f1 t)) X sen(2π f1 t))
que, efectivamente, e f1
é uma função periódica, pois e f1
=
f∆ f∆
X sen(2π f1 (t−T )) X sen(2π f1 (t−T ))
e f1
para garantir a periodicidade. Desenvolvendo o expoente, teremos e f1
=
f∆ f∆
X sen(2π f1 (t) cos(2π f1 T )) X cos(2π f1 (t) sen(2π f1 T ))
e f1
e f1
. Ora, fazendo 2π f1 T = 2kπ → T1 = mink T ⇒ sen(2π f1 T )) =
f∆ f∆
X sen(2π f1 (t−T )) X sen(2π f1 t))
0⇒e f1
=e f1
.
236 CAPÍTULO 5. MODULAÇÃO DE PORTADORAS SINUSOIDAIS
A definição dos coeficientes da série harmónica da equação (5.35) pode ser agora explicitada
usando as funções de Bessel. Pelo que, utilizando a mudança de variável ff∆1 X = β , tendo em conta
o expresso nas equações (5.21) e (5.34) e que Re{a(t)} = 12 [a(t) + a∗ (t)], o espectro do sinal de FM
modulado por uma função sinusoidal de frequência f1 vem
T
AC +∞
XFM ( f ) = ∑ Jk (β )δ ( f − k f1 ) ∗ [δ ( f − fc ) + δ ( f + fc )] =
2 k=−∞
AC +∞
= ∑ Jk (β )[δ ( f − fc −k f1 ) + δ ( f + fc −k f1 )]
2 k=−∞
f∆
∴ β= X (5.40)
f1
A interpretação desta equação não é trivial mas permite-nos ver que o espectro de FM é efectiva-
mente ilimitado! No caso que temos estado a tratar em que o sinal modulante é sinusoidal, vemos
que cada componente em torno da frequência da portadora vem ponderada pela função de Bessel
que, por sua vez, depende da relação entre a amplitude do sinal modulante e do quociente da frequên-
cia de desvio pela sua própria frequência. Mais adiante dar-se-ão exemplos ilustrativos do espectro
de FM.
Regra de Carson
BT ≈ 2( f∆ + fmáx ) (5.41)
onde fmáx é a máxima frequência do sinal modulante. Esta regra pode ser estendida à modulação de
uma portadora sinusoidal por um processo estocástico de suporte B:
T
BT ≈ 2( f∆ + B) (5.42)
f∆
Na figura 5.22 ilustra-se a equação (5.40) para vários valores de β = f1 X, assinalando-se a
cor vermelha a largura de banda dada pela regra de Carson, equação (5.42).
1
PXFM = AC2 (5.43)
2
1 1
0.5
0.5
0
0
−0.5
−1 −0.5
−100 −50 0 50 100 −100 −50 0 50 100
2 1
1 0.5
0 0
−1 −0.5
−2 −1
−100 −50 0 50 100 −100 −50 0 50 100
4 2
1
2
0
0
−1
−2 −2
−100 −50 0 50 100 −100 −50 0 50 100
Figura 5.22: Espectro FM modulado por sinusoide. À esquerda X = 0, 1 e à direita, X = 1. De cima para
baixo (ambos os gráficos), f1 = 100 Hz, 1 kHz e 8 kHz, com f∆ = 75 kHz. A frequência zero em todos os
gráficos corresponde à frequência da portadora fc .
Recordando a relação entre fase e frequência instantâneas, equções (5.27) e (5.27), podemos
ver que um processo de obter um modulador de fase tendo como base um modulador de frequên-
cia é usar como sinal modulante do modulador de FM, a derivada do sinal que se quer transmitir.
Atentando na equação (5.31), verifica-se imediatamente que se substituirmos X(t) → dtd X(t) obtere-
mos um resultado idêntico ao da equação (5.30) que caracteriza precisamente a portadora modulada
em fase. De uma forma similar, se na saída do receptor de FM colocarmos um circuito integrador,
obteremos um desmodulador de fase.
10 Apré-ênfase consiste numa amplificação das altas frequências do sinal modulante e que será mais adiante abordada
aquando do desempenho dos sistemas de comunicação por portadoras moduladas; o valor de 75µs reporta-se à constante
de tempo do zero da função de resposta em frequência da equação (6.90).
238 CAPÍTULO 5. MODULAÇÃO DE PORTADORAS SINUSOIDAIS
5 espiras
4p7
4p-40p 100
3k3 2k2 9V
10n
47u + .1u 47u +
Áudio
7k5
10n
A desmodulação de frequência deve ser efectuada num dispositivo que produza na saída
uma amplitude que dependa directamente da frequência (instantânea) do sinal de entrada. Aliás, é
fácil de perceber esta questão se representarmos graficamente a equação que relaciona a frequência
instantânea da portadora com o sinal modulante, F(t) = fc + f∆ X(t), figura 5.24.
Figura 5.24: Frequência instantânea na modulação de frequência, em função da amplitude do sinal modu-
lante.
Portanto, o desmodulador deve efectuar a operação inversa, ou seja, deve ter uma saída cuja
amplitude, para uma entrada de amplitude constante11 , varie proporcionalmente com a frequência
instantânea do sinal na sua entrada.Este dispositivo é conhecido por discriminador de frequência e
D
a sua característica entrada-saída indica-se na figura 5.25.
e que identificamos como sendo uma portadora modulada em amplitude. Então, a detecção de
11 Esta é a razão que leva a incluir um dispositivo limitador de amplitude antes da desmodulação de frequência. No
capítulo destinado ao estudo do desempenho de sistemas de comunicação, iremos retomar este assunto
5.2. MODULAÇÃO DE ÂNGULO 239
Na figura 5.27 exemplificam-se os conceitos apresentados, onde se pode ver que o sinal deri-
vado (em baixo) tem uma envolvente que corresponde ao sinal modulante.
A utilização prática de ciruitos derivadores coloca problemas pelo que o seu uso como des-
moduladores é pouco mais do que uma «curiosidade de laboratório». Têm sido utilizados dois tipos
de detectores: o discriminador de Foster-Seeley e o detector de razão (ratio) e que se apresentam
na fig. 4.32. Se bem que os pormenores do seu funcionamento estejam fora do âmbito desta UC,
trata-se de dispositivos que aproveitam a diferença de fase entre enrolamentos dos transformadores
quando a frequência do sinal modulado em FM se desvia da frequência de ressonância fc . Com a di-
vulgação dos circuitos integrados graças ao seu baixo custo, este tipo de detectores que necessitam
de um fabrico e afinação cuidadosos, têm vindo a ser substituídos por malhas de captura de fase,
PLL12 .
O diagrama de blocos da malha de captura de fase indica-se na figura 5.29 e o seu modelo simpli-
ficado na figura 5.30, quando a diferença de fase entre o sinal recebido XR (t) e XVCO (t), o sinal de
saída do oscilador controlado por tensão (VCO), é suficientemente pequena para que a aproximação
sen(ΦR (t) − ΦVCO (t)) ≈ ΦR (t) − ΦVCO (t) seja válida.
12 PLL, do inglês Phase Locked Loop
240 CAPÍTULO 5. MODULAÇÃO DE PORTADORAS SINUSOIDAIS
0.5
−0.5
−1
−2 −1 0 1 2 3 4 5
0.5
−0.5
−1
−2 −1 0 1 2 3 4 5
100
50
−50
−100
−2 −1 0 1 2 3 4 5
Figura 5.27: Detecção de FM: em cima, sinal modulante; ao centro, sinal de FM, em baixo, sinal após o
derivador.
Na figura 5.31 ilustra-se a detecção de FM de uma portadora modulada por um sinal sinusoidal
(em baixo) e por uma onda quadrada (em cima).
Na banda de VHF destinada à rádiodifusão pública (entre os 87,5 MHz e os 108 MHz) a
maioria das estações emite a sua programação em estereofonia; quer isto dizer que são enviados
dois canais em simultâneo, na mesma portadora. Por questões de compatibilidade, o sistema de es-
tereofonia foi desenhado para que os receptores «mono», existentes desde 1940, pudessem usufruir
das novas emissões, iniciadas a partir de 1961. Assim, a soma dos canais esquerdo (L) e direito (R),
ambos limitados a 15 kHz, vai modular directamente a portadora, enquanto que a diferença destes
dois canais, vai modular em banda lateral dupla uma sub-portadora de 38 kHz. Esta modulação, em
DSB, juntamente com um «piloto» de 19 kHz, são adicionadas à soma dos canais L e R, conforme
se representa na figura 5.32.
Nos sistemas de rádio-difusão em FM, o sinal modulante de áudio sofre ainda uma pré-ênfase
5.2. MODULAÇÃO DE ÂNGULO 241
Figura 5.29: Malha de captura de fase, PLL, onde VCO significa: Voltage Controlled Oscilator.
(utilização de uma malha passa-alto com uma constante de tempo de 50µs13 ). No receptor haverá
uma filtragem passa-baixo correspondente, com igual constante de tempo. O resultado deste pro-
cesso é uma melhoria perceptualmente significativa na relação sinal/ruído nos receptores de FM. No
capítulo seguinte iremos justificar teoricamente esta filtragem.
13 Este valor para a constante de tempo é o adoptado na Europa, enquanto que, nos EUA é de 75µs.
242 CAPÍTULO 5. MODULAÇÃO DE PORTADORAS SINUSOIDAIS
0.8
0.6
0.4
0.2
0 2 4 6 8 10 12 14
a)
0.5
−0.5
−1
0 2 4 6 8 10 12 14
b)
Figura 5.31: Exemplo de detecção FM usando PLL: em a) com um sinal modulante janela rectangular e,
em b) com um sinal modulante sinusoidal; em ambos os casos, os sinais modulantes estão a cor azul e os
detectados a verde.
Nesta secção apresentam-se somente as formas de onda resultantes dos diversos tipos de mo-
dulações atrás estudados: de amplitude (DSB e AM) e de ângulo (seja a de fase, seja a de frequência),
considerando dois sinais modulantes distintos: sequência binária polar sem retorno a zero e uma si-
nusoide. A modulação em banda lateral única é também apresentada numa subsecção distinta pois
não é fácil de intuir a forma de onda do sinal modulado; de facto, se a modulação fosse resultante de
um sinal sinusoidal, a forma de onda de XSSB (t) seria, aparentemente, uma sinusoide de amplitude
constante... como, aliás, se mostrará.
Apresentam-se, nas figuras 5.34, 5.35 e 5.36, de cima para baixo, o sinal modulante, as mo-
dulações (respectivamente) de amplitude14 , de fase e de frequência, com os índices de modulação a
0%, a 25%, a 50% e a 100%.
Sinal Modulante
1
−1
−1 0 1 2 3 4 5 6 7 8 9 10
DSB
1
0
−1
−1 0 1 2 3 4 5 6 7 8 9 10
AM (25%)
1
0
−1
−1 0 1 2 3 4 5 6 7 8 9 10
AM (50%)
1
0
−1
−1 0 1 2 3 4 5 6 7 8 9 10
AM (100%)
2
−2
−1 0 1 2 3 4 5 6 7 8 9 10
Figura 5.34: Modulação de portadora sinusoidal em amplitude por uma sequência binária.
5.3. EXEMPLOS DE MODULAÇÕES 245
Sinal Modulante
1
−1
−1 0 1 2 3 4 5 6 7 8 9 10
PM (0%)
1
0
−1
−1 0 1 2 3 4 5 6 7 8 9 10
PM (25%)
1
−1
−1 0 1 2 3 4 5 6 7 8 9 10
PM (50%)
1
−1
−1 0 1 2 3 4 5 6 7 8 9 10
PM (100%)
1
−1
−1 0 1 2 3 4 5 6 7 8 9 10
Figura 5.35: Modulação de portadora sinusoidal em fase por uma sequência binária.
A modulação em banda lateral única, sendo, embora, uma modulação de amplitude, surge
em secção destacada uma vez que não há uma relação imediata entre a forma de onda do sinal
modulante e a do sinal modulado. À semelhança do número anterior, começaremos por utilizar
um sinal sinusoidal e, posteriormente, um sinal binário. Naquele, e contra o que seria de esperar
à primeira vista, obtém-se simplesmente uma sinusoide de amplitude constante. Efectivamente, se
atendermos ao facto de que uma modulação em DSB por um sinal sinusoidal X(t) = X · cos(2π fmt)
14 No caso da modulação de amplitude, em vez de se considerar a modulação com 0% de índice de modulação, incluiu-
se, no seu lugar, a modulação DSB.
15 No caso da modulação de amplitude, em vez de se considerar a modulação com 0% de índice de modulação, incluiu-
Sinal Modulante
1
−1
−1 0 1 2 3 4 5 6 7 8 9 10
FM (0%)
1
0
−1
−1 0 1 2 3 4 5 6 7 8 9 10
FM (25%)
1
−1
−1 0 1 2 3 4 5 6 7 8 9 10
FM (50%)
1
−1
−1 0 1 2 3 4 5 6 7 8 9 10
FM (100%)
1
−1
−1 0 1 2 3 4 5 6 7 8 9 10
Figura 5.36: Modulação de portadora sinusoidal em frequência por uma sequência binária.
resulta em
1
XDSB (t) = X(t) · Ac cos(2π fc t) = X · Ac · [cos(2π(fc + fm )t) + cos(2π(fc − fm )t)] (5.45)
2
e que a modulação em banda lateral consiste em, por exemplo, filtrar uma das duas bandas laterais,
obteremos para Banda Lateral Única
T
(
1
XSSB (t) = 2 X · Ac · cos(2π(fc + f m )t) Banda Lateral Superior
(5.46)
1
2 X · Ac · cos(2π(fc − f m )t) Banda Lateral Inferior
e que, em qualquer dos casos, não é mais do que uma sinusoide de amplitude constate, embora com
uma frequência distinta da da portadora.
5.3. EXEMPLOS DE MODULAÇÕES 247
Sinal Modulante
1
−1
−1 0 1 2 3 4 5 6 7 8 9 10
DSB
1
0
−1
−1 0 1 2 3 4 5 6 7 8 9 10
AM (25%)
1
0
−1
−1 0 1 2 3 4 5 6 7 8 9 10
AM (50%)
1
0
−1
−1 0 1 2 3 4 5 6 7 8 9 10
AM (100%)
2
−2
−1 0 1 2 3 4 5 6 7 8 9 10
Sinal Modulante
1
−1
−1 0 1 2 3 4 5 6 7 8 9 10
PM (0%)
1
0
−1
−1 0 1 2 3 4 5 6 7 8 9 10
PM (25%)
1
−1
−1 0 1 2 3 4 5 6 7 8 9 10
PM (50%)
1
−1
−1 0 1 2 3 4 5 6 7 8 9 10
PM (100%)
1
−1
−1 0 1 2 3 4 5 6 7 8 9 10
Sinal Modulante
1
−1
−1 0 1 2 3 4 5 6 7 8 9 10
FM (0%)
1
0
−1
−1 0 1 2 3 4 5 6 7 8 9 10
FM (25%)
1
−1
−1 0 1 2 3 4 5 6 7 8 9 10
FM (50%)
1
−1
−1 0 1 2 3 4 5 6 7 8 9 10
FM (100%)
1
−1
−1 0 1 2 3 4 5 6 7 8 9 10
Sinal Modulante
1
−1
−1 0 1 2 3 4 5 6 7 8 9 10
Componente "COSSENO"
1
0
−1
−1 0 1 2 3 4 5 6 7 8 9 10
TH[sinal modulante]
5
0
−5
−1 0 1 2 3 4 5 6 7 8 9 10
Componente "SENO"
5
0
−5
−1 0 1 2 3 4 5 6 7 8 9 10
SSB
5
0
−5
−1 0 1 2 3 4 5 6 7 8 9 10
Figura 5.40: Modulação de portadora sinusoidal em banda lateral única por uma sequência binária.
5.3. EXEMPLOS DE MODULAÇÕES 249
Sinal Modulante
1
−1
−1 0 1 2 3 4 5 6 7 8 9 10
Componente "COSSENO"
1
0
−1
−1 0 1 2 3 4 5 6 7 8 9 10
TH[sinal modulante]
1
−1
−1 0 1 2 3 4 5 6 7 8 9 10
Componente "SENO"
1
−1
−1 0 1 2 3 4 5 6 7 8 9 10
SSB
1
−1
−1 0 1 2 3 4 5 6 7 8 9 10
Figura 5.41: Modulação de portadora sinusoidal em banda lateral única por um sinal sinusoidal.
250 CAPÍTULO 5. MODULAÇÃO DE PORTADORAS SINUSOIDAIS
P. 1: Considere uma portadora modulada em amplitude e caracterizada por XAM (t) = 4[XDC +
X(t)] cos(2π fct).
Resolução
1
P = (4 · XDC )2 = 8 · XDC
2
2
(b) Para não haver sobremodulação é necessário que ∀t ∈ R : [XDC + X(t)] ≥ 0, pelo que
√ √
XDC ≥ 2 uma vez que o min{X(t)} = − 2, conforme se mostra na figura 5.42 ao
centro.
A2c 2
PXAM = [X + PX ]
2 DC
√
Como X(t) = 2 cos(2π f1t) ⇒ PX = 1, teremos,
A2c 2 42 80
PXAM = [XDC + PX ] = [22 + 1] = = 40 W
2 2 2
A2c
(d) A potência em DSB é, como é sabido, PXDSB = 2 [PX ] o que, neste caso, resulta em
A2c 42
PXDSB = [PX ] = =8W
2 2
P. 2: Considere um dispositivo electrónico não linear cuja intensidade de corrente é dada por i(t) =
X(t) + cos(2π fc t) e que apresenta aos seus terminais uma diferença de potencial v(t) = a1 ·
i(t) + a2 · i2 (t) sendo a1 e a2 constantes. Sabendo que X(t) é uma função amostra de um
processo estocástico de média nula e suporte numa banda de frequências B e ainda que fc B,
mostre que se pode obter uma modulação de amplitude através de uma filtragem passa-banda
da tensão v(t).
5.4. PROBLEMAS RESOLVIDOS 251
10
3
5
2
0
1
0 −5
−1 −10
0 1 2 3 4 0 1 2 3 4
20
3
10
2
0
1
0 −10
−1 −20
0 1 2 3 4 0 1 2 3 4
20
3
10
2
0
1
0 −10
−1 −20
0 1 2 3 4 0 1 2 3 4
Figura 5.42: Modulação de portadora sinusoidal em AM com sobremodulação (em cima), 100 % modulada
(ao centro) e modulada ≈ 74% (em baixo); os gráficos da esquerda representam XDC + X(t) e os gráficos da
direita representam XAM (t).
a1 · X(t)
a2 · X 2 (t)
a2 · 21 (1 + cos(2π2 fc t))
obteremos
vo (t) = a1 · cos(2π fc t)] + 2a2 · X(t) · cos(2π fc t) (5.48)
252 CAPÍTULO 5. MODULAÇÃO DE PORTADORAS SINUSOIDAIS
AC = 2a2
(5.49)
sendo
a1
XDC =
2a2
Nota a eliminação de x2 (t) pelo filtro passa-banda pressupõe, efectivamente que se tem
fc ≥ 3B. De facto, se x(t) é limitado a B ou seja, ∀| f | > B → GX ( f ) = 0, então mostra-se facil-
mente16 que x2 (t) vem limitado a 2B.
Nesta equação, o termo assinalado com ⊗ irá ser rejeitado pelo filtro passa-baixo, visto que
ocupa uma banda de largura 2B centrada na frequência da portadora fc que se supõe muito
maior do que B.
Resta-nos o segundo termo desta equação que desenvolveremos de seguida, considerado sem
perda de generalidade que a2 = 2:
16 Basta recordar que x2 (t) = x(t) · x(t) e que o espectro de x2 (t) será a convolução do espectro de x(t) por si próprio, o
que dará a x2 (t) um suporte de 2B.
5.4. PROBLEMAS RESOLVIDOS 253
onde, o termo assinalado com ⊗ será, à semelhança do sucedido na equação (5.51) também
rejeitado pelo filtro passa-baixo.
Finalmente, o bloco radiciador devolverá na sua saída o sinal modulante (adicionado ao termo
constante XDC , cuja eliminação é trivial):
√
AC2 [XDC + X(t)]2 → [ · · ·] → AC [XDC + X(t)] (5.53)
P. 4: Suponha que, no sistema QAM da figura seguinte (figura 5.43) há uma desfasagem de π/10
rad entre as portadoras do modulador e do desmodulador. Determine, para a saída A, a diafonia
resultante (em dB) entre os dois canais X e Y .
Resolução A diafonia mede a relação entre as potências de dois sinais provenientes de ca-
nais distintos. Assim, o que se pretende é determinar qual a potência da componente Y que
vai aparecer na saída A da figura 5.43. É fácil de ver que, a partir da equação (5.24), o sinal
nesta saída vem dado por A(t) = X(t) · cos(∆θ ) + Y (t) · sen(∆θ ), onde ∆θ = π/10. Então,
teremos que a potência do sinal desmodulado PA = PX · cos2 (∆θ ) + PY · sen2 (∆θ ), ou seja,
PA = PX · 0, 905 + PY · 0, 095 o que corresponde a dizer que a componente de Y está ≈ 9, 8 dB
abaixo da componente X desejada.
É fácil de mostrar que, se pretendermos que X2 esteja pelo menos 40 dB abaixo de X1 , a desfa-
sagem entre as portadoras terá de ser inferior a 0, 57o !
17 Neste exemplo, uma diafonia de +∞ significa que apenas se obtém o sinal original e não o canal interferente; se, ao
contrário, a diafonia for de −∞, então apenas se obtém o sinal interferente. Claro que uma fiadonia nula (0 dB), os sinais
original e interferente têm a mesma amplitude.
254 CAPÍTULO 5. MODULAÇÃO DE PORTADORAS SINUSOIDAIS
50
40
30
20
10
Diafonia [dB]
0
−10
−20
−30
−40
−50
0 10 20 30 40 50 60 70 80 90
Desfasagem [o]
Figura 5.44: Diafonia (dB) em função da desfasagem das portadoras (em o ) na modulação QAM.
frequência pelo sinal x(t) = X cos(2π f1t). Supondo que se tem β = ff∆1 X = 1, determine o
espectro de xFM (t) na banda de frequências | f − fc | ≤ 2, 5 · f1 .
Resolução Comecemos por recordar a equação (5.40) que, neste caso, assume a forma
AC +∞
XFM ( f ) = ∑ Jk (β )[δ ( f − fc +k f1 ) + δ ( f + fc −k f1 )]
2 k=−∞
(5.54)
que podemos programar para obter os seguintes resultados da tabela 5.2 (até ao 3o dígito
significativo).
Na posse destes valores, obtemos a representação gráfica da figura 5.45, onde se supôs por
questões de facilidade que AC = 1.
k 0 1 2 3 4 5
Jk (1) 0,765 0,440 0,115 0,020 0,003 0,000
5.4. PROBLEMAS RESOLVIDOS 255
Mostre que, recorrendo às transformadas de Fourier dos sinais nos diferentes blocos da figura,
na saída do modulador se obtém uma modulação em banda lateral única (superior).
Resolução Comecemos por redesenhar o sistema de modulação da figura 5.46 mas agora
representando-o não no domínio do tempo mas no da frequência, conforme se ilustra na figura
5.47.
Supondo então que M( f ) tem suporte em | f | < B e que, conforme o enunciado, f0 = B/2), a
figura 5.48 representa os espectros M( f ), A( f ), B( f ), D( f ) e E( f ).
Se, no ponto de soma/diferença na figura 5.48 se somasse, em vez de subtrair, o sinal (espec-
tro) F( f ) ao sinal (espectro) C( f ), obteríamos uma modulação de banda lateral inferior que
se representa na figura 5.50.
Repare-se que há uma diferença entre fc desta modulação em banda lateral única, indepen-
dentemente de ser em banda (lateral) superior ou inferior, e a frequência da portadora AM que
foi, também, escolhida como sendo fc .
onde u( Tt1 ) é a janela rectangular de amplitude unitária e de duração T1 e onde o sinal m(t) é
o sinal modulante.
(a) Mostre que à saída se obtém uma modulação de amplitude ou em banda lateral dupla;
5.4. PROBLEMAS RESOLVIDOS 257
M(f)
-B B f
A(f)
-B -B/2 B/2 B f
H(f)
-B/2 B/2 f
B(f)
-B/2 B/2
f
Im{D(f)}
-B -B/2 B/2 B
f
Im{E(f)}
-B/2 B/2 f
(b) Estabeleça condições para m(t) correspondam a ter-se uma modulação DSB/SC ou AM.
Resolução
T1 +∞
P( f ) = ∑ sinc(k f0 T1 ) · δ ( f − k f0 )
T0 k=−∞
(5.59)
18 Atenção que neste problema, a onda quadradada é simétrica (DC=50%) o que não se verifica necessariamente no
caso que estamos a tratar. No mesmo capítulo podemos encontrar a dedução dos coeficientes de Fourier (equação (1.47))
da onda quadrada não-simétrica e que utilizámos nesta resolução.
258 CAPÍTULO 5. MODULAÇÃO DE PORTADORAS SINUSOIDAIS
B(f)
-B/2 B/2 f
C(f)
-f c fc f
Im{E(f)}
-B/2 B/2 f
F(f)
-f c fc f
Y(f)
-f c fc f
Figura 5.49: Modulador de Banda Lateral Única, método de Weaver (banda lateral superior). Note-se que
as amplitudes relativas dos espectros não estão à escala.
C(f)
-f c fc f
F(f)
-f c fc f
Y(f)
-f c fc f
Figura 5.50: Modulador de Banda Lateral Única Inferior. Note-se que as amplitudes relativas dos espectros
não estão à escala.
~
m(t) ~ x (t)
m
~
fc
p(t) BT
Calculemos agora o valor médio (média temporal) de x(t), a que chamaremos XDC ,
Z +∆
1 2
XDC = lim m(t)dt (5.61)
∆→∞ ∆ ∆
2
Independentemente do valor que se obtenha para XDC , o sinal xAC (t) , x(t) − XDC terá
forçosamente valor médio nulo; assim, o sinal
P. 8: Seja X (t) o processo modulante que se supõe ter potência PX = 2 e sabe-se ainda que
|X (t)| ≤ 1, 5 durante 100% da sua duração. Considerando uma portadora sinusoidal de 7
Vef de amplitude, determine as potências necessárias para emitir em DSB/SC, AM e FM.
√
Resolução Reparemos que é-nos dada a amplitude eficaz, pelo que Ac = 2Aef o que leva
a ter-se nas próxima esquações A2c = 2 · Aef . Analisaremos separadamente cada modulação.
Assim, sejam as modulações
• DSB/SC: A potência é (equação (5.16)) PDSB = 21 A2c PX o que, utilizando então a ampli-
tude eficaz, PDSB = A2ef PX = 72 · 2 = 98 W20 ;
• AM: o processo mais simples é supor que não ocorre sobremodulação e ainda que XDC =
1, 521 . Neste caso, será então (equação (5.11)), PAM = 12 A2c (XDC
2 +P ) = A2 (X 2 +P ) =
X ef DC X
2
49 · (1, 5 + 2) = 208, 3 W;
• FM: este é o caso mais simples, pois (admitindo que se trata de modulação FM de banda
larga22 ) a potência é dada pela equação (5.43), PFM = 12 A2c = A2ef = 49 W.
Estes resultados estão sumarizados na tabela 5.3 para melhor comparação das potências ne-
cessárias.
Tabela 5.3: das potências para diferentes modulações
Resolução Na figura 5.52 repetimos (à esquerda) a figura 5.10 para compará-la com a figura
5.51 (à direita) e verificar que apenas o bloco de saída é distinto.
Assim, podemos aproveitar parte da resolução do problema P. 3:, pelo que o espectro (trans-
formada de Fourier) do sinal à saída do produto é
T1 +∞
M( f ) ∗ P( f ) = ∑ sinc(k f0 T1 ) · [M( f − k f0 ) + M( f − k f0 )]
T0 k=−∞
20 Estamos a partir do pressuposto que o valor médio de m(t) é nulo.
21 Não podemos de imediato atribuir um valor a XDC , tudo dependendo da sua forma de onda. No entanto, com o valor
indicado, a sobre-modulação não ocorrerá; quando muito, e no pior caso, a profundidade de modulação (equação (5.17))
não se aproximaria dos 100%.
22 Se for de banda estreita, trata-se como se fosse AM, como já se demonstrou oportunamente.
5.4. PROBLEMAS RESOLVIDOS 261
~
m(t) ~ x (t)
m
~
fc
p(t) BT
T1 +∞
∑ sinc(k f0 T1 ) · [XAM ( f − k f0 ) + XAM ( f + k f0 )]
T0 k=−∞
Ac T1 +∞
∑ sinc(k f0 T1 ) · [2XDC δ ( f − k f0 ) + X( f − (k + 1) f0 ) + X( f − (k − 1) f0 )+
2T0 k=−∞
+2XDC δ ( f + k f0 ) + X( f + (k − 1) f0 ) + X( f + (k + 1) f0 )]
O filtro passa baixo irá eliminar toas as componentes na frequência longe da origem e, admi-
tindo que a sua largura de banda é adequada ao espectro da mensagem, teremos então
2T1
· [XDC + sinc(f0 T1 )x(t)
T0
que se obtém
2T1
· sinc(f0 T1 ) · x(t)
T0
ou seja, um sinal proporcional ao sinal (mensagem) original23 .
23 Se, T0 2T1 2
por exemplo, T1 = 2, o termo T0 · sinc(f0 T1 ) vale π = 0, 637.
262 CAPÍTULO 5. MODULAÇÃO DE PORTADORAS SINUSOIDAIS
Capítulo 6
DESEMPENHO DE SISTEMAS DE
TELECOMUNICAÇÕES
Comecemos por introduzir uma nova transformação, a transformada de Hilbert. Esta trans-
formada tem crucial importância na análise de sinais, pois veio permitir todo o formalismo adequado
à representação de sinais modulados e de processos passa-banda no espaço de sinais.
D
1 Resta-nos, felizmente, a possibilidade de aproximar este sistema dentro de certos critérios. Contudo, esta aproxima-
ção está fora do âmbito da Unidade Curricular.
263
264 CAPÍTULO 6. DESEMPENHO DE SISTEMAS DE TELECOMUNICAÇÕES
onde VP representa o valor principal de Cauchy2 e sempre que este integral for diferente de infinito.
A correspondente transformada inversa é dada por
1 ĝ(τ)
Z
g(t) , TH[g(t)] = − dτ (6.3)
π t −τ
R
Esta transformada goza das seguintes propriedades que apresentamos sem demonstração.
T
Corolário
1
g(t) ∗ = ĝ(t) (6.4)
πt
T
Corolário
Z
ĝ(t)⊥g(t) = ĝ(t)g(t)dt = 0 (6.5)
R
T
Corolário
TH[TH[g(t)]] = TH[ĝ(t)] = −g(t) (6.6)
T
Corolário
1
TF[ĝ(t)] = Ĝ( f ) = TF[g(t) ∗ ] = − j · sign( f ) · G( f ) (6.7)
πt
(
1 x>0
onde sign(x) = .
−1 x<0
T
2O valor principal de Cauchy é dado por
Z b t0 −ε Z b
Z
VP g(t)dt , lim g(t)dt + g(t)dt (6.2)
a ε→0 a t0 +ε
sendo que g(t) pode ser não-limitada num ponto t0 ∈ [a, b], ou seja, limt→t0 sup|g(t)| = ∞ e mesmo que não existam os
limites laterais.
6.1. INTRODUÇÃO AO ESPAÇO DE SINAIS 265
|Ĝ( f )| = |G( f )|
(6.8)
π
2 f <0
∠Ĝ( f ) = ∠G( f ) +
− π2 f >0
Ou seja, em resumo, podemos ver que a transformada de Fourier de um dado sinal tem,
em módulo, o mesmo valor que a transformada de Fourier da transformada de Hilbert desse sinal; a
diferença ocorre exclusivamente na fase da transformada de Fourier que aparece somada ou subtraída
de π/2 radianos, consoante a frequência f seja, respectivamente, negativa ou positiva.
O transformador de Hilbert é, pela sua definição (equação (6.1)), um SLIT de resposta im-
pulsiva h(t) = πt1 que, como facilmente se depreende, é não-causal, logo fisicamente irrealizável!
A propriedade expressa pela equação (6.5) significa que um sinal e a sua transformada de
Hilbert são, em todo o seu domínio, sinais ortogonais.
Tabela 6.1: das transformadas de Hilbert, supondo m(t) com suporte numa banda B.
g(t) ĝ(t)
1
δ (t) πt
1
πt −πδ (t)
cos(2π fc t) sen(2π fc t)
sen(2π fc t) − cos(2π fc t)
m(t) · cos(2π fc t) m(t) · sen(2π fc t)
m(t) · sen(2π fc t) −m(t) · cos(2π fc t)
sen(2π fc t) 1−cos(2π fc t)
t t
− π1 log |t−1/2|
d
(t) = rect(t) |t+1/2|
M( f )
− fc fc f
M ( f + fc ) M ( f − fc )
− fc fc f
−M ( f + fc )⋅ sign( f + fc ) M ( f − fc )⋅ sign( f − fc )
− fc fc f
SSB-UB
− fc fc f
SSB-LB
-
− fc fc f
Figura 6.1: Obtenção da modulação em banda lateral única superior (SSB-UB) e banda lateral inferior (SSB-
LB). Note-se que as amplitudes dos espectros não estão representadas com as proporções correspondentes.
Comparem-se os dois espectros em baixo da figura 6.1 com os das 5.1 e da figura 5.5 para
melhor se perceber o significado da modulação em banda lateral única. Uma vantagem deste tipo de
modulação é a largura de banda necessária que é precisamente igual à do sinal modulante, B.
6.2. REPRESENTAÇÃO CANÓNICA DE SINAIS 267
Iremos trabalhar genericamente com sinais passa-banda, ou seja, sinais centrados em torno
de uma dada frequência central fc e cuja largura de banda BT é-lhe, por hipótese, muito inferior:
BT fc .
D
Definição: Pré-Envolvente ou Sinal Analítico a pré-envolvente ou o sinal analítico g+ (t) de um
dado sinal passa-banda g(t) é
g+ (t) , g(t) + jĝ(t) (6.13)
e, por conseguinte, T
g(t) = Re{g+ (t)}
(6.14)
ĝ(t) = Im{g+ (t)} , TH[g(t)]
0 f <0 (6.15)
= G(0) f =0
2G( f ) f >0
2G( f )
f <0 (6.16)
= G(0) f =0
0 f >0
onde g̃(t) se designa por envolvente complexa. Nesta representação, é bem patente o facto de g(t) ser
D
um sinal de características passa-banda e g̃(t) um sinal de características passa-baixo, pois a equação
(6.17) pode ser entendida como um processo de modulação de amplitude, onde g̃(t) aparece como
a envolvente (sinal modulante) de uma portadora sinusoidal de frequência fc . Concentremos agora
a nossa atenção sobre a envolvente complexa e decomponhamos-la nas suas componentes real e
imaginária
D
g̃(t) = gI (t) + jgQ (t) (6.18)
268 CAPÍTULO 6. DESEMPENHO DE SISTEMAS DE TELECOMUNICAÇÕES
Na figura 6.2 apresenta-se um diagrama de blocos ilustrando uma implementação desta equação,
onde o sistema efectua a decomposição do processo passa-banda g(t) nas suas componentes em fase
e em quadratura (análise).
Filtro
X Passa-Baixo gI (t)
BT/2
2 cos(2π fct)
g(t)
π
−
2
−2sen(2π f c t)
Filtro
X Passa-Baixo gQ (t)
BT/2
De uma forma complementar, um processo passa-banda pode ser obtido a partir das suas
componentes passa-baixo em fase e em quadratura, como se indica na figura 6.3 (síntese).
gI (t) X
cos(2π fct)
+ g(t)
π
-
−
2
−sen(2π f c t)
gQ (t) X
Figura 6.3: Obtenção de um processo passa-banda a partir das suas componentes em fase e em quadratura.
onde vemos que um processo passa-banda g(t) resulta de uma modulação mista de amplitude, atra-
vés de uma amplitude a(t), e de ângulo (modulação de fase) através de Φ(t). No quadro seguinte
resumem-se as relações anteriores:
T
q
a(t) = |g̃(t)| = |g+ (t)| = g2I (t) + g2Q (t)
g (t)
Φ(t) = arctg gQI (t)
(6.22)
gI (t) = a(t) · cos(Φ(t))
moduladas.
de Gauss). Assim, seja W (t) o processo estocástico WSS que modela o ruído à entrada do receptor
que caracteriza a variável aleatória que modela as suas amplitudes tem uma distribuição normal ou
branco (densidade espectral de potência constante) e gaussiano (a função densidade de probabilidade
práticas, é «confortante» admitir que este ruído é aditivo (ou seja, aparece adicionado ao sinal), é
Tabela 6.2: das componentes em fase, em quadratura, das amplitudes e das fases instantâneas de portadoras
CAPÍTULO 6. DESEMPENHO DE SISTEMAS DE TELECOMUNICAÇÕES
6.2. REPRESENTAÇÃO CANÓNICA DE SINAIS 271
(figura 6.5) e do qual se assume ter média nula e densidade espectral de potência constante,
mW = 0
(6.23)
η
GW ( f ) =
2
d | f −fc |
Sendo então H( f ) = BT a função de resposta em frequência do filtro passa-banda
ideal, teremos para a função densidade espectral de potência à sua saída
T
η
GN ( f ) = |H( f )|2 GW ( f ) = · |H( f )|2 (6.24)
2
Esta equação permite-nos calcular a potência do ruído filtrado,
T
Z − fcZ+BT /2 fc +B
Z T /2
PN = GN ( f )d f = GN ( f )d f + GN ( f )d f = ηBT (6.25)
R − fc −BT /2 fc −BT /2
Este resultado é muito importante e será utilizado amiúde nos parágrafos que se seguem.
Façamos na equação (6.21) g(t) = N(t), ou seja, consideremos um processo de ruído passa-
banda; então
N(t) = AN (t) · cos(2π fc t + ΦN (t)) =
(6.26)
= NI (t) · cos(2π fc t) − NQ (t) · sen(2π fc t)
em que AN (t) é a envolvente do ruído, ΦN (t) é a sua fase e NI e NQ as suas componentes em fase e
em quadratura, respectivamente, como se indica na figura 6.6.
Figura 6.6: Caracterização de um processo passa-banda a partir das suas componentes em fase e em qua-
dratura.
272 CAPÍTULO 6. DESEMPENHO DE SISTEMAS DE TELECOMUNICAÇÕES
O diagrama de blocos da figura 6.2 vai ser utilizado para decompor o ruído N(t) nas suas
componentes em fase e quadratura e seja HPBx ( f ) a função de resposta em frequência do filtros
d f
passa-baixo que, por hipótese se consideram ideais, isto é, HPBx ( f ) = BT .
A densidade espectral do processo N(t) já foi obtida anteriormente, equação (6.24) e, a partir deste
resultado, é trivial obter as potências das componentes em fase e em quadratura4
T
Z l
f
Z
PNI = PNQ = GNI ( f )d f = η · d f = ηBT (6.28)
BT
R R
As componentes em fase e quadratura do processo (de ruído) passa-banda são processos conjunta-
mente estacionários, com espectros (densidades espectrais de potência)
T
l f
GNI ( f ) = GNQ ( f ) = η · (6.29)
BT
ou seja, este processo tem suporte numa banda de frequências de frequências de [−B, B[, é de média
nula e tem potência PX
D
1 d θ
fΘ (θ ) = 2π ( 2π )
Processo WSS P(t) mP = 0 (6.32)
1 2
RP (τ) = 2 AC cos(2π fc τ)
ou seja, o processo da portadora tem uma fase modelada por uma variável aleatória uniformemente
distribuída de ] − π, π], é de média nula e tem uma potência de PP = 21 AC2 .
Uma vez que, neste parágrafo, estamos analisando a comunicação em banda de base, a porta-
dora é desnecessária, pelo que o sinal à saída do transmissor é a própria mensagem (ou o resultado
da sua codificação por, eventualmente, um dos códigos de linha mencionados anteriormente), e por
conseguinte, XT X = X(t). Então, o sinal à entrada do receptor vem5
O filtro da figura 6.7 é, na comunicação em banda de base, um filtro passa-baixo (ideal) cuja largura
de banda deverá ser igual ao suporte do processo da mensagem (para não a distorcer) e ao mesmo
tempo, limitar em frequência o ruído do canal. Seja, então,
(
l f 1 | f | < B2T
H( f ) = ( ) = ∴ BT = 2B (6.35)
BT 0 c.c.
a função de resposta em frequência este filtro. O sinal à sua saída conterá quer a mensagem enviada,
quer uma versão filtrada do ruído de canal
Na realidade, haveria que afectar a potência do sinal recebido pelas perdas do canal. Assim, se, por exemplo, as perdas
do canal fossem de 10 dB, a potência do sinal recebido (na ausência de ruído) seria um décimo da potência do sinal
transmitido, ou em geral, PXRX = αPXT X sendo α = 10− log10 [perdas em dB/10] .
274 CAPÍTULO 6. DESEMPENHO DE SISTEMAS DE TELECOMUNICAÇÕES
Z Z B Z B
η
PN = GN ( f )d f = GW ( f )d f = d f = ηB (6.38)
−B −B 2
R
E, sabendo que, na ausência de ruído, o sinal à saída do filtro é o próprio X(t), teremos que a relação
sinal/ruído à saída do filtro é
T PX PX PX
SNRR = RX = = (6.39)
PN PN ηB
sendo PXRX = PX |W (t)=0 .
Como vimos na equação (3.21), o sinal amostrado (consideremo-lo por ora uma função amos-
tra do processo X (t)) que se obtém à saída do bloco Discretização da figura 6.8 é dado por
+∞
xa (t) = ∑ x(k Ta )δ (t − k Ta ) (6.41)
k=−∞
→
−
binários X (k). Estes bits (na verdade as amplitudes correspondentes aos níveis lógicos «0» e «1»)
→
−
vão ser afectadas pelo ruído presente no canal, de sorte a que o sinal recebido Y (k) irá ser desco-
dificado mas apresentando, eventualmente, erros quando comparado a xq (t), pelo que, no final do
sistema teremos que o sinal reconstruído x̄(t) irá ser distinto de x(t). Assim, teremos
→
− →
−
Y (t) = X (t) ⊕ →
−
n (t) (6.42)
onde →
−n (t) representa um vector n-dimensional cujos componentes serão «0» nos instantes onde não
→
− →
−
ocorram erros nos bits do vector X (t) ou «1» conforme os valores dos bits de X (t) sejam alterados
e ⊕ representa a operação binária «ou exclusivo».
Ex
Exemplo Ilustremos a equação (6.42): suponhamos que o código de conversão era o código he-
xadecimal de 4 bit, que nos permitiria codificar os 16 níveis de quantificação e que, para um dado
instante de tempo t0 ,se enviaria pelo canal de transmissão a amostra quantificada
→
−
xq (t0 ) = 3 → X (t0 ) = [x1 (t0 ), x2 (t0 ), x3 (t0 ), x4 (t0 )] = [0, 0, 1, 1]
O sinal reconstruído x̄(t) irá diferir do sinal x(t) codificado devido aos erros de quantificação
e aos erros de transmissão
x̄(t) = x(t) + eq (t) + eT X (t) (6.43)
sendo, como já oportunamente vimos, o erro de quantificação eq (t) é dado por eq (t) = x(t) − xq (t) e
depende exclusivamente do número de níveis de quantificação (supondo uma quantificação uniforme
e sem memória). Por sua vez, os erros introduzidos pelo canal de transmissão vêm dados por
N−1
eT X (t)|t=k Ta = ∆ · ∑ dni (k Ta )e · 2i (6.44)
i=0
2
Já determinámos anteriormente Peq = ∆12 , pelo que só nos focaremos em PeT X . Supondo que os
erros no canal resultam de um processo estocástico caracterizado por uma variável aleatória com
distribuição uniforme, teremos que
N−1 N−1
= ∆2 ∑ ( ∑ E{ni (k Ta )nl (k Ta )}2l+i ) (6.46)
i=0 l=0
onde só nos resta determinar o valor esperado assinalado. Para tal, teremos que supor serem os erros
modelados por variáveis aleatórias independentes e sejam
E{ni (k
Ta )nl (k Ta )} =
12 · p + 02 · (1 − p) i=l
(6.48)
=
1 · 1 · p · p + 0 · 1 · (1 − p) · p+
i 6= l
+1 · 0 · p · (1 − p) + 0 · 0 · (1 − p) · (1 − p)
N−1 N−1
= ∆2 E{[ ∑ dni (k Ta )e2i ]2 } = ∆2 p ∑ (4i ) =
i=0 i=0
4N − 1
= ∆2 p (6.49)
3
Finalmente, teremos para a relação sinal/ruído de um sistema PCM de N bits num canal com
probabilidade de erro p
T
PX PX
SNRPCM = = ∆2 N =
Peq + PeT X + ∆2 p 4 −1
12 3
12 PX
= · (6.50)
∆2 1 + 4p(4N − 1)
6.4. DESEMPENHO EM PCM 277
Ex
Exemplo Determinemos a relação sinal ruído (conforme a equação (6.50)) no caso de termos um
sinal sinusoidal de amplitude X quantificado uniformemente com 10 bit e uma taxa de erros de
transmissão de 0,1%.
Então, teremos
PX = 12 X 2
∆ = 2X |
2N N=10
p = 0, 001
Na figura 6.9 apresenta-se a variação da relação sinal/ruído (em dB) com a probabilidade de
erro p, conforme a equação (6.50), para os valores de N assinalados. É interessante verificar que,
para N = 4 (quantificação de 16 níveis), a SNRPCM é essencialmente condicionada pelo erro de
quantificação (troço horizontal).
N=12
N=10
N=8
N=6
N=4
Figura 6.9: SNRPCM (dB) em função da probabilidade de erro para vários valores de N (número de bits de
quantificação).
278 CAPÍTULO 6. DESEMPENHO DE SISTEMAS DE TELECOMUNICAÇÕES
e que o processo da portadora é P(t) = AC · cos(2π fc t + Θ). Teremos para a potência do processo
AM,
1
PXAM = AC2 [XDC2
+ PX ] (6.52)
2
e que ocupa uma banda BT = 2B.
Consideremos, sem perda de generalidade, uma função amostra do processo como entrada
do detector coerente (apresentado na figura 5.11 e que se detalha na figura 6.10), o qual é em tudo
idêntico ao detector da componente em fase da figura 6.2 (reparemos que ambos utilizam o mesmo
sinal sinusoidal como portadora local, ou seja, cos(2π fc t)). Seja ainda n(t) uma função amostra do
processo estocástico N(t) resultante da filtragem passa-banda do ruído de canal W (t). Assim sendo,
teremos à saída do analisador da figura 6.2 os seguintes sinais:
(
xDI (t) = AC XDC + AC x(t) + nI (t)
(6.53)
xDQ (t) = 0 + nQ (t)
onde nI (t) e nQ (t) são, respectivamente, as componentes em fase e quadratura do ruído passa-banda
N(t).
Como ao receptor coerente não interessa o termo em quadratura e ainda como a componente
contínua proveniente da adição de XDC não transporta qualquer informação, sendo removida pela in-
terposição de uma capacidade em série com a saída6 , resta-nos, da equação (6.51), a função amostra
xDI (t) = AC x(t) + nI (t) que provém do processo XD (t) = AC X (t) + NI (t). Em virtude da inde-
pendência estatística das variáveis aleatórias X(t) e N(t), o processo resultante da detecção coerente
apresenta uma potência
PD = AC2 PX + PN (6.54)
6 Ou seja, XD (t) = XDC (t)|XDC =0 .
6.5. DESEMPENHO EM MODULAÇÃO DE AMPLITUDE 279
Ora, na ausência de ruído e recordando que a potência do sinal recebido (após o filtro passa-banda)
é
1
PXR = AC2 [XDC2
+ PX ] (6.55)
2
donde se retira que
2 2
PX = 2 · PXR − XDC (6.56)
AC
Dado que PD = PXR , pois é igual à potência PXAM do sinal transmitido, e substituindo Px agora obtido
(equação (6.56)) na equação (6.54),
PN = η BT = 2ηB (6.59)
uma vez que a largura de banda na modulação de amplitude é dupla do suporte da mensagem. Assim,
usando este resultado na equação (6.58), teremos para a relação sinal/ruído do detector
T
PD 2PXR − AC2 XDC
2 2PXR − AC2 XDC
2
SNRD = = = =
PN PN 2ηB
PXR AC2 XDC
2
PPort PPort
= − =γ− = γ −2 (6.60)
ηB 2ηB ηB PN
onde o termo PPort representa a potência gasta no envio da portadora. O resultado expresso na
equação (6.60) mostra que, em AM, a relação sinal/ruído à saída do detector é sempre inferior ao da
comunicação em banda de base; sendo a igualdade atingida quando não há envio da portadora, ou
seja em DSB/SC. Contudo, esta equação pode ser reescrita da seguinte forma
T
PPort 1 PPort ηB
SNRD = γ · (1 − 2 ) = γ · (1 − 2 )
PN γ PN PXR
o que, recordando que PXR = 12 AC2 [XDC
2 + P ], resulta em
X
T
PX
SNRD = γ · 2 (6.61)
XDC + PX
Se, por hipótese, considerarmos um sinal modulante sinusoidal, X(t) = X · cos(2π f1t) teremos que
a sua potência virá obviamente dada por PX = X 2 /2 e, para que não ocorra sobre-modulação, será
forçosamente XDC ≥ X e, por conseguinte,
T
1
SNRD = γ · ⇐⇒ SNRD |dB = γ|dB − 4, 8 dB
3
Na prática, e como se pretende a existência de alguma folga no valor de XDC para que não haja
sobre-modulação, é de esperar que, em AM, se tenha um desempenho cerca de 6 dB abaixo do que
seria esperado em DSB.
280 CAPÍTULO 6. DESEMPENHO DE SISTEMAS DE TELECOMUNICAÇÕES
Podemos verificar rapidamente, a partir das equações (6.21) e (6.26) e da figura 6.11, que o
detector de envolvente vai ter à sua saída o sinal
T
q
|XD (t)| = |aR (t)| = NQ2 (t) + [AC (XDC +X (t)) + NI (t)]2 (6.63)
q
= NQ2 (t) + [AC (XDC +X (t))]2 + NI2 (t) + 2NI (t) AC [XDC +X (t) = (6.64)
q
= a2N (t) + [AC (XDC +X (t))]2 + 2NI (t) AC [XDC +X (t)]
pois NQ2 (t) + NI2 (t) = a2N (t). Consideremos de seguida duas situações opostas: ruído forte e ruído
fraco. Estes casos serão detalhados em seguida, supondo que, com alta probabilidade, XDC +X (t) ≥
0, ou seja, não haja sobremodulação da portadora.
Ruído Forte
A situação de ruído forte caracteriza-se por ter uma amplitude de ruído elevada e que expli-
citaremos mais precisamente no seguimento. Reescreva-se a equação (6.64)
q
|XD (t)| = a2N (t) + 2NI (t) AC [XDC +X (t)] + [AC (XDC +X (t))]2 =
6.5. DESEMPENHO EM MODULAÇÃO DE AMPLITUDE 281
s
2NI (t) [AC (XDC +X (t))]2
= aN (t) 1 + AC [XDC +X (t)] + =
a2N (t) a2N (t)
s
2NI (t) AC [XDC +X (t)]
= aN (t) 1 + ε + ε2 ∴ ε= (6.65)
aN (t) aN (t)
D
Então, admitindo ruído forte, ou seja, sendo aN (t) AC [XDC +X (t)] teremos obviamente
que ε = AC [XDC +X (t)]
aN (t) → 0; obtenhamos portanto |XD (t)| pela aproximação de 1a ordem7 da equação
(6.65)
T
NI (t) AC [XDC +X(t)]
|XD (t)| ≈ aN (t)[1 + ]=
aN (t) aN (t)
NI (t)
= aN (t) + AC [XDC +X(t)] =
aN (t)
= aN (t) + AC [XDC +X(t)] · cos(ΦN (t)) (6.66)
Ruído Fraco
A situação de ruído fraco caracteriza-se por ter uma amplitude de ruído reduzida face ao sinal
recebido na sua ausência e que explicitaremos mais precisamente no seguimento. Reescreva-se então
a equação (6.64)
q
|XD (t)| = a2N (t) + 2NI (t) AC [XDC +X (t)] + [AC (XDC +X (t))]2 =
s
2NI (t) a2N (t)
= AC (XDC +X (t)) 1 + + =
[AC (XDC +X (t))] [AC (XDC +X (t))]2
s
2NI (t) aN (t)
= AC (XDC +X (t)) 1 + ε + ε2 ∴ ε= (6.67)
aN (t) AC [XDC +X (t)]
D
aN (t)
Admitindo ruído fraco, AC (XDC +X (t)) aN (t) ⇒ ε = AC [XDC +X (t)] → 0, obtenhamos no-
a
vamente |XD (t)| pela sua aproximação de 1 ordem da equação (6.67)
T
NI (t) aN (t)
|XD (t)| ≈ AC (XDC +X(t)) · (1 + =
aN (t) AC [XDC +X (t)]
que corresponde precisamente ao sinal que se obtém na saída do detector coerente, conforme a
equação (6.53).
√ √ 2
x3
7 Recordemos que a aproximação polinomial a 1 + x é 1 + x ≈ 1 + 2x − x8 + 16 + · · · e, truncando-a pelos termos
√
de ordem superior, teremos 1 + x ≈ 1 + 2x .
282 CAPÍTULO 6. DESEMPENHO DE SISTEMAS DE TELECOMUNICAÇÕES
Resumamos então os resultados obtidos: com ruído fraco, o detector de envolvente tem um
desempenho semelhante ao do detector coerente mas apresentando grande vantagem em termos de
simplicidade electrónica; contudo, numa situação de ruído forte, o detector de envolvente, ao invés
do detector coerente, é praticamente inútil.
Embora não se trate efectivamente de uma questão ligada à presença de ruído no canal, este
tópico é mais facilmente compreensível se atentarmos na figura 6.12 mas considerando ruído nulo
(figura 6.12.a). Esta figura pode ser interpretada como se segue: ao vector AC XDC , que tem módulo
constante, adiciona-se o vector AC X (t) da mensagem que, ao longo do tempo é fortemente variável
(figura 6.12.b).
Reescrevamos a equação (6.9) para o caso em que m(t) é agora um processo estocástico
X (t) estacionário em sentido lato, WSS, e com suporte em ] − B, B] e a portadora caracterizada
por ser AC cos(2π fc t + Θ) sendo Θ uma variável aleatória uniformemente distribuída de ] − π, π]
1 1
XSSB (t) = AC X (t) · cos(2π fc t) ∓ AC Xˆ (t) · sen(2π fc t) (6.69)
2 2
onde a operação − no operador ∓ corresponde à modulação SSB/UB (ou banda lateral superior)
enquanto que a operação + corresponderá à modulação em banda lateral única inferior (SSB/LB) e
Xˆ representa a Transformada de Hilbert de Xˆ .
1 2
= AC E{X(t)X(t − τ) cos(2π fc t + Θ) cos(2π fc (t − τ) + Θ)+
4
∓X(t)X̂(t − τ) cos(2π fc t + Θ) sen(2π fc (t − τ) + Θ)+
1 1 2
RXSSB (τ) = · AC [RX (τ) cos(2π fc τ) + RX̂ (τ) cos(2π fc τ)] (6.71)
4 2
1 1 2 1
PXSSB = RXSSB (0) = · AC [RX (0) + RX (0)] = · AC 2 ·PX (6.72)
4 2 4
Já a potência do sinal desmodulado na ausência de ruído é dada por 21 AC 2 ·PX , pelo que a
2
SNRD = 12 · ACηB·PX = γ; ou seja, estamos nas mesmas condições da comunicação em banda de base
ou em DSB/SC10 .
8A demonstração desta afirmação é a seguinte: Pretende-se portanto mostrar que ≺ x(t) · x̂(t) = 0; sendo ≺ x(t) ·
R
x̂(t) , x(t)x̂(t)dt.
R
Seja o seguinte teorema, onde ∗ representa o conjugado,
Z +∞ Z +∞
g(t) · g∗ (t)dt = G( f ) · G∗ ( f )d f
−∞ −∞
Z +∞ Z +∞ Z +∞ ∗ Z +∞ Z +∞
g(t) · g∗ (t)dt = g(t) · G( f )e j2π f t d f dt = G∗ ( f )g(t)e− j2π f t dtd f =
−∞ −∞ −∞ −∞ −∞
Z +∞ Z +∞ Z +∞
= G∗ ( f ) g(t)e− j2π f t dtd f = G( f )G∗ ( f )d f
−∞ −∞ −∞
onde f∆ é, como já referido, a frequência de desvio. Assim sendo, o sinal recebido XR (t) vem dado
por
1 d
XR (t) = AC cos(2π fc t + Ψ(t)) + N(t) ∴ Ψ(t) : Ψ(t) = f∆ X(t) (6.74)
2π dt
Recordemos ainda que, em FM, a largura de banda é aproximadamente BT = 2(f∆ +B), sendo B o
suporte do processo X (t) que modela a mensagem e que a potência do sinal transmitido é PXFM =
1 2
2 AC . Então, teremos para as componentes em fase e em quadratura à saída do filtro passa-banda
da figura 6.7,
XRI (t) = AC cos(Ψ(t)) + NI (t) cos(ΦN (t))
(6.75)
XRQ (t) = AC sen(Ψ(t)) + NQ (t) sen(ΦN (t))
Na figura 6.14 apresentação uma interpretação vectorial destas equações para melhor com-
preensão.
Destas componentes em fase e em quadratura resultam uma envolvente a(t) = |XR (t)|
286 CAPÍTULO 6. DESEMPENHO DE SISTEMAS DE TELECOMUNICAÇÕES
q
aR (t) = [AC cos(Ψ(t)) + aN (t) cos(ΦN (t))]2 + [AC sen(Ψ(t)) + aN (t) sen(ΦN (t))]2 (6.76)
AC sen(Ψ(t)) + aN (t) sen(ΦN (t))
ΦR (t) = arc tg (6.77)
AC cos(Ψ(t)) + aN (t) cos(ΦN (t))
A partir da equação (6.76) podemos ver que, no receptor, o sinal de FM tem uma amplitude
variável, o que impede que se use apenas um discriminador de frequências como desmodulador; ou
seja, há que precedê-lo de um dispositivo limitador de amplitude que produz à saída um sinal de am-
plitude constante, figura 6.15, onde XL (t) = AC cos(Ψ(t)). Desta forma, pretende-se ter na saída do
1
dispositivo limitador de frequência unicamente XD (t) = 2π · dtd ΦR (t). Esta equação, conjugada com
a equação (6.75) de imediato nos mostra haver uma dependência não-linear do sinal desmodulado
com o sinal enviado e com o ruído no receptor.
Para melhor analisar a relação sinal/ruído em FM, vamos considerar duas situações (sobrepo-
sição dos processos do sinal e do ruído):
Ausência de Ruído
PD = f∆ 2 ·PX (6.79)
X(t) = 0 ⇒ Ψ(t) = 0
AC sen(0) + aN (t) sen(ΦN (t)) aN (t) sen(ΦN (t))
ΦR (t) = arc tg = arc tg =
AC cos(0) + aN (t) cos(ΦN (t)) AC +aN (t) cos(ΦN (t))
6.7. DESEMPENHO EM MODULAÇÃO DE FREQUÊNCIA 287
NQ (t)
= arc tg (6.80)
AC +NI (t)
O desempenho dos sistemas de comunicação baseados em portadoras moduladas em frequência
pode agora ser detalhado considerando duas situações referentes à potência do ruído.
Ruído forte
Verifica-se, portanto, não haver, à saída do desmodulador, qualquer componente do sinal X(t).
Além disso, como o discriminador realiza uma derivada temporal do sinal à sua entrada, o sinal des-
modulado apresenta-se de tal forma «ruidoso» o que obriga ao uso de um circuito de cancelamento
do sinal (circuito de mute) nos receptores de FM.
Ruído Fraco
Já a situação de recepção com ruído fraco, ou seja, NI (t) ≈ NQ (t) AC , é bastante favorável
ao uso de modulação de frequência como iremos demonstrar. Supondo novamente ausência de sinal
modulante, teremos à saída do desmodulador,
NQ (t) N (t)
ΦR (t) = arc tg AC +N I (t)
≈ AQC −→
(6.82)
1 d 1 1 d
XD (t) = 2π · dt ΦR (t) ≈ 2π · AC b dt NQ (t)cB
onde b(· · · )cB representa a filtragem passa-baixo do sinal numa largura de banda B (o suporte do
processo X(t)).
1 d d
RXD (t,t − τ) = E{XD (t)XD (t − τ)} = 2 2
E{ NQ (t) · NQ (t − τ)} =
4π AC dt dt
1 d d 1 d2
= E{ NQ (t) · NQ (t − τ)} = E{NQ (t) · NQ (t − τ)} =
4π 2 AC2 dt dt 4π 2 AC2 dt 2
1 d2
= RN (t,t − τ) (6.83)
4π 2 AC2 dt 2
E que, finalmente, pelo facto do processo de ruído ser WSS, resulta em
T
1 d2
= RN (τ) (6.84)
4π 2 AC2 dt 2
1 l f ηB3
Z
2η
PNQ = · f d f = (6.86)
AC2 2 2B 3AC2
R
Este resultado mostra que, ao contrário do que seria de esperar, pois embora o aumento da largura
de banda de transmissão em FM se traduza numa potência de ruído proporcionalmente maior à saída
do filtro passa-banda, é possível obter um ganho elevado face à relação sinal/ruído na comunicação
em banda de base! Contudo, esta melhoria só é possível se a relação sinal/ruído na entrada do
desmodulador de FM for superior a um dado limiar; caso contrário, o desempenho da modulação de
frequência torna-se inferior ao da modulação de amplitude.
Se atentarmos na equação (6.85) vemos que a densidade espectral do ruído à saída do desmo-
dulador12 tem um elevado conteúdo nas altas frequências, como se mostra na figura 6.17 e, em dB,
na figura figura 6.18 em cima.
11 Recordemos que, neste caso, estamos a determinar o «sinal» à saída do desmodulador na ausência de sinal modulante.
Assim, na entrada do receptor temos a portadora (cuja frequência é fc ) e ruído branco aditivo e, como consequência, na
saída do desmodulador iremos ter o ruído resultante da desmodulação: XD (t) → NQ (t).
12 Convém recordar que esta equação foi deduzida na ausência de sinal modulante; por isso, a densidade espectral do
Efeito da fD no desempenho
80
70
FM
60 B
5 FM
f d= SB
50 B /S
B DS
fd =2
40
dB
30
20
10
Limiar de FM
0
−10
0 10 20 30 40 50 60
dB
Figura 6.16: Desempenho da modulação de frequência face à modulação de banda lateral dupla (DSB) para
f∆ f∆
B = 2 (cor azul) e B = 5 (cor magenta).
−3
x 10
1.2
0.8
0.6
0.4
0.2
0
−2.5 −2 −1.5 −1 −0.5 0 0.5 1 1.5 2 2.5
4
x 10
teria a vantagem de, perceptualmente, se obter um sinal menos ruidoso. Na figura 6.18 apresentam-
se, de cima para baixo, a densidade espectral de potência do ruído à saída do desmodulador, a
resposta em frequência do filtro de pós-ênfase e da densidade espectral de potência do ruído à saída
deste filtro. Contudo, teremos, forçosamente, que compensar no modulador este efeito de filtragem
−20
−40
GN(f) [dB]
−60
−80
−100
1 2 3 4 5
10 10 10 10 10
f [Hz]
0
−10
H(f) [dB]
−20
−30
−40
1 2 3 4 5
10 10 10 10 10
f [Hz]
−60
GY(f) [dB]
−70
−80
−90
1 2 3 4 5
10 10 10 10 10
f [Hz]
Figura 6.18: Densidades espectrais de potência à saída do desmodulador (em cima) e à saída do filtro de
pós-ênfase (em baixo), bem como a resposta em frequência deste filtro (ao centro).
passa-baixo, mediante uma filtragem inversa que privilegie ou amplifique as altas frequências ou
seja, uma pré-ênfase. A esta pré-ênfase corresponde uma função de resposta em frequência
1 + j ff1
Hpré-enf ( f ) = (6.90)
1 + j ff2
Nos sistemas de rádio-difusão comercial, tem-se f11 = 75 µs e f2 > B = 15 kHz. Desta forma,
consegue-se uma melhoria de cerca de 6,7 dB face à desmodulação sem pré-ênfase↔pós-ênfase,
conforme se mostra na figura 6.19. Esta é a filtragem mencionada no final do capítulo 4 que, agora,
aparece justificada.
13 Este filtro realize uma pós-ênfase (de-emphasis na literatura anglo-saxónica), pela razão que se apresentará em se-
guida.
6.8. PROBLEMAS RESOLVIDOS 291
Desempenho
80
70 e
fas
ên
p ré-
60 com
FM FM
B
/ SS
50 SB
D AM
40
dB
30
20
10
Limiar de FM
0
−10
0 10 20 30 40 50 60
dB
Figura 6.19: Desempenho da modulação de frequência face à modulação de amplitude (AM e DSB ou SSB)
para fB∆ = 5, com e sem pré-ênfase.
(c) de fase.
• a componente em fase obtém-se por filtragem passa-baixo do produto do sinal pelo cos-
seno da portadora (na verdade, por 2 cos(·));
6.8. PROBLEMAS RESOLVIDOS 293
Assim, trata-se de verificar, para cada um dos casos seguintes, os resultados destes processos.
(a) banda lateral dupla (DSB/SC); ora o sinal DSB é xDSB (t) = Ac x(t) · cos(2π fc t), pelo que
o seu produto por um cosseno resulta em:
xQ (t) = 0 (6.98)
(b) banda lateral única (SSB); como sabemos um sinal de banda lateral única16 é dado por
1
xSSB (t) = x(t) · Ac cos(2π fc t) − x̂(t) · Ac sen(2π fc t) (6.99)
2
então, a sua componente em fase resulta, como se viu, da filtragem passa baixo de
xSSB (t) × 2 cos(2π fc t) que vem dado por,
Ac Ac Ac
= [x(t) + x(t) · cos(2π2 fc t)] − [x(t) · sen(2π2 fc t)] → x(t) (6.100)
2 2 Filtragem 2
ou seja,
Ac
xI (t) =
x(t) (6.101)
2
De forma semelhante se pode ver de imediato que
Ac
xQ (t) = x̂(t) (6.102)
2
(c) de fase.
(b) Para a modulação em banda lateral única (SSB); consideramos aqui apenas a banda
lateral superior xSSB (t) = 12 x(t) · Ac cos(2π fc t) − x̂(t) · Ac sen(2π fc t)
q
( A2c x(t))2 + ( Aac x̂(t))2 = Ac
p
aSSB (t) = 2 x2 (t) + x̂2 (t)
(6.108)
Φ(t) = arctan x̂(t)
x(t)
√
P. 5: Seja um dado processo passa-banda XDSB (t) = 2X (t) · cos(2π fct + π6 ). Determine as po-
tências das correspondentes componentes passa-baixo em fase e em quadratura.
6.8. PROBLEMAS RESOLVIDOS 295
Sendo a componente em fase XI (t) = 1, 225 · X (t) (pois é o termo que afecta o cosseno da
portadora) teremos que a sua potência é
1
PXI = 1, 2252 PX = 0, 75 · PX
2
P. 6: Considere o sistema de comunicação PCM em banda de base da figura 6.8 sujeito ao ruído
aditivo branco e gaussiano presente no canal. Sabendo que, para este caso se tem uma quan-
tificação linear de 10 bit, e que o ruído no canal se traduz numa probabilidade de erro de
p = 10−4 , determine a relação sinal/ruído que se obtém no receptor ao transmitir uma sinu-
sóide de amplitude X e compare-a com a que se obteria num canal ideal (ausência de ruído).
1 2
2X
= · 28, 542 · 10−3 = 3.741 = 35, 5 dB
( 22X10 )2
Como se pode verificar por estes resultados, os erros resultantes das transformações de «1»
em «0» (e vice-versa) no canal resultam numa degradação na relação sinal/ruído em cerca de
26 dB.
296 CAPÍTULO 6. DESEMPENHO DE SISTEMAS DE TELECOMUNICAÇÕES
P. 7: Determine qual a máxima potência do ruído à entrada do receptor para que a relação si-
nal/ruído após a desmodulação coerente de uma portadora modulada em AM nas seguintes
condições: XDC = 12 , x(t) = 31 · sen(880πt), Ac = 2 mV, seja de 40 dB.
A2c PX 1
× (2 · 10−3 )2 · 12 · ( 31 )2
PN = = 2
= 1, 1 · 10−11 W (6.110)
10−4 10−4
NOTA Afinal, qual o papel de XDC e porque não influencia o resultado? Na verdade, XDC
apenas serve para evitar a sobremodulação. No caso do detector coerente (como indicado no
enunciado), o seu valor é perfeitamente irrelevante... Mas XDC obriga a emitir-se muito mais
potência (energia, mais correctamente) mas não se altera a relação sinal/ruído pois não há
qualquer informação relevante em XDC .
P. 8: Seja XDSB (t) = 4X(t) · cos(2π fct) uma portadora modulada em banda lateral dupla pela men-
sagem X(t) e utilizada para comunicar nos 30 MHz a uma distância de 30 km. Sabe-se
que, à entrada do receptor, o ruído é caracterizado ser aditivo e ter um espectro branco com
η = 10−14 W/Hz
√
(a) sendo X(t) = 2 cos(2000πt), determine a menor largura de banda de transmissão ne-
cessária;
(b) mostre que a potência do ruído passa-banda na entrada do desmodulador, sabendo que
BT = 2000 é de 20 pW;
(e) nestas condições, mostre que se tem uma perda de ≈ 4, 8 dB no desempenho face à
comunicação em banda de base ou em DSB.
Resolução
√ √
(a) A frequência do sinal modulante é 1000 Hz (pois X(t) = 2 cos(2000πt) = 2 cos(2π1000t)),
logo, BT ≥ 2 · 1000 = 2 · 103 .
6.8. PROBLEMAS RESOLVIDOS 297
obter PXR , ou seja, a potência do sinal recebido. A potência emitida, sendo em DSB, é
A2c 42
PXDSB = PX = · 1 = 8 W
2 2
uma vez que PX = 1 W. Assim, PXR = PXDSB · Ld = 8 · 7, 04 · 10−10 = 56, 3 · 10−10 e, logo,
PXR 56, 3 · 10−10
SNRD = = ≈ 262 = 24, 2 dB
PN 2 · 10−11
(d) Substitua-se X(t) na equação do sinal modulado, XDSB (t) = 4X(t) · cos(2π fct), resul-
tando em
√ √
XModulado (t) = 4X(t) · cos(2π fct) = 4[ 2 + 2 cos(2000πt)] · cos(2π fct)
que, como se observa, é um caso particular de XAM (t) = Ac [XDC + M(t)] · cos(2π fct),
correspondendo, efectivamente, a uma modulação de amplitude.
PX
(e) Sabemos que o desempenho em modulação de amplitude é dado por SNRD = γ · P 2 .
X +XDC
PX
Assim, resta-nos calcular o termo 2
PX +XDC
e convertê-lo em dB,
PX 1 1
2
= = → −4, 77 dB
PX + XDC 1+2 3
sendo este valor o decréscimo de desempenho face ao DSB.
(6.112)
AC XDC =A
m=1/ XDC
= AC2 [(XDC
2 + P )] − A2 X 2 −
X C DC −−−−−
→ A2 [1 + m2 PX ]
vemos que o termo de interesse (depois de retirada a componente contínua, veja-se a figura
6.11, por exemplo) é
PD = A2 m2 PX (6.113)
Note-se que estas equações são válidas para a desmodulação coerente mas mostrou-se que o
detector de envolvente, na condição de ruído fraco18 , é-lhe equivalente. Então, pretende-se
que
PD PD
|dB > 40 dB → > 104 (6.114)
PN PN
Assim, teremos:
e logo √
m=1/ 2
PD = A m PX −−−−−→ A2 > 2 · 8 · 10−5 ↔ A > 12, 65 · 10−3
2 2
(6.116)
PX =1
Contabilizemos agora as perdas no canal (atenuação) e os ganhos das antenas, −40 + 3 +
13 = 24 dB ↔ 3, 98 · 10−3 . Significa que o sinal no emissor terá de ser amplificado por
1/(3, 98·10−3 ) para poder compensar a atenuação sofrida no processo de transmissão. Assim,
a amplitude da portadora (à saída do emissor) virá, finalmente, dada por
1
Ap = A > 3, 98 · 10−3 · 12, 65 · 10−3 (6.117)
3, 98 · 10−3
A potência de emissão vem, a partir da equação (6.111),
1
PXAM = A2p [1 + m2 PX ] (6.118)
2
e que resulta em PXAM ≈ 7, 8 W.
P. 10: A fórmula de Friis19 relaciona as potências presentes aos terminais das antenas de emissão
(PT ) e de recepção (PR ), com os seus ganhos GT e GR , com a distância d entre elas e o
comprimento de onda da radiação electromagnética λ ,
λ 2
PR
= GT GR (6.119)
PT 4πd
17 Não confundir com a amplitude eficaz, ou melhor dizendo, com o valor eficaz que, como é sabido, resulta de √1 · A.
2
18 Uma vez que se pretende uma relação sinal/ruído de 40 dB, significa que a potência do ruído é 10−4 da potência do
sinal, ou seja, estamos efectivamente em presença de ruído fraco.
19 Convém ter em conta que a fórmula de Friis é válida para a propagação em espaço livre.
6.8. PROBLEMAS RESOLVIDOS 299
(b) Supondo que se dispunha da potência obtida em a), determine a que distância se conse-
guiria agora comunicar em DSB/SC com a mesma relação sinal/ruído;
Resolução
(a) Comecemos por refazer os cálculos desenvolvidos no problema anterior mas para as
novas condições. Assim, comecemos por determinar qual a potência de sinal necessária
à entrada do receptor
uma vez que 46 dB ↔ 4 · 104 . Então, e de acordo com a equação (6.113), teremos que
r r
1 PD 1 48 · 10−5
A= = = 24, 3 · 10−3 (6.121)
m PX 0, 9 1
Ora, a partir desta amplitude da portadora, teremos que a potência do sinal recebido na
entrada do receptor é
1 1
PR = A2 (1 + m2 PX ) = (24, 3 · 20−3 )2 (1 + 0, 92 ) = 534µW (6.122)
2 2
o que, entrando na fórmula de Friis (equação (6.119)), resulta em
√
GT =GR = 2 1,5dB
2 λ =100 m(fc =30 MHz)
1 4πd d=104 m
PT = PR −−−−−−−−−−−−→ PT = 411W (6.123)
GT GR λ
f∆ =15·103
B=3·103
f A2 SNRD =4·104
SNRD = 3( ∆ )2 · C PX −−−−−−−→ AC ≈ 3 · 10−3 (6.125)
B ηB
que é consideravelmente inferior às amplitudes necessárias quer para a AM quer para
a DSB/SC. Assim, teremos que a potência na entrada do desmodulador é PR = 21 AC2 =
4, 44µ W. Se, à semelhança do raciocínio anterior, que através da fórmula de Friis da
equação (6.119) se obteve a distância entre as antenas de transmissão e de recepção,
teríamos agora d = 219 km. Podemos ver, com este exercício, que a modulação de
frequência necessita de muito menos potência no transmissor para se ter um desempenho
semelhante ao das modulações de amplitude, desde que se esteja em situações de ruído
fraco.
Apêndice A
RELAÇÕES TRIGONOMÉTRICAS
ELEMENTARES
cos(α) = cos(−α)
(A.1)
sen(α) = − sen(−α)
cos( π2 + β ) = − sen(β )
cos( π2 − β ) = sen(β )
(A.3)
sen( π2 + β ) = cos(β )
sen( π2 − β ) = cos(β )
cos(π + β ) = − cos(β )
cos(π − β ) = − cos(β )
(A.4)
sen(π + β ) = − sen(β )
sen(π − β ) = sen(β )
301
302 APÊNDICE A. RELAÇÕES TRIGONOMÉTRICAS ELEMENTARES
e jα = cos(α) + j sen(α)
e jα = 1
∠e jα = α
Re{e jα } = cos(α)
Im{e jα } = sen(α) (A.8)
π
e jk 2 = ( j)k ∀k ∈ Z
e jkπ = (−1)k ∀k ∈ Z
e j2kπ = 1 ∀k ∈ Z
e jα +e− jα
cos(α) = 2
e jα −e− jα
(A.9)
sen(α) = 2j
d
cos(α) = − sen(α)
dα
d
sen(α) = cos(α)
dα
d 1
arc cos(α) = − √
dα 1 − α2
d 1
arc sen(α) = √
dα 1 − α2
Z
cos(α)dα = sen(α) +C (A.10)
Z
sen(α)dα = − cos(α) +C
1
Z
α
√ dα = arc sen( ) +C
2
a −α 2 a
1 1
Z
α
dα = arc tg( ) +C
a2 + α 2 a a
Apêndice B
DEMONSTRAÇÃO DO TEOREMA DE
PARSEVAL
que, obviamente suporemos ser convergente e onde x∗ (t) representa o complexo conjugado de x(t).
Recordemos que, quer x(t) quer x∗ (t) podem ser obtidos a partir das suas transformadas de
Fourier inversas, pelo que a equação B.1 se pode reescrever como
Z ∞ Z ∞ Z +∞ Z +∞
x(t)x∗ (t)dt = X( f ) · e j2π f t d f · X ∗ ( f ) · (e j2π f t )∗ d f dt (B.2)
−∞ −∞ −∞ −∞
Esta equação necessita de ser reescrita pois na forma em que se apresenta pode induzir em erros,
Z ∞ Z ∞ Z +∞ Z +∞
x(t)x∗ (t)dt = X(ε) · e j2πεt dε · X ∗ (ν) · (e j2πνt )∗ dνdt (B.3)
−∞ −∞ −∞ −∞
Na hipótese de convergência dos integrais da B.3 é-nos lícito permutar a ordem de integração,
Z ∞ Z +∞ Z +∞ Z ∞
∗
x(t)x (t)dt = X(ε) · e j2πεt · X ∗ (ν) · e− j2πνt dt dν dε =
−∞ −∞ −∞ −∞
Z +∞ Z +∞ Z ∞
= X(ε) · X ∗ (ν) · e− j2π(ν−ε)t dt dν dε (B.4)
−∞ −∞ −∞
303
304 APÊNDICE B. DEMONSTRAÇÃO DO TEOREMA DE PARSEVAL
R∞
pois −∞ δ (t)dt = 1. Por outro lado,
Z ∞
e− j2π f t dt = δ ( f )
−∞
Ora, atendendo às segunda e primeira propriedades acima indicadas (por esta ordem), teremos,
Z ∞ Z +∞ Z +∞ Z +∞
∗ ∗
x(t)x (t)dt = X(ε) · X (ν) · δ (ν − ε) dν dε = X(ε) · X ∗ (ε) dε (B.5)
−∞ −∞ −∞ −∞
e, finalmente, Z ∞ Z +∞
x(t)x∗ (t)dt = X( f ) · X ∗ ( f ) d f (B.6)
−∞ −∞
então: Z ∞ Z +∞
2
|x(t)| dt = |X( f )|2 d f (B.7)
−∞ −∞
o que completa a demonstração do teorema de Parseval.
Apêndice C
CONSIDERAÇÕES À VOLTA DA
FUNÇÃO DE GAUSS
A função de Gauss, ou distribuição normal, é de larga utilização nos mais variados domínios
da Matemática, da Física e da Engenharia. Embora seja de larga aplicação, apresenta, do ponto
de vista analítico, algumas dificuldades. Nesta secção deste apêndice não se pretende um desen-
vovilmento das características e propriedades desta função, apenas se demonstrará um importante
resultado: o integral desta função, também conhecido por integral de Euler-Poisson.
T 19 : Z ∞
− (x−µ)
2 √ T
∀x, µ, σ ∈ R : e 22σ dx = 2πσ 2 (C.1)
−∞
(x − µ)
y= √
2σ 2
√
da qual resulta que dx = 2σ 2 dy e, por conseguinte,
Z +∞
− (x−µ)
2 √ Z +∞ 2
e 2
2σ dx = 2σ 2 e−y dy (C.2)
−∞ −∞
O integral da equação (C.3) corresponde a integrar em todo o plano R2 e, portanto, pode ser obtido
através de uma mudança de variáveis que corresponde a passar da notação cartesiana para a notação
305
306 APÊNDICE C. CONSIDERAÇÕES À VOLTA DA FUNÇÃO DE GAUSS
ou seja,
Z +∞
2
−y2
e dy =π
−∞
ou de modo equivalente,
Z +∞
2 √
e−y dy = π
−∞
é imediato obtermos
r
Z +∞
−x2
√ Z +∞
− ax2
2 2π
e dx = π ∴ e dx = (C.8)
−∞ −∞ a
C.2. FUNÇÕES Q(X), erf(X) E erfc(X) 307
D
Definição: Função Q(·) Defina-se Q(α) como sendo
Z +∞
1 x2
Q(α) , √ e− 2 dx (C.9)
2π α
Esta função não é mais do que a área à direita da abcissa α da primitiva da gaussiana1 de
média nula e variância unitária2 , como se representa na figura C.1 (em baixo).
0.5
0.4
Gauss(0,1)
0.3
0.2
0.1
0 x
−5 −4 −3 −2 −1 0 1 2 3 4 5
1 Q(α )
0.8
dx
x2
2
0.6
−
e
2π
1
0.4
∫
0.2
0
x
−5 −4 −3 −2 −1 0 1 2 3 4 5
α
Figura C.1: Curva da função de Gauss de média nula e variância unitária e da sua primitiva.
T
Corolários
Q(−∞) = 1
Q(+∞) = 0
1 (C.10)
Q(0) = 2
Q(−x) = 1 − Q(x)
D
1 Ou seja, tratando-se de probabildades, da função distribuição.
x 2
2 De fact, √1 e− 2 é uma Normal (gaussiana) de média µ nula e variância σx2 unitária.
2π
308 APÊNDICE C. CONSIDERAÇÕES À VOLTA DA FUNÇÃO DE GAUSS
Definição: Função de Erro, erf(·) A função de erro, definida em x ∈ [0, +∞[ como
2
Z α
2
erf(α) , √ e−x dx (C.11)
π 0
T
Corolários
erf(0) = 0
(C.12)
erf(+∞) = 1
D
Definição: Função Complementar de Erro, erfc(·) A função complementar de erro, definida
em x ∈ [0, +∞[ como Z +∞
2 2
erfc(α) , √ e−x dx (C.13)
π α
tem como propriedades os seguintes corolários,
T
Corolários
erfc(0) = 1
(C.14)
erfc(+∞) = 0
T
Corolários
erf(α) = 1 − erfc(α)
Q(α) = 21 − 12 erf α
√
2
Q(α) = 12 erfc α
√
2
(C.15)
√
erf(α) = 1 − 2 Q( 2α)
√
erfc(α) = 2 Q( 2α)
Embora a função de Gauss goze de importantes propriedades (diferenciável em todo o seu domínio,
n-diferenciável, etc.) e tenha uma forma analítica fechada em todo o seu domínio, o seu integral não
resulta da mesma forma, pelo que é necessário recorrer a tabelas. Assim, na tabela C.1, apresenta-se
um conjunto de valores para as funções erfc(x) e Q(x) para um domínio x ∈ [0, 5, 35].
C.3. TABELAS DAS FUNÇÕES erfc(X) E Q(X) 309
311
312 APÊNDICE D. TABELA DE FUNÇÃO DE BESSEL DE 1a ESPÉCIE JK (β )
E.1 INTRODUÇÃO
• Desmodulação de FM; que tem sido uma das aplicações mais divulgadas, permitindo uma
descodificação de áudio de muito alta qualidade (ou seja, com baixa distorção harmónica),
usando circuitos integrados de baixo custo;
• Desmodulação de AM; permitindo a detecção coerente, muito útil para DSB e SSB (mesmo
recorrendo a portadora vestigial);
Vejamos qual a estrutura básica da malha de captura, conforme se apresenta na figura E.1.
O bloco assinalado com VCO1 representa um dispositivo que produz um sinal sinusoidal cuja
p(t)
x(t) Filtro y(t)
Passa-Baixo
VCO
315
316 APÊNDICE E. UMA INTRODUÇÃO À MALHA DE CAPTURA DE FASE
frequência instantânea depende linearmente do sinal de entrada. Nas simulações que se apresen-
tarão pressupõe-se que, mesmo na ausência de sinal de entrada, o VCO produz uma sinal de
frequência fixa.
Quanto ao filtro passa-baixo, por ora, basta-nos admitir que não compromete a estabilidade
da malha de captura de fase. Posteriormente iremos analisar como a sua função de transferência vai
condicionar o desempenho da malha.
Ora, se a diferença de frequências dos sinais sinusoidais anteriores for inferior à largura de banda
B f do filtro passa-baixo e ainda se fc + f0 >> B f , então o último termo de p(t) será anulado na saída
deste filtro, pelo que
∆θ
z }| {
y(t) ≈ sen(2π(fc − f0 )t + θc − θ0 ) (E.3)
| {z }
φ (t)
Este sinal de baixa frequência proporcional a sen(φ (t)), como se viu, irá comandar o dispositivo
«VCO» fazendo2 a aproximação de f0 a fc . Nestes pressupostos, teremos que φ (t) << pelo que, e
admitindo que o filtro passa-baixo tem ganho unitário,
y(t) ≈ ∆θ (E.5)
ou seja, a saída3 da malha de captura de fase será proporcional à desfasagem entre os sinais de
entrada e de saída do VCO (descontando os intrínsecos π/2 existentes entre a entrada sinusoidal e
o VCO, cossinusoidal). Esta hipótese de trabalho que nos permite aproximar o seno da desfasagem
pela própria desfasagem corresponde ao conhecido modelo linear do PLL e que iremos analisar de
seguida.
1 VCO, do inglês voltage controlled oscilator, ou oscilador controlado por tensão.
2 desde que | fc − f0 | seja suficientemente pequeno.
3 A «saída» do PLL é considerada na saída do bloco adequado ao fim em vista. Efectivamente, no circuito da figura
E.1, a saída está considerada para uma desmodulação de frequência modulada (FM). Se a saída fosse obtida no bloco
multiplicação, estaríamos a desmodular uma modulação de fase (PM) e,se fosse na saída do VCO, tratar-se-ia de uma
recuperação de portadora, por exemplo.
E.2. ANÁLISE DO MODELO LINEARIZADO 317
Sendo, como hipótese fc = f0 e ainda que fc >> B f , então e pelas equações (E.3) e (E.4), tere-
mos o diagrama de blocos seguinte (figura E.2) onde se indicam as variáveis de interesse. Repare-se
+ H(s)
K vco
s
Y(s)
-
Figura E.2: Diagrama da malha linearizada (ver texto) de captura de fase.
que o VCO foi substituído por um bloco integrador ou seja, pela função de transferência Kvco /s. A
razão de ser desta função de transferência prende-se com o facto de ser a fase o integral da frequên-
cia instantânea (à parte um factor de 2π) e com um ganho Kvco que permite relacionar a frequência
de saída com o sinal de entrada e, como sabemos, a função de transferência do bloco integrador é
1/s.
H(s) · Kvco
s
Heq (s) = (E.6)
1 + H(s) · Kvco
s
e, como sabemos da teoria do Controlo, a estabilidade desta malha está intrinsecamente ligada às
raízes de 1 + H(s) · Kvco
s = 0. No entanto, podemos afirmar que a existência de um pólo na origem (na
cadeia aberta5 ) faz com que, em regime permanente, o erro de seguimento ao escalão na fase seja
nulo. Se o filtro passa-baixo não apresentar zeros na sua função de transferência então só poderá
ter, no máximo, um pólo que, de preferência, não deverá ser na origem. Na figura seguinte, figura
E.3, ilustra-se a resposta do sistema em cadeia fechada em função do pólo de H(s), mantendo o seu
ganho estático constante. Note-se que afastar o pólo do eixo imagiário melhora a rapidez da resposta
ao escalão e também diminui a sobre-elevação. O pólo em s = −100 corresponde a uma frequência
de corte do filtro passa-baixo de malha de cerca de 16 Hz.
Fixando este valor para a localização do pólo, podemos agora variar o ganho estático H(0)
para ver a sua influência na resposta transitória, conforme se ilustra na figura E.4, onde se considerou
p
H(s) = H(0) · (E.7)
s+ p
Naturalmente e como é sabido, aumentar H(0) vai ter como consequência o aumento da sobre-
elevação.
4 Repare-se que o sistema representado na figura E.2 é a de um sistema de controlo (linear) por retroacção da saída.
5O que faz este sistema ser do tipo I.
318 APÊNDICE E. UMA INTRODUÇÃO À MALHA DE CAPTURA DE FASE
Step Response
2
pólo em s= -10
pólo em s= -100
1.8
pólo em s= -1
1.6
1.4
1.2
Amplitude
0.8
0.6
0.4
0.2
0
0 0.2 0.4 0.6 0.8 1
Time (seconds)
Figura E.3: Resposta ao escalão da malha linearizada (ver texto) de captura de fase, sendo: Kvco = 100π e
p
H(s) = s+p , sendo os pólo p assinalados.
Step Response
1.8
H(0)=10
1.6
1.4
H(0)=1,0
1.2
Amplitude
0.8
H(0)=0,1
0.6
0.4
0.2
0
0 0.05 0.1 0.15 0.2
Time (seconds)
Figura E.4: Resposta ao escalão da malha linearizada (ver texto) de captura de fase, sendo: Kvco = 100π e
p
H(s) = H(0) · s+p , sendo o pólo p = −0, 01 e os ganhos estáticos H(0) estão assinalados.
E.3. ANÁLISE SIMPLIFICADA DO MODELO NÃO-LINEAR (SIMULAÇÕES) 319
sinal modulante
-0.5
-1
saída y(t)
PLL linearizado
-1.5
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
f c −100 fc f c + 100
Figura E.5: Resposta a uma rampa na frequência da malha de captura de fase e da malha linearizada, para
0,01
Kvco = 100π, H(s) = s+0,01 e fc = 1000 Hz.
tura) desde os 900 Hz até cerca dos 990 Hz, mantendo capturada a frequência da sinusoide x(t) de
entrada desde os ≈ 990 Hz até ≈ 1050 Hz; após esta frequência, a malha perde novamente o sinal
de entrada. Repare-se como este fenómeno não é identificado (obviamente) na malha de captura
linearizada (y(t) a vermelho)! Na figura E.6 podemos ver os resultados da simulação da captura de
um sinal de FSK, onde ao nível lógico zero se faz corresponder uma frequência de 1000 Hz (ou seja,
neste caso, igual a fc ) e ao nível lógico um, uma frequência de 1020 Hz.
Na figura seguinte, figura E.7 apresenta-se o comportamento da malha de captura para uma
entrada sinusoidal de frequência linearmente variável no tempo para ilustrar o seu comportamento.
6 Efectivamente, recorremos ao Simulink R para realizar este estudo.
320 APÊNDICE E. UMA INTRODUÇÃO À MALHA DE CAPTURA DE FASE
0.3
saída PLL
0.25
y(t)
0.2
PLL linearizado
saída y(t)
0.15
0.1
0.05
-0.05
Sequência
binária “01010”
-0.1
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
tempo [s]
Figura E.6: Resposta a uma modulação FSK por uma sequência binária «01010» da malha de captura de
0,01
fase (cor azul) e da malha linearizada (vermelho), para Kvco = 100π, H(s) = s+0,01 e fc = 1000 Hz.
Assim, começando com uma frequência de entrada (neste caso) inferior a fc (veja-se a linha
a azul), verifica-se que o PLL vai a partir dos ≈ 990 Hz começar a seguir a frequência do sinal de
entrada, mantendo-se em sincronismo de frequência até cerca dos 1025 Hz (cor azul).
Se, a frequência do sinal de entrada começar acima de fc , neste caso nos 1050 Hz, a malha não
consegue seguir a frequência da entrada. Diminiundo então esta frequência, verifica-se que a malha
a vai capturar para valores inferiores aos ≈ 1010 Hz, mantendo-se sincronizada (em frequência,
entenda-se) até cerca dos 975 Hz, conforme se ilustra na figura figura E.7 a cor vermelha.
À intersepção das curvas anteriores vai corresponder a gama de captura e à união das curvas,
a gama de seguimento, conforme se assinala na figura figura E.7.
Na figura E.9 podemos observar a resposta das malhas de captura à modulação FSK pela
sequência «01010» para as várias localizações do pólo do filtro passa-baixo de 1a ordem.
0.6
gama de
captura
0.4
0.2
−0.2
−0.4
−0.6
gama de
seguimento
−0.8
0 0.5 1 1.5 2 2.5 3 3.5 4
975 Hz
1000 Hz
1025 Hz
frequência
Figura E.7: Resposta a uma modulação de frequência por uma rampa no tempo da malha de captura de fase,
0,025
para Kvco = 100π, H(s) = s+0,025 e fc = 1000 Hz.
322 APÊNDICE E. UMA INTRODUÇÃO À MALHA DE CAPTURA DE FASE
3
H(0)=1
f c = 1100 p=-0,1
2
f c = 1000
1
saída PLL
y(t)
-1
saída y(t)
PLL linearizado
-2
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
3
H(0)=1
p=-0,01
2
1
saída PLL
y(t)
-1
saída y(t)
PLL linearizado
-2
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
3.5
2.5
H(0)=1
p=-0,001
2
1.5
saída PLL
1 y(t)
0.5
saída y(t)
PLL linearizado -0.5
-1
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
Figura E.8: Resposta a uma modulaçãode frequência da malha de captura de fase (cor azul) e da malha
0,01
linearizada (a vermelho), para Kvco = 100π, H(s) = s+0,01 e fc = 1000 Hz.
E.3. ANÁLISE SIMPLIFICADA DO MODELO NÃO-LINEAR (SIMULAÇÕES) 323
0.4
y(t)
0.3
PLL linearizado
0.2
0.1
-0.1
y(t)
saída PLL
-0.2
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
0.3
0.25
y(t)
PLL linearizado
0.2
0.15
0.1
0.05
-0.05
y(t)
saída PLL
-0.1
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
0.5
0.4
0.3
0.2
y(t)
saída PLL
0.1
-0.1
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
tempo [s]
Figura E.9: Resposta a uma modulação FSK por uma sequência binária «01010» da malha de captura de
p
fase (cor azul) e da malha linearizada (a vermelho), para Kvco = 100π, H(s) = s+p e fc = 1000 Hz: em cima,
p = −0, 1; ao centro, p = −0, 01 e em baixo, p = −0, 001.
324 APÊNDICE E. UMA INTRODUÇÃO À MALHA DE CAPTURA DE FASE
3
f c = 1250
H(0)=1
2
p=-0,01
f c = 1000
1
-1 saída PLL
y(t)
saída y(t)
PLL linearizado
-2
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
3
H(0)=5
p=-0,01
2
-1 saída PLL
y(t)
saída y(t)
PLL linearizado
-2
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
Figura E.10: Resposta a uma modulação FSK por uma sequênc1a binária «01010» da malha de captura de
0,01
fase e da malha linearizada, para Kvco = 100π, H(s) = s+0,01 e fc = 1000 Hz.
E.3. ANÁLISE SIMPLIFICADA DO MODELO NÃO-LINEAR (SIMULAÇÕES) 325
0.3
y(t)
H(0)=1
0.25 saída PLL
0.2
0.15
0.1
0.05
-0.05 y(t)
PLL linearizado
-0.1
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
0.8
H(0)=5
0.6
y(t)
0.4
saída PLL
0.2
-0.2 y(t)
PLL linearizado
-0.4
-0.6
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
tempo [s]
Figura E.11: Resposta a uma modulação FSK por uma sequência binária «01010» da malha de captura de
0,01
fase e da malha linearizada, para Kvco = 100π, H(s) = H(0) · s+0,01 e fc = 1000 Hz, sendo os diferentes
ganhos estáticos H(0) assinalados.
326 APÊNDICE E. UMA INTRODUÇÃO À MALHA DE CAPTURA DE FASE
Apêndice F
INTRODUÇÃO AOS
SOFTWARE-DEFINED RADIO
F.1 INTRODUÇÃO
As vantagens que os SDR apresentam face aos usuais receptores (analógicos) de rádio são,
327
328 APÊNDICE F. INTRODUÇÃO AOS SOFTWARE-DEFINED RADIO
Geralmente, estes modos de operação não são necessários estarem todos presentes nos SDR,
mas é usual aparecerem mais do que um. Em conclusão, o objectivo deste apêndice é o de apresentar,
ainda que resumidamente, os SDR1 .
Amplificador
Amplificador
Modulador de Frequência Desmodulador
de RF
Intermédia
Oscilador
Local
Uma primeira conclusão que se pode tirar deste receptor é a sua enorme complexidade elec-
trónica o que, naturalmente, condiciona a sua versatilidade. O aparecimento dos SDR veio, precisa-
mente, colmatar esta limitação.
T 20 : Teorema da Amostragem Seja um processo X (t) passa-baixo com suporte em [−B, B[;
é possível amostrar este processo sem qualquer perda de informação se for utilizado um ritmo
de amostragem igual ou superior a 2 × B, ou seja, a frequência de amostragem deve obedecer a
fs ≥ 2 × B.
Mas, se o processo não tiver as características enunciadas, sabemos que ocorre uma sobrepo-
sição de zonas do espectro, fenómeno conhecido por aliasing. Este fenómeno pode, contudo, ser de
bastante utilidade como iremos ver! Continuemos a supor que o suporte de GX ( f ) é no intervalo
[−B; B] e que estamos perante uma amostragem ideal, em que uma dada função amostra do processo
de entrada é multiplicado por um pente de Diracs:
+∞
xa (t) = x(t) × ∑ δ (t − kTs ) (F.1)
k=−∞
onde, no somatório, se evidencia bem a repetição periódica do espectro inicial, figura F.3.
Recordemos que a frequência de amostragem fs deve verificar fs ≥ 2B para que não haja
aliasing. A frequência fs /2 é denominada frequência de Nyquist e, como se indica na figura F.3,
o intervalo de frequências ]0; fs /2] é denominado 1a zona de Nyquist. Por sua vez, os intervalos
] fs /2; fs ] e ] fs ; 3 fs /2] são denominados, respectivamente, 2a e 3a zonas de Nyquist.
330 APÊNDICE F. INTRODUÇÃO AOS SOFTWARE-DEFINED RADIO
Suponha-se agora que, como se indica na figura F.4 a), o processo de entrada é um processo
passa-banda, com suporte em ]A; B]. Pelo teorema da amostragem teríamos de amostrar este sinal
a um ritmo r ≥ 2B; ora este ritmo, para muitas aplicações em telecomunicações seria demasiado
elevado para os processadores digitais disponíveis.
G (f)
X
-B -A A B
-f c fc f
a)
GX(f)
a 1ª zona de Nyquist
Efectivamente, suponhamos que nos estávamos a reportar à banda de UHF comercial de rádio-
difusão, e que pretendíamos receber uma emissão de TV cuja portadora estivesse, por exemplo, nos
480 MHz e com uma largura de banda de 6 MHz; ou seja, teríamos A = 480·106 MHz e B = 486·106
MH na figura F.4 a). Naturalmente que, se tivéssemos uma frequência de amostragem concordante
com o teorema 20, estaríamos a amostrar esse sinal a 972 MHz!
Mas, admitamos que amostrávamos X a um ritmo bastante inferior, por exemplo a 160 MHz;
F.3. AMOSTRAGEM DE SINAIS DE RÁDIO-FREQUÊNCIA 331
claramente que o espectro do sinal resultante iria apresentar aliasing, como se representa na figura
F.4 b). problema que se levanta é o de saber se esse aliasing apresenta uma vantagem ou, se pelo
contrário, se comporta como um sinal de ruído para a recepção desta transmissão.
Se observarmos atentamente a figura F.4 b) vemos que o espectro original se encontra agora
posicionado na origem, pelo que basta eliminar todas as componentes espectrais que se situem fora
da primeira zona de Nyquist. Vejamos ainda que basta ter-se fs /2 > B e, por outro lado, n · fs = A,
com n = 3. Mas, se reduzíssemos ainda mais a frequência de amostragem, por exemplo, para fs = 32
MHz, ou seja, n · fs = A com n = 15, conseguiríamos recuperar por filtragem passa-baixo (ou seja,
exactamente da mesma forma do exemplo anterior), o sinal modulante. Este fenómeno que consiste
em amostrar sinais a um ritmo inferior ao ritmo de Nyquist, denomina-se de sub-amostragem. Claro
que este processo não apresenta só vantagens e, tem, também, outros problemas. Um deles resulta
do necessidade de se utilizarem filtros passa-banda mais selectivos.
G (f)
X
-B -A A B
-f c fc f
a)
GX(f)
a 1ª zona de Nyquist
Podemos verificar que, face à figura F.4, ocorreu uma inversão de frequências na 1a zona de
Nyquist. Esta inversão de frequências pode ser facilmente corrigida por software, bastando para tal
inverter a polaridade das amostras ímpares, por exemplo2 .
dos por portas e registos lógicos cujas interligações podem ser programadas externamente, consoante a arquitectura e
332 APÊNDICE F. INTRODUÇÃO AOS SOFTWARE-DEFINED RADIO
Dado que, em SDR, grande parte do tratamento de sinal é efectuado digitalmente, seria neces-
sário apresentarmos alguma teoria de processamento digital de sinais o que cai fora do âmbito deste
trabalho. Há, na literatura excelentes, obras cuja leitura se recomenda, em especial (Oppenheim
et al. , 1999).
Conversor Conversor
Amplificador Processador
Analógico- Digital-
de RF Digital de Sinal
-Digital -Analógico
MODEM
Relógio
O receptor da figura F.6 pode ser melhorado utlizando uma arquitectura mais complexa que
envolve um andar de conversão para uma frequência intermédia, como a que se assinala na figura
F.7 e que permite, por exemplo, utilizar uma frequência de amostragem mais reduzida.
Oscilador Relógio
funcionalidades desejadas.
4 DSP de Digital Signal Processor ou processadores digitais de sinais, que são microprocessadores com uma arquitec-
sinal (veja-se a secção 6.2). Segue-se-lhe uma decimação, operação que consiste numa redução do
ritmo de amostragem, veja-se (Oppenheim et al. , 1999) ou (Proakis, 2000), por exemplo.
Relógio Oscilador
INTRODUÇÃO AO ESPALHAMENTO
ESPECTRAL
G.1 INTRODUÇÃO
A motivação às técnicas de comunicação com espalhamento espectral (EE/SS) ou, como são
vulgarmente conhecidas, de spreadspectrum, reside na tentativa de resisitir ou evitar as interferên-
cias (jamming). As técnicas de EE começaram a ser desenvolvidas em meados da década de cin-
quenta do século XX, em contexto militar. As interferências intencionais nas comunicações passam,
primeiro, por detectar a transmissão em causa e, então, por enviar ou emitir um sinal interferente
especificamente projectado para esse efeito. Por conseguinte, as técnicas de EE/SS destinam-se a
dificultar estes desígnios e, de forma semelhante, tornando primeiramente o sinal transmitido difí-
cil de detectar e, em segundo lugar, tornando-o resistente ao efeito da interferência. Se bem que,
geralmente, as interferências intencionais tenham um desígnio eminentemente militar, convém ter
presente que pode haver interferência não-intencional em certos sistemas e bandas de comunicação
não reguladas, como sucede, por exemplo, na comunicação sem fios entre computadores (WIFI).
A expressão espalhamento espectral vem do facto de, nesta técnica, se ocupar uma largura
de banda muito maior do que aquela que seria necessária para transmitir esses dados (digitais).
Podemos dar a noção de que os dados se encontram «escondidos» numa banda larga. Há três formas
comummente empregues para se conseguir este intento:
D
• direct-sequence (DS/SS) ou sequenciação directa, em que a energia da emissão é dispersa
numa larga banda de frequência de forma a parecer um sinal aleatório para ao empastelador1
(jammer);
• frequency hopping (FH/SS) ou saltos na frequência, em que o emissor muda (varia) a frequên-
cia da portadora de uma trransmissão em banda (relativamente) estreita de forma a parecer
aleatória ao jammer;
1A palavra empastelamento é vulgarmente utilizada para acções intencionais de interferência nas comunicações.
335
336 APÊNDICE G. INTRODUÇÃO AO ESPALHAMENTO ESPECTRAL
É do conhecimento geral que a largura de banda necessária para a transmissão digital está
directamente relacionada com o ritmo de transmissão dos dados; seja Rd esse ritmo, medido em
bit/s. Sem grande rigor, poderemos dizer que a largura de banda necessária para transmitir esses
dados através de portadoras moduladas necessita de uma largura de banda de transmissão BT ≥ Rd
Hz2 . Designaremos espalhamento espectral quando se tem que a banda utilizada na transmissão
verifica BSS Rd .
D
Definição: Eficiência Espectral diz-se do quociente de Rd por BSS , medida em bit/s/Hz,
Rd
γe , (G.1)
BSS
Claro que num sistema de EE/SS se terá, forçosamente, um valor muito baixo para a eficiência
espectral, BRSSd .
Np = 2 × TP × BSS (G.3)
2 Sabemos que, numa comunicação em banda de base, com uma banda de B Hz poderemos transmitir 2 × Rd bit na
unidade de tempo, ou seja, B = Rd /2. Ora, em AM, necessita-se de uma banda de transmissão dupla da largura de banda
necessária para a transmissão em banda de base, BT = 2 × B, pelo que BT = Rd Hz.
3 O ruído, seja ruído térmico ou outro, é uma forma de empastelamento no sentido em que dificulta e compromete a
Ora, sendo em EE/SS a razão BRSSd 4 muito grande (lembremo-nos de que este quociente é o o inverso
da eficiência espectral, equação (G.1)), pode-se mostrar que a resistência ao empastelamento será
também muito grande.
Se, à semelhança do ruído de canal, considerarmos que o empastelamento tem uma densidade
espectral de potência uniforme GJ ( f ) = 21 ηJ , então teremos para a potência do (ruído) empastela-
mento, Z ∞ l T
f 1
PJ = ηJ d f = BSS · ηJ (G.5)
−∞ 2BSS 2
Supondo que este ruído tem uma função densidade de probabilidade gaussiana, poderemos
determinar qual a sua influência num sistema binário antipodal (por exemplo, BPSK) que resulta
numa probabilidade de erro de bit (recordemos a equação (4.78))
T
s !
Eb
Pe = Q 2 (G.6)
ηJ
Eb = Ps · Tb (G.7)
sendo Ps a potência do impulso de sinalização. É agora fácil de ver que Pe decresce com o ganho
de processamento (conforme se represnta na figuura G.1), pelo que pode ser tão reduzido quanto se
queira. Contudo, estamos a simplificar demasiado esta análise, pois não são contemplados outros
mecansimos, nomeadamento, os erros resultantes da falha de sincronismo de pacotes ou de tramas
que ocorrerão devido ao empastelamento.
4 Este quociente é conhecido por ganho de processamento, muito embora esta definição não seja a única aceite.
5 Infelizmente, esta abordagem é a forma mais benigna de empastelamento.
338 APÊNDICE G. INTRODUÇÃO AO ESPALHAMENTO ESPECTRAL
−1
10
−2
10
−3
10
−4
10
−5
10
Pe
−6
10
−7
10
−8
10
−9
10
−10
10
0 1 2 3 4 5 6 7 8 9 10
Eb / NJ (dB)
onde, como é usual, fc é a frequência da portadora, Eb a energia média de bit, b(n) o n-ésimo bit
de informação (b(n) ∈ {−1, 1}) e p(t) o impulso de sinalização de energia unitária; o ritmo de
transmissão é Rd = T1b .
É claro que a largura de banda de xBPSK (t) depende da forma do impulso de sinalização
bem como do ritmo de transmissão6 . Se considerarmos impulsos de sinalização rectangulares (ou
cosseno-elevado com α ≈ 0), teremos que cerca de 90% da sua energia estará contida em cerca de
2/Tb = 2 · Rd , figuras G.2 e G.3.
Se repetirmos cada pulso de N vezes, a largura de banda será BSS = 2N/Tb = 2N · Rd ; dado
que a largura de banda é amplidada de N vezes, N denomina-se o factor de espalhamento.
6 Admitindo que a sequência binária de informação é aleatória (espectro branco).
G.3. DIRECT-SEQUENCE (DS/SS) 339
−5
−10
−15
10 x log10 |P2|
−20
2R
d
−25
−30
−35
−40
−4 −3 −2 −1 0 1 2 3 4
f x Tb
100
90
80
70
60
% da potência
50
40
30
20
10
0
0 0.5 1 1.5 2 2.5 3
f x Tb
No entanto, não basta repetir cada bit N vezes para espalhar o espectro (isto é, aumentar a
largura de banda), é importante garantir que se obtém uma sequência aleatória para que o espectro
resultante seja suficientemente branco. Uma forma de obter uma sequência aleatória de dados d(m)
a partir de b(n) é através de bb( Nm )c ⊕ c(m), sendo c(m) um polinómio pseudo-aleatório e b(· · · )c
representa o arredondamento por defeito ao inteiro mais próximo. Na figura G.4 apresenta-se o
diagrama de blocos de um modulador DS/SS e correspondente receptor na figura G.5.
340 APÊNDICE G. INTRODUÇÃO AO ESPALHAMENTO ESPECTRAL
Rd N ⋅ Rd N ⋅ Rd
Modulador
Repetição x N ⊕ PAM
× xSS (t)
b(n)
c(m) AC cos(2π fct)
Figura G.4: Modulador de DS/SS baseado na repetição de N vezes (adaptado de (Strøm et al. , 2002)).
(n+1)N −1
Filtro
xSS (t) ×
adaptado ⊕ ∑ (!) Decisão b̂(n)
m=N⋅n
m
fc
AC cos(2π fct) c(m)
Figura G.5: Receptor de DS/SS para o transmissor da figura G.4 (adaptado de (Strøm et al. , 2002)).
No caso anterior, o espalhamento na frequência passa por encolher (leia-se: encurtar a du-
ração) dos impulsos. Na prática, dado que o tempo de comutação dos componentes (transístores)
electrónicos é limitado a um dado valor mínimo, a largura de banda do EE/SS fica limitada a algumas
centenas de MHz. Este facto acaba por majorar o ganho de processamento.
Uma forma de ultrapassar estas limitações é utilizar osalto em frequência (frequency hop-
D
ping). Seja então Th o intervalo de tempo em que se está a operar numa dada frequência de portadora,
ou seja; assim, o sinal emitido terá a forma
sendo fk a frequência da portadora no intervalo de tempo kTh ≤ t < (k + 1)Th ; é incluída a fase
adicional θk para modelar a dificuldade técnica de garantir que a fase é contínua em cada salto de
frequência.
Para que haja um espalhamento espectral eficaz, é necessário que 1/Th , o ritmo de salto em
frequência, seja elevado, o que significa que, no receptor, é difícil estimar a fase da portadora. Por
conseguinte, ficam excluídos os detectores coerentes, optando-se, normalmente, por sistemas de
detecção não-coerentes. Consideremos portanto que se está em presença de uma modulação FSK
com M níveis e que o espaçamento de frequência permite o uso de detectores não-coerentes.
Sendo Ts o tempo de símbolo, então 1/Ts é o ritmo de símbolo7 ; defina-se salto lento (slow
D
7A distinção entre tempo (ritmo) de símbolo e tempo (ritmo) de dados, prende-se com a possibilidade de se incluírem
bits extra para detecção/correcção de erros.
G.4. FREQUENCY HOPPING (FH/SS) 341
1 SlowHopping 1
≶ (G.10)
Th FastHopping Ts
No caso dos sistemas de salto lento, o espaçamento na frequência entre as várias alternativas
do sinal tem de ser múltiplo de 1/Ts para se poderem utilizar detectores não-coerentes. Se utili-
zarmos uma codificação sem bits extra para detecção/correcção de erros, teremos que o ritmo de
símbolo virá, no caso de não se usar codificação de erros,
log2 (M)
Rs = (G.11)
Tb
Pelo contrário, num sistema de salto rápido, cada símbolo «espalhar-se-á» por mais do que
um salto, como se representa na figura G.6 em baixo
0 1 0 0 1 1 0 1 0
a)
frequência
b) t
frequência
c) t
Figura G.6: Método de FH/SS: lento em b) com 3 bit/salto e rápido em c) com 3 saltos/bit; em a) representa-se
a sequência de dados a transmitir.
O estudo mais aprofundado destas matérias extravasa claramente o âmbito destas notas, pelo que se
recomenda a leitura do trabalho de síntese de (Strøm et al. , 2002), por exemplo.
342 APÊNDICE G. INTRODUÇÃO AO ESPALHAMENTO ESPECTRAL
Sequência
Modulador Modulador
de dados
Sequência Sintetizador
de saltos de frequências
Emissor
Sequência
Desmodulador Desmodulador de dados
Sequência Sintetizador
de saltos de frequências
Receptor
Figura G.7: Diagrama de blocos de um sistema de FH/SS: emissor em cima e receptor em baixo.
Apêndice H
343
344
Capítulo /
Data Apêndice Descrição
24 / 5 / 2016 5 Limiar de FM; Desempenho
26 / 5 / 2016 F Todo o apêndice F
29 / 5 / 2016 5 Toda a Secção 5.1.3
29 / 5 / 2016 4 Problema SSB
30 / 5 / 2016 5 nova secção 5.1.2
31 / 5 / 2016 5 nova secção 5.5
2 / 6 / 2016 4 Problema P.5
8 / 6 / 2016 G tudo novo
9 / 6 / 2016 G Secção G.3
12 / 6 / 2016 G Secções G.3 e G.4
19 / 6 / 2016 5 Correcção da Eq. (6.119)
26 / 7 / 2016 4 Nova Secção (4.3)
28 / 12 / 2016 4e5 Correcção erros ortografia
5 / 2 / 2017 1 Problema 3
5 / 3 / 2017 2 Variável aleatória de Poisson
7 / 3 / 2017 1 Condições de Dirichlet
7 / 3 / 2017 A Demonstração Teorema de Parseval
7 / 3 / 2017 1 Tabela de Pares de Transformadas de Fourier
8 / 3 / 2017 1 Impulso de Gauss e Janela Triangular
14 / 3 / 2017 1 Energia e Potência de Sinais
02 / 6 / 2017 4 Gráficos de 4.3
4 / 6 / 2017 3 junção do anterior apêndice C com o capítulo 3
4 / 6 / 2017 6, 4 e 5 anterior capítulo 6 passou a capítulo 4; renumeração dos capítulos
14 / 6 / 2017 Todos Substituição das fotos por originais do autor
6 / 2 / 2018 1 Janelas de análise e seus espectros
13 / 2 / 2018 Todos Inclusão de mais problemas (total de 8)
26 / 4 / 2018 3 Reorganização interna
26 / 4 / 2018 Apêndices Reorganização geral
7 / 5 / 2018 4 Actualização do 4.1, constelação QPSK
7 / 5 / 2018 3 Capacidade do Canal
17 / 6 / 2018 3, 5 e 6 Novos problemas resolvidos
21 / 6 / 2019 Apêndice PLL Malha Captura de Fase
345
Capítulo /
Data Apêndice Descrição
24 / 5 / 2016 F Introdução aos SDR
24 / 5 / 2016 G Introdução ao Spread Spectrum
21 / 6 / 2019 Apêndice PLL Malha Captura de Fase
346
Bibliografia
AD6636. 2005. 150 MSPS, Wideband, Digital Downconverter (DDC) (Application Note). Analog
Devices.
Balakrishnam, Hari, Terman, Christopher, & Verghese, George. 2012. Bits, Signals, and Packets: An
Introduction to Digital Communications and Networks. Mit 2012 edn. Capítulos 5 a 8, acedidos
em 8 de Fevereiro de 2016 em http://ocw.mit.edu/courses/electrical-engineering-and-computer-
science/6-02-introduction-to-eecs-ii-digital-communication-systems-fall-2012/readings/.
Barnela, Manoj, & Rohtak, M. 2014. Digital Modulation Schemes Employed in Wireless Commu-
nication: A Literature Review. International Journal of Wired and Wireless Communications, Vol.
2, Issue 2.
Benvenuto, N., Corvaja, R., Erseghe, T., & Laurenti, N. 2007. Communication Systems. Wiley.
Cameron, Peter. 2000. Notes on Probability. Queen Mary University of London,on-line ed.
Cover, Thomas, & Thomas, Joy. 2006. Elements of Information Theory. John Wiley, 4a edição.
Creaney, Stephen, & Kostarnov, Igor. 2008. Designing Efficient Digital Up and Down Converters
for Narrowband Systems (Application Note: Virtex-5 Family). Xilinx (XAPP111).
Das, J., Millick, S. K., & Chatterjee, P. K. 1986. Principles of Digital Communications. Wiley
Eastern Limited.
Hsu, Hwei. 2003. Theory and Problems of Analog and Digital Communications. Schaum’s Outline
Series, McGraw-Hill, 2a edição.
Massey, James. 1998. Applied Digital Information Theory I, Lecture Notes. ETH Zurich.
Oppenheim, Alan, Schafer, Ronald, & Buck, John. 1999. Discrete-Time Signal Processing (2nd
ed.). Prentice Hall.
347
348 BIBLIOGRAFIA
Shannon, Claude. 1948. A Mathematical Theory of Communication. Bell System Technical Journal,
vol. 27.
Starr, Thomas, Cioffi, John, & Silverman, Peter. 1999. Understanding Digital Subscriber Line Tech-
nology. Capítulos 1 a 6, acedidos em 21 de Maio de 2015 em http://web.stanford.edu/group/cioffi/.
Strøm, Jerik, Ottosson, Tiny, & Svensson, Arne. 2002. An Introduction to Spread Spectrum Systems.
Gøteborg, Suécia: Chamlmers University of Technology.
c António Joaquim dos Santos Romão Serralheiro
3 de Setembro de 2019