Você está na página 1de 373

I NSTITUTO U NIVERSITÁRIO M ILITAR

FUNDAMENTOS TEÓRICOS DAS


TELECOMUNICAÇÕES

A NTÓNIO J OAQUIM DOS S ANTOS ROMÃO S ERRALHEIRO


P ROFESSOR A SSOCIADO

2019
ii
Conteúdo

Lista de Figuras ix

Lista de Tabelas xix

1 INTRODUÇÃO ÀS TELECOMUNICAÇÕES 1
1.1 OBJECTIVO: TELECOMUNICAR . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 MEIOS E TECNOLOGIAS DAS TELECOMUNICAÇÕES . . . . . . . . . . . . 3
1.3 NOÇÕES BÁSICAS SOBRE RÁDIO-COMUNICAÇÕES . . . . . . . . . . . . . 6
1.3.1 S ISTEMAS DE R ÁDIO -F REQUÊNCIA . . . . . . . . . . . . . . . . . . . . 6
1.3.2 BANDAS DE R ÁDIO -F REQUÊNCIA . . . . . . . . . . . . . . . . . . . . . 7
1.4 INTRODUÇÃO AOS SINAIS . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4.1 S INAIS P ERIÓDICOS , A PERIÓDICOS E Q UASE - PERIÓDICOS . . . . . . . 8
1.4.2 S INAIS DE I NTERESSE EM T ELECOMUNICAÇÕES . . . . . . . . . . . . . 10
1.4.3 Energia e Potência de um Sinal . . . . . . . . . . . . . . . . . . . . . . . 17
1.4.4 R EPRESENTAÇÃO T EMPO - F REQUÊNCIA : T RANSFORMADA DE F OURIER 18
1.4.5 P ROPRIEDADES DA T RANSFORMADA DE F OURIER . . . . . . . . . . . . 19
1.4.6 T RANSFORMADA DE F OURIER DE F UNÇÕES S INUSOIDAIS . . . . . . . 19
1.4.7 S ÉRIE T RIGONOMÉTRICA DE F OURIER E SUA T RANSFORMADA DE F OU -
RIER . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.4.8 E XEMPLOS DE A PLICAÇÃO . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.4.9 S ÉRIE T RUNCADA DE F OURIER . . . . . . . . . . . . . . . . . . . . . . 24
1.4.10 T RANSFORMADA DE F OURIER DA C ONVOLUÇÃO DE D OIS S INAIS . . . 26
1.4.11 T RANSFORMADA DE F OURIER DO P RODUTO DE D OIS S INAIS . . . . . . 27
1.4.12 D UALIDADE T EMPO -F REQUÊNCIA . . . . . . . . . . . . . . . . . . . . . 28
1.4.13 TABELA DE PARES DE T RANSFORMADAS DE F OURIER . . . . . . . . . . 29
1.4.14 T RANSFORMADAS DE F OURIER DE JANELAS DE A NÁLISE . . . . . . . 29
1.5 PROBLEMAS RESOLVIDOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

2 PROCESSOS ESTOCÁSTICOS 45
2.1 PROBABILIDADES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.1.1 C ONCEITO DE P ROBABILIDADE . . . . . . . . . . . . . . . . . . . . . . 45
2.1.2 I NTRODUÇÃO À A XIOMÁTICA DE KOLMOGOROV . . . . . . . . . . . . . 45

iii
iv CONTEÚDO

2.1.3 P ROBABILIDADE C ONDICIONAL . . . . . . . . . . . . . . . . . . . . . . 47


2.1.4 T EOREMAS DA P ROBABILIDADE T OTAL E DE BAYES . . . . . . . . . . . 48
2.2 VARIÁVEIS ALEATÓRIAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
2.2.1 F UNÇÃO P ROBABILIDADE DE M ASSA . . . . . . . . . . . . . . . . . . . 50
2.2.2 VALOR E XPECTÁVEL E VARIÂNCIA . . . . . . . . . . . . . . . . . . . . 51
2.2.3 F UNÇÃO D ISTRIBUIÇÃO C UMULATIVA . . . . . . . . . . . . . . . . . . 51
2.2.4 E XEMPLOS DE VARIÁVEIS A LEATÓRIAS D ISCRETAS . . . . . . . . . . . 52
2.2.5 I NTRODUÇÃO ÀS VARIÁVEIS A LEATÓRIAS C ONTÍNUAS . . . . . . . . . 53
2.2.6 F UNÇÃO D ISTRIBUIÇÃO C UMULATIVA . . . . . . . . . . . . . . . . . . 54
2.2.7 F UNÇÃO D ENSIDADE DE P ROBABILIDADE . . . . . . . . . . . . . . . . 55
2.2.8 E STATÍSTICAS OU M OMENTOS DE VARIÁVEL A LEATÓRIA . . . . . . . . 55
2.2.9 VARIÁVEL A LEATÓRIA U NIFORME . . . . . . . . . . . . . . . . . . . . . 58
2.2.10 VARIÁVEL A LEATÓRIA E XPONENCIAL . . . . . . . . . . . . . . . . . . . 59
2.2.11 VARIÁVEL A LEATÓRIA N ORMAL OU DE G AUSS . . . . . . . . . . . . . 60
2.2.12 D ESIGUALDADE DE C HEBYSHEV . . . . . . . . . . . . . . . . . . . . . . 62
2.2.13 T RANSFORMAÇÃO DE UMA VARIÁVEL A LEATÓRIA . . . . . . . . . . . . 63
2.2.14 D ISTRIBUIÇÃO C ONJUNTA DE VARIÁVEIS A LEATÓRIAS C ONTÍNUAS . . 65
2.2.15 M OMENTOS C ONJUNTOS DE D UAS VARIÁVEIS A LEATÓRIAS . . . . . . 66
2.2.16 S OMA DE D UAS VARIÁVEIS A LEATÓRIAS N ORMAIS . . . . . . . . . . . 68
2.2.17 T EOREMA DO L IMITE C ENTRAL . . . . . . . . . . . . . . . . . . . . . . 68
2.2.18 D ISTRIBUIÇÃO N ORMAL M ULTIVARIÁVEL . . . . . . . . . . . . . . . . 69
2.3 PROCESSOS ESTOCÁSTICOS . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
A A
2.3.1 E STATÍSTICAS DE 1 E 2 ORDEM DE P ROCESSOS E STOCÁSTICOS . . . 71
2.3.2 E STACIONARIDADE DE P ROCESSOS E STOCÁSTICOS . . . . . . . . . . . 72
2.3.3 E STIMATIVAS E E STIMADORES . . . . . . . . . . . . . . . . . . . . . . . 74
2.3.4 E RGODICIDADE , M ÉDIA T EMPORAL E M ÉDIA NO C ONJUNTO . . . . . . 75
2.3.5 P OTÊNCIA E E NERGIA . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
2.3.6 P ROCESSOS I NDEPENDENTES , I NCORRELACIONADOS , O RTOGONAIS E
C ONJUNTAMENTE E STACIONÁRIOS . . . . . . . . . . . . . . . . . . . . 77
2.3.7 P ROCESSOS E STOCÁSTICOS E S ISTEMAS L INEARES E I NVARIANTES NO
T EMPO (SLIT) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
2.3.8 C ARACTERIZAÇÃO DO C OMPORTAMENTO DO SLIT NO D OMÍNIO DA
F REQUÊNCIA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
2.3.9 S OMA DE P ROCESSOS E STOCÁSTICOS . . . . . . . . . . . . . . . . . . . 82
2.3.10 P ROCESSOS G AUSSIANOS . . . . . . . . . . . . . . . . . . . . . . . . . . 83
2.4 TIPOS DE RUÍDO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
2.4.1 RUÍDO I MPULSIVO OU Q UÂNTICO . . . . . . . . . . . . . . . . . . . . . 84
2.4.2 RUÍDO T ÉRMICO OU DE J OHNSON -N YQUIST . . . . . . . . . . . . . . . 85
2.4.3 RUÍDO B RANCO G AUSSIANO . . . . . . . . . . . . . . . . . . . . . . . . 86
2.4.4 RUÍDO C OLORIDO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
2.5 PROBLEMAS RESOLVIDOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
CONTEÚDO v

3 SISTEMAS DE COMUNICAÇÃO EM BANDA DE BASE 97


3.1 FONTES DE SINAL DISCRETAS . . . . . . . . . . . . . . . . . . . . . . . . . . 97
3.1.1 C ONCEITO DE I NFORMAÇÃO . . . . . . . . . . . . . . . . . . . . . . . . 98
3.1.2 U NIDADE B INÁRIA DE I NFORMAÇÃO ( BIT ) . . . . . . . . . . . . . . . . 99
3.1.3 E NTROPIA DE UMA F ONTE D ISCRETA S EM M EMÓRIA . . . . . . . . . . 99
3.1.4 D ESIGUALDADE F UNDAMENTAL . . . . . . . . . . . . . . . . . . . . . . 101
3.1.5 I NTRODUÇÃO À C ODIFICAÇÃO DE F ONTE . . . . . . . . . . . . . . . . . 102
3.1.6 C ÓDIGO DE H UFFMAN . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
3.1.7 C ÓDIGOS DE P REFIXO . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
3.1.8 C ÓDIGO B INÁRIO DE L EMPEL -Z IV . . . . . . . . . . . . . . . . . . . . 108
3.2 FONTES ANALÓGICAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
3.2.1 D IGITALIZAÇÃO DE F ONTES A NALÓGICAS . . . . . . . . . . . . . . . . 111
3.2.2 R ECONSTRUÇÃO DO S INAL . . . . . . . . . . . . . . . . . . . . . . . . . 112
3.2.3 A MOSTRAGEM E R ETENÇÃO DE A MOSTRAS . . . . . . . . . . . . . . . 114
3.2.4 Q UANTIFICAÇÃO U NIFORME . . . . . . . . . . . . . . . . . . . . . . . . 115
3.2.5 Q UANTIFICAÇÃO NÃO -U NIFORME . . . . . . . . . . . . . . . . . . . . . 117
3.2.6 T RANSMISSÃO D IGITAL DE FALA EM S ERVIÇOS T ELEFÓNICOS PCM . 118
3.3 INTRODUÇÃO AOS CÓDIGOS BINÁRIOS . . . . . . . . . . . . . . . . . . . . 123
3.3.1 C ÓDIGOS DE R EPETIÇÃO . . . . . . . . . . . . . . . . . . . . . . . . . . 124
3.3.2 C ÓDIGOS DE B LOCO L INEARES . . . . . . . . . . . . . . . . . . . . . . 129
3.3.3 C ÓDIGOS R ECTANGULARES DE C ORRECÇÃO DE E RROS . . . . . . . . . 130
3.3.4 C ÓDIGOS DE H AMMING . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
3.3.5 F ORMALIZAÇÃO PARA C ÓDIGOS L INEARES . . . . . . . . . . . . . . . . 135
3.3.6 C ÓDIGOS DE C ONVOLUÇÃO . . . . . . . . . . . . . . . . . . . . . . . . 137
3.4 CANAIS DISCRETOS SEM MEMÓRIA . . . . . . . . . . . . . . . . . . . . . . 139
3.4.1 C ANAL B INÁRIO S IMÉTRICO . . . . . . . . . . . . . . . . . . . . . . . . 141
3.4.2 I NFORMAÇÃO M ÚTUA . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
3.4.3 C APACIDADE DO C ANAL . . . . . . . . . . . . . . . . . . . . . . . . . . 143
3.4.4 T EOREMA DA C ODIFICAÇÃO DE C ANAL . . . . . . . . . . . . . . . . . . 144
3.4.5 F ORMATOS DE S INALIZAÇÃO B INÁRIA . . . . . . . . . . . . . . . . . . 147
3.4.6 D ENSIDADES E SPECTRAIS DE P OTÊNCIA . . . . . . . . . . . . . . . . . 149
3.4.7 T RANSMISSÃO B INÁRIA EM C ANAIS COM RUÍDO . . . . . . . . . . . . 151
3.5 INTERFERÊNCIA INTER-SIMBÓLICA . . . . . . . . . . . . . . . . . . . . . . 154
3.5.1 C RITÉRIO DE N YQUIST . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
3.5.2 I MPULSOS C OSSENO –E LEVADO . . . . . . . . . . . . . . . . . . . . . . 156
3.5.3 D IAGRAMA DE O LHO . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
3.6 PROBLEMAS RESOLVIDOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161

4 INTRODUÇÃO À TEORIA DA DETECÇÃO E À COMUNICAÇÃO DIGITAL 169


4.1 MODELO DE SISTEMA DE COMUNICAÇÃO DIGITAL . . . . . . . . . . . . . 169
4.1.1 R EPRESENTAÇÃO G EOMÉTRICA DE S INAIS . . . . . . . . . . . . . . . . 169
vi CONTEÚDO

4.1.2 R ESPOSTA DO BANCO DE C ORRELADORES AO RUÍDO B RANCO G AUS -


SIANO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
4.2 DETECTOR DE MÁXIMA VEROSIMILHANÇA . . . . . . . . . . . . . . . . . 177
4.2.1 P ROBABILIDADE DE E RRO . . . . . . . . . . . . . . . . . . . . . . . . . 181
4.2.2 S INAIS O RTOGONAIS COM I GUAL E NERGIA . . . . . . . . . . . . . . . . 181
4.2.3 S INAIS A NTIPODAIS COM I GUAL E NERGIA . . . . . . . . . . . . . . . . 184
4.3 DETECÇÃO ÓPTIMA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186
4.3.1 C ORRELADOR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186
4.3.2 F ILTRO A DAPTADO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187
4.3.3 A PLICAÇÃO A S ISTEMAS DE T RANSMISSÃO B INÁRIA . . . . . . . . . . 189
4.4 SISTEMAS DE COMUNICAÇÃO DIGITAL . . . . . . . . . . . . . . . . . . . . 192
4.4.1 BASK - Binary Amplitude Shift Keying . . . . . . . . . . . . . . . . . . . 193
4.4.2 BFSK - Binary Frequency Shift Keying . . . . . . . . . . . . . . . . . . . 194
4.4.3 BPSK - Binary Phase Shift Keying . . . . . . . . . . . . . . . . . . . . . 194
4.4.4 QAM - Quadrature Amplitude Modulation . . . . . . . . . . . . . . . . . 195
4.4.5 QPSK - Quadrature Phase Shift Keying . . . . . . . . . . . . . . . . . . . 195
4.4.6 OQPSK - Offset Quadrature Phase Shift Keying . . . . . . . . . . . . . . 196
4.4.7 MSK - Minimum Shift Keying . . . . . . . . . . . . . . . . . . . . . . . . 196
4.4.8 GMSK - Gaussian Minimum Shift Keying . . . . . . . . . . . . . . . . . . 197
4.5 EXEMPLOS DE APLICAÇÃO . . . . . . . . . . . . . . . . . . . . . . . . . . . 197
4.5.1 M ODULAÇÃO 2-PSK . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198
4.5.2 M ODULAÇÃO 4-PSK . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198
4.5.3 M ODULAÇÃO 8-PSK . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
4.5.4 M ODULAÇÃO 8-QAM . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201
4.6 PROBLEMAS RESOLVIDOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206

5 MODULAÇÃO DE PORTADORAS SINUSOIDAIS 217


5.1 MODULAÇÃO DE AMPLITUDE . . . . . . . . . . . . . . . . . . . . . . . . . . 218
5.1.1 E SPECTRO E P OTÊNCIA DA M ODULAÇÃO DE A MPLITUDE . . . . . . . . 220
5.1.2 D ESMODULAÇÃO DE AM: D ETECTOR DE E NVOLVENTE . . . . . . . . . 223
5.1.3 I NTRODUÇÃO AO E STUDO T EÓRICO DO D ETECTOR DE E NVOLVENTE . 225
5.1.4 D ESMODULAÇÃO DE AM: D ETECÇÃO C OERENTE . . . . . . . . . . . . 226
5.1.5 M ODULAÇÃO DE A MPLITUDE EM Q UADRATURA : QAM . . . . . . . . . 228
5.1.6 E XEMPLO DE E MISSOR DE M ODULAÇÃO DE A MPLITUDE . . . . . . . . 229
5.1.7 R ECEPTORES DE AM . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229
5.2 MODULAÇÃO DE ÂNGULO . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232
5.2.1 M ODULAÇÃO DE FASE . . . . . . . . . . . . . . . . . . . . . . . . . . . 232
5.2.2 M ODULAÇÃO DE F REQUÊNCIA . . . . . . . . . . . . . . . . . . . . . . . 233
5.2.3 E SPECTRO E P OTÊNCIA DA M ODULAÇÃO DE F REQUÊNCIA . . . . . . . 233
5.2.4 R ELAÇÃO ENTRE AS M ODULAÇÕES DE FASE E DE F REQUÊNCIA . . . . 237
5.2.5 T RANSMISSOR DE F REQUÊNCIA M ODULADA . . . . . . . . . . . . . . . 237
CONTEÚDO vii

5.2.6 D ESMODULADORES DE F REQUÊNCIA . . . . . . . . . . . . . . . . . . . 238


5.2.7 E XEMPLO DE D ESMODULADORES DE F REQUÊNCIA . . . . . . . . . . . 239
5.2.8 M ODULAÇÃO E D ESMODULAÇÃO DE E STEREOFONIA . . . . . . . . . . 240
5.3 EXEMPLOS de MODULAÇÕES . . . . . . . . . . . . . . . . . . . . . . . . . . 244
5.3.1 M ODULAÇÕES DSB, AM, PM E FM POR S INAL B INÁRIO . . . . . . . . 244
5.3.2 M ODULAÇÕES DSB, AM, PM E FM POR S INAL S INUSOIDAL . . . . . . 245
5.3.3 M ODULAÇÃO DE BANDA L ATERAL Ú NICA POR S INAIS S INUSOIDAL E
B INÁRIO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245
5.4 PROBLEMAS RESOLVIDOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . 250

6 DESEMPENHO DE SISTEMAS DE TELECOMUNICAÇÕES 263


6.1 INTRODUÇÃO AO ESPAÇO DE SINAIS . . . . . . . . . . . . . . . . . . . . . . 263
6.1.1 T RANSFORMADA DE H ILBERT . . . . . . . . . . . . . . . . . . . . . . . 263
6.1.2 A PLICAÇÃO DA T RANSFORMADA DE H ILBERT À M ODULAÇÃO EM BANDA
L ATERAL Ú NICA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265
6.2 R EPRESENTAÇÃO C ANÓNICA DE S INAIS . . . . . . . . . . . . . . . . . . . . . . 267
6.2.1 R EPRESENTAÇÃO C ANÓNICA DE P ORTADORAS M ODULADAS . . . . . . 269
6.2.2 RUÍDO PASSA -BANDA . . . . . . . . . . . . . . . . . . . . . . . . . . . . 269
6.2.3 C OMPONENTES EM FASE E EM Q UADRATURA DO RUÍDO PASSA -BANDA 271
6.3 DESEMPENHO EM BANDA DE BASE . . . . . . . . . . . . . . . . . . . . . . 272
6.4 DESEMPENHO EM PCM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 274
6.5 DESEMPENHO EM MODULAÇÃO DE AMPLITUDE . . . . . . . . . . . . . . 278
6.5.1 R ECEPTOR C OERENTE . . . . . . . . . . . . . . . . . . . . . . . . . . . 278
6.5.2 D ETECTOR DE E NVOLVENTE . . . . . . . . . . . . . . . . . . . . . . . . 280
6.5.3 I NVERSÃO DA FASE DA P ORTADORA EM S OBREMODULAÇÃO . . . . . . 282
6.6 DESEMPENHO EM MODULAÇÃO DE BANDA LATERAL ÚNICA . . . . . . 283
6.7 DESEMPENHO EM MODULAÇÃO DE FREQUÊNCIA . . . . . . . . . . . . . 285
6.7.1 M ODULAÇÃO DE FREQUÊNCIA EM BANDA E STREITA . . . . . . . . . . 285
6.7.2 M ODULAÇÃO DE FREQUÊNCIA EM BANDA L ARGA . . . . . . . . . . . . 285
6.8 PROBLEMAS RESOLVIDOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . 291

A RELAÇÕES TRIGONOMÉTRICAS ELEMENTARES 301

B DEMONSTRAÇÃO DO TEOREMA DE PARSEVAL 303

C CONSIDERAÇÕES À VOLTA DA FUNÇÃO DE GAUSS 305


C.1 INTEGRAL DE EULER - POISSON . . . . . . . . . . . . . . . . . . . . . . . . 305
C.2 FUNÇÕES Q(x), erf(x) e erfc(x) . . . . . . . . . . . . . . . . . . . . . . . . . . . 306
C.3 TABELAS das FUNÇÕES erfc(x) e Q(x) . . . . . . . . . . . . . . . . . . . . . . 308

D TABELA DE FUNÇÃO DE BESSEL DE 1a ESPÉCIE Jk (β ) 311

E UMA INTRODUÇÃO À MALHA DE CAPTURA DE FASE 315


viii CONTEÚDO

E.1 INTRODUÇÃO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 315


E.2 ANÁLISE DO MODELO LINEARIZADO . . . . . . . . . . . . . . . . . . . . . 317
E.3 ANÁLISE SIMPLIFICADA DO MODELO NÃO-LINEAR (simulações) . . . . . 319

F INTRODUÇÃO AOS SOFTWARE-DEFINED RADIO 327


F.1 INTRODUÇÃO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 327
F.2 RECEPTORES SUPERHETERODINOS . . . . . . . . . . . . . . . . . . . . . . 328
F.3 AMOSTRAGEM DE SINAIS DE RÁDIO-FREQUÊNCIA . . . . . . . . . . . . . 329
F.3.1 A MOSTRAGEM I DEAL DE S INAIS PASSA -BAIXO . . . . . . . . . . . . . 329
F.3.2 A MOSTRAGEM I DEAL DE S INAIS PASSA -BANDA . . . . . . . . . . . . . 330
F.4 RECEPTORES SDR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 332
F.5 EMISSORES SDR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 333

G INTRODUÇÃO AO ESPALHAMENTO ESPECTRAL 335


G.1 INTRODUÇÃO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 335
G.2 FORMULAÇÃO DO PROBLEMA . . . . . . . . . . . . . . . . . . . . . . . . . 336
G.3 DIRECT-SEQUENCE (DS/SS) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 338
G.4 FREQUENCY HOPPING (FH/SS) . . . . . . . . . . . . . . . . . . . . . . . . . . 340

H Historial das Revisões ao original de Março de 2015 343

Bibliografia 347
Lista de Figuras

1.1 Diagrama conceptual de um sistema de telecomunicações. . . . . . . . . . . . . . 2


1.2 Imagem de veículos de combate (à esquerda) e após a influência de ruído (à direita). 3
1.3 Meios de comunicação visual: à esquerda, gestos; ao centro, telégrafo e à direita, o
heliográfico. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4 Modelos de transceptores: rádio táctico PRC-525 para transporte individual (cima
e à esquerda) ou montagem veicular (cima eà direita), Kenwood TS-2000 (baixo-
esquerda) e Midland G7 (baixo-direita). . . . . . . . . . . . . . . . . . . . . . . . 6
1.5 Modelos de antenas (da esquerda-cima, segundo sentido retrógrado): «chicotes»
verticais em viatura militar, dipólo dobrado vertical, reflector parabólico com antena
de abertura, agregado para GSM, agregado de 4 antenas helicoidais e agregado de 2
antenas Yaggi-Uda. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.6 Forma de onda de fala (vogal ó), assinalando-se a azul o intervalo de periodicidade. 9
1.7 Função sinc(x). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
Janela rectangular ( 2Tt 1 ), sendo T1 = 2. . . . . . . . . . . . . . . . . . . . . . . .
d
1.8 11
Janela rectangular ( Tt ), sendo T1 = 2. . . . . . . . . . . . . . . . . . . . . . . .
V
1.9 1
12
1.10 Janela de Hamming WHamming ( Tt ), sendo T = 1. . . . . . . . . . . . . . . . . . . . 12
1.11 Janela de Hann WHann ( Tt ), sendo T = 1. . . . . . . . . . . . . . . . . . . . . . . . 13
1.12 Janela de Gauss Gσ (t), sendo σ = 1. . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.13 Função Exponencial decrescente y(t) = e−|a|t u(t), com a = 0, 5. . . . . . . . . . . 14
1.14 Partes real (em cima) e imaginária (em baixo) da exponencial complexa amortecida
para σ = −0, 5 e ω = 2 para y(t) = e(σ + jω)t · u(t). . . . . . . . . . . . . . . . . . . 15
1.15 Família de funções normal de média nula (em cima) e do seu integral, a função inte-
gral de Gauss (em baixo), em função do desvio-padrão σ , onde na abcissa t = 0, 25
e de baixo para cima temos a seguinte correspondência σ = 1, 0, 3, 0, 2, 0, 1, 0, 05. 16
1.16 Sinusoides de frequências fundamentais múltiplas, com k = 1 a cor azul, k = 2 a cor
verde, k = 3 a vermelho, k = 4 a cor ciano. . . . . . . . . . . . . . . . . . . . . . . 22
1.17 Sinal Trem de Diracs para T0 = 1. . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.18 Impulso rectangular em a) e onda rectangular, em b); com T0 = 5 e T1 = 1. . . . . . 24
1.19 Coeficientes da série harmónica da onda rectangular com T0 = 5 e T1 = 1. . . . . . 25
1.20 Onda rectangular e transformada de Fourier em função do factor de ciclo FC, res-
pectivamente em cima e em baixo, igual a 20%: TT10 = 0, 2. . . . . . . . . . . . . . 26

ix
x LISTA DE FIGURAS

1.21 Onda rectangular e transformada de Fourier em função do factor de ciclo FC, res-
pectivamente em cima e em baixo, igual a 50%: TT01 = 0, 50. . . . . . . . . . . . . . 27
1.22 Onda rectangular e transformada de Fourier em função do factor de ciclo FC, res-
pectivamente em cima e em baixo, igual a 80%: TT01 = 0, 80, em baixo. . . . . . . . 28
1.23 Síntese da onda quadrada por série de Fourier truncada (equação (1.53)) para os
vários valores de N assinalados. . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
1.24 Janelas no tempo (à esquerda) e respectivos espectros (dB) à direita, para T = 1; de
cima para baixo: janelas rectangular, triangular, Hamming e Hanning. . . . . . . . 32
1.25 Janelas no tempo (à esquerda) e respectivas transformadas de Fourier à direita, para
T = 1; em cima, janela sinc e, em baixo, janela de Gauss. . . . . . . . . . . . . . . 34
1.26 Circuito RC passa-baixo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
1.27 Módulo da função de resposta em frequência do circuito RC Passa-baixo para RC =
0, 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
1.28 Diagramas de Bode para a função de resposta em frequência do circuito RC Passa-
baixo para RC = 0, 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
1.29 Sistema de modulação de amplitude. . . . . . . . . . . . . . . . . . . . . . . . . . 38
1.30 Impulso de Rádio-frequência. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
1.31 Espectro da janela rectangular (em cima) e do Impulso de Rádio-frequência, sendo
f0 = 7, 5 GHz e T1 = 0, 55 s, em baixo. . . . . . . . . . . . . . . . . . . . . . . . . 41
1.32 Janelas (lado esquerdo) e seus espectros (à direita) de Hanning para T = 1/2 (azul)
e para T = 1/4, a vermelho. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
1.33 Onda triangular periódica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
1.34 Espectro da onda triangular periódica. . . . . . . . . . . . . . . . . . . . . . . . . 44

2.1 Problema do detector com erros. . . . . . . . . . . . . . . . . . . . . . . . . . . . 49


2.2 Variável aleatória de Poisson para λ = 1(preto), 2 (azul), 5 (vermelho), 10 (magenta)
e 20 (ciano). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
2.3 Funções densidade de probabilidade (em cima) e distribuição cumulativa (em baixo). 57
2.4 Distribuição Uniforme de uma Variável Aleatória para a = −0, 5 e b = 1, 5. . . . . 58
2.5 Distribuição Uniforme de uma Variável Aleatória para λ = 1, 7. . . . . . . . . . . 59
2.6 Distribuição Normal de uma Variável Aleatória X ∼ N(3/4, 12/100). . . . . . . . 60
2.7 Transformação das variável aleatória X ∼ N(µ, σ 2 ) e Y (lado esquerdo) por Y =
(X − µ)/σ e, à direita, as respectivas função densidade de probabilidade e função
distribuição cumulativa de Y ∼ N(0, 1) para µ = 1/2 e σ 2 = 0, 12. . . . . . . . . . 61
2.8 Função Densidade de Probabilidade de X ∼ fX (x) = λ2 exp(−λ |x|), Transformação
Y = |X| e função densidade de probabilidade de Y , fY (y). . . . . . . . . . . . . . . 64
2.9 Exemplificação do Teorema do Limite Central: com N = 1 em cima esquerda; N =
2 em cima, à direita e com N = 6 em baixo. Os gráficos superiores (e as linhas
a azul nos gráficos inferiores) ilustram o histograma da variável aleatória Z. As
linhas vermelhas dos gráficos inferiores representam uma curva normal ajustada aos
valores das realizações de Z. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
2.10 Variável Aleatória M(·). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
LISTA DE FIGURAS xi

2.11 Entradas e saídas num SLIT de resposta impulsiva h(t). . . . . . . . . . . . . . . . 78


2.12 SLIT solicitado por processo X (t) ∼ Gauss(mX , σX2 ). . . . . . . . . . . . . . . . 83
2.13 Autocovariância do ruído impulsivo sendo λ = 3, A = 2 e T = 1, 5. . . . . . . . . 85
2.14 Circuito equivalente gerador ruído térmico. . . . . . . . . . . . . . . . . . . . . . 86

3.1 Entropia de uma FDSM binária em função da probabilidade de ocorrência p de um


dos seus símbolos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
3.2 Funções log(x) (a cor azul) e x − 1 (a cor vermelha). . . . . . . . . . . . . . . . . . 102
3.3 Código Morse internacional (en.wikipedia.org/wiki/Morse_code acedido em 21 de
Janeiro de 2015). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
3.4 Exemplo de aplicação do algoritmo de Huffman. . . . . . . . . . . . . . . . . . . 106
3.5 Digitalização de Fontes Analógicas. . . . . . . . . . . . . . . . . . . . . . . . . . 111
3.6 Amostragem ideal (esquerda) e modelo matemático (direita). . . . . . . . . . . . . 111
3.7 Amostragem ideal de um sinal de banda limitada a B, de cima para baixo: espectro
arbitrário de x(t), para fa < 2B, fa = 2B e finalmente fa > 2B. . . . . . . . . . . . 113
3.8 Resposta impulsiva do interpolador ideal, assinalando-se a vermelho a resposta para
t < 0. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
3.9 Amostragem ideal com retenção de ordem zero (a vermelho) de um sinal sinusoidal
(a azul). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
3.10 Módulo da resposta em frequência do ROZ (azul), assinalando-se a cor verde a gama
de frequências correspondente ao suporte B da mensagem, B = 2T1a = 4 kHz. . . . . 116
3.11 Quantificação uniforme com 3 bit (8 níveis): cima e à esquerda, sinal original e
quantificado; cima e direita, curva de quantificação; baixo e à esquerda, erro de
quantificação e histograma do erro de quantificação, em baixo e à direita. . . . . . 117
3.12 Histograma de um sinal de fala (normalizado à unidade). . . . . . . . . . . . . . . 118
3.13 Quantificação uniforme (a preto) e não uniforme, norma-A, a cor azul (a vermelho,
A=87,6). Na ordenada 0, 5 e de baixo para cima: A = 1, 2, 5, 10, 50, 87, 6, e 100. 119
3.14 Quantificação uniforme (a preto) e não uniforme, norma-µ a cor azul (a vermelho,
µ = 255. Na ordenada 0, 5 e de baixo para cima: µ = 0, 1, 5, 10, 100, 255, e 300.120
3.15 Histograma do sinal de fala após compressão pela norma-µ. . . . . . . . . . . . . 121
3.16 Diagrama de blocos de um sistema PCM. . . . . . . . . . . . . . . . . . . . . . . 121
3.17 Estrutura de uma trama E1 PCM. . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
3.18 Diagrama de blocos de um sistema PCM. . . . . . . . . . . . . . . . . . . . . . . 122
3.19 Tempo médio de ocorrência de um erro para ε = 10−9 . . . . . . . . . . . . . . . . 124
3.20 Probabilidade de erro em função do número n de repetições, obtidas para uma pro-
babilidade de erro no canal binário simétrico ε = 1/2. . . . . . . . . . . . . . . . . 125
3.21 Exemplos de códigos de Hamming (1,1), em cima e (2,1) em baixo; à esquerda sem
erro no canal e, à direita, com a ocorrência de um erro. . . . . . . . . . . . . . . . 125
3.22 Exemplos de código de Hamming (3,2), assinalando-se com um círculo as palavras
de código válidas e a vermelho as que resultam da ocorrência de um erro de um bit. 126
3.23 Código de Hamming (3,1), assinalando-se com um círculo as palavras de código
válidas e a vermelho e a violeta as que resultam da ocorrência de um erro de um bit. 128
xii LISTA DE FIGURAS

3.24 Exemplo de aplicação de um código de Hamming (7,4). . . . . . . . . . . . . . . . 135


3.25 Exemplo da geração de um Código Convolucional. . . . . . . . . . . . . . . . . . 138
3.26 Pr(u, w) em função da distância de Hamming para (de cima para baixo) ε igual a
10−3 , 10−4 , 10−5 e 10−6 , respectivamente asinaladas com os símbolos ◦, +, × e ∗. 139
3.27 Capacidade do canal em função da probabilidade de transição. . . . . . . . . . . . 144
3.28 Probabilidade de erro em função do número m de repetições (à esqerda) e do ritmo
1
no canal r = n1 = 2·m+1 (à direita) para vários valores da probabilidade de transição
p, sendo, de cima para baixo, p = 0, 1, p = 0, 01 e p = 0, 001. . . . . . . . . . . . 147
3.29 Transmissão da mensagem binária «0110100010» (a azul) em diversos canais de
banda limitada (a vermelho); de cima para baixo: canal passa-baixo, canal passa-
alto e canal passa-banda. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
3.30 Formatos de Sinalização, de cima para baixo: unipolar, unipolar com retorno a zero,
polar, polar com retorno a zero, bipolar e Manchester. Os tracejados sinalizam a
duração do bit. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
3.31 Densidades Espectrais de Potência para os impulsos de sinalização unipolar (ver-
melho), polar (magenta), bipolar (azul) e Manchester (negro). Foram usados os
seguintes parâmetros: duração do bit, T = 3; amplitude A do impulso p(t), A = 1. . 150
3.32 Comunicação através de um canal com ruído. . . . . . . . . . . . . . . . . . . . . 151
3.33 Capacidade do canal em função da relação sinal/ruído em dB, para vários valores
(assinalados) da sua largura de banda. (ver texto) . . . . . . . . . . . . . . . . . . 152
3.34 Diagrama da eficiência espectral. . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
3.35 Impulsos de Sinalização Cosseno-Elevado para vários factores de decaimento α para
B = 1, sendo: α = 1 a preto, α = 0, 75 a azul, α = 0, 5 a magenta, α = 0, 25 a verde,
α = 0 a ciano. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
3.36 Envio de impulsos cosseno elevado com α = 0, 5 num canal de banda limitada; em
cima: sequência binária; ao centro: sinal à saída do canal, considerando ausência
de ruído; em baixo: sinal à saída do canal, considerando ruído branco gaussiano
N(0, σ 2 = 0, 16). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
3.37 Diagrama de olho. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
3.38 Diagrama de olho: A, intervalo de tempo adequado à amostragem do sinal; B, mar-
gem do sinal relativamente ao ruído; C, variações (distorções) nas passagens por
zero, resultantes do «jitter»; D, instante óptimo de amostragem. . . . . . . . . . . . 159
3.39 Sinalização no canal (lado esquerdo) e diagramas de olho (metade direita); em cima,
código ternário e em baixo, código quaternário. . . . . . . . . . . . . . . . . . . . 160
3.40 Construção do código de Huffmann. . . . . . . . . . . . . . . . . . . . . . . . . . 162
3.41 Sensores da Curiosity (fonte NASA, http://www.nasa.gov). . . . . . . . . . . . . . 164

4.1 Diagrama de blocos de sistema de transmissão discreto. . . . . . . . . . . . . . . . 170


4.2 Análise de Sinais por banco de correladores (à esquerda) e Síntese (à direita). . . . 171
4.3 Funções de base. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173
4.4 Impulsos de sinalização. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173
4.5 Constelação ou representação da modulação digital no espaço de sinais. . . . . . . 174
LISTA DE FIGURAS xiii

4.6 Impulsos de sinalização, a cor azul; as funções da base estão assinaladas a cor verde
e a vermelho, respectivamente, φ1 (t) e φ1 (t). . . . . . . . . . . . . . . . . . . . . . 175
4.7 Constelação ou representação da modulação digital QPSK no espaço de sinais (no
texto, xi (t) = si (t)). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176
4.8 Constelação da modulação digital QPSK no espaço de sinais do receptor após ruído
gaussiano no canal, xi (t) = si (t) +W (t). . . . . . . . . . . . . . . . . . . . . . . . 176
4.9 Diagrama de blocos de um sistema de recepção discreto. . . . . . . . . . . . . . . 178
4.10 Representação gráfica de ln[p/(1 − p)] em função de p. . . . . . . . . . . . . . . . 181
4.11 Sinais ortogonais de energia unitária. . . . . . . . . . . . . . . . . . . . . . . . . . 182
4.12 Receptor de máxima verosimilhança (caso particular). . . . . . . . . . . . . . . . 182
4.13 Regiões de decisão correspondentes à equação (4.40). . . . . . . . . . . . . . . . . 183
4.14 Sinalização e detecção com sinais antipodais de igual energia. . . . . . . . . . . . 185
4.15 Funções Densidade de Probabilidades Condicionais, η = 1, 5 e si = (−1)i , i = 1, 2. 186
4.16 Correlador. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187
4.17 Sequência 0011001 utilizando sinalização unipolar (cima), Polar (centro) e ASK
(baixo), considerando A = 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
4.18 Sequência «0011001» utilizando sinalização unipolar (cima), PSK (centro) e FSK
(baixo), considerando A = 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190
4.19 Diagrama de sistema de comunicação digital. . . . . . . . . . . . . . . . . . . . . 192
4.20 Diagrama do modulador de BASK; NRZ (no return to zero) significa que quando a
sequência é «1» o nível de amplitude se mantém constante, não retornando a zero. . 194
4.21 Diagrama do modulador de BFSK. . . . . . . . . . . . . . . . . . . . . . . . . . . 194
4.22 Diagrama do modulador de BPSK. . . . . . . . . . . . . . . . . . . . . . . . . . . 195
4.23 Constelação de 16-QAM. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
4.24 Diagrama do modulador de QPSK. . . . . . . . . . . . . . . . . . . . . . . . . . . 196
4.25 Diagrama do modulador de QPSK. . . . . . . . . . . . . . . . . . . . . . . . . . . 196
4.26 Constelações de QPSK (à esquerda) e OQPSK (à direita). . . . . . . . . . . . . . . 197
4.27 Sequência binária ”010011010101” (em cima) e respectiva modulação 2-PSK (em
baixo). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198
4.28 Sinalizações da modulação 2-PSK. . . . . . . . . . . . . . . . . . . . . . . . . . . 199
4.29 Constelações M-PSK: 2-PSK, à esquerda e 4-PSK, à direita. . . . . . . . . . . . . 199
4.30 Formas de onda das sub-portadoras da modulação 4-PSK. . . . . . . . . . . . . . . 200
4.31 Sequência binária ”0100110101” (em cima) e respectiva modulação 4-PSK. . . . . 201
4.32 Constelação 8-PSK (Código de Gray). . . . . . . . . . . . . . . . . . . . . . . . . 202
4.33 Sequência binária ”0100110101” (em cima) e respectiva modulação 8-PSK. . . . . 203
4.34 Formas de onda das sub-portadoras em 8-PSK. . . . . . . . . . . . . . . . . . . . 203
4.35 Constelação 8-QAM. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204
4.36 Sequência binária ”0100110101” (em cima) e respectiva modulação 8-QAM. . . . 204
4.37 Formas de onda das sub-portadoras em 8-QAM. . . . . . . . . . . . . . . . . . . . 205
4.38 Espaço de sinais para a sinalização unipolar. . . . . . . . . . . . . . . . . . . . . . 206
4.39 Detector Integrate-and-Dump. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207
xiv LISTA DE FIGURAS

4.40 Impulso de sinalização s1 (t). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209


4.41 Impulso de sinalização s0 (t). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210
4.42 Obtenção da resposta impulsiva do filtro adaptado. . . . . . . . . . . . . . . . . . 210
4.43 Resposta do filtro adaptado ao impulso de sinalização s1 (t). . . . . . . . . . . . . . 210
4.44 Resposta do filtro adaptado ao impulso de sinalização s0 (t). . . . . . . . . . . . . . 211
4.45 Impulso de sinalização s0 (t). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211

5.1 Modulação de Amplitude (DSB/SC). À esquerda, sinal modulante (cima) e sinal


modulado (baixo); à direita, os espectros do sinal modulante (cima), da portadora
(centro) e do sinal modulado (baixo), considerando sinais sinusoidais de amplitude
unitária. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218
5.2 Modulação de Amplitude (DSB) com portadora. À esquerda, sinal modulante (cima)
e sinal modulado (baixo); à direita, os espectros do sinal modulante (cima), da por-
tadora (centro) e do sinal modulado (baixo), considerando sinais sinusoidais de am-
plitude unitária e que o valor médio de x(t) foi de 1/3. . . . . . . . . . . . . . . . . 219
5.3 Modulação de Amplitude (DSB) com portadora. À esquerda, sinal modulante (cima)
e sinal modulado (baixo); à direita, os espectros do sinal modulante (cima), da por-
tadora (centro) e do sinal modulado (baixo), considerando sinais sinusoidais de am-
plitude unitária e que o valor médio de x(t) foi de 1,2. . . . . . . . . . . . . . . . . 220
5.4 Modulação de Amplitude para sinais de média nula, onde p(t) = AC · cos(2π fc t). . 221
5.5 Modulação de Amplitude (DSB) com portadora. Em cima, densidade espectral de
potência arbitrária do processo modulante de valor médio nulo; em baixo, a densi-
dade espectral de potência do processo modulado em amplitude. Considerou-se, a
título de exemplo, B = 50 Hz e fc = 700 Hz. . . . . . . . . . . . . . . . . . . . . . 222
5.6 Detector de Envolvente. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224
5.7 Detecção de Envolvente; a vermelho assinala-se o sinal modulante. . . . . . . . . . 224
5.8 Detecção de Envolvente onde a constante de tempo do circuito RC é demasiado
elevada; a vermelho assinala-se o sinal modulante. . . . . . . . . . . . . . . . . . . 225
5.9 Detecção de Envolvente de uma portadora sobremodulada; a vermelho assinala-se o
sinal modulante. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226
5.10 Modelação de um Detector de Envolvente ideal. . . . . . . . . . . . . . . . . . . . 227
5.11 Sistema de Comunicação AM: emissor (modulador) e receptor com detecção coerente.227
5.12 Sistema de modulação em quadratura, QAM. . . . . . . . . . . . . . . . . . . . . 228
5.13 Desmodulador de QAM. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228
5.14 Esquema de um emissor de AM para Onda Média (MW). . . . . . . . . . . . . . . 229
5.15 Diagrama de blocos de receptor regenerativo. . . . . . . . . . . . . . . . . . . . . 230
5.16 Cricuito de um receptor regenerativo. . . . . . . . . . . . . . . . . . . . . . . . . 230
5.17 Detector super-regenerativo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231
5.18 Diagrama de blocos de um receptor super-heterodino. . . . . . . . . . . . . . . . . 231
5.19 Esquema eléctrico de um receptor super-heterodino baseado no circuito TDA1572
da Philips. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232
LISTA DE FIGURAS xv

5.20 Esquema eléctrico de um receptor super-heterodino baseado no circuito TDA1572


da Philips. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233
5.21 Funções de Bessel de 1a Espécie para (de cima para baixo na abcissa β = 1: k =
0, 1, 2, 3, · · · ). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235
5.22 Espectro FM modulado por sinusoide. À esquerda X = 0, 1 e à direita, X = 1. De
cima para baixo (ambos os gráficos), f1 = 100 Hz, 1 kHz e 8 kHz, com f∆ = 75 kHz.
A frequência zero em todos os gráficos corresponde à frequência da portadora fc . . 237
5.23 Circuito transmissor de FM. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 238
5.24 Frequência instantânea na modulação de frequência, em função da amplitude do
sinal modulante. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 238
5.25 Discriminação de frequência. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239
5.26 Discriminação de frequência. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239
5.27 Detecção de FM: em cima, sinal modulante; ao centro, sinal de FM, em baixo, sinal
após o derivador. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 240
5.28 Detectores de FM, Foster-Seeley (esquerda) e de razão (direita). . . . . . . . . . . 241
5.29 Malha de captura de fase, PLL, onde VCO significa: Voltage Controlled Oscilator. 241
5.30 Modelo linearizado da malha de captura de fase. . . . . . . . . . . . . . . . . . . . 242
5.31 Exemplo de detecção FM usando PLL: em a) com um sinal modulante janela rec-
tangular e, em b) com um sinal modulante sinusoidal; em ambos os casos, os sinais
modulantes estão a cor azul e os detectados a verde. . . . . . . . . . . . . . . . . . 242
5.32 Modulador de estereofonia para FM. . . . . . . . . . . . . . . . . . . . . . . . . . 242
5.33 Descodificador de estereofonia para FM. . . . . . . . . . . . . . . . . . . . . . . . 243
5.34 Modulação de portadora sinusoidal em amplitude por uma sequência binária. . . . 244
5.35 Modulação de portadora sinusoidal em fase por uma sequência binária. . . . . . . . 245
5.36 Modulação de portadora sinusoidal em frequência por uma sequência binária. . . . 246
5.37 Modulação de portadora sinusoidal em amplitude por um sinal sinusoidal. . . . . . 247
5.38 Modulação de portadora sinusoidal em fase por um sinal sinusoidal. . . . . . . . . 247
5.39 Modulação de portadora sinusoidal em frequência por um sinal sinusoidal. . . . . . 248
5.40 Modulação de portadora sinusoidal em banda lateral única por uma sequência binária.248
5.41 Modulação de portadora sinusoidal em banda lateral única por um sinal sinusoidal. 249
5.42 Modulação de portadora sinusoidal em AM com sobremodulação (em cima), 100
% modulada (ao centro) e modulada ≈ 74% (em baixo); os gráficos da esquerda
representam XDC + X(t) e os gráficos da direita representam XAM (t). . . . . . . . . 251
5.43 Sistema de comunicação em QAM. . . . . . . . . . . . . . . . . . . . . . . . . . . 253
5.44 Diafonia (dB) em função da desfasagem das portadoras (em o) na modulação QAM. 254
5.45 Módulo do Espectro de Modulação de Frequência para β = 1. Consideraram-se
apenas 5 termos (ver texto) e para f > 0. . . . . . . . . . . . . . . . . . . . . . . . 255
5.46 Modulador de Banda Lateral Única, método de Weaver. . . . . . . . . . . . . . . . 255
5.47 Modulador de Banda Lateral Única, método de Weaver. . . . . . . . . . . . . . . . 256
5.48 Modulador de Banda Lateral Única, método de Weaver. . . . . . . . . . . . . . . . 257
xvi LISTA DE FIGURAS

5.49 Modulador de Banda Lateral Única, método de Weaver (banda lateral superior).
Note-se que as amplitudes relativas dos espectros não estão à escala. . . . . . . . . 258
5.50 Modulador de Banda Lateral Única Inferior. Note-se que as amplitudes relativas dos
espectros não estão à escala. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 259
5.51 Modulador com onda quadrada. . . . . . . . . . . . . . . . . . . . . . . . . . . . 259
5.52 Diversas formas de modulador. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 261

6.1 Obtenção da modulação em banda lateral única superior (SSB-UB) e banda lateral
inferior (SSB-LB). Note-se que as amplitudes dos espectros não estão representadas
com as proporções correspondentes. . . . . . . . . . . . . . . . . . . . . . . . . . 266
6.2 Obtenção das componentes em fase e em quadratura de um processo passa-banda. . 268
6.3 Obtenção de um processo passa-banda a partir das suas componentes em fase e em
quadratura. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 268
6.4 Interpretação geométrica dos sinais da equação (6.22) . . . . . . . . . . . . . . . . 269
6.5 Filtragem passa-banda do ruído na entrada do receptor. . . . . . . . . . . . . . . . 271
6.6 Caracterização de um processo passa-banda a partir das suas componentes em fase
e em quadratura. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 271
6.7 Sistema de Telecomunicações na presença de ruído aditivo. . . . . . . . . . . . . . 272
6.8 Sistema de Comunicações PCM na presença de ruído aditivo. . . . . . . . . . . . . 274
6.9 SNRPCM (dB) em função da probabilidade de erro para vários valores de N (número
de bits de quantificação). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 277
6.10 Desmodulação de amplitude por detecção coerente. . . . . . . . . . . . . . . . . . 278
6.11 Desmodulação de amplitude por detecção de envolvente. . . . . . . . . . . . . . . 280
6.12 Inversão de fase em modulação de amplitude. . . . . . . . . . . . . . . . . . . . . 282
6.13 Inversão de fase da portadora em modulação de amplitude com sobremodulação. . 283
6.14 Componentes em fase e em quadratura do sinal de Frequência Modulada. . . . . . 285
6.15 Detecção de Frequência Modulada. . . . . . . . . . . . . . . . . . . . . . . . . . . 286
6.16 Desempenho da modulação de frequência face à modulação de banda lateral dupla
(DSB) para fB∆ = 2 (cor azul) e fB∆ = 5 (cor magenta). . . . . . . . . . . . . . . . . 289
6.17 Densidade Espectral de Potência do Ruído na saída do Discriminador de FM. . . . 289
6.18 Densidades espectrais de potência à saída do desmodulador (em cima) e à saída do
filtro de pós-ênfase (em baixo), bem como a resposta em frequência deste filtro (ao
centro). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 290
6.19 Desempenho da modulação de frequência face à modulação de amplitude (AM e
DSB ou SSB) para fB∆ = 5, com e sem pré-ênfase. . . . . . . . . . . . . . . . . . . 291

C.1 Curva da função de Gauss de média nula e variância unitária e da sua primitiva. . . 307

E.1 Diagrama da malha básica de captura de fase. . . . . . . . . . . . . . . . . . . . . 315


E.2 Diagrama da malha linearizada (ver texto) de captura de fase. . . . . . . . . . . . . 317
E.3 Resposta ao escalão da malha linearizada (ver texto) de captura de fase, sendo:
p
Kvco = 100π e H(s) = s+p , sendo os pólo p assinalados. . . . . . . . . . . . . . . 318
LISTA DE FIGURAS xvii

E.4 Resposta ao escalão da malha linearizada (ver texto) de captura de fase, sendo:
p
Kvco = 100π e H(s) = H(0) · s+p , sendo o pólo p = −0, 01 e os ganhos estáticos
H(0) estão assinalados. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 318
E.5 Resposta a uma rampa na frequência da malha de captura de fase e da malha linea-
0,01
rizada, para Kvco = 100π, H(s) = s+0,01 e fc = 1000 Hz. . . . . . . . . . . . . . . 319
E.6 Resposta a uma modulação FSK por uma sequência binária «01010» da malha de
captura de fase (cor azul) e da malha linearizada (vermelho), para Kvco = 100π,
0,01
H(s) = s+0,01 e fc = 1000 Hz. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 320
E.7 Resposta a uma modulação de frequência por uma rampa no tempo da malha de
0,025
captura de fase, para Kvco = 100π, H(s) = s+0,025 e fc = 1000 Hz. . . . . . . . . . 321
E.8 Resposta a uma modulaçãode frequência da malha de captura de fase (cor azul) e da
0,01
malha linearizada (a vermelho), para Kvco = 100π, H(s) = s+0,01 e fc = 1000 Hz. . 322
E.9 Resposta a uma modulação FSK por uma sequência binária «01010» da malha de
captura de fase (cor azul) e da malha linearizada (a vermelho), para Kvco = 100π,
p
H(s) = s+p e fc = 1000 Hz: em cima, p = −0, 1; ao centro, p = −0, 01 e em baixo,
p = −0, 001. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 323
E.10 Resposta a uma modulação FSK por uma sequênc1a binária «01010» da malha de
0,01
captura de fase e da malha linearizada, para Kvco = 100π, H(s) = s+0,01 e fc = 1000
Hz. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 324
E.11 Resposta a uma modulação FSK por uma sequência binária «01010» da malha de
0,01
captura de fase e da malha linearizada, para Kvco = 100π, H(s) = H(0) · s+0,01 e
fc = 1000 Hz, sendo os diferentes ganhos estáticos H(0) assinalados. . . . . . . . . 325

F.1 Exemplo de interface de operação de um receptor SDR. . . . . . . . . . . . . . . . 327


F.2 Arquitectura de um receptor superheterodino. . . . . . . . . . . . . . . . . . . . . 328
F.3 Amostragem ideal no domínio da frequência. . . . . . . . . . . . . . . . . . . . . 330
F.4 Amostragem ideal de processo passa-banda. . . . . . . . . . . . . . . . . . . . . . 330
F.5 Amostragem do processo passa-banda a um ritmo inferior ao de Nyquist. . . . . . 331
F.6 Diagrama de blocos de um receptor SDR. . . . . . . . . . . . . . . . . . . . . . . 332
F.7 Diagrama de blocos de um receptor SDR. . . . . . . . . . . . . . . . . . . . . . . 332
F.8 Diagrama de blocos de um emissor SDR. . . . . . . . . . . . . . . . . . . . . . . 333

G.1 Probabilidade de erro em função de Eb /ηJ . . . . . . . . . . . . . . . . . . . . . . 338


G.2 Espectro do impulso de sinalização rectangular. . . . . . . . . . . . . . . . . . . . 339
G.3 Potência acumulada (percentagem) em função da largura de banda. . . . . . . . . . 339
G.4 Modulador de DS/SS baseado na repetição de N vezes (adaptado de (Strøm et al. ,
2002)). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 340
G.5 Receptor de DS/SS para o transmissor da figura G.4 (adaptado de (Strøm et al. ,
2002)). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 340
G.6 Método de FH/SS: lento em b) com 3 bit/salto e rápido em c) com 3 saltos/bit; em
a) representa-se a sequência de dados a transmitir. . . . . . . . . . . . . . . . . . . 341
G.7 Diagrama de blocos de um sistema de FH/SS: emissor em cima e receptor em baixo. 342
xviii LISTA DE FIGURAS
Lista de Tabelas

1.1 dos meios de comunicação «pré-electrónicos» . . . . . . . . . . . . . . . . . . . . 5


1.2 dos meios de comunicação «pós-electrónicos»; onde ADSL, Asymetric Digital Subs-
criber Line; CW, Continuous Wave; AM, Amplitude Modulation; FM, Frequency
Modulation; GPRS, General Packet Radio Service; 3G, 3rd Generation; UTMS,
Universal Mobile Telecommunication System; SMS, Short Message Service . . . . 5
1.3 das bandas utilizadas na comunicações em rádio-frequência; onde ITU designa a
International Telecommunication Union. . . . . . . . . . . . . . . . . . . . . . . . 7
1.4 das propriedades da Transformação de Fourier . . . . . . . . . . . . . . . . . . . . 20
1.5 dos Pares da Transformação de Fourier . . . . . . . . . . . . . . . . . . . . . . . . 30

2.1 da variável Aleatória de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . 52


2.2 dos tipos de ruído colorido . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
2.3 (condensada) dos domínio, contradomínio e probabilidades da variável aleatória X(·) 88
2.4 (condensada) dos domínio, contradomínio e probabilidades de X 2 . . . . . . . . . 88

3.1 das probabilidades dos símbolos de B . . . . . . . . . . . . . . . . . . . . . . . . 106


3.2 do código de Huffman resultante para B . . . . . . . . . . . . . . . . . . . . . . . 106
3.3 de um código heurístico para B . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
3.4 da construção do código de Lempel-Ziv (início) . . . . . . . . . . . . . . . . . . . 108
3.5 da construção do código de L-Z (continuação). . . . . . . . . . . . . . . . . . . . 109
3.6 da construção do código de L-Z (continuação). . . . . . . . . . . . . . . . . . . . 109
3.7 da construção do código de L-Z (continuação). . . . . . . . . . . . . . . . . . . . 109
3.8 da construção do código de L-Z (continuação). . . . . . . . . . . . . . . . . . . . 109
3.9 da construção do código de L-Z (continuação). . . . . . . . . . . . . . . . . . . . 109
3.10 da codificação de Lempel-Ziv . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
3.11 dos ritmos PCM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
3.12 da construção de um código rectangular. . . . . . . . . . . . . . . . . . . . . . . . 131
3.13 da construção de um código rectangular para a mensagem w = ”10100011”. . . . . 133
3.14 do número mínimo total de bits de um Código Sistemático, onde k é o número de
bits da palavra inicial e n é o número total de bits resultante. . . . . . . . . . . . . 134
3.15 das acções correctivas em função do Síndroma P3  P2  P1 . . . . . . . . . . . . . . 135
3.16 da probabilidade de erro para vários valores de p. . . . . . . . . . . . . . . . . . . 146

xix
xx LISTA DE TABELAS

3.17 das probabildades de ocorrência para a fonte B . . . . . . . . . . . . . . . . . . . 161


3.18 das características dos códigos utilizados para B sendo H(B) = 1, 885. . . . . . . 161
3.19 das probabildades de ocorrência para a fonte B . . . . . . . . . . . . . . . . . . . 161
3.20 do código de Huffmann para a fonte B . . . . . . . . . . . . . . . . . . . . . . . . 163

4.1 das aplicações da modulação digital. . . . . . . . . . . . . . . . . . . . . . . . . . 193


4.2 da Codificação 8-PSK . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200
4.3 da Codificação 8-PSK (Gray) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202
4.4 da Codificação 8-QAM (Gray) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202
4.5 das probabilidades de erro (Pe ) e da energia dos impulsos (Eb ) para várias sinaliza-
ções binárias. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214
4.6 das probabilidades de erro para várias sinalizações binárias. . . . . . . . . . . . . . 215

5.1 das potências de sinais AM para várias amplitudes de X(t), sendo XDC = 1 e AC = 1,
arredondadas à 2a casa decimal. . . . . . . . . . . . . . . . . . . . . . . . . . . . 223
5.2 da função de Bessel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254
5.3 das potências para diferentes modulações . . . . . . . . . . . . . . . . . . . . . . 260

6.1 das transformadas de Hilbert, supondo m(t) com suporte numa banda B. . . . . . . 265
6.2 das componentes em fase, em quadratura, das amplitudes e das fases instantâneas de
portadoras moduladas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 270

C.1 das funções erfc(x) e Q(x) x ∈ [0, 5, 35]. . . . . . . . . . . . . . . . . . . . . . . 309

D.1 da função Jk (β ), β ∈ [0, 3], k = 1, 2, 3, . . . , 7. . . . . . . . . . . . . . . . . . . 312


D.2 da função Jk (β ), β ∈ [3, 6], k = 1, 2, 3, . . . , 7. . . . . . . . . . . . . . . . . . . 313
D.3 da função Jk (β ), β ∈ [6, 9], k = 1, 2, 3, . . . , 7. . . . . . . . . . . . . . . . . . . 314

H.1 da relação das principais revisões e modificações ao longo do tempo. . . . . . . . . 344


H.2 das alterações em curso e a efectuar futuramente. . . . . . . . . . . . . . . . . . . 345
Prefácio

Este trabalho teve como ponto de partida os apontamentos que Victor Barroso, Professor Ca-
tedrático do Departamento de Engenharia Electrotécnica e de Computadores do Instituto Superior
Técnico, elaborou em 2006 para a Cadeira homóloga que ministrava nesse Instituto. Esses apon-
tamentos seguiam a excelente obra de Aykin: «Communication Systems». De igual forma estas
nossas notas de estudo também se apoiam, entre outras, e como não poderia deixar de ser, nessa
obra.

Como os nossos Cadetes-Alunos, após terminarem o 4o ano da Academia Militar, ingressam


no IST, importa que os seus conhecimentos-base sejam similares aos dos seus colegas civis. Assim
se justifica a semelhança dos programas das Unidades Curriculares ministrados nas duas Instituições
e, neste caso em especial, nos Fundamentos de Telecomunicações.

A experiência acumulada ao longo de vários anos a leccionar estes tópicos aos Cadetes-
Alunos da Academia Militar, levaram-nos a consolidar quer as matérias a apresentar, quer a sua
sequência ao longo do semestre, tentando com que os conceitos se sucedam sem grandes «saltos»
ou descontinuidades. Assim, se tenta uma melhor aprendizagem de matérias que nem sempre são
de fácil compreensão e assimilação.

Estamos cientes de que, neste trabalho, existem muitas lacunas e que alguns tópicos carecem
de melhor enquadramento e desenvolvimento teórico e, portanto, procuraremos ir diminuindo estas
fragilidades com o evoluir do tempo. As matérias ilustradas constituem apenas uma abordagem aos
diferentes modos de comunicação; não se pretende uma abordagem nem exaustiva nem completa
às Telecomunicações. Para tal, existe vasta bibliografia especializada, destacando-se, entre outras,
as obras de (Haykin, 2001) e (Proakis, 2000). Estes apontamentos estão organizados em seis ca-
pítulos e sete apêndices1 , seguindo a ordem cronológica da apresentação nas aulas. Para facilitar
o enquadramento seguido, na figura inclusa ilustra-se, num sistema genérico de comunicação, a
correspondência entre os seus blocos constituintes e os capítulos respectivos.

Academia Militar, Março de 2015.

1 As matérias constantes dos apêndices não são, regra geral, objecto primário da avaliação.

xxi
xxii

Fonte
Condicionamento
de Discretização Quantificação
Espectral
Sinal

Modulação
Fonte Codificação
de
Mensagem

Legenda: B/M
A/D - Analógico / Digital A/D
B/M - Banda de base / Modulação de Portadoras

Capítulo 3 Capítulo 4 Capítulo 5


CANAL
A/D

Condicionamento
Espectral
Passa-Baixo
Estimativa
de Decisão
Mensagem Condicionamento
Desmodulação Espectral
Passa-Banda
Estimativa
de Detecção
Sinal
B/M
Prefácio
Advertências ao Leitor

Este trabalho, mercê da sua directa ligação ao Ensino, está em constante actualização. Por este
motivo, devem os Cadetes-Alunos conferir, na sua capa, através das datas das revisões, se possuem
a versão mais actualizada.

Este trabalho foi redigido usando a aplicação Texmaker2 como editor de LaTex3 . As figu-
ras foram concebidas pelo autor na aplicação Omnigraffle4 para Mac OS. Todas as aplicações e
programas utilizados na feitura deste trabalho são ou freeware, ou adquiridas pelo autor ou, ainda,
licenciadas ao INESC ID e à Academia Militar, como é o caso do Matlab R 5 .

A escrita deste trabalho é conforme ao acordo ortográfico de 1945 seguido de várias modifi-
cações mais ou menos oficiais... Propositadamente não se redigiu segundo o acordo ortográfico de
1990 com o qual o autor está em completo desacordo.

Para facilitar a identificação das definições, dos teoremas, corolários, preposições e propri-
edades e dos problemas ou exemplos, são colocados à margem do texto os seguintes símbolos,
respectivamente: D, T e Ex.

2 http://www.xm1math.net/texmaker/
3 http://www.latex-project.org
4 https://www.omnigroup.com/omnigraffle
5 www.mathworks.com/matlab/

xxiii
xxiv

In principio erat Verbum


Capítulo 1

INTRODUÇÃO ÀS
TELECOMUNICAÇÕES

1.1 OBJECTIVO: TELECOMUNICAR

Comunicar é uma necessidade permanente e inata das espécies animais e vegetais e reveste
várias formas: químicas, físicas, visuais, sonoras, etc., consoante os sentidos envolvidos. Contudo, e
por necessidade de representação analítica, salientaremos quase exclusivamente as formas de comu-
nicação que se baseiam em sinais eléctricos; sinais estes provenientes de transductores (microfones,
altifalantes, câmaras de vídeo, etc.). Assim, imagens e sons que normalmente usaremos para comu-
nicar, serão naturalmente representados pelos seus equivalentes eléctricos.

D
Definição: Sinal diz-se de toda a entidade física capaz de transmitir informação.

As enormes capacidades de cálculo e, consequentemente, de processamento dos computa-


dores actuais levam a que os sinais sejam digitalizados e, por conseguinte, devam ser tratados no
domínio dos sinais discretos. Contudo, dado tratar-se de um trabalho introdutório, estas notas focar-
se-ão principalmente em sinais analógicos.

1
2 CAPÍTULO 1. INTRODUÇÃO ÀS TELECOMUNICAÇÕES

Em termos históricos, nos últimos 150 anos, houve uma notável evolução tecnológica que
acompanhou desde logo a descoberta da electricidade. Para o grande público, os grandes marcos
nesta evolução são o telégrafo, o telefone, a rádio-telefonia e, mais recentemente, o telemóvel. Se,
no domínio da técnica, sem os trabalhos de Cavendish, Galvani, Volta, Oersted, Ampère, Ohm, Fa-
raday, Henry, Wheatstone, Gauss, Weber, Morse, Bell, Watson, Hertz, Edison, Tesla, Marconi, nada
do que hoje damos por adquirido nas telecomunicações existiria, já no domínio dos conceitos teó-
ricos, os grandes alicerces das comunicações são Maxwell, Nyquist, Shannon e Hartley. Sem eles,
ainda usaríamos os métodos tradicionais de sinais de luz ou de bandeiras... Esta lista de nomes não é
de forma alguma exaustiva pois, para além destas individualidades, muitos brilhantes cientistas con-
tribuíram de forma indelével para os avanços extraordinários das tecnologias das telecomunicações
e que, por motivos óbvios, não são aqui mencionados.

Figura 1.1: Diagrama conceptual de um sistema de telecomunicações.

Na figura 1.1 apresenta-se de uma forma muito simplificada um sistema de telecomunicações.


O processo de telecomunicar começa na mensagem a transmitir que passa por uma codificação
(ex: escolha da linguagem/alfabeto a utilizar) após o que se segue, no emissor, uma adaptação às
características do canal de transmissão. Neste, a informação transmitida é modificada pelo ruído
em maior ou menor escala. A recepção da informação segue depois um processo inverso em que se
tenta recuperar a mensagem original que, normalmente, vem corrompida. Daí que o que se obtém
no final é uma estimativa mais ou menos fiel da mensagem original.

A codificação a que se alude no parágrafo anterior não deve ser confundida com a encriptação
da mensagem. Trata-se, tão-sòmente, da adequação da mensagem a um suporte conceptual. Vejamos
com maior detalhe: a saudação «bom dia» que proferimos verbalmente, necessita de ser captada por
um microfone que a irá «codificar» electricamente antes de a entregar ao emissor para ser enviada
por um dado canal. Já a mesma saudação, se for na forma escrita, deverá ser codificada através de,
por exemplo, o código Morse ou, em alternativa, o código ASCII. A codificação pode ainda revestir
outros aspectos como veremos oportunamente.

O emissor é, essencialmente, uma interface entre o codificador e o canal de transmissão. Pode


ir de um simples acondicionador de sinal (amplificação) a um sistema de modulação de frequência
e uma antena de transmissão.

O receptor está condicionado ao processo de telecomunicação e, como o emissor, poderá


1.2. MEIOS E TECNOLOGIAS DAS TELECOMUNICAÇÕES 3

revestir uma amplificação ou uma desmodulação do sinal recebido na antena ou por uma fibra óptica.

O descodificador, como se depreende, irá operar de forma inversa ao processo de codifica-


ção, recebendo a informação e convertendo-a numa representação adequada: sinal de áudio, texto,
imagem.

Deixámos para o final o canal de comunicação ou de transmissão. Este pode revestir várias
formas, desde o ar ao «vazio»... e é precisamente aqui que as ondas rádio-eléctricas são de extrema
utilidade, pois não necessitam de qualquer suporte físico para se propagarem. Em qualquer caso, a
comunicação à distância implica uma degradação acentuada da energia emitida. A este facto, acresce
a influência do ruído que, também, pode revestir várias formas mas que, infelizmente, degrada
sempre a comunicação. O ruído pode ter uma amplitude tal que impossibilite a comunicação ou no
seu todo, ou em parte.

A título de exemplo, veja-se na figura 1.2 a degradação por ruído1 de uma imagem de veículos
de combate2 . Neste caso, a comunicação não é impossibilitada mas, em contrapartida, ocorre uma
degradação substancial na mensagem enviada, ao ponto de muitos pormenores virem mascarados e
irreconhecíveis.

Figura 1.2: Imagem de veículos de combate (à esquerda) e após a influência de ruído (à direita).

Nestes apontamentos serão descritos e analisados os diferentes processos intervenientes na


comunicação à distância, desde a codificação à estimação da mensagem enviada. Apresentar-se-ão
limites teóricos à transmissão de sinais e estimação de mensagens. Ver-se-á ainda o desempenho do
sistema de telecomunicações face ao ruído no canal.

1.2 MEIOS E TECNOLOGIAS DAS TELECOMUNICAÇÕES

A forma mais usual de comunicação é, na nossa espécie, a fala. Esta baseia-se na produção
de sons que resultam de variações de pressão originadas pela movimentação do diafragma que com-
1 Normalmente, o ruído ao se sobrepor à mensagem, pode ser, do ponto de vista analítico, considerado como estando-
lhe adicionado e, neste pressuposto, é designado por ruído aditivo.
2 A imagem da esquerda foi retirada de http://defesanacionalpt.blogspot.pt/2015/04/brigada-mecanizada-festeja-o-seu-

37.html em 24 de Maio de 2015.


4 CAPÍTULO 1. INTRODUÇÃO ÀS TELECOMUNICAÇÕES

prime/expande a caixa torácica e, por conseguinte, o ar contido nos pulmões. Este movimento das
moléculas de ar é depois modificado pela sua passagem pelas cordas vocais e pelas cavidades nasal
e bucal. Os mecanismos de produção da fala estão fora do âmbito destes apontamentos mas o que
nos importa reter são as características necessárias à sua adequada reprodução/envio pelos diferentes
canais de transmissão.

Independentemente dos requisitos anteriores, é importante termos uma noção dos desempe-
nhos dos diversos modos de comunicar, seja em termos de alcance, seja quanto ao débito de infor-
mação. Na evolução histórica destes meios, poderemos criar um referencial baseado na «descoberta
da electricidade» uma vez que esta veio revolucionar de forma irreversível as nossas capacidades de
comunicar.

Assim, poderemos distinguir uma época, seguramente a mais longa, que designaremos por
pré-electrónica3 . Nesta, desde os nossos primórdios, a comunicação fez-se recorrendo aos meios
disponíveis que, ao longo dos tempos, se foram aperfeiçoando quer para vencer a distância e quer
torná-la mais rápida e, logo, mais eficiente:

• Sinais Acústicos
- voz / grito
- assobio4
- instrumentos sopro e percussão

• Sinais Visuais
- gestos (figura 1.3, à esquerda)
- fogo
- telégrafo5 (figura 1.3, ao centro)
- heliógrafo6 (figura 1.3, à direita)

Na tabela 1.1 apresenta-se um resumo desses meios. A comunicação recorrendo a sinais


acústicos (mas distintos da fala) ou visuais necessita de um alfabeto/código específico adicional que
permita a codificação das palavras que compõem a mensagem.

A grande evolução nos meios de comunicação ocorre com o uso da electricidade e, poste-
riormente, com os avanços da electrónica. Assim, na era «pós-electrónica», em que vivemos, os
alcances e os ritmos de transmissão são de tal ordem elevados que consideramos a rapidez de comu-
nicação como um facto adquirido! Esta evolução, comparada com a da era pré-electrónica, foi quase
instantânea, pois decorre de um período de tempo muitíssimo reduzido, embora se estenda por cerca
de 200 anos. Na tabela 1.2 apresentam-se, de forma necessariamente resumida e simplificada, os
meios de comunicação «pós-electrónicos».
3 Electricidade e electrónica são conceitos distintos; muito embora o segundo só faça sentido depois da existência do
primeiro. Contudo, ir-nos-emos apenas, por abuso de linguagem, referir a electrónica mesmo quando se trate, efectiva-
mente, do primeiro conceito.
4 Nas ilhas Canárias ainda persiste uma forma de comunicação à distância, com alfabeto próprio, baseada em assobios.
5 Ou telégrafo óptico; o significado da palavra telégrafo é o de letra ao longe originado no grego τηλε+γραϕω.
6 Heliógrafo ou escrita com (a luz de) o sol, do grego ηλιο+γραϕω, em que, através de espelhos, como os represen-

tados na figura, se enviavam sinais luminosos.


1.2. MEIOS E TECNOLOGIAS DAS TELECOMUNICAÇÕES 5

Figura 1.3: Meios de comunicação visual: à esquerda, gestos; ao centro, telégrafo e à direita, o heliográfico.

Tabela 1.1: dos meios de comunicação «pré-electrónicos»

M EIOS T IPO A LCANCE R ITMO DE T RANS -


MISSÃO
Voz / Grito 0,18 km 90 palavras/minuto
Assobio 8 km -
Sinais Acústicos
Sopro7 16 km -
Percussão8 8 km -
Gestos 1 km 15 palavras/minuto
Fogo(s) 10 km -
Sinais Visuais
Telégrafo 8 a 16 km 3 símbolos/minuto
Heliógrafo 48 km 14 palavras/minuto
Animais Pombo Correio 500 km -

Tabela 1.2: dos meios de comunicação «pós-electrónicos»; onde ADSL, Asymetric Digital Subscriber Line;
CW, Continuous Wave; AM, Amplitude Modulation; FM, Frequency Modulation; GPRS, General Packet Ra-
dio Service; 3G, 3rd Generation; UTMS, Universal Mobile Telecommunication System; SMS, Short Message
Service

M EIOS T IPO R ITMO DE T RANSMISSÃO


Telégrafo (código Morse) 20 palavras/minuto
Telefone 90 palavras/minuto
Com fios
ADSL 20MB/s
«Cabo Coaxial, Fibra Óptica» >100 MB/s
CW (código Morse) 20 palavras/minuto
AM / FM / ... 90 palavras/minuto
GSM (Vocl) 12 kbit/s
Sem Fios GPRS 40 a 144 kbit/s
3G 5 a 10 Mbit/s
UMTS 42 Mbit/s
SMS (escrita assistida) 32 bit/s
6 CAPÍTULO 1. INTRODUÇÃO ÀS TELECOMUNICAÇÕES

1.3 NOÇÕES BÁSICAS SOBRE RÁDIO-COMUNICAÇÕES

Normalmente as comunicações compreendem duas categorias com características antagóni-


cas: as fixas e as móveis. Estas últimas, as comunicações móveis, baseiam-se quase exclusivamente
em sistemas de rádio-frequência (RF). Já as comunicações fixas podem envolver ou não sistemas de
RF, como é o caso de respectivamente, da rádio-difusão, das redes WIFI, Bluetooth, etc., ou da rede
telefónica fixa (ao nível do assinante), da internet (via ADSL sobre linha telefónica, ou sobre cabo
coaxial ou ainda sobre fibra óptica).

1.3.1 S ISTEMAS DE R ÁDIO -F REQUÊNCIA

Estes sistemas compreendem um emissor e um receptor. Quando ambos coexistem no


mesmo equipamento, denominam-se transceptores, figura 1.4. Quer o emissor quer o receptor ne-
cessitam de dispositivos próprios para radiarem/receberem as ondas rádio-eléctricas e que são as
antenas que, por sua vez, podem aparecer sozinhas ou em agregados, figura 1.5. No capítulo 3 ire-
mos tratar dos sistemas de comunicação, com especial ênfase na sua caracterização teórica e, quando
interesse, iremos apresentar alguns sistemas reais.

Figura 1.4: Modelos de transceptores: rádio táctico PRC-525 para transporte individual (cima e à esquerda)
ou montagem veicular (cima eà direita), Kenwood TS-2000 (baixo-esquerda) e Midland G7 (baixo-direita).

O estudo dos emissores e dos receptores, bem como das antenas de rádio-comunicação, está
para além do âmbito deste trabalho.
1.3. NOÇÕES BÁSICAS SOBRE RÁDIO-COMUNICAÇÕES 7

Figura 1.5: Modelos de antenas (da esquerda-cima, segundo sentido retrógrado): «chicotes» verticais em
viatura militar, dipólo dobrado vertical, reflector parabólico com antena de abertura, agregado para GSM,
agregado de 4 antenas helicoidais e agregado de 2 antenas Yaggi-Uda.

1.3.2 BANDAS DE R ÁDIO -F REQUÊNCIA

No quadro da tabela 1.3 apresenta-se uma lista com as bandas de frequências normalmente
em uso, bem como as suas designações.

Tabela 1.3: das bandas utilizadas na comunicações em rádio-frequência; onde ITU designa a International
Telecommunication Union.

Sigla Denominação ITU f (Hz) λ (m)


TLF Tremendously Low Frequency - <3 > 108
ELF Extremely Low Frequency - 3 a 30 108 a 107
SLF Super Low Frequency - 30 a 300 107 a 106
ULF Ultra Low Frequency - 300 a 3 k 106 a 105
VLF Very Low Frequency 4 3 k a 30 k 105 a 104
LF Low Frequency 5 30 k a 300 k 104 a 103
MF Medium Frequency 6 300 k a 3 M 103 a 100
HF High Frequency 7 3 M a 30 M 100 a 10
VHF Very High Frequency 8 30 M a 300 M 10 a 1
UHF Ultra High Frequency 9 300 M a 3 G 1 a 0,1
SHF Super High Frequency 10 3 G a 30 G 0,1 a 10−2
EHF Extremely High Frequency 11 30 G a 300 G 10−2 a 10−3
THF Tremendously High Frequency 12 300 G a 3 T 10−3 a 10−4
8 CAPÍTULO 1. INTRODUÇÃO ÀS TELECOMUNICAÇÕES

1.4 INTRODUÇÃO AOS SINAIS

As comunicações baseiam-se na troca de informação entre emissor e receptor. Esta infor-


mação, por sua vez, é veiculada por sinais eléctricos, para os quais buscamos, sempre que possível,
uma representação analítica. Por conseguinte, uma representação matemática dos sinais de interesse
prático é obviamente desejável. Infelizmente, a maioria dos sinais de interesse prático fogem a uma
regularidade matemática, pelo que se torna imperioso procurar outras formas de representação.

Comecemos por introduzir uma importante classe de sinais, os sinais determinísticos.

D
Definição: Sinal Determinístico Entende-se por sinal determinístico todo o sinal passível de ser
determinado com rigor em qualquer instante do seu domínio.

Estão nesta modalidade os sinais periódicos, o impulso de Dirac9 , o impulso de Heaviside,


etc. Em oposição a esta classe de sinais, teremos os sinais não-determinísticos que, por sua vez,
compreendem os sinais aleatórios e os sinais irregulares. Como exemplo de sinal aleatório tere-
mos o índice da bolsa de valores; o sinal resultante da ruptura de um dado material sob esforço
pode exemplificar um sinal irregular. Se um sinal aleatório é passível de ser descrito pelas suas
características estatísticas, já o sinal irregular carece de uma descrição generalizada.

Resumindo, os sinais podem ser classificados quanto às suas características temporais como
se apresenta no quadro seguinte:
 



  Aperiódicos

 Determinísticos  Periódicos




Quasi-periódicos
 
SINAIS



 (

 Aleatórios
 Não-Determinísticos Irregulares


A caracterização e o formalismo adequados para os sinais determinísticos já foram alvo de


estudo noutras UCs (por exemplo na E341 - Sinais e Sistemas). Os sinais aleatórios serão alvo de
maior estudo, sendo-lhes dedicado o 2o capítulo destes apontamentos. Contudo, e pela sua impor-
tância, faremos de seguida um resumo para os sinais determinísticos.

1.4.1 S INAIS P ERIÓDICOS , A PERIÓDICOS E Q UASE - PERIÓDICOS

Como se sabe, sinal periódico é todo aquele que se repete a si próprio (periodicamente!).
Mais concretamente,

D
9O impulso de Dirac não é, na verdadeira acepção da palavra, um sinal; trata-se antes de um elemento de uma classe
de funções generalizadas ou distribuições.
1.4. INTRODUÇÃO AOS SINAIS 9

Definição: Sinal Periódico Diz-se que o sinal x(t) é periódico sse

∀k ∈ Z,t ∈ R, ∃T ∈ R : x(t) = x(t − kT ) (1.1)

onde T é denominado período.

O menor valor de T que verifica a equação (1.1) é denominado período fundamental, T0 =


min(T ).

Recordemos que a frequência (fundamental) de um sinal periódico é

1
f0 , [Hz] (1.2)
T0

e, por sua vez, sendo

ω0 , 2π f0 [rad/s] (1.3)

teremos

2π = ω0 × T0 (1.4)

Os sinais periódicos desempenham um papel fundamental na Teoria dos Sinais mas devem
ser vistos como uma abstracção matemática, pois têm uma energia infinita10 .

Todos os sinais que não verifiquem a equação (1.1) dizem-se aperiódicos. Está nesta classe
a função de Heaviside, por exemplo. Contudo, há sinais que, sendo aperiódicos, se comportam
«localmente» como periódicos e a estes chamam-se de quase-periódicos. Como exemplo, atente-se
na figura 1.6 onde se representa a forma de onda temporal de um som vocálico. Reparemos que, a

Figura 1.6: Forma de onda de fala (vogal ó), assinalando-se a azul o intervalo de periodicidade.

partir dos 40 ms (aproximadamente), a forma de onda apresenta uma certa regularidade, podendo-se
mesmo verificar que apresenta uma periodicidade de 10 ms. Estritamente, trata-se de um sinal não-
periódico mas, após o transitório inicial, apresenta-se como se fosse um sinal periódico, advindo
então a denominação de quase-periódico.
10 CAPÍTULO 1. INTRODUÇÃO ÀS TELECOMUNICAÇÕES

1.4.2 S INAIS DE I NTERESSE EM T ELECOMUNICAÇÕES

F UNÇÃO DE H EAVISIDE OU E SCALÃO U NITÁRIO


D
A função de Heaviside11 , também conhecida como escalão unitário, é definida como sendo
(
1 t >0
u(t) , (1.5)
0 t <0

e que não se define na origem, local onde apresenta uma descontinuidade de 1a ordem12 .

F UNÇÃO sinc
D
O sinal (função) sinc(x) define-se como sendo:

sen(πx)
sinc(x) , (1.6)
πx

Este sinal encontra-se representado graficamente na figura 1.7.

0.8

0.6

0.4
sinc(x)

0.2

−0.2

−0.4
−5 0 5 10
x

Figura 1.7: Função sinc(x).

Esta função tem zeros nos múltiplos inteiros (positivos e negativos) de x, e goza das seguintes
propriedades:

T
Corolário A função sinc(x) é uma função par, isto é: sinc(x) = sinc(−x).

T
Corolário sinc(0) = 1
1.4. INTRODUÇÃO AOS SINAIS 11

Corolário lim|x|→∞ sinc(x) = 0

JANELA R ECTANGULAR
D
d
A janela rectangular (·) é um sinal não-periódico de larga aplicação em Telecomunicações.
É definida como

l   1
 |t| < T1
t
, u(t + T1 ) − u(t − T1 ) = (1.7)
2T1 
0 c.c.

A representação gráfica desta função é apresentada na figura 1.8 para T1 = 2.

0.8

0.6

0.4

0.2

−10 −8 −6 −4 −2 0 2 4 6 8 10

( 2Tt 1 ), sendo T1 = 2.
d
Figura 1.8: Janela rectangular

JANELA T RIANGULAR
D
V
A janela triangular (·) é um sinal não-periódico de larga aplicação em Telecomunicações
e Processamento de Sinais. É definida como

1 − T|t|1

  l  l   |t| < T1
^ t t t 
, ∗ = (1.8)
T1 T1 T1 
0 c.c.

A representação gráfica desta função é apresentada na figura 1.9 para T1 = 2.


12 CAPÍTULO 1. INTRODUÇÃO ÀS TELECOMUNICAÇÕES

0.8

0.6

0.4

0.2

−5 −4 −3 −2 −1 0 1 2 3 4 5

Figura 1.9: Janela rectangular ( Tt ), sendo T1 = 2.


V
1

JANELA DE H AMMING
D

A janela de Hamming WHamming é um sinal não-periódico de larga aplicação em Telecomu-


nicações e Processamento de Sinais. É definida como

2πt T
t  0, 54 + 0, 46 · cos( T )
 |t| < 2
WHamming ( ) , (1.9)
T 
0 c.c.

A representação gráfica desta função é apresentada na figura 1.10 para T = 1.

0.8

0.6

0.4

0.2

−0.6 −0.4 −0.2 0 0.2 0.4 0.6

Figura 1.10: Janela de Hamming WHamming ( Tt ), sendo T = 1.

10 Mais adiante retomaremos esta questão relativa à energia dos sinais.


11 A notação usual para esta função é h(·). Contudo, como h(t) representa no contexto dos sinais e dos sistemas a
resposta impulsiva, para evitar confusões, a função de Heaviside ou escalão unitário passa a ser representada por u(t).
12 Não há obrigatoriedade no estabelecimento do valor de u(0) que, desde que finito, poderá ser qualquer.
1.4. INTRODUÇÃO AOS SINAIS 13

JANELA DE H ANNING
D
A janela de Hann WHamming é um sinal não-periódico de larga aplicação em Telecomunica-
ções e Processamento de Sinais. É definida como
(
t 0, 5 + 0, 5 · cos( 2πt
T ) |t| < T2
WHann ( ) , (1.10)
T 0 c.c.
A representação gráfica desta função é apresentada na figura 1.11 para T = 1.

0.8

0.6

0.4

0.2

−0.6 −0.4 −0.2 0 0.2 0.4 0.6

Figura 1.11: Janela de Hann WHann ( Tt ), sendo T = 1.

JANELA OU I MPULSO DE G AUSS


D
A janela ou impulso de Gauss Gσ (·) é um sinal não-periódico de larga aplicação em Teleco-
municações e Processamento de Sinais. É definida como
2
1 − t
Gσ (t) , √ · e 2σ 2 (1.11)
2πσ 2
A representação gráfica desta função é apresentada na figura 1.12 para σ 2 = 1.

F UNÇÃO E XPONENCIAL ( AMORTECIDA )


D
A exponencial de x é, como se sabe, ex . Contudo, supondo que se trata de sinais causais13 , é
usual tratar esta função no domínio do tempo (ou seja, o tempo é a variável independente) e, supondo
ainda tratar-se de um sinal estável14 , referimo-lo como sendo

∀a,t ∈ R : e−|a|t u(t) (1.12)

e que, graficamente, é como se representa na figura 1.13.


13 O conceito de causalidade prende-se com o facto de a saída de um sistema, dito causal, não poder antecipar a sua
entrada. Assim, supondo que os sistemas são solicitados na origem dos tempos, t = 0, a causalidade impõe saída nula
para ∀t ∈ R− . Assim justifica-se o produto do sinal pelo escalão unitário, u(t).
14 Entenda-se como o sinal resultante da saída de um sistema estável.
14 CAPÍTULO 1. INTRODUÇÃO ÀS TELECOMUNICAÇÕES

0.4

0.35

0.3

0.25

0.2

0.15

0.1

0.05

0
−5 −4 −3 −2 −1 0 1 2 3 4 5

Figura 1.12: Janela de Gauss Gσ (t), sendo σ = 1.

0.8

0.6
y(t)

0.4

0.2

0
−2 0 2 4 6 8 10
tempo (s)

Figura 1.13: Função Exponencial decrescente y(t) = e−|a|t u(t), com a = 0, 5.

F UNÇÃO E XPONENCIAL C OMPLEXA


D

A função Exponencial Complexa é definida por:

∀σ , ω,t ∈ R : s = σ + jω ∈ C → x(t) = est = eσt e jωt (1.13)

onde, as constantes reais σ e ω são conhecidas, respectivamente, por amortecimento e frequência


angular. Nestas condições, o contradomínio de x é o corpo dos complexos; as suas partes real e
imaginária, graças à fórmula de Euler15 , são dadas por, respectivamente (equação (1.14)):

Re{x(t)} = eσt · cos(ωt)


(1.14)
Im{x(t)} = eσt · sen(ωt)

Assim, se considerarmos que σ < 0, quer a parte real quer a parte imaginária da exponencial
complexa resultam em sinusoides amortecidas (figura 1.14).
1.4. INTRODUÇÃO AOS SINAIS 15

0.5

Re[y(t)]
0

−0.5
−2 0 2 4 6 8 10
tempo (s)

0.8

0.6
Im[y(t)]

0.4

0.2

−0.2

−0.4
−2 0 2 4 6 8 10
tempo (s)

Figura 1.14: Partes real (em cima) e imaginária (em baixo) da exponencial complexa amortecida para σ =
−0, 5 e ω = 2 para y(t) = e(σ + jω)t · u(t).

Impulso de Dirac
D
Postulemos a existência de uma função16 δ (·) tal que a função de Heaviside (ou para o mesmo
efeito, o escalão unitário) dela decorra por integração,
Z t
∀t, τ ∈ R : u(t) = δ (τ)dτ (1.15)
−∞

Rapidamente se verifica que esta função δ (t) é forçosamente nula em todo o seu domínio, com
excepção da origem, onde ocorre uma singularidade. Outra forma de definir este impulso, é através
da derivada da função de Heaviside
d
δ (t) = u(t) (1.16)
dt
mas que levanta óbvias dificuldades para t = 0. Vejamos, no seguimento, uma forma de ultrapassar
esta dificuldade. Assim, consideremos a função distribuição normal ou função de Gauss,
2
1 − t
n(t) = √ e 2σ 2 (1.17)
2πσ 2
e sabemos que o seu integral (integral de Euler-Poisson17 ) é unitário
Z +∞ Z +∞ 2
1 − t
n(t)dt = √ e 2σ 2 dt = 1 (1.18)
−∞ −∞ 2πσ 2

t R
Seja então a função integral de Gauss Nσ (t) = −∞ n(τ)dτ e atentemos na figura 1.15 onde se
apresentam vários gráficos de n(t) (em cima) e Nσ (t) (em baixo) para diversos valores de σ .
15 Como é sabbido, a fórmula de Euler é e jθ = cos(θ ) + jsen(θ ) .
16 Como veremos, a utlização do termo função é, para esta classe de sinais um pouco abusiva; na verdade, estes sinais
são conhecidos por distribuições.
17 Veja-se a demonstração deste importante resultado no apêndice C.1.
16 CAPÍTULO 1. INTRODUÇÃO ÀS TELECOMUNICAÇÕES

0
−2 −1.5 −1 −0.5 0 0.5 1 1.5 2

1.4

1.2

0.8

0.6

0.4

0.2

0
−2 −1.5 −1 −0.5 0 0.5 1 1.5 2
t

Figura 1.15: Família de funções normal de média nula (em cima) e do seu integral, a função integral de
Gauss (em baixo), em função do desvio-padrão σ , onde na abcissa t = 0, 25 e de baixo para cima temos a
seguinte correspondência σ = 1, 0, 3, 0, 2, 0, 1, 0, 05.

Estes gráficos sugerem que Nσ (t) vai, no limite, «tender» para a função de Heaviside com o
progressivo anulamento de σ ou seja:

Z t
lim Nσ (t) = lim n(τ)dτ → u(t) (1.19)
σ →0 σ →0 −∞

e que, por consequência, sendo n(t) = dtd Nσ (t), então também se terá, no limite18 , δ (t) = dtd u(t).
Vemos assim que o impulso de Dirac resulta duma sucessão de funções normais ou de Gauss, n-
R
deriváveis em todos os pontos do seu domínio, preservando uma área unitária, pois R δ (t)dt = 1.
Também se verifica que este processo de «definir» ou aproximar a função de Heaviside, mediante
uma sucessão de funções integral de Gauss, nos leva à determinação19 de u(0), sendo, portanto,
u(0) = 12 .

Pelo que, de uma forma resumida, teremos finalmente:


D

18 Chama-se a atenção para a falta de rigor desta apresentação, uma vez que a preocupação se centra no resultado que
se pretende transmitir.
19 Este facto não invalida a afirmação anterior de que u(0) pode ser qualquer valor, desde que diferente de infinito.
1.4. INTRODUÇÃO AOS SINAIS 17

d
 δ (t) =
 dt u(t)
(1.20)
 Rt
u(t) = −∞ δ (ε)dε

Este sinal20 δ (·) ou impulso de Dirac goza de um conjunto de propriedades, nomeadamente:

T
Corolário Z +∞
δ (t)dt = 1 (1.21)
−∞
Convém reparar que este corolário explicita claramente que é a área do impulso de Dirac que é
unitária e não a sua amplitude. Aliás, para esta classe de sinais, não se pode falar de amplitude uma
vez que, efectivamente, tenderá, no limite, para infinito. Assim, nas representações gráficas deste
sinal, o valor que se coloca junto ao impulso indica não a sua amplitude mas antes a sua área.

T
Corolário
x(t)δ (t) = x(0)δ (t) (1.22)
ou, se forma equivalente,
x(t)δ (t − t0 ) = x(t0 )δ (t − t0 ) (1.23)

A demonstração de (1.21) e de (1.22) deixa-se como exercício; a demonstração de (1.23) é


imediata a partir dos corolários anteriores.

T
Corolário
∀t, τ ∈ R : x(t) ∗ δ (t − τ) = x(t − τ) (1.24)

A demonstração deste facto é quase imediata:


R
x(t) ∗ δ (t − τ) , x(ε)δ (t − τ − ε)dε =
R
R R
= x(t − τ)δ (t − τ − ε)dε = x(t − τ) δ (t − τ − ε)dε = (1.25)
R R
= x(t − τ)

1.4.3 Energia e Potência de um Sinal

Comecemos por dizer, embora a energia ou potência de um sinal não correspondam exacta-
mente aos conceitos (físicos) de energia e potência, são métricas válidas para caracterizar o compor-
tamento de um sinal.
D
Definição: Energia de um Sinal Define-se energia E de um sinal x(t) como sendo
Z ∞
E= |x(t)|2 dt (1.26)
−∞
20 A designação correcta é distribuição ou função generalizada.
18 CAPÍTULO 1. INTRODUÇÃO ÀS TELECOMUNICAÇÕES

D
Definição: Potência de um Sinal Define-se a potência P de um sinal x(t) como
Z T
1
P = lim |x(t)|2 dt (1.27)
T →∞ 2T −T

D
Definição: Sinal de Energia Diz-se de um sinal para o qual se tem 0 < E < ∞.

D
Definição: Sinal de Potência Diz-se de todo o sinal que verifica 0 < P < ∞.

Esta definição tem algumas implicações... vejamos: um sinal de energia tem de ter, de acordo
com as definições acima, uma potência nula21 ! Por outro lado, todo o sinal de potência tem energia
infinita. Pode ainda haver sinais que não são nem de energia nem de potência. Uma forma de obviar
a estes paradoxos, é classificar como sendo um sinal de potência todo o sinal que não for um sinal
de energia.

É fácil de ver que os sinais periódicos serão forçosamente sinais de potência. Definamos
então, para um sinal periódico de período fundamental T0 a energia num período:
Z T0 /2
ET0 , |x(t)|2 dt (1.28)
−T0 /2

e, a partir desta definião, a energia em n períodos,


Z T0 /2
EnT0 , n · ET0 = n |x(t)|2 dt (1.29)
−T0 /2

A potência, calculada sobre todos os períodos, vem então,


D
Z T0 /2
EnT0 nET0 1 1
P = lim = lim = ET0 = |x(t)|2 dt (1.30)
n→∞ nT0 n→∞ nT0 T0 T0 −T0 /2

1.4.4 R EPRESENTAÇÃO T EMPO - F REQUÊNCIA : T RANSFORMADA DE F OURIER

A representação de sinais no domínio da frequência faz-se com recurso à transformada de


Fourier (em tempo contínuo) cuja definição se apresenta:
D
Z +∞
X( f ) = TF[x(t)] , x(t) · e− j2π f t dt
−∞
Z +∞
x(t) = TF−1 [X( f )] , X( f ) · e j2π f t d f (1.31)
−∞
sempre que os integrais forem < ∞.

Às equações em (1.31) também se chama de par-transformada de Fourier; a equação superior


é também conhecida por equação de análise e a inferior por equação de síntese.
21 Efectivamente, dados os limites de −∞ a +∞ do integral explícitos na equação 1.26, apenas se consegue um integral
não infinito sse ∀t ∈ R : R → R se tenha |x(t)|2 = 0.
1.4. INTRODUÇÃO AOS SINAIS 19

As questões da existência da transformada de Fourier não serão analisadas em profundidade


neste trabalho. São conhecidas algumas condições de existência de transformada de Fourier que,
no entanto, são demasiado restritivas para uma alargada classe de sinais de interesse; concretamente
referir-nos-emos às condições de Dirichlet, que abordaremos de seguida.

D
Condições de Dirichlet São condições suficientes da existência da transformada de Fourier de um
dado sinal x(t), as seguintes restrições:

• x(t) ser de norma L1 finita (ou ser absoutamente integrável):


Z
x ∈ L1 sse ∀t ∈ R : k x(t) k1 = |x(t)|dt < ∞ (1.32)
R

também conhecida por condição de Jordan22 ;

• x(t) ter um número finito de extremos num intervalo finito23 ;

• x(t) ter um número finito de descontinuidades num intervalo finito24

Facilmente se verifica que os sinais periódicos não apresentam transformada de Fourier. Mas
não só estes sinais periódicos não têm transformada de Fourier; por exemplo, a função de Heaviside
também se encontra neste caso. Contudo, recorrendo a uma generalização do conceito de função, é
possível determinar as transformada de Fourier de alguns sinais de interesse para as telecomunica-
ções.

1.4.5 P ROPRIEDADES DA T RANSFORMADA DE F OURIER

Apresentam-se na tabela 1.4, sem demonstração25 , algumas propriedades da transformada de


Fourier que se utilizarão frequentemente nos capítulos seguintes.

A demonstração do teorema de Parseval é deixada para o apêndice B.

1.4.6 T RANSFORMADA DE F OURIER DE F UNÇÕES S INUSOIDAIS

O impulso de Dirac possibilita-nos obter um conjunto de resultados deveras interessantes,


pois permite-nos ultrapassar as limitações decorrentes da inexistência de transformada de Fourier
para uma classe alargada de sinais de interesse. Vejamos então o problema da transformada de
Fourier de uma função sinusoidal, mas comecemos por abordar primeiramente, por mais geral, a
22 O problema associado à condição de Jordan é a sua não-simetria para a transformada inversa; problema que pode
ser ultrapassado restringindo x(t) à classe de funções de norma L2 finita, ou seja x ∈ L2 sse ∀t ∈ R : k x(t) k2 =
1
2
R 
R |x(t)| dt < ∞. O grande inconveniente destas restrições é o de deixarem de parte muitos sinais de interesse.
2

23 Um exemplo de uma função que não obedece a esta condição é x(t) = sen( 1 ).
t (
24 Um exemplo de uma função que não verifica esta condição é a função de Dirichlet, x(t) = 0 t ser racional
.
1 t ser irracional
25 Na verdade, as 6a e 7a propriedades (produto e convolução no tempo) serão mais adiante desenvolvidas e demonstra-

das.
20 CAPÍTULO 1. INTRODUÇÃO ÀS TELECOMUNICAÇÕES

Tabela 1.4: das propriedades da Transformação de Fourier

Propriedade Sinal ⇐⇒ Transformada


Linearidade αx(t) + β h(t) αX( f ) + β H( f )
Translação no tempo x(t ∓ t0 ) X( f ) · e∓ j2πt0
Translação na frequência x(t) · e± j2π f0t ] X( f ∓) f0 )
Inversão no tempo x(−t) X(− f )
1 f
Mudança de escala x(at) |a| X( a )
dn
Diferenciação dt n x(t) ( j2π f )n X( f )
Rt 1 1
Integração −∞ x(τ)dτ j2π f X( f ) + 2 X(0)δ ( f )
Produto no tempo x(t) · h(t) X( f ) ∗ H( f )
Convolução no tempo x(t) ∗ h(t) X( f ) · H( f )
+∞ +∞
|x(t)|2 dt |X( f )|2 d f
R R
Teorema de Parseval
−∞ −∞

transformada de Fourier de uma exponencial complexa e j2π f0t . Esta transformada, a existir, depara-
R T j2π f t
se com uma dificuldade analítica resultante da indeterminação do limT →∞ −T e dt, pelo que não
poderemos determinar TF[e j2π f 0 t ] directamente a partir da definição de integral de Fourier.

Façamos um exercício diferente: a determinação da transformação de Fourier do impulso de


Dirac: TF[δ (t)] = R δ (t)e− j2π f t dt. Recorrendo às equações (1.22) e (1.21) (por esta ordem) se
R

verifica de imediato que a transformada de Fourier vem unitária:


Z Z Z
− j2π f t − j2π f ·0
TF[δ (t)] = δ (t)e dt = δ (t)e dt = δ (t) · 1dt = 1 (1.33)
R R R

Este resultado permite-nos agora abordar a TF inversa duma exponencial complexa: sendo
então X( f ) = δ ( f − f0 ) qual é o correspondente sinal no tempo, x(t)? Façamos então o desenvolvi-
mento a partir da definição da transformada inversa de um sinal, equação (1.31):

Z Z
TF−1 [δ ( f − f0 )] = δ ( f − f ) e j2π f t d f = δ ( f − f0 )e j2π f0t d f =
| {z 0}
R 6=0 sse f = f0 R
Z
= e j2π f0t δ ( f − f0 )d f = e j2π f0t (1.34)
R

Recordando a fórmula de Euler,


e jα + e− jα
cos(α) =
2
e jα − e− jα
sen(α) = (1.35)
2j
teremos finalmente, para a transformada de Fourier de uma função sinusoidal de frequência f0
T
TF[cos(2π f0t)] = 12 [δ ( f − f0 ) + δ ( f + f0 )]
(1.36)
1
TF[sen(2π f0t)] = 2 j [δ ( f − f0 ) − δ ( f + f0 )]
1.4. INTRODUÇÃO AOS SINAIS 21

1.4.7 S ÉRIE T RIGONOMÉTRICA DE F OURIER E SUA T RANSFORMADA DE F OU -


RIER

Como sabemos funções periódicas26 são passíveis de decomposição em séries de funções


sinusoidais; concretamente, seja x(t) uma função periódica arbitrária
T
+∞
∀t ∈ R, n ∈ Z, ∃T0 ∈ R : x(t) = x(t − nT0 ) = ∑ ak e j2πk f0t (1.37)
k=−∞

sendo k um número inteiro, T0 o seu período fundamental e f0 = T10 a sua frequência fundamental;
os coeficientes ak são os coeficientes da série Fourier. Estes coeficientes são obtidos a partir da
equação:
T
1
Z
∀t, T0 ∈ R, k ∈ Z : ak = x(t)e− j2πk f0t dt (1.38)
T0
T0
R
onde o operador T0 (·) representa um integral definido num intervalo (suporte) de T0 unidades de
tempo, arbitrariamente localizado em torno da origem, pois que sendo x(t) periódico, teremos,
R R T0 R T0 /2
T0 (·) = 0 (·) = −T0 /2 (·) = · · · .

A equação (1.37) é a designada equação de síntese pois permite a reconstrução de x(t) à custa
de um somatório de termos exponenciais de frequências múltiplas da frequência fundamental, as
harmónicas. Na figura 1.16 ilustram-se funções sinusiodais de frequências múltiplas da fundamen-
tal, as harmónicas.

0.8

0.6

0.4

0.2

−0.2

−0.4

−0.6

−0.8

−1

−1 0 1 2 3 4 5 6

Figura 1.16: Sinusoides de frequências fundamentais múltiplas, com k = 1 a cor azul, k = 2 a cor verde,
k = 3 a vermelho, k = 4 a cor ciano.

26 Referimo-nos à classe de funções periódicas que verificam as condições de existência de Dirichlet. Recorde-se que
estas condições são condições suficientes de existência.
22 CAPÍTULO 1. INTRODUÇÃO ÀS TELECOMUNICAÇÕES

Esta decomposição de Fourier numa soma de infinitos termos sinusoidais só é válida pela
ortogonalidade das funções sinusoidais e, por extensão, das exponenciais complexas
(
0 k 6= l
Z
∀t, f0 ∈ R, k, l ∈ Z : cos(2πk f0t) · cos(2πl f0t) · dt = 1
(1.39)
2 k=l
T0

Se à equação (1.37) aplicarmos a TF, e fazendo uso do resultado expresso na equação (1.34),
teremos a transformada de Fourier para a classe de sinais periódicos que (implicitamente) admitem
a série trigonométrica de Fourier
T

1
∀t, f ∈ R, ∀n, k ∈ Z, ∃T0 = ∈R:
f0
+∞
x(t) = x(t − nT0 ) = ∑ ak e j2πk f0t = TF−1 [X( f )]
k=−∞
1 1
Z
∀T0 = ∈R: ak = x(t)e− j2πk f0t dt
f0 T0
T0
+∞
X( f ) = TF[x(t)] = ∑ ak δ ( f − k f0 ) (1.40)
k=−∞

1.4.8 E XEMPLOS DE A PLICAÇÃO

T REM DE I MPULSOS OU T REM DE D IRACS

O sinal periódico designado por trem de Diracs é caracterizado por


D
+∞
∀t ∈ R, k ∈ Z, ∃T0 ∈ R : p(t) = ∑ δ (t − kT0 ) (1.41)
k=−∞

sendo T0 o período fundamental e encontra-se representado na figura 1.17

O seu desenvolvimento em série harmónica é trivial, uma vez que os coeficientes de Fourier
são constantes27
Z T0 /2
1 1 1
Z
− j2πk f0 t
ak = p(t)e dt = δ (t)e− j2πk f0t dt = (1.42)
T0 T0 −T0 /2 T0
T0

1
Este resultado permite-nos obter a seguinte igualdade para ∀t ∈ R, k, n ∈ Z, ∃T0 = f0 ∈R
T
+∞
1 +∞ j2πk f0t
∑ δ (t − nT0 ) = ∑ e (1.43)
n=−∞ T0 k=−∞
Teremos então que a TF do trem de impulsos é
1 +∞
X( f ) = ∑ δ ( f − k f0 )
T0 k=−∞
(1.44)
27 Recordemos que a função integranda só é não-nula numa vizinhança arbitrariamente próxima da origem e, nesse
domínio, a exponencial é unitária. Por conseguinte, o integral fica reduzido ao impulso e que, pela equação (1.21), o
integral vem unitário.
1.4. INTRODUÇÃO AOS SINAIS 23

1.4

1.2

0.8

y(t)
0.6

0.4

0.2

0
−2 0 2 4 6 8 10
tempo (s)

Figura 1.17: Sinal Trem de Diracs para T0 = 1.

O NDA R ECTANGULAR

Recordamos a janela rectangular ou impulso rectangular como sendo


(
l t  1 |t| < T21
= (1.45)
T1 0 caso contrário

e cuja representação gráfica se indica na figura 1.18a). Seja agora r(t) a função periódica de período
fundamental T0 obtida à custa desta janela (figura 1.18b)),

0.8

0.6

0.4

0.2

0
−10 −5 0 5 10 15 20
t

0.8

0.6

0.4

0.2

0
−10 −5 0 5 10 15 20
t

Figura 1.18: Impulso rectangular em a) e onda rectangular, em b); com T0 = 5 e T1 = 1.

+∞ l  t − nT0 
r(t) = ∑ (1.46)
n=−∞ T1
24 CAPÍTULO 1. INTRODUÇÃO ÀS TELECOMUNICAÇÕES

Obtenhamos os respectivos coeficientes ak da série harmónica,

1 T0 /2 l t
   
1 l t
Z Z
− j2πk f0 t
ak = e dt = e− j2πk f0t dt =
T0 T1 T0 −T0 /2 T1
T0

Z T1 /2 T1 /2
1 − j2πk f0 t 1 1
= e dt = · · e− j2πk f0t =
T0 −T1 /2 T0 j2πk f0
−T1 /2
T1 sen(πk f0 T1 ) T1
ak = · = · sinc(k f0 T1 ) (1.47)
T0 πk f0 T1 T0

Estes coeficientes da série harmónica da onda rectangular, equação (1.47), estão representados
na figura 1.19, onde se assinala a ponteado a função sinc(·).
0.2

0.15

0.1

0.05

−0.05
−10 −5 0 5 10 15 20

Figura 1.19: Coeficientes da série harmónica da onda rectangular com T0 = 5 e T1 = 1.

É interessante analisar a dependência dos coeficientes ak com o quociente entre T1 e T0 (figura


1.22). Esta relação entre T1 e T0 é conhecida como factor de ciclo (ou, em inglês, duty-cicle),
calculando-se através de (equação (1.48))
T1
FC , × 100% (1.48)
T0

Pode-se verificar que o estreitamento no tempo dos impulsos rectangulares (factor de ciclo
mais baixo) se traduz por um espalhamento do espectro na frequência (figura 1.22 em cima) e, ao
invés, o alargamento dos impulsos, tem como contrapartida o estreitamento do espectro (figura 1.22
em baixo).

Outro facto interessante é o anulamento dos coeficientes da série de Fourier para k par quando
o factor de ciclo é de 50%, ou seja, a inexistência de harmónicas pares (figura 1.22 ao centro) nesta
situação (simetria do sinal). Neste caso, quando FC=50% a onda rectangular é denominada por onda
quadrada.
1.4. INTRODUÇÃO AOS SINAIS 25

0.8

0.6

0.4

0.2

0
−10 −5 0 5 10 15 20
t

0.2

0.15

0.1

0.05

−0.05
−10 −5 0 5 10 15 20
k

Figura 1.20: Onda rectangular e transformada de Fourier em função do factor de ciclo FC, respectivamente
em cima e em baixo, igual a 20%: TT10 = 0, 2.

1.4.9 S ÉRIE T RUNCADA DE F OURIER

A aproximação de uma função descontínua por uma série (ilimitada) de funções contínuas
(senos e cossenos) em todo o seu domínio é, no mínimo, contra-intuitiva. As questões relacionadas
com a convergência das séries de Fourier em muito ultrapassam o âmbito deste trabalho, pelo que
não serão aqui tratadas.

Contudo, daremos alguns exemplos gráficos por forma a intuir


 estesconceitos. Então, con-
+∞ d t−nT0
sideremos a série de Fourier de uma onda quadrada r(t) = ∑n=−∞ T1 em que, sem perda de
generalidade, suporemos que FC=50%, ou seja, TT01 = 12 ,
+∞ l 
1 +∞
  
t − nT0 k
r(t) = ∑ = ∑ sinc e j2πk f0t (1.49)
n=−∞ T1 2 k=−∞ 2

que se obtém a partir da equação (1.47) fazendo TT10 = 12 28 . A série de Fourier (equação (1.49)) pode
ser agora explicitada unicamente em termos de funções reais (cossenos) da seguinte forma:
+∞   −1   +∞  
k j2πk f0 t k j2πk f0 t k
∑ sinc 2 e = ∑ sinc e + 1 + ∑ sinc e j2πk f0t (1.50)
k=−∞ k=−∞ 2 k=1 2

Se efectuarmos a mudança de variável no primeiro somatório do 2o membro k = −l e recor-


dando que a função sinc(·) é uma função par, teremos
+∞  
k
∑ sinc e j2πk f0t =
k=−∞ 2
28 Recorda-se que se escolheu esta situação apenas para se obterem cálculos mais simples.
26 CAPÍTULO 1. INTRODUÇÃO ÀS TELECOMUNICAÇÕES

0.8

0.6

0.4

0.2

0
−10 −5 0 5 10 15 20
t

0.5

0.4

0.3

0.2

0.1

−0.1

−0.2
−10 −5 0 5 10 15 20
k

Figura 1.21: Onda rectangular e transformada de Fourier em função do factor de ciclo FC, respectivamente
em cima e em baixo, igual a 50%: TT10 = 0, 50.

+∞   +∞  
l − j2πl f0 t k
= ∑ sinc e + 1 + ∑ sinc e j2πk f0t =
l=1 2 k=1 2
+∞  
k
= 1 + ∑ sinc [e j2πk f0t + e− j2πk f0t ] =
k=1 2
+∞  
k
= 1 + 2 ∑ sinc cos(2πk f0t) (1.51)
k=1 2
pelo que se obtém, finalmente, a partir desta equação e da equação (1.49),

1 +∞
 
k
r(t) = + ∑ sinc cos(2πk f0t) (1.52)
2 k=1 2

Seja agora a série truncada a N + 1 termos a partir da equação (1.52), resultando em


N  
1 k
r̃(t) = + ∑ sinc cos(2πk f0t) (1.53)
2 k=1 2

Na figura 1.23 representa-se r̃(t) para vários valores de N ≥ 1 e onde poderemos intuir que
r̃(t) → r(t) com o aumento de N, se exceptuarmos as vizinhanças das descontinuidades, onde ocor-
rem oscilações cujas amplitudes permanecem constantes. Estas oscilações são conhecidas pelo fe-
nómeno ou oscilações de Gibbs29 .
29 Pode-se questionar, efectivamente, a validade de, quando k → ∞, a série truncada r̃(t) que é, em todo o seu domínio
um sinal contínuo, tender para uma função descontínua. Seja então ek (t) , r(t) − r̃(t) o sinal resultante da aproximação
mencionada. Pode-se mostrar que a energia média de ek (t) tender para zero quando k → ∞, validando (em termos da
energia do erro da aproximação ser, no limite, nula) a série de Fourier.
1.4. INTRODUÇÃO AOS SINAIS 27

0.8

0.6

0.4

0.2

0
−10 −5 0 5 10 15 20
t

0.8

0.6

0.4

0.2

−0.2
−10 −5 0 5 10 15 20
k

Figura 1.22: Onda rectangular e transformada de Fourier em função do factor de ciclo FC, respectivamente
em cima e em baixo, igual a 80%: TT10 = 0, 80, em baixo.

1.4.10 T RANSFORMADA DE F OURIER DA C ONVOLUÇÃO DE D OIS S INAIS

Consideremos o sinal y(t) resultante da convolução de dois sinais, y(t) = h(t) ∗ x(t) e deter-
minemos a sua transformada de Fourier

Z
Y ( f ) = TF[y(t)] = TF[h(t) ∗ x(t)] = TF[ h(τ)x(t − τ)dτ] =
R
Z Z Z Z
− j2π f t
= [ h(τ)x(t − τ)dτ]e dt = h(τ)[ x(t − τ)e− j2π f t dt]dτ =
R R R R
Z Z Z
− j2π f ε − j2π f t
= h(τ)[ x(ε)e dε ]e dτ = X( f ) · h(τ)e− j2π f τ dτ (1.54)
R R R
| {z } | {z }
X( f ) H( f )

ou seja,
T
TF[h(t) ∗ x(t)] = H( f ) · X( f ) (1.55)

1.4.11 T RANSFORMADA DE F OURIER DO P RODUTO DE D OIS S INAIS

Seja agora y(t) o sinal resultante do produto de dois sinais, y(t) = h(t) × x(t) e determinemos
a sua transformada de Fourier
28 CAPÍTULO 1. INTRODUÇÃO ÀS TELECOMUNICAÇÕES

1.5 1.5

1 1

0.5 0.5

0 0

−0.5 −0.5
−5 0 5 10 −5 0 5 10
t (N=1) t (N=3)
1.5 1.5

1 1

0.5 0.5

0 0

−0.5 −0.5
−5 0 5 10 −5 0 5 10
t (N=5) t (N=7)
1.5 1.5

1 1

0.5 0.5

0 0

−0.5 −0.5
−5 0 5 10 −5 0 5 10
t (N=15) t (N=25)

Figura 1.23: Síntese da onda quadrada por série de Fourier truncada (equação (1.53)) para os vários valores
de N assinalados.

x(t)=TF−1 [X( f )]
Z zZ }| {
Y ( f ) = TF[y(t)] = TF[h(t) · x(t)] = h(t) [ X(µ)e j2π µt
dµ] e− j2π f t dt =
R R
Z Z Z Z
= X(µ)[ x(t)e− j2π f t e j2π f µ dt]dµ = X(µ) [ h(t)e− j2π( f −µ)t dt] dµ =
R R R
|R {z }
H( f −µ)
Z
= X(µ) · H( f − µ)dµ (1.56)
R
que identificamos como o integral de convolução de dois sinais (embora seja não no domínio do
tempo, como foi apresentada anteriormente, mas no da frequência) ou seja,
T

TF[h(t) · x(t)] = H( f ) ∗ X( f ) (1.57)

Este resultado acaba por ser a essência das telecomunicações! Veremos mais adiante no capí-
tulo 5 que, escolhendo adequadamente o sinal h(t) e consequentemente H( f ), poderemos deslocar
o espectro da mensagem x(t) a transmitir para uma gama de frequências adequadas à mais eficiente
transmissão e propagação dos sinais rádio-eléctricos.
1.4. INTRODUÇÃO AOS SINAIS 29

1.4.12 D UALIDADE T EMPO -F REQUÊNCIA

Podemos ver pelas equações (1.55) e (1.57) que há uma «simetria» ou dualidade entre os
operadores binários convolução e produto, ou seja, a transformada de Fourier do produto no tempo
de dois sinais é a convolução das transformadas de Fourier desses sinais na frequência e que a
convolução na frequência das transformadas de Fourier de dois sinais é a transformada de Fourier
do seu produto no tempo:
T
x(t) · h(t) ⇐⇒ X( f ) ∗ H( f )
(1.58)
x(t) ∗ h(t) ⇐⇒ X( f ) · H( f )

1.4.13 TABELA DE PARES DE T RANSFORMADAS DE F OURIER

Apresentam-se na tabela 1.5, sem dedução, alguns pares de transformadas de Fourier que se
utilizarão frequentemente nos capítulos seguintes.

Tabela 1.5: dos Pares da Transformação de Fourier

Sinal ⇐⇒ Transformada
1 δ(f)
δ (t) 1
1 1
u(t) 2 δ (t) + j2π f
e j2π f0t δ ( f − f0 )
1
cos(2π f0t) 2 [δ ( f − f 0 ) + δ ( f + f 0 )]
1
sen(2π f0t) 2 j [δ ( f − f 0 ) − δ ( f + f 0 )]
e−t u(t) 1
1+ j2π f
e−|t| 1
1+(2π f )2
2 2
e−πt e−π f
t 2 2 f2
√1 e− 2 e−2π

2
− t 2σ 2 f 2
√ 1 e 2σ 2 e−2π
2πσ 2 (
d 1 |t| < 21
rect(t) = (t) , sinc( f )
0 c.c.
t d t
rect( T ) = ( T ) T sinc(T f )
(
1 − |t| |t| < 1
tri(t) = ∧(t) , sinc2 ( f )
0 c.c.

1.4.14 T RANSFORMADAS DE F OURIER DE JANELAS DE A NÁLISE

Em situações reais não é possível conhecer os sinais na sua totalidade, pois que tal obrigaria
a protelar cálculos e outros algoritmos de análise. Assim é usual analisar os sinais em intervalos de
30 CAPÍTULO 1. INTRODUÇÃO ÀS TELECOMUNICAÇÕES

tempo limitados e, normalmente, pré-determinados. Ora, tal situação consiste em seleccionar um


dado intervalo de tempo, pelo que se aplica ao sinal uma «janela», assim, sejam x(t) o sinal e w(t)
uma dada janela de análise. Então, seja xw (t) o sinal que se analisará e que resulta da «aplicação»
da janela w(t) a x(t)
xw (t) = x(t) × w(t) (1.59)
Naturalmente que se pressupõe que a «duração» da janela w(t) é (significativamente) inferior à do
sinal x(t). No entanto, esta aparentemente inocente operação vai modificar o espectro do sinal x(t)
pois, como já sabemos,
TF[xw (t)] = Xw ( f ) = X( f ) ∗W ( f ) (1.60)

Assim, o espectro de x(t) vai ser convolvido pelo espectro da janela, alterando-o irremedia-
velmente. Repare-se que a simples truncactura do sinal x(t) é equivalente ao seu produto por uma
d
janela rectangular w(t) = (t/T ), onde T é a duração pretendida do sinal truncado.

Portando, para que se tenha uma noção das consequências em termos da representação es-
pectral dos sinais por aplicação de janelas, apresentaremos seguidamente os espectros de algumas
janelas de aplicação generalizada quer em telecomunicações quer em processamento de sinais30 .

JANELA R ECTANGULAR

Recordemos a janela rectangular, já definida (equação (1.7),


(
T
l t  T T 1 |t| < 2
, u(t + ) − u(t − ) = (1.61)
T 2 2 0 c.c.
e cujo espectro (transformada de Fourier) é, após manipulação elementar,
l
( f ) = T · sinc( f T ) (1.62)

Na figura 1.24 em cima, respectivamente à esquerda e à direita, representam-se os sinais no tempo e


na frequência.

JANELA T RIANGULAR

Recordemos a janela triangular, já definida (equação (1.8),


(
^ t  1 − 2·|t|
T |t| < T2
, (1.63)
T 0 c.c.

e cujo espectro (transformada de Fourier) é, após alguma manipulação elementar31 que pode ser
vista mais adiante nos Problemas Resolvidos (P. 6:)
^ T fT
(f) = · sinc2 ( ) (1.64)
2 2
30 Convém ter presente que, actualmente, a quase totalidade do processamento de sinais se efectua em tempo discreto,
ao invés de tempo contínuo que aqui se apresenta.
31 Para se obter este resultado, convém ter presente que R x · eax dx = ( x − 1 ) · eax e que 1 − cos(θ ) = 2 sin2 ( θ ).
a a2 2
1.4. INTRODUÇÃO AOS SINAIS 31

Na figura 1.24 na segunda linha a contar de cima, respectivamente à esquerda e à direita, representam-
se os sinais no tempo e na frequência.

JANELA DE H AMMING

Recordemos a janela de Hamming, já definida (equação (1.9),

t 2πt
WHamming ( ) = 0, 54 + 0, 46 · cos( ) (1.65)
T T

e cujo espectro (transformada de Fourier) é, após alguma manipulação,

T
WHamming ( f ) = 0, 54 · T · sinc( f T ) + 0, 46 · · [sinc( f T − 1) + sinc( f T + 1)] (1.66)
2

Na figura 1.24 na penúltima linha, respectivamente à esquerda e à direita, representam-se os sinais


no tempo e na frequência.

JANELA DE H ANNING

Recordemos a janela de Hanning, já definida (equação (1.10),

t 2πt
WHanning ( ) = 0, 5 · (1 + cos( )) (1.67)
T T

e cujo espectro (transformada de Fourier) é, após alguma manipulação,

T
WHanning ( f ) = 0, 5 · T · sinc( f T ) + 0, 5 · · [sinc( f T − 1) + sinc( f T + 1)] (1.68)
2

Na figura 1.24 na última linha, respectivamente à esquerda e à direita, representam-se os sinais no


tempo e na frequência.

JANELA DE G AUSS

Seja a janela de Gauss g(t) dada por

2
g(t) = e−πt (1.69)

1
repare-se que se trata de uma guassiana cuja variância é σ 2 = π2
e pode-se mostrar que a sua
transformada de Fourier é dada por
2
G( f ) = e−π f (1.70)

Na figura 1.25 em cima, respectivamente à esquerda e à direita, representam-se os sinais no tempo e


na frequência.
32 CAPÍTULO 1. INTRODUÇÃO ÀS TELECOMUNICAÇÕES

0
1
−20
0.5 −40
−60
0 −80
−0.5 0 0.5 −5 0 5

1 0
−20
0.5 −40
−60
0 −80
−0.5 0 0.5 −5 0 5
0
1
−20
0.5 −40
−60
0 −80
−0.5 0 0.5 −5 0 5
0
1
−20
0.5 −40
−60
0 −80
−0.5 0 0.5 −5 0 5
tempo [s] frequencia [Hz]

Figura 1.24: Janelas no tempo (à esquerda) e respectivos espectros (dB) à direita, para T = 1; de cima para
baixo: janelas rectangular, triangular, Hamming e Hanning.

JANELA sinc(x)

Como sabemos, o sinal (função) sinc(Bt) define-se como sendo:


sen(πBt)
sinc(Bt) , (1.71)
πBt
e cujo espectro (transformada de Fourier) é32
t 1l f
TF[sinc( )] = ( ) (1.72)
T B B
Na figura 1.25 em baixo, respectivamente à esquerda e à direita, representam-se os sinais no tempo
e na frequência.

NOTA Normalmente as janelas de análise podem ser afectadas de um factor de escala corres-
pondente ao inverso da sua energia; desta forma se possibilita uma melhor comparação entre
os respectivos espectros. Contudo, e dado o carácter introductório deste trabalho, esta «correc-

32 Naverdade, esta transformada de Fourier obtém-se por inspecção da transformada inversa da janela rectangular na
frequência.
1.5. PROBLEMAS RESOLVIDOS 33

1 1

0.8
0.5
0.6

0.4
0
0.2

0
−0.5
−2 −1 0 1 2 −5 0 5

1 1

0.8 0.8

0.6 0.6

0.4 0.4

0.2 0.2

0 0

−2 −1 0 1 2 −5 0 5
tempo [s] frequencia [Hz]

Figura 1.25: Janelas no tempo (à esquerda) e respectivas transformadas de Fourier à direita, para T = 1;
em cima, janela sinc e, em baixo, janela de Gauss.

ção» não foi efectuada. Efectivamente, inspeccionando os valores do espectro para f = 0 nas
figuras 1.24 e 1.25 de imediato se verificam valores distintos. A título de exemplo, se verifica
d
que (0) = 2 × (0) uma vez que a área da janela rectangular é efectivamente o dobro da área
V

da janela triangular (reparemos que, na figura 1.24, do lado direito, segunda linha a contar de
cima, esta está 6 dB abaixo).

1.5 PROBLEMAS RESOLVIDOS

P. 1: Determine H( f ), a função de resposta em frequência do circuito da figura 1.26 e represente


os respectivos diagramas de Bode (amplitude e fase), onde x(t) é o sinal de entrada e y(t) o
sinal de saída.

Resolução Da Análise de Circuitos, sabemos que se trata de um divisor de tensão nas impe-
dâncias dos componentes eléctricos: resistência (ZR = R) e condensador (ZC = j2π1 fC ), pelo
34 CAPÍTULO 1. INTRODUÇÃO ÀS TELECOMUNICAÇÕES

x(t) C y(t)

Figura 1.26: Circuito RC passa-baixo.

que, sendo Y ( f ) = TF[y(t) e X( f ) = TF[x(t),


1
ZC j2π fC 1
Y(f) = X( f ) = 1
X( f ) = X( f ) (1.73)
ZR + ZC R + j2π fC 1 + j2π f RC

pelo que teremos


Y(f) 1
H( f ) = = (1.74)
X( f ) 1 + j2π f RC
Na figura 1.27 representa-se o módulo da função de resposta em frequência (para f ≥ 0).
1

0.9

0.8

0.7

0.6

0.5

0.4

0.3

0.2

0.1
0 1 2 3 4 5 6 7 8 9 10

Figura 1.27: Módulo da função de resposta em frequência do circuito RC Passa-baixo para RC = 0, 1.

Os diagramas de Bode são apresentados na figura 1.28, considerando RC = 0, 1.

P. 2: Considere um SLIT caracterizado pela resposta impulsiva h(t) = τ1 e−t/τ u(t) em que τ é
uma constante33 , e sujeito a uma entrada sinusoidal de frequência f0 e amplitude X, x(t) =
X cos(2π f0t).
1
(a) supondo que f0 = 2πτ determine o sinal de saída y(t);
33 Efectivamente, a denominada constante de tempo.
1.5. PROBLEMAS RESOLVIDOS 35

Diag. Bode de Amplitude


-10

-20

-30

-40
10 -1 10 0 10 1 10 2

-20
Diag. Bode de Fase

-40

-60

-80

-100
10 -1 10 0 10 1 10 2
[Hz]

Figura 1.28: Diagramas de Bode para a função de resposta em frequência do circuito RC Passa-baixo para
RC = 0, 1.

(b) qual a relação entre as potências médias do sinal de saída e do sinal de entrada?

Resolução

(a) comecemos por determinar a função de resposta em frequência do SLIT,

Z+∞
1 1 −t/τ
H( f ) = TF[ e−t/τ u(t)] = e u(t)e− j2π f t dt =
τ τ
−∞
Z+∞ Z+∞
1 −t/τ − j2π f t 1
= e e dt = e−(1/τ+ j2π f )t dt =
τ τ
0 0
1/τ 1
= = (1.75)
1/τ + j2π f 1 + j2π f τ

Por outro lado, recordando que a saída de um SLIT se obtém convolvendo a respectiva
resposta impulsiva com o sinal de entrada, y(t) = h(t) ∗ x(t), e aplicando o resultado
expresso na equação (1.55), teremos Y ( f ) = H( f ) · X( f ) o que, neste caso resulta em
1 X
Y(f) = · [δ ( f − f0 ) + δ ( f + f0 )] =
1 + j2π f τ 2
X/2 X/2
= · δ ( f − f0 ) + · δ ( f + f0 ) (1.76)
1 + j2π f0 τ 1 − j2π f0 τ
36 CAPÍTULO 1. INTRODUÇÃO ÀS TELECOMUNICAÇÕES

uma vez que X( f ) = TF[x(t)] = X2 [δ ( f − f0 ) + δ ( f + f0 )], conforme se deduziu na equa-


ção (1.36), e onde aplicou o corolário expresso na equação (1.22) mas explicitado no
domínio da frequência. Resta-nos agora obter y(t) = TF−1 [Y ( f )],
X/2 X/2
y(t) = TF−1 [ · δ ( f − f0 ) + · δ ( f + f0 )] =
1 + j2π f0 τ 1 − j2π f0 τ
X 1 1
= [ · e j2π f0t + · e− j2π f0t ] =
2 1 + j2π f0 τ 1 − j2π f0 τ
X e− jφ f0 e− jφ − f0
= [p · e j2π f0t + p · e− j2π f0t ] =
2 1 + (2π f0 τ)2 1 + (2π f0 τ) 2

X e− jφ ( f0 ) e j2π f0t + e− jφ (− f0 ) e− j2π f0t


=p · =
1 + (2π f0 τ)2 2
X
=p · cos(2π f0t − φ ( f0 )) ∴ φ ( f0 ) = arc tg(2π f0 τ) (1.77)
1 + (2π f0 τ)2
− jφ
onde se utilizou a+1 jb = √a21+b2 ·e jφ = √ea2 +b2 e onde φ = arc tg(2π f0 τ) e ainda tg(−φ ) =
−tg(−φ ) uma vez que a função arc tg é ímpar.
1
Finalmente, utilizando o facto de, no enunciado, se ter que f0 = 2πτ , teremos
1 π
y(t) = √ · X · cos(2π f0t − ). (1.78)
2 4

(b) uma vez que estamos a lidar com sinais periódicos, recordemos que a potência média
TR/2
1
de um sinal periódico com período fundamental T0 , vem dada por P = T |x(t)|2 dt,
−T /2
pelo que teremos para o sinal de entrada,
TZ0 /2 TZ0 /2
1 2X2
PX = |X cos(2π f0t)| dt = cos2 (2π f0t)dt =
T0 T0
−T0 /2 −T0 /2

TZ0 /2
X2 1 X2
= (1 + cos(2 · 2π f0t)dt = (1.79)
T0 2 2
−T0 /2

e para a potência do sinal de saída, teremos de imediato PY = 12 PX , pelo que a razão das
potências de saída pela entrada vem PPYX = 21 .

P. 3: Na figura 1.29, seja o sinal x(t) dado por


+∞ l t 
x(t) = ∑ p(t − kT0 ) ∴ p(t) = (1.80)
k=−∞ T0 /2

(a) determine o espectro deste sinal, X( f );

(b) para m(t) = (1 + cos(2π f1t) determine analiticamente yAM (t) e YAM ( f ) e represente-os
d − f0 d + f0
graficamente, sabendo que H( f ) = ( f 2B ) + ( f 2B ) e sendo B = 1, 5 f1 e f0 = 20 f1 .
1.5. PROBLEMAS RESOLVIDOS 37

Figura 1.29: Sistema de modulação de amplitude.

Resolução

(a) Interpretemos o sinal x(t) como sendo uma repetição de T0 em T0 unidades de tempo
de impulsos (janelas) rectangulares de amplitude unitária e de duração (total) de T0 /2.
Assim, vamos desenvolvê-lo na sua série trigonométrica de Fourier (equações (1.37) e
(1.38)):
+T
Z 0 /2
+∞
1
x(t) = ∑ al · e j2πl f0 t
∴ al = x(t) · e− j2πl f0t dt (1.81)
l=−∞ T0
−T0 /2

T0
Como no intervalo de integração se tem ∀|t| ≤ 4 : x(t) = p(t) = 1 podemos de imediato
calcular os coeficientes da série de Fourier:

+T T0
Z 0 /4 4
1 1 1
al = e− j2πl f0t dt = · · e− j2πl f0t =
T0 T0 − j2πl f0 −T0
−T0 /4
4

1 e− j2πl f0 T0 /4 − e− j2πl f0 T0 /4 f0 ×T0 =1 2 jsen( π2 l)


= · = =
T0 j2πl f0 2 · 2 j · l π2

 
1 l
= sinc (1.82)
2 2

Recordando a equação (1.40) que nos permite obter a transformada de Fourier de um


sinal periódico, teremos finalmente

1 +∞
 
k
X( f ) = ∑ sinc · δ ( f − k f0 ) (1.83)
2 k=−∞ 2

(b) Nesta alínea teremos de usar a propriedade da transformada de Fourier do produto de


dois sinais, equação (1.57). Assim, seja z(t) = x(t) · m(t) o sinal resultante do produto
e Z( f ) a sua transformada de Fourier, pelo que teremos Z( f ) = X( f ) ∗ M( f ). Ora, uma
vez que já possuímos X( f ), precisamos agora obter M( f ),

1
M( f ) = TF[1 + cos(2π f1t)] = δ ( f ) + [δ ( f − f1 ) + δ ( f + f1 )] (1.84)
2
38 CAPÍTULO 1. INTRODUÇÃO ÀS TELECOMUNICAÇÕES

Então, teremos

1 +∞
 
k
Z( f ) = ∑ sinc δ ( f − k f0 )∗
2 k=−∞ 2
1
∗ {δ ( f ) + [δ ( f − f1 ) + δ ( f + f1 )]} =
2
+∞  
1 k
= ∑ sinc δ ( f − k f0 )+
2 k=−∞ 2
1 +∞
 
k 1
+ ∑ sinc δ ( f − k f0 ) ∗ [δ ( f − f1 ) + δ ( f + f1 )] =
2 k=−∞ 2 2
1 +∞
 
k
= ∑ sinc [2δ ( f − k f0 ) + δ ( f − k f0 − f1 ) + δ ( f − k f0 + f1 )] (1.85)
4 k=−∞ 2

uma vez que se aplica a propriedade (1.24) mas expressa no domínio da frequência, ou
seja: X( f ) ∗ δ ( f − f0 ) = X( f − f0 ). Passando finalmente para o domínio do tempo,
teremos z(t) = TF−1 [Z( f )] e que resulta em:
+∞  
1 k
z(t) = + ∑ sinc · cos(2πk f0t)+
2 k=−∞ 2
1 +∞
 
k
+ ∑ sinc · [cos(2π(k f0 − f1 )t) + cos(2π(k f0 + f1 )t)] (1.86)
2 k=−∞ 2

Em seguida, iremos obter yAM (t) = TF−1 [Z( f ) · H( f )], que resulta da aplicação da pro-
priedade da transformada de Fourier da convolução de dois sinais à entrada do filtro com
a sua resposta impulsiva, equação (1.55).

A forma mais fácil de obter o resultado pretendido passa por verificar que a função
de resposta em frequência do filtro é nula para ∀ f ∈] / − f0 − 1, 5 f1 ; − f0 + 1, 5 f1 ]∨] f0 −
1, 5 f1 ; f0 + 1, 5 f1 [; assim, só as componentes de z(t) para k = 1 estarão presentes na
saída do filtro, ou seja:

1
yAM (t) = cos(2π f0t) + [cos(2π( f0 − f1 )t) + cos(2π(k f0 + f1 )t)] (1.87)
2

No capítulo 5 retomaremos o estudo destes sinais que, como veremos, correspondem a


sinais sinusoidais modulados em amplitude.

P. 4: Na figura 1.30 representa-se um sinal que corresponde ao sinal de rádio-frequência emitido


por um radar de impulsos. Uma forma de modelar analiticamente este impulso é através de
l t 
pr (t) = · cos(2π f0 t) (1.88)
2Ti

onde, claramente, f0  1/Ti . Determine o espectro deste impulso, Pr ( f ) = TF[pr (t)].


1.5. PROBLEMAS RESOLVIDOS 39

0.8

0.6

0.4

0.2

−0.2

−0.4

−0.6

−0.8

−1

−10 −8 −6 −4 −2 0 2 4 6 8 10

Figura 1.30: Impulso de Rádio-frequência.

Resolução Aplicando a transformação de Fourier ao sinal pr (t),


l  
t
TF[pr (t)] = Pr ( f ) = TF ∗ TF[cos(2π f0 t)]
2Ti

pois, como já se viu, a transformada de Fourier do produto de dois sinais resulta na convolução
das transformadas desses sinais. Assim,

e j2π f T1 − e j2π f T1
l  Z +T
t 1 2 j sen(2π f T1 )
TF ( ) = 1 · e− j2π f t dt = = =
2Ti −T1 −2 jπ f 2 jπ f

sen(2π f T1 )
= 2T1 · = 2T1 sinc(2 f T1 )
(2π f T1 )
Este espectro está representado na figura 1.31a), supondo T1 = 0, 55 s.

Por outro lado, TF[cos(2π f0 t)] = 21 [δ ( f − f0 ) + δ ( f + f0 )] pelo que, recordando a propriedade


da convolução de um sinal com o impulso de dirac,

Pr ( f ) = TF[pr (t)] = T1 · [sinc(2( f − f0 )T1 ) + sinc(2( f + f0 )T1 )] (1.89)

e cuja representação gráfica se ilustra na figura 1.31b).

P. 5: Determine a energia da resposta impulsiva de um SLIT cuja função de transferência é


a
H(s) =
s+a

Resolução Como sabemos, a resposta impulsiva é

h(t) = TL−1 [H(s)]

e, portanto,
h(t) = TL−1 [H(s)] = a · e−at u(t) (1.90)
40 CAPÍTULO 1. INTRODUÇÃO ÀS TELECOMUNICAÇÕES

1.5

0.5

−0.5
−25 −20 −15 −10 −5 0 5 10 15 20 25
a)

0.6

0.4

0.2

−0.2
−1.5 −1 −0.5 0 0.5 1 1.5
b) 10
x 10

Figura 1.31: Espectro da janela rectangular (em cima) e do Impulso de Rádio-frequência, sendo f0 = 7, 5
GHz e T1 = 0, 55 s, em baixo.

considerando que se trata de um SLIT causal. Então,


Z +∞
E0 = |a · e−at |2 dt (1.91)
0

que vem dada por


a
E0 = (1.92)
2

P. 6: Deduza o espectro da janela triangular, conforme equações 1.8 e 1.64.

Resolução Procedamos através da definição de transformada de Fourier de um sinal, pelo


que
Z ∞^ Z T
2
(t) · e− j2π f t dt = (t) · e− j2π f t dt =
^ ^
(f) =
−∞ − T2
Z 0 T
t t
Z
2
= (1 + 2 ) · e− j2π f t dt − (1 − 2 ) · e− j2π f t dt =
T
−2 T 0 T
T T
2 0 2
Z Z Z
2 2
= e− j2π f t dt + t · e− j2π f t dt − t · e− j2π f t dt =
− T2 T − T2 T 0
1.5. PROBLEMAS RESOLVIDOS 41
"Z T Z 0
#
2 2
− j2π f t − j2π f t
= T · sinc(T f ) − t ·e dt − t ·e dt (1.93)
T 0 − T2

Tendo presente que x · eax dx = ( ax − a12 ) · eax , determinemos o segundo membro da equação
R

(1.93) onde, para facilidade de leitura e desenvolvimento, a = − j2π f . Assim,


T
T Z 0     0
t 1 2 t 1
Z
2
− j2π f t − j2π f t at at
t ·e dt − t ·e dt = − 2 ·e − − 2 ·e =
0 − T2 a a 0 a a − T2

T at 2 T T · sen(π f T ) 1 − 2 cos(π f T )
= [e − e−at ] + 2 [1 − e−at ] = · + 2T 2 · =
2a a a=− j2π f 2 π fT (− j2π f T )2
T2 T 2 1 − 2 cos(π f T )
· sinc( f T ) −
= · =
2 2 (π f T )2 1−cos(θ )=2 sen2 (θ /2)

T2 T 2 sen2 (π f T /2 T2
 
1 2 T
= sinc( f T ) − · )= sinc( f T ) − · sinc (π f )
2 4 (π f T /2)2 2 2 2
Ora, substituindo este resultado na equação (1.93), dará a transformada pretendida
^ T T
(f) = · sinc2 ( f ) (1.94)
2 2

P. 7: Analise o efeito da duração de uma janela de análise no seu espectro, exemplificando para a
janela de Hanning.

Resolução Procedamos directamente a partir da equação (1.68), utilizando dois valores para
T ; este resultado apresenta-se na figura seguinte (figura 1.32), onde se pode verificar que ao
se «encurtar» a duração da janela, se «alarga» a sua ocupação espectral.

P. 8: Determine o espectro do sinal periódico x(t) = ∑+∞


k=−∞ ∧(t − kT0 ) onde T0 = 2.

Resolução Comecemos por representar graficamente o sinal x(t) tendo em atenção a defini-
ção da janela triangular (equação (1.8)) onde podemos, por inspecção, identificar que T = 1,
figura 1.33.

Sabemos, a partir da equação (1.40) que X( f ) = ∑+∞ k=−∞ ak · δ ( f − k f 0 ) sendo, obviamente,


1 1
f0 = T0 = 2 . Resta-nos, portanto, determinar os coeficientes da série harmónica,

Z + T0 Z +T
1 2
− j2πk f0 t 1 2
ak = T0
x(t) · e dt = x(t) · e− j2πk f0t dt =
T0 − 2
2 − T2

1 1 1
= · · sinc2 (k f0 )
2 2 2
42 CAPÍTULO 1. INTRODUÇÃO ÀS TELECOMUNICAÇÕES

1
−10

0.8 −20

−30

0.6

−40

0.4
−50

−60
0.2

−70

0
−80
−0.5 0 0.5 −10 −5 0 5 10
Tempo [s] [Hz]

Figura 1.32: Janelas (lado esquerdo) e seus espectros (à direita) de Hanning para T = 1/2 (azul) e para
T = 1/4, a vermelho.

x(t)
T0

… …
T 1 2 t

Figura 1.33: Onda triangular periódica.

V
uma vez que podemos utilizar a equação de ( f ) já obtida em (1.64) substituindo f por k f0 .
Finalmente,
1 +∞ 1 1
X( f ) = · ∑ sinc2 (k ) · δ ( f − k ) (1.95)
4 k=−∞ 4 2
Esta transformada está representada na figura 1.34.


1.5. PROBLEMAS RESOLVIDOS 43

0.3

0.25

0.2

0.15

0.1

0.05

-4 -2 0 2 4 6
[Hz]

Figura 1.34: Espectro da onda triangular periódica.


44 CAPÍTULO 1. INTRODUÇÃO ÀS TELECOMUNICAÇÕES
Capítulo 2

PROCESSOS ESTOCÁSTICOS

2.1 PROBABILIDADES

2.1.1 C ONCEITO DE P ROBABILIDADE

Probabilidade é um conceito abstracto que não tem suporte experimental directo. Já «evento»,
«ocorrência» ou «realização» de uma experiência é um conceito natural, facilmente explicável ou
verificável. Destes conceitos decorre a noção de frequência relativa que, no fundo, resulta da cons-
tatação de uma sequência de eventos. Desta, por um mecanismo de indução, surge o conceito de
probabilidade. Contudo, esta forma de «definir» probabilidade carece de rigor.

De outra forma, mais formal, e a que seguiremos, é preferível apresentar a Probabilidade sob
a forma de uma axiomática que a define e caracteriza, de acordo com a formalização de Kolmogorov.

2.1.2 I NTRODUÇÃO À A XIOMÁTICA DE KOLMOGOROV

Comecemos por recordar um conjunto de conceitos essenciais a estes tópicos. Assim, seja J
o conjunto dos acontecimentos elementares de uma experiência: J = {Ai , i = 1, 2, · · · , N}. Estes
acontecimentos elementares, por serem elementares, são por conseguinte mutuamente exclusivos:
D

45
46 CAPÍTULO 2. PROCESSOS ESTOCÁSTICOS

∀i, j = 1, 2, · · · , N : i 6= j Ai , A j ∈ J Ai ∩ A j = 0/ (2.1)

Ex

Exemplo Seja então uma dada experiência que consiste em registar a soma dos números das faces
superiores de dois dados que são sucessivamente lançados. Então, teremos

J = {2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12}

Como se verifica de imediato, não é possível ter como resultado desta experiência (ou seja, a
soma mencionada) simultaneamente «2» e «8».
V

A priori nada nos permite supor ou afirmar sobre as ocorrências destes acontecimentos serem
ou não equiprováveis. Sobre o exemplo apresentado, parece ser razoável supor que a soma das duas
faces não caia preferencialmente em «4» ou noutro valor qualquer... o que é impossível de verificar
experimentalmente. Mas a prática leva-nos a supor que, não havendo vício no processo, qualquer
resultado da experiência é tão «provável» quanto outro qualquer. Efectivamente, e havendo 11 resul-
tados possíveis, é tentador afirmar que a probabilidade de se obter o resultado «4» é de 1/11, pois de
outra forma, uma das faces de um ou dos dois dados teria a «tendência» de ocorrer mais vezes1 . Seja
agora B o acontecimento de se ter a soma par, ou seja B = {2, 4, 6, 8, 10, 12}, e seja C = {3, 5, 7, 9, 11}
o acontecimento da soma ser ímpar: estes dois acontecimentos são mutuamente exclusivos, pois a
mesma soma não pode ser, simultâneamente, par e ímpar. Já não seriam mutuamente exclusivos
caso redefiníssemos esses acontecimentos como B = {soma ≤ 10}, e C = {soma > 5}.

Definamos agora espaço de amostras.

D
Definição: Espaço de amostras como sendo o conjunto de todos os subconjuntos de J e designemo-
lo por Ω. Claramente se tem que J ⊂ Ω.

A XIOMAS DE KOLMOGOROV
T
1o Axioma para qualquer acontecimento A ∈ J se tem que a probabilidade desse acontecimento é
não-negativa: Pr(A) ≥ 0.

T
2o Axioma Pr(J) = 1

T
3o Axioma se os acontecimentos Ai ∈ J, com i = 1, 2, · · · , N, forem mutuamente exclusivos (equa-
ção (2.1)) então
N
[ N
Pr(A1 ∪ A2 ∪ · · · ∪ AN ) = Pr( Ai ) = ∑ Pr(Ai ) (2.2)
i=1 i=1
1O mesmo é dizer que o(s) dado(s) estaria(m) viciado(s)
2.1. PROBABILIDADES 47

As consequências dos axiomas anteriores são as seguintes:

T
Monotonicidade ∀A, B ∈ Ω : A ⊆ B ⇒ Pr(A) ≤ Pr(B)

T
Contra-domínio ∀A ∈ Ω : 0 ≤ Pr(A) ≤ 1

T
Conjunto Complementar A, Ā ∈ Ω : Pr(Ā) = 1 − Pr(A)

2.1.3 P ROBABILIDADE C ONDICIONAL

Seja Pr(M) a probabilidade não-nula da ocorrência do acontecimento M que, por sua vez,
determina ou condiciona a ocorrência de um acontecimento A. Então, a probabilidade da ocorrência
do acontecimento A condicionada na certeza da ocorrência de M é definida por
D
Pr(A ∩ M)
Pr(A|M) = (2.3)
Pr(M)

A probabilidade condicional goza das seguintes propriedades:

T
1a Propriedade Pr(A|M) ≥ 0

T
2a Propriedade Pr(J|M) = 1

T
3a Propriedade se A ∩ B 6= 0/ ⇒ Pr(A ∪ B|M) = Pr(A|M) + Pr(B|M) − Pr(A ∩ B|M)

D
Definição: Independência Estatística os acontecimentos A e B dizem-se estatisticamente inde-
pendentes sse
Pr(A ∩ B) = Pr(A) · Pr(B) (2.4)

Dados dois acontecimentos A e B estatisticamente independentes, teremos:


T

Pr(A|B) = Pr(A)
(2.5)
Pr(B|A) = Pr(B)

2.1.4 T EOREMAS DA P ROBABILIDADE T OTAL E DE BAYES

Consideremos uma partição finita do conjunto J de acontecimentos elementares, J = Ni=1 Ai ,


S

e um acontecimento B ∈ J. Como B ∩ J = B, teremos que B = B ∩ Ni=1 Ai = Ni=1 B ∩ Ai uma vez


S S

que os acontecimentos Ai , i = 1, 2, · · · , N são mutuamente exclusivos. Então, a partir deste resultado,


temos que
T
48 CAPÍTULO 2. PROCESSOS ESTOCÁSTICOS

N
[ N
Pr(B) = Pr( B ∩ Ai ) = ∑ Pr(B ∩ Ai ) (2.6)
i=1 i=1
o que, de acordo com a definição de probabilidade condicional (equação (2.3)), se traduz no

T 1 : Teorema da Probabilidade Total


T
N
Pr(B) = ∑ Pr(B|Ai ) Pr(Ai ) (2.7)
i=1

O(s) termo(s) Pr(Ai ) é (são) designado(s) por probabilidade(s) a priori.




T 2 : Teorema de Bayes

O teorema de Bayes é uma forma de, conhecidas as probabilidades a priori Pr(Ai ), se obterem
as probabilidades a posteriori (isto é, por estarem condicionadas à ocorrência de B):
T
Pr(B|Ai ) Pr(Ai )
Pr(Ai |B) = N (2.8)
∑k=1 Pr(B|Ak ) Pr(Ak )


Ex

Exemplo Considere o caso de um radar de defesa anti-míssil que, aos acontecimentos m0 (não ter
sido lançado um míssil) e m1 (ter sido efectivamente lançado um míssil) de probabilidades p(m0 )
e p(m1 ), associa uma probabilidade de não detecção p(r0 ) ou de detecção p(r1 ) sendo que r0 é o
míssil não ter sido detectado e r1 a sua detecção. Suponha-se, então, que a probabilidade de não ter
sido lançado um míssil é p(m0 ) = 1/2, que a probabilidade de se ter detectado um míssil, embora
não tivesse havido lançamento, é p(r1 |m0 ) = 0, 1 e p(r0 |m1 ) = 0, 2. Pretende-se determinar qual a
probabilidade

1. de não haver lançamento do míssil dado que não houve detecção;

2. de erro;

3. de haver uma detecção correcta.

Resolução Este é um típico problema de aplicação do teorema de Bayes. Para melhor se entender
a sua resolução, considere-se a figura 2.1,

p(r0 | m0 )
m0 r0
| m 1)
p(r0
p( r
1 |m
0 )

m1 r1
p(r1 | m1 )
2.2. VARIÁVEIS ALEATÓRIAS 49

Figura 2.1: Problema do detector com erros.

A partir dos dados disponíveis, determinemos: a probabilidade de ter sido lançado um mís-
sil, p(m1 ) = 1 − p(m0 ) = 1/2; a probabilidade de não se detectar dado que não houve lançamento,
p(r0 |m0 ) = 1 − p(r1 |m0 ) = 1 − 0, 1 = 0, 9; a probabilidade de se ter detectado o míssil dado que
houve lançamento, p(r1 |m1 ) = 1 − p(r0 |m1 ) = 1 − 0, 2 = 0, 8. Podemos agora determinar (teorema
da probabilidade total) a probabilidade p(r0 ) de não haver detecção e, obviamente a sua comple-
mentar, P(r1 ) a de haver detecção de um lançamento. Assim,

p(r0 ) = p(r0 |m0 )p(m0 ) + p(r0 |m1 )p(m1 ) = 0, 55

p(r1 ) = p(r1 |m1 )p(m1 ) + p(r1 |m0 )p(m0 ) = 0, 45


Então,

1. a probabilidade de não haver lançamento do míssil dado que não houve detecção, p(m0 |r0 ) é
(teorema de Bayes),
p(r0 |m0 )p(m0 )
p(m0 |r0 ) =
p(r0 )
e que terá o valor de 0,818; completando,
p(r1 |m1 )p(m1 )
p(m1 |r1 ) = = 0, 889
p(r1 )
ou seja, a probabilidade de ter havido um lançamento de um míssil, dado que se detectou um
lançamento.

2. a probabilidade de erro é

Pe = p(r1 |m0 )p(m0 ) + p(r0 |m1 )p(m1 ) = 0, 15

3. e a probabilidade de haver uma detecção correcta é, obviamente, Pc = 1 − Pe ) = 0, 85.


V

2.2 VARIÁVEIS ALEATÓRIAS

François Marie Arouet (Voltaire) afirmou no seu E SSAI SUR L’ HISTOIRE GÉNÉRALE ET
SUR LES MOEURS ET L’ ESPRIT DES NATIONS em 1756 que o «Sacro Império Romano» não foi
nem Sacro, nem Romano e muito menos Império. De forma semelhante, as Variáveis Aleatórias
não são nem variáveis nem aleatórias!

Comecemos por definir variável aleatória:

D
Definição: Variável Aleatória Uma variável aleatória é uma função definida sobre um espaço de
amostras.

Vejamos os seguintes exemplos ilustrativos:

Ex
50 CAPÍTULO 2. PROCESSOS ESTOCÁSTICOS

Exemplo Se lançarmos 2 dados, e estivermos interessados na soma das faces, o correspondente


espaço de amostras é definido como J = {(i, j), 1 ≤ i, j ≤ 6} enquanto que a variável aleatória
X será definida como X(i, j) = i + j e o conjunto de chegada (contradomínio, CD) é o conjunto
CD = {2, 3, · · · , 12}.
V

Ex

Exemplo Seja o espaço de amostras J definido no conjunto dos alunos de uma dada universidade.
Determinemos o peso de cada estudante i em kg, w(i). Neste caso, a variável aleatória H pode ser
definida como H(·) : J → R.
V

Estes dois exemplos servem-nos para apresentar 3 classes de variáveis aleatórias: contínua,
discreta e mista. Assim, uma variável aleatória contínua é uma função com contradomínio num
dado intervalo em R; sendo discreta quando tiver contradomínio num conjunto contável de números
reais e mista caso tenha suporte numa união de contradomínios anteriores.

2.2.1 F UNÇÃO P ROBABILIDADE DE M ASSA

Seja X uma variável aleatória discreta e seja um dado valor a ∈ CD[X]; qual a probabilidade
desta variável aleatória assumir o valor a? Mais concretamente, consideremos então o acontecimento
A = {x ∈ J : X(x) = a}; e determine-se a sua probabilidade de ocorrência, isto é Pr(X = a) = Pr({x ∈
J : X(x) = a}).

Esta questão pode ser resolvida através da seguinte definição:

D
Definição: Função Probabilidade de Massa Seja a função probabilidade de massa como sendo
uma função, tabela ou fórmula que nos permita obter Pr(X = a) para cada elemento a no contrado-
mínio da variável aleatória X.

A partir desta definição, teremos ainda a seguinte

D
Definição Duas variáveis aleatórias X e Y têm a mesma distribuição sse os valores que assumem e
as respectivas função probabilidade de massa forem idênticas e representa-se este facto como X ∼ Y .

2.2.2 VALOR E XPECTÁVEL E VARIÂNCIA

Seja a variável aleatória discreta X que toma valores a1 , a2 , · · · , ai , · · · .


2.2. VARIÁVEIS ALEATÓRIAS 51

D
Definição: Valor Expectável
+∞
E{X} = mX , ∑ ai Pr(X = ai ) (2.9)
i=1

D
Definição: Variância A variância da variável aleatória X:

Var{X} = σX2 , E{X 2 } − E 2 {X} = E{X 2 } − m2X (2.10)

Note-se que a variância é sempre não-negativa.

T
Propriedades do Valor Expectável

• E{k · X} = k · E{X}

• E{k1 · X + k2 } = k1 · E{X} + k2

• Seja Y = g(X), então E{Y } = E{g(X)} = ∑+∞


i=1 g(ai ) Pr(X = ai )

2.2.3 F UNÇÃO D ISTRIBUIÇÃO C UMULATIVA

Seja a variável aleatória discreta X que toma valores a1 , a2 , · · · , an que consideraremos orde-
nados por ordem crescente, a1 < a2 < · · · < an .

D
Definição: Função Distribuição Cumulativa A Função Distribuição Cumulativa da variável
aleatória discreta X é dada por FX (ai ) = Pr(X ≤ ai ) e obtém-se a partir de:

FX (ai ) = Pr(X ≤ ai ) = Pr(X = a1 ) + Pr(X = a2 ) + · · · + Pr(X = ai ) =


i
= ∑ Pr(X ≤ a j ) (2.11)
j=1

Desta forma, a função probabilidade de massa pode ser obtida a partir da função distribuição
cumulativa:
Pr(X = ai ) = FX (ai ) − FX (ai−1 ) (2.12)

e que, sendo uma probabilidade, nunca poderá assumir valores negativos2 .

2.2.4 E XEMPLOS DE VARIÁVEIS A LEATÓRIAS D ISCRETAS


52 CAPÍTULO 2. PROCESSOS ESTOCÁSTICOS

D
Variável aleatória de Bernoulli A variável aleatória na sua forma mais simples é a de Bernoulli
pois só assume 2 valores «0» e «1» com função probabilidade de massa p e q de acordo com a tabela
2.1, onde, naturalmente q = 1 − p.

Tabela 2.1: da variável Aleatória de Bernoulli

x 0 1
Pr(X = x) p q

Sendo, normalmente, o acontecimento x = 1 encarado como sendo o acontecimento bem


sucedido e, por arrasto, ao acontecimento x = 0 associaremos a «falha».

Determinemos o seu valor expectável mX através da equação (2.9):

E{X} = mX = 0 · 1 + 1 · q = q (2.13)

e da sua variância σX2 , equação (2.10)

Var{X} = σX2 = E{X 2 } − E 2 {X} = 02 · p + 12 · q − q2 = q · (1 − q) = q · p (2.14)

D
Variável Aleatória Binomial Uma variável aleatória binomial permite determinar o número de
sucessos em n acontecimentos independentes, cada um dos quais associado a uma variável aleatória
de Bernoulli.

Seja, por exemplo, o lançamento de uma moeda viciada em que a probabilidade de sair cara
é p; claramente que a probabilidade de sair coroa3 é q = 1 − p. Lancemos então a moeda n vezes
e contabilizemos o número k de vezes em que sai cara. Este número é Bin(n, p) e é caracterizado
pela função probabilidade de massa:
 
n n−k k
Pr(X = k) = q p para k = 0, 1, 2, · · · , n e q = 1 − p (2.15)
k

que se representa por X ∼ Bin(n, p).

O valor expectável desta variável aleatória vem

E{X} = n · p (2.16)

e a sua variância
Var{X} = σX2 = n · p · q (2.17)

A correspondente função distribuição cumulativa (equação (2.11)) virá


x
 
n n−k k
FX (x) = Pr(X ≤ x) = ∑ q p para n ≤ x < n + 1 (2.18)
k=0 k
2.2. VARIÁVEIS ALEATÓRIAS 53

D
Variável Aleatória de Poisson Uma variável aleatória de Poisson descreve a probabilidade de
uma série de eventos decorrer num certo período de tempo, admitindo-se que estes acontecimentos
são independentes da ocorrência do último evento.

Assim, seja λ o número esperado de acontecimentos (ocorrências) num dado intervalo de


tempo ou numa dada região do espaço; a probabilidade de se ter um dado número de sucessos X
nesse intervalo é
λ x e−λ
Pr(X = x) = (2.19)
x!
e que se ilustra na figura 2.2

0.4

0.35

0.3

0.25
Pr(X=x)

0.2

0.15

0.1

0.05

0
0 5 10 15 20 25 30
x

Figura 2.2: Variável aleatória de Poisson para λ = 1(preto), 2 (azul), 5 (vermelho), 10 (magenta) e 20
(ciano).

O valor expectável desta variável aleatória é

E{X} = λ (2.20)

e a sua variância,
Var{X} = σX2 = λ (2.21)
2 Conforme enunciado no 1o axioma de Kolmogorov.
3 Independentemente de a moeda ser ou não viciada!
54 CAPÍTULO 2. PROCESSOS ESTOCÁSTICOS

2.2.5 I NTRODUÇÃO ÀS VARIÁVEIS A LEATÓRIAS C ONTÍNUAS

Lembremos que a probabilidade de ter uma variável aleatória contínua X igual a um dado va-
lor na recta real é exactamente zero4 . Desta forma, o conceito de função probabilidade de massa não
é apropriado, pois seria sempre nula e, por consequência, nenhuma informação nos transmitiriam
sobre as variáveis aleatórias. Para este tipo de variáveis aleatórias é preferível apresentar o conceito
de função distribuição cumulativa e que se desenvolverá nos parágrafos seguintes.

2.2.6 F UNÇÃO D ISTRIBUIÇÃO C UMULATIVA

Comecemos com a definição de função distribuição cumulativa de uma variável aleatória:

D
Definição: Função Distribuição Cumulativa de uma variável aleatória contínua X como sendo

FX (x) , Pr(X ≤ x) ∀x ∈ R (2.22)

T
Corolário a função distribuição cumulativa FX (x) é uma função não-decrescente e não-negativa
que se aproxima da unidade quando x → +∞. Este facto decorre da própria definição de função
distribuição cumulativa.

Demonstração sejam x e y dois valores reais distintos que verifiquem ∀x, y ∈ R : x < y, então

FX (y) − FX (x) = Pr(X ≤ y) − Pr(X ≤ x) = Pr(x < X ≤ y) ≥ 0 (2.23)

pela própria definição de probabilidade.

T
Corolário se x → +∞ ⇒ FX (x) = 1 pois a variável aleatória tem de assumir forçosamente qualquer
valor em R.

Corolário se x → −∞ ⇒ FX (x) = 0 , pois a variável aleatória não pode assumir nenhum valor
inferior a −∞.

2.2.7 F UNÇÃO D ENSIDADE DE P ROBABILIDADE

A função densidade de probabilidade é definida pela derivada da função distribuição cumu-


lativa
D
d
fX (x) , FX (x) (2.24)
dx
2.2. VARIÁVEIS ALEATÓRIAS 55

T
Corolário fX (x) ≥ 0 pois resulta da derivada de uma função não-decrescente.

T
Corolário a função densidade de probabilidade, ao contrário da função distribuição cumulativa de
que resulta, não está limitada à unidade, ou seja, fX (x) poderá ser, num intervalo finito, superior a 1.

Por outro lado, conhecendo-se a função densidade de probabilidade de uma dada variável ale-
atória contínua, a correspondente função distribuição cumulativa pode ser obtida através da equação
seguinte
Z x T
FX (x) = fX (ε)dε (2.25)
−∞

onde ε é uma variável (de integração) muda.

T
Rb
Corolário Pr(a < X ≤ b) = FX (b) − FX (a) = a fX (x)dx

A demonstração deste facto é imediata a partir das equações (2.25) e (2.23).

2.2.8 E STATÍSTICAS OU M OMENTOS DE VARIÁVEL A LEATÓRIA


D

Definição: Momento de Ordem n Definamos momento de ordem n de uma variável aleatória X


como sendo
Z
n
E{X } , xn fX (x)dx (2.26)
R

Os momentos mais comummente considerados, determinados ou estimados, são os momentos


de 1a e 2a ordem que são conhecidos, respectivamente, por valor expectável e correlação.

D
Definição: Valor Expectável
Z∞
mX , E{X} = x · fX (x)dx (2.27)
−∞

T
Propriedades do Valor Expectável

• E{k · X} = k · E{X}

• E{k1 · X + k2 } = k1 · E{X} + k2

• Seja Y = g(X), então


Z +∞
E{Y } = E{g(X)} = g(x) fX (x)dx
−∞
56 CAPÍTULO 2. PROCESSOS ESTOCÁSTICOS

D
Definição: Correlação

Z∞
(2) 2
mX = Corr{X} , E{X } = x2 · fX (x)dx (2.28)
−∞

D
Definição: Momentos Centrados São também interessantes os momentos centrados duma variá-
vel aleatória e que se definem como
Z
(n) n
µX , E{(X − mX ) } , (ε − mX )n fX (ε)dε (2.29)
R

De imediato se verifica que o momento centrado de 1a ordem é nulo; o momento centrado de


2a ordem é ainda conhecido por variância
D
Z
(2)
σX = Var{X} , E{(X − mX )2 } = (ε − mX )2 fX (ε)dε (2.30)
R

Propriedades da Variância:

T
Corolário Var{a · X + b} = a2 · Var{X}

Demonstração Pretende-se demonstrar que Var{Y = a · X + b} = a2 · Var{X}. Ora, sabemos pela


definição que Var{Y } = E{(Y − mY )2 } ou seja,

Var{Y } = E{(Y − mY )2 } = E{(a · X + b − mY )2 }

Convém agora determinar mY ; já sabemos, pelas propriedades do valor expectável, que mY =


E{Y } = E{a · X + b} = a · mX + b. Assim, teremos

Var{Y } = E{(a · X + b − (a · mX + b))2 } = E{a2 (X − mX )2 } = a2 · σX2

T
(2) (2)
Corolário σX = Corr{X} − m2X = mX − m2X

A demonstração deste segundo facto é deixada como exercício.

Ex
4 No
fundo, pensemos que a «dimensão» do conjunto de chegada, o CD da variável aleatória, é infinita, pelo que
teremos forçosamente Pr(X = a) = 0.
2.2. VARIÁVEIS ALEATÓRIAS 57

Exemplo Seja a variável aleatória X suportada5 em [0, 1] e com função densidade de probabilidade
dada por (
2x 0 ≤ x ≤ 1
fX (x) =
0 c.c.
onde c.c. significa «em caso contrário». Determinemos a respectiva função distribuição cumulativa
FX (x)

Z x  0
 x<0
FX (x) = fX (ε)dε = x2 0 ≤ x ≤ 1
−∞ 
1 x>1

e cujas representações gráficas são as da figura 2.3.


2

1.5
f(x)

0.5

0
−1 −0.5 0 0.5 1 1.5 2
x

1.4

1.2

0.8
F(x)

0.6

0.4

0.2

0
−1 −0.5 0 0.5 1 1.5 2
x

Figura 2.3: Funções densidade de probabilidade (em cima) e distribuição cumulativa (em baixo).

Determinemos agora os respectivos valor expectável, correlação e variância


Z 1
2
mX = E{X} = x · 2xdx =
0 3
Z 1
2 1
Corr{X} = E{X } = x2 · 2xdx =
0 2
Z 1
2 1
Var{X} = Corr{X} − m2X = E{(X − mX ) } = 2
(x − )2 · 2xdx =
0 3 18
V

No seguimento iremos apresentar exemplos de algumas variáveis aleatórias contínuas de in-


teresse.
5O suporte de uma variável aleatória X contínua é o menor intervalo de todos os valores de x para os quais se tem
fX (x) ≥ 0.
58 CAPÍTULO 2. PROCESSOS ESTOCÁSTICOS

2.2.9 VARIÁVEL A LEATÓRIA U NIFORME


D

Sejam dois números reais a e b tais que a < b. A função densidade de probabilidade de uma
variável aleatória uniforme é dada por:
(
1
b−a a≤x≤b
fX (x) = (2.31)
0 c.c.

a que corresponde a função distribuição cumulativa



 0
 a<x
x−a
FX (x) = b−a a≤x≤b (2.32)

1 x>b

e que se representam na figura 2.4.

0.7

0.6

0.5

0.4
f(x)

0.3

0.2

0.1

0
−1 −0.5 0 0.5 1 1.5 2
x

1.4

1.2

0.8
F(x)

0.6

0.4

0.2

0
−1 −0.5 0 0.5 1 1.5 2
x

Figura 2.4: Distribuição Uniforme de uma Variável Aleatória para a = −0, 5 e b = 1, 5.

O valor expectável desta variável aleatória é

b+a
mX = (2.33)
2

e a sua variância é
(b − a)2
σX2 = (2.34)
12
2.2. VARIÁVEIS ALEATÓRIAS 59

2.2.10 VARIÁVEL A LEATÓRIA E XPONENCIAL


D
Seja X uma variável aleatória exponencialmente distribuída, X ∼ Exp(λ ) e caracterizada
pela sua função densidade de probabilidade
(
+ 0 x<0
∀λ ∈ R fX (x) = −λ x
(2.35)
λe x≥0
e pela sua função distribuição cumulativa
(
0 x<0
∀λ ∈ R+ FX (x) = (2.36)
1 − e−λ x x≥0
e que se representam na figura2.5:
2

1.5
f(x)

0.5

0
−1 −0.5 0 0.5 1 1.5 2
x

0.8

0.6
F(x)

0.4

0.2

0
−1 −0.5 0 0.5 1 1.5 2
x

Figura 2.5: Distribuição Uniforme de uma Variável Aleatória para λ = 1, 7.

O valor expectável desta variável aleatória é


1
mX = (2.37)
λ
e a sua variância,
1
σX2 = (2.38)
λ2

2.2.11 VARIÁVEL A LEATÓRIA N ORMAL OU DE G AUSS


D
Seja X uma variável aleatória gaussiana ou normalmente distribuída, X ∼ N(µ, σ 2 )
de média
2
(valor expectável) µ, variância σ e caracterizada pela sua função densidade de probabilidade
2
1 − (x−µ)
fX (x) = √ e 2σ 2 (2.39)
2πσ 2
60 CAPÍTULO 2. PROCESSOS ESTOCÁSTICOS

Vejamos agora como se obtém a respectiva função distribuição cumulativa FX (x):


Z x Z x 2
1 − (ε−µ)
FX (x) = fX (ε)dε = √ e 2σ2
dε =
−∞ 2πσ 2 −∞

x−µ

 
1 2 1 1 x−µ
Z
2σ −λ 2
= √ e dλ = + · erf √ (2.40)
2 π −∞ 2 2 2σ
onde se utilizou a seguinte definição:

D
Definição: Função de Erro como sendo
Z z
2 2
erf (z) , √ e−ν dν (2.41)
π 0

Este integral não tem uma solução fechada e como consequência, a função distribuição cumulativa
também não tem uma forma fechada, pelo que é normalmente tabelada. A função densidade de
probabilidade e a função distribuição cumulativa representam-se na figura 2.6.

1.4

1.2

0.8
f(x)

0.6

0.4

0.2

0
−1 −0.5 0 0.5 1 1.5 2
x

0.8

0.6
F(x)

0.4

0.2

0
−1 −0.5 0 0.5 1 1.5 2
x

Figura 2.6: Distribuição Normal de uma Variável Aleatória X ∼ N(3/4, 12/100).

T
Corolário Seja uma variável aleatória X normalmente distribuída, X ∼ N(µ, σ 2 ) e seja uma nova
variável aleatória Y definida por Y = (X − µ)/σ . Então Y ∼ N(0, 1).

A demonstração deste facto será apresentada em 2.2.13.

Na figura 2.7 apresentam-se as funções densidade de probabilidade e distribuição cumulativa


de Y ∼ N(0, 1), bem como a transformação Y = (X − µ)/σ utilizada.
2.2. VARIÁVEIS ALEATÓRIAS 61

4 0.4

3 0.3

f(y)
2 0.2

1 0.1

0
0
−6 −4 −2 0 2 4
y
−1
y

0.35
−2
0.3

−3 0.25

0.2

F(y)
−4
0.15

0.1
−5
0.05

−6 0
−1 0 1 2 −6 −4 −2 0 2 4
x y

Figura 2.7: Transformação das variável aleatória X ∼ N(µ, σ 2 ) e Y (lado esquerdo) por Y = (X − µ)/σ e,
à direita, as respectivas função densidade de probabilidade e função distribuição cumulativa de Y ∼ N(0, 1)
para µ = 1/2 e σ 2 = 0, 12.

Valor Expectável da Variável Aleatória de Gauss

Determinemos o valor expectável de X ∼ N(µ, σ 2 ):


2 2
1 1
Z ∞ Z ∞
− (x−µ) − (x−µ)
E{X} = mX = x· √ e 2
2σ dx = √ x·e 2σ2
dx =
−∞ 2πσ 2 2πσ 2 −∞

Z ∞√ √
1 2
=√ 2σ 2 ( 2σ 2 y + µ) · e−y dy
2πσ 2 −∞

x−µ
após se ter efectuado a mudança de variável y = √ e que resulta em
2σ 2

2σ 2 ∞ 1
Z Z ∞
2 2
E{X} = mX = √ y · e−y dy + √ µ · e−y dy (2.42)
π −∞ π −∞
2 2
Observando que y · e−y = − 12 dy
d −y
e , de imediato se verifica o primeiro integral da equação (2.42)
R ∞ −y2 √
é nulo. Então, resta-nos obter −∞ e dy que, como se pode demonstrar6 , é igual a π. Portanto,
tem-se finalmente que, como era esperado,

E{X} = mX = µ (2.43)
6 Para a determinação deste integral, veja-se o apêndice C.1.
62 CAPÍTULO 2. PROCESSOS ESTOCÁSTICOS

Segundo Momento Centrado da Variável Aleatória de Gauss

Pretendemos agora determinar E{(X − µ)2 } sendo, como anteriormente, X ∼ N(µ, σ 2 ):


2
1
Z ∞
2 − (x−µ)
E{(X − µ) } = (x − µ)2 · √ e 2σ 2 dx
−∞ 2πσ 2
x−µ
e, efectuando a mudança de variável y = √ , resulta em
2σ 2

2σ 2 2σ 2
Z ∞ Z ∞
2 2
E{(X − µ)2 } = √ y2 e−y dy = √ y · ye−y dy
π −∞ π −∞

que pode ser integrado por partes,

2σ 2
 ∞ 
1 1 ∞ −y2
Z
2
E{(X − µ)2 } = √ − y · e−y − e dy
π 2 −∞ 2 −∞
R∞ −y2 dy

Facilmente se verifica que o primeiro termo resulta nulo e, recordando que −∞ e = π, tere-
mos, como se esperava,
E{(X − µ)2 } = σ 2 (2.44)

2.2.12 D ESIGUALDADE DE C HEBYSHEV


D
Definição: desvio padrão como sendo a raiz quadrada da variância.

Assim, pode-se provar que, para uma variável aleatória contínua X caracterizada por uma
dada função densidade de probabilidade fX (x), se tem
T
1
Pr(|X − mX | ≥ kσX ) ≤ (2.45)
k2
ou, de forma equivalente,
T 1
Pr(|X − mX | < kσX ) ≤ 1 − (2.46)
k2
Este resultado é a conhecida desigualdade de Chebyshev.

Ex


Exemplo Uma variável aleatória arbitrária encontra-se distribuída no intervalo x ∈ [mX − 2 ·

σ , mX + 2 · σ ] com probabilidade superior a 0,5; a mesma variável ou outra qualquer encontra-
se ainda distribuída no intervalo x ∈ [mX − 2σ , mX + 2σ ] com probabilidade superior a 0,75. Da
mesma forma, mesma variável ou outra qualquer também se encontra distribuída no intervalo x ∈
[mX − 3σ , mX + 3σ ] com probabilidade superior a 0,88(8). Ou seja, quanto mais alargado for o
intervalo, tanto maior é a certeza de se ter a distribuição da variável aleatória.
V
2.2. VARIÁVEIS ALEATÓRIAS 63

É fácil de ver que a desigualdade de Chebyschev só é de aplicação não trivial para k > 1 uma
vez que é sabido que qualquer probabilidade é sempre majorada à unidade.

2.2.13 T RANSFORMAÇÃO DE UMA VARIÁVEL A LEATÓRIA

Seja então uma variável aleatória contínua X ∼ fX (x) e uma transformação Y = g(X) deter-
minada, tal que ∀y : x = g−1 (y) é única. Neste caso, estaremos a excluir transformações g(.) não
monotónicas.

Põe-se agora o problema de determinar a função densidade de probabilidade fY (y) que carac-
teriza a variável aleatória Y . Nestas condições pode-se demonstrar que fY (y) se pode obter a partir
de
fX (g−1 (y0 )) T
∀x0 , y0 ∈ R : y0 = g(x0 ) ⇒ fY (y0 ) = 0 −1 (2.47)
|g (g (y0 ))|
0 d
em que g = dx g(x).

Ex

Exemplo A título ilustrativo, retome-se o exemplo apresentado no corolário anterior; seja então
0
X ∼ N(µ, σ 2 ) e Y = g(x) = (X − µ)/σ . Neste caso, teremos g (x) = 1/σ e g−1 (y) = x = σ y + µ e
substituam-se na equação (2.47),

(1/ 2πσ 2 ) · exp[−(σ y + µ − µ)2 /2σ 2 ] 1
fY (y) = = √ exp(−y2 /2)
1/σ 2π
que facilmente se identifica com uma gaussiana de média nula e variância unitária, Y ∼ N(0, 1);
completando-se assim a prova do corolário anterior.
V

Contudo, se g−1 (·) tiver mais do que uma raiz, N por exemplo, é necessário considerar cada
uma das suas raízes, pelo que teremos
T
N
fX (xi )
fY (y) = ∑ 0 (2.48)
i=1 |g (xi )| xi = g−1 (y)
0 d
em que, como anteriormente, g = dx g(x).

Se bem que não se trate de uma demonstração deste resultado, o exemplo seguinte permite
verificar a sua validade.
Ex

Exemplo Seja Y = |X| e X ∼ fX (x) = λ2 exp(−λ |x|); de imediato se verifica que


(
−y y<0
g−1 (y) = x =
y y≥0
64 CAPÍTULO 2. PROCESSOS ESTOCÁSTICOS

ou seja, g−1 (·) tem duas soluções distintas.


1

0.8

0.6
f(x)

0.4

0.2

0
−5 0 5
x

5 5

4 4

3 3
y

y
y
0 2 2

1 1

0 0
−5 0 5 0 0.5 1 1.5 2
-x 0 x x0 f(y)

Figura 2.8: Função Densidade de Probabilidade de X ∼ fX (x) = λ2 exp(−λ |x|), Transformação Y = |X| e
função densidade de probabilidade de Y , fY (y).

Contudo, a não-monotonicidade de g(·) faz corresponder ao mesmo y0 dois valores distintos


da variável aleatória X, por exemplo +x0 e −x0 (figura 2.8); ora sendo o acontecimento A que re-
sulta no valor +x0 da variável aleatória, o acontecimento B que resulta em −x0 da mesma variável
aleatória, é-lhe mutuamente exclusivo. Daí que o acontecimento C definido sobre o espaço de amos-
tras da variável aleatória Y resulta da união de dois acontecimentos mutuamente exclusivos A e B.
Assim, a probabilidade associada ao acontecimento C é a soma das probabilidades associadas aos
acontecimentos A e B. Concretamente, para este exemplo, teremos como já vimos
( (
−y y<0 0 −1 x<0
g−1 (y) = x = ∴ g (x) =
y x≥0 1 x≥0

e por conseguinte

λ λ −λ |y|
∀y ≥ 0 : fY (y) = e−λ |y| + e = λ e−λ |y|
| − 1| · 2 |1| · 2

enquanto que, para y negativo, a respectiva função densidade de probabilidade é nula, resultando
finalmente em (
0 y<0
fY (y) = −λ |y|
λe y≥0
V
2.2. VARIÁVEIS ALEATÓRIAS 65

2.2.14 D ISTRIBUIÇÃO C ONJUNTA DE VARIÁVEIS A LEATÓRIAS C ONTÍNUAS

Sejam novamente X e Y duas variáveis aleatórias contínuas; defina-se então Função Distri-
buição Cumulativa Conjunta de X e Y ,

D
Definição: Função Distribuição Cumulativa Conjunta de duas variáveis aleatórias X e Y como
sendo a função de duas variáveis reais,

FX,Y (x, y) , Pr(X ≤ x,Y ≤ y) (2.49)

D
Definição: Variáveis Aleatórias Independentes Duas variáveis aleatórias X e Y dizem-se inde-
pendentes se
Pr(X ≤ x,Y ≤ y) = Pr(X ≤ x) · Pr(Y ≤ y) (2.50)

o mesmo é dizer que


FX,Y (x, y) = FX (x) · FY (y) (2.51)

D
Definição: Função Densidade de Probabilidade Conjunta A função densidade de probabili-
dade conjunta é definida por
∂2
fXY (x, y) = FXY (x, y) (2.52)
∂ x∂ y
e, por sua vez, a probabilidade de que o par (X,Y ) corresponda a um dado ponto numa região D do
plano é dada por
ZZ
Pr(a ≤ X ≤ b, c ≤ Y ≤ d) = fXY (x, y)dxdy (2.53)
D

As funções densidade de probabilidade (ditas agora marginais) de cada variável aleatória


podem ser obtidas a partir da função densidade de probabilidade conjunta:
T

+∞
R
fX (x) = fXY (x, y)dy





 −∞
(2.54)
+∞


 R
 fY (y) = fXY (x, y)dx


−∞

D
Definição: Função Densidade de Probabilidade Condicional A função densidade de probabi-
lidade condicional de X|(Y = b) é dada por
T

fXY (x, b)
fX|(Y =b) (x) = (2.55)
fY (b)
66 CAPÍTULO 2. PROCESSOS ESTOCÁSTICOS

2.2.15 M OMENTOS C ONJUNTOS DE D UAS VARIÁVEIS A LEATÓRIAS


D
Valor Expectável O valor expectável de XY é
Z Z
E{XY } = xy fXY (x, y)dxdy (2.56)
R R

D
Correlação A correlação de duas variáveis aleatórias X e Y é
Z Z
RXY , E{XY } = xy fXY (x, y)dxdy (2.57)
R R

D
Covariância A covariância (ou momento centrado) de X e Y é

CXY = Cov{X,Y } , E{(X − mX )(Y − mY )} =

RR
= (x − mX )(y − mY ) fXY (x, y)dxdy = (2.58)
RR

= E{XY } − E{X}E{Y } = RXY − mX mY

T
Corolário Cov{XY } = Cov{Y X}

T
Corolário Cov{XX} = Var{X}

T
Corolário Cov{aXY } = a · Cov{Y X}

T
Corolário Cov{∑ni=1 Xi ∑mj=1 Y j } = ∑ni=1 ∑mj=1 Cov{XiY j }

Repare-se que a covariância de duas variáveis aleatórias independentes é nula; poderemos


portanto ter a noção de que duas variáveis aleatórias estão «distantes da independência estatística»
de uma quantidade que corresponde à sua covariância.

D
Definição: Coeficiente de Correlação O coeficiente de correlação é definido como sendo

Cov{X,Y } CXY
ρX,Y , √ = (2.59)
Var X VarY σX σY

onde σX e σY são, respectivamente, os desvios padrões de X e Y .

T
Corolário o módulo do coeficiente de correlação (equação (2.59)) situa-se entre 0 e 1, |ρXY | ≤ 1,
ocorrendo a igualdade quando X = cY : |ρXY | = 1.
2.2. VARIÁVEIS ALEATÓRIAS 67

D
Definição: Independência Duas variáveis aleatórias contínuas dizem-se independentes sse fXY (x, y) =
fX (x) · fY (y). O mesmo é dizer que a função densidade de probabilidade conjunta é o produto das
funções densidade de probabilidade marginais.

D
Definição: Ortogonalidade Duas variáveis aleatórias dizem-se ortogonais se RXY = 0.

D
Definição: Incorrelação Duas variáveis aleatórias dizem-se incorrelacionadas se CXY = 0, o que
é equivalente a ter ρXY = 0 e que corresponde a ter a sua correlação igual ao produto dos respectivos
valores expectáveis, RXY = mX mY .

T
Corolário Sejam X e Y duas variáveis aleatórias estatìsticamente independentes, então também
são incorrelacionadas (a inversa não é verdadeira).

Demonstração Sendo X e Y estatisticamente independentes, então:


Z Z
fXY (x, y) = fX (x) · fY (y) ⇒ RXY = xy fXY (x, y)dxdy =
R R

Z Z Z+∞ Z+∞
= xy fX (x) fY (y)dxdy = x fX (x) y fY (y)dydx =
R R −∞ −∞
Z+∞
= x fX (x)mY dx = mX mY (2.60)
−∞
De imediato se verifica a ortogonalidade das duas variáveis aleatórias, pois basta substituir RXY =
mX mY na equação (2.58) o que resulta em CXY = 0, correspondendo à incorrelação das variáveis
aleatórias.


T
Corolário Este colorário é a conhecida Desigualdade de Schwarz

R2XY = E 2 {XY } ≤ E{X 2 }E{Y 2 } (2.61)

2.2.16 S OMA DE D UAS VARIÁVEIS A LEATÓRIAS N ORMAIS


T
T 3 : Sejam duas variáveis aleatórias X ∼ Gauss(µX , σX2 ) e Y ∼ Gauss(µY , σY2 ); então, para a
variável aleatória definida como sendo Z = X +Y , teremos Z ∼ Gauss(µX + µy , σX2 + σy2 ).


68 CAPÍTULO 2. PROCESSOS ESTOCÁSTICOS

2.2.17 T EOREMA DO L IMITE C ENTRAL

T 4 : Teorema do Limite Central Seja a variável aleatória Z obtida pela soma de N variáveis ale-
T
atórias Xi , i = 1, 2, · · · , N estatisticamente independentes e com funções densidade de probabilidade
fXi (x) arbitrárias mas identicamente distribuídas (iid7 ), ou seja,

N
Z = ∑ Xi
i=1

Então,
lim fZ (z) = Gauss(µ, σ 2 ) (2.62)
N→+∞

ou seja, no limite, a variável aleatória tem uma função densidade de probabilidade normal.

Este teorema aparece sob várias formas; vejamos uma delas com bastante divulgação.

T 5 : Teorema do Limite Central

Seja agora a variável aleatória Z dada por

1 N
Z = √ ∑ Ui (2.63)
N i=1

onde
Xi − mX
∀i = 1, · · · , N : Ui = (2.64)
σX
sendo as variáveis aleatórias Xi iid, com médias (valores expectáveis) e variâncias finitas, respecti-
vamente, mXi e σX2i . Então,
T

1 z2
lim fZ (z) = Gauss(0, 1) = √ e− 2 (2.65)
N→+∞ 2π

pois as variáveis aleatórias Ui têm médias nulas (mUi = E{Ui } = 0) e variâncias unitárias, σU2i = 1.

Na figura 2.9 ilustra-se a convergência da distribuição da variável aleatória Z para uma função
densidade de probabilidade normal, ou de Gauss, em função de N.

2.2.18 D ISTRIBUIÇÃO N ORMAL M ULTIVARIÁVEL

Sejam N variáveis aleatórias normais Xi , com i = 1, 2, · · · , N, de médias mi e variâncias σi2


e covariâncias µi j 8 . Seja Σ a matriz de covariância [N × N], Σ = [µi j ], e designe X o vector coluna
[N × 1] das variáveis aleatórias Xi e mX o vector coluna das respectivas médias, mX = [mi ].
2.2. VARIÁVEIS ALEATÓRIAS 69

histograma acumulado histograma acumulado


2500 5000

2000 4000

1500 3000

1000 2000

500 1000

0 0
−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1 −2 −1.5 −1 −0.5 0 0.5 1 1.5 2

histograma (azul) e Distribuição Normal ajustada (vermelho) histograma (azul) e Distribuição Normal ajustada (vermelho)
0.8 0.7

0.7 0.6

0.6 0.5

0.5 0.4

0.4 0.3

0.3 0.2

0.2 0.1

0.1 0
−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1 −2 −1.5 −1 −0.5 0 0.5 1 1.5 2
histograma acumulado
7000

6000

5000

4000

3000

2000

1000

0
−6 −4 −2 0 2 4 6

histograma (azul) e Distribuição Normal ajustada (vermelho)


0.35

0.3

0.25

0.2

0.15

0.1

0.05

0
−6 −4 −2 0 2 4 6

Figura 2.9: Exemplificação do Teorema do Limite Central: com N = 1 em cima esquerda; N = 2 em cima,
à direita e com N = 6 em baixo. Os gráficos superiores (e as linhas a azul nos gráficos inferiores) ilustram
o histograma da variável aleatória Z. As linhas vermelhas dos gráficos inferiores representam uma curva
normal ajustada aos valores das realizações de Z.

Então a função densidade de probabilidade conjunta das variáveis aleatórias Xi é dada por
T
1 1 T Σ−1 (X−m
fX1 ,X2 ,··· ,XN (x1 , x2 , · · · , xN ) = e− 2 (X−mX ) X)
(2.66)
(2π)N/2 |Σ|1/2

onde Σ−1 é a matriz inversa de Σ e (·)T representa a transposição.

No caso de N = 2 teremos a distribuição de Gauss bidimensional ou bivariável e, logica-


mente, " # D
m1
mX = (2.67)
m2
e " #
σ12 µ12
Σ= (2.68)
µ21 σ22
sendo os momentos centrais conjuntos

µ12 = µ21 = E{(X1 − m1 )(X2 − m2 )} (2.69)


7 do inglês independent and identically distributed; isto é com funções densidade de probabilidade iguais.
8 Claramente que se tem µii = σi2 .
70 CAPÍTULO 2. PROCESSOS ESTOCÁSTICOS

2.3 PROCESSOS ESTOCÁSTICOS

O conceito de processo estocástico decorre de uma generalização de variável aleatória. Su-


ponhamos, pois, um estudo experimental que consistia da determinação do peso de um dado Cad Al
AM9 seleccionado ao acaso no universo dos alunos da AM, que constituirá o espaço de amostras J.
Assim, a escolha do cadete corresponderia à realização de uma experiência ξi , em tudo comparável
com a do i-ésimo lançamento de um dado. Logicamente a escolha dependeria duma dada função
densidade de probabilidade que caracterizaria as várias ocorrências. Por outro lado, a atribuição
do peso ao cadete corresponde efectivamente a uma variável aleatória pois, como sabemos, uma
variável aleatória faz corresponder um certo valor real a uma dada realização de uma experiência.

Figura 2.10: Variável Aleatória M(·).

Contudo, este estudo seria muito incompleto pois é dependente do instante da realização da
experiência, uma vez que o peso de cada pessoa é variável ao longo do tempo. Por conseguinte,
seria útil «estender» a variável aleatória para que pudesse passar a incluir explicitamente a sua
dependência temporal.

Seja então uma função temporal xξi (t) = x(ξi ,t) que caracteriza para cada elemento ξi ∈ J a
sua evolução ao longo do tempo; a função x(ξi ,t) é designada por função-amostra.

D
Definição: Processo Estocástico Um Processo Estocástico X (t) é uma colecção de funções-
amostra (sinais determinísticos), cada uma resultante da realização de um dado fenómeno ou expe-
riência.

Ou seja, para um dado valor temporal tk , todos os valores assumidos pelas funções-amostra
correspondem à realização de uma variável aleatória X(tk ).

D
Definição um processo estocástico (contínuo) é uma colecção de variáveis aleatórias definidas
para todos os instantes de tempo, X (t) = {X(t), ∀t ∈ R}.

Embora a caracterização completa de um processo estocástico X (t) obrigue à descrição da


função densidade de probabilidade conjunta das variáveis aleatórias

{X(t1 ), X(t2 ), · · · , X(tn )}, ∀t1 ,t2 , · · · ,tn ∈ Rn , ∀n ∈ Z+


9 Nota para os leitores não-militares: Cad Al AM significa Cadete-Aluno da Academia Militar.
2.3. PROCESSOS ESTOCÁSTICOS 71

em muitos casos de interesse prático é suficiente a descrição de 2a ordem, ou seja, para além do
conhecimento de fX(t1 ) (x), é ainda necessário deter a função densidade de probabilidade conjunta
fX(t1 )X(t2 ) (µσ ) do par {X(t1 )X(t2 )} para todos os pares de valores t1 ,t2 ∈ R2 .

Tenha-se presente que, em geral, quer a função densidade de probabilidade fX(t) (x) quer a
função densidade de probabilidade conjunta fX(t1 )X(t2 ) (µσ ) variam, respectivamente, com t e com
{t1 ,t2 }.

2.3.1 E STATÍSTICAS DE 1 A E 2A ORDEM DE P ROCESSOS E STOCÁSTICOS

Como vimos, cada realização para um dado valor de t ∈ R de um processo estocástico X (t)
corresponde a uma variável aleatória X(t). Assim sendo, poderemos determinar os seus momentos,
bem como os momentos centrados que, com generalidade, serão função dos instantes de tempo em
que são determinados ou obtidos.

D
Valor expectável
Z
mX (t) , E{X(t)} = x · fX(t) (x)dx ∀t ∈ R (2.70)
R

D
Autocorrelação Seja agora fX(t1 )X(t2 ) (µσ ) a função densidade de probabilidade conjunta das va-
riáveis aleatórias {X(t1 )X(t2 }, ∀(t1 ,t2 ) ∈ R2 do processo X (t). Define-se função de autocorrelação
como sendo10
RX (t1 ,t2 ) , E{X(t1 )X(t2 )} =
Z Z
= µσ fX(t1 )X(t2 ) (µσ )dµdσ ∀(t1 ,t2 ) ∈ R2 (2.71)
R R

D
Autocovariância A autocovariância é o momento centrado conjunto

CX (t1 ,t2 ) , E{[X(t1 ) − mX (t1 )][X(t2 ) − mX (t2 )]} =

Z Z
= (µ − mX (t1 ))(σ − mX (t2 )) fX(t1 )X(t2 ) (µσ )dµdσ ∀(t1 ,t2 ) ∈ R2 (2.72)
R R

2.3.2 E STACIONARIDADE DE P ROCESSOS E STOCÁSTICOS

O conceito de estacionaridade tem um papel importantíssimo na caracterização de processos


estocásticos. Comecemos por defini-lo.
72 CAPÍTULO 2. PROCESSOS ESTOCÁSTICOS

D
Definição: Estacionaridade em Sentido Lato Um processo estocástico diz-se Estacionário em
Sentido Lato (WSS11 ) sse verificar as condições

 mX (t) = E{X(t)} = mX
 ∀t ∈ R
(2.73)

RX (t,t − τ) = E{X(t)X(t − τ)} = RX (τ) ∀t, τ ∈ R

e tiver variância12 finita, ou seja, σX2 = CX (0) < ∞.

Estas condições podem-se resumir a ter a média (valor expectável) constante e uma função
de autocorrelação que não depende explicitamente dos instantes de tempo t1 e t2 mas sim da sua
distância temporal τ = t1 − t2 .

Esta noção de estacionaridade é mais geral do que a estacionaridade em sentido estrito, que
se define:

Definição: Estacionaridade em Sentido Estrito um processo estocástico diz-se Estacionário em


Sentido Estrito (SSS13 ) sse verificar as condições

 fX(t) (x) = fX(t+4t) (x)
 ∀t, 4t ∈ R
(2.74)

fX(t1 )X(t2 ) (νσ ) = fX(t1 +4t)X(t2 +4t) (νσ ) ∀t1 ,t2 , 4t ∈ R

T
Corolário Todo o processo X (t) SSS é WSS.

T
Corolário A autocorrelação de um processo WSS é uma função par,

RX (τ) = E{X(t)X(t − τ)} = E{X(t − τ)X(t)} = RX (−τ) (2.75)

T
Corolário O máximo da autocorrelação é sempre positivo e ocorre para τ = 0, ou seja RX (0) ≥
|RX (τ)|.

10 Estamos implicitamente a admitir que se trata de um processo estocástico real. De contrário, ter-se-á RX (t1 ,t2 ) ,
E{X(t1 )X ∗ (t2 )} onde o símbolo ∗ representa o respectivo processo conjugado.
11 do inglês Wide Sense Stationarity
12 A variância resulta da autocovariância para média constante e autocorrelação estacionária, ou seja, C (t ,t ) =
X 1 2
E{[X(t1 ) − mX (t1 )][X(t2 ) − mX (t2 )]} = E{X(t1 )}E{X(t2 )} − mX (t1 )X(t2 ) + mX (t2 )X(t1 ) + mX (t1 )mX (t2 )} e fazendo a
média constante e igual a mX e RX (t1 ,t2 ) = RX (τ) resulta em CX (t1 ,t2 ) = RX (τ) − m2X e fazendo τ = 0 teremos finalmente
CX (0) = σX2 .
13 do inglês Strict Sense Stationarity
2.3. PROCESSOS ESTOCÁSTICOS 73

Demonstração Seja a seguinte desigualdade14

E{(X(t) ± X(t − τ))2 } ≥ 0

que, desenvolvendo, teremos,

E{X 2 (t)} + E{X 2 (t − τ)} ∓ 2E{X(t)X(t − τ)} = RX (0) + RX (0) ∓ 2RX (τ) ≥ 0

pelo que,
RX (0) ≥ |RX (τ)|

que completa a demonstração.

Ex

Exemplo Seja o processo X (t) = cos(ωt + Θ) em ( que Θ é uma variável aleatória uniformemente
1
2π |θ | < π
distribuída no intervalo ] − π, π], ou seja, fΘ (θ ) = .
0 c.c.
Determine a sua média (valor expectável) e a sua autocorrelação e mostre que, efectivamente,
se trata de um processo WSS.

Resolução Comecemos por determinar o valor expectável

1
Z π
mX (t) = E{cos(ωt + Θ)} = cos(ωt + θ ) dθ = 0 (2.76)
−π 2π

Como se verifica de imediato, equação (2.76), a média deste processo é constante no tempo,
concretamente é nula15 , pelo que mX (t) = mX . Por outro lado, a autocorrelação vem dada por

RX (t1 ,t2 ) = E{cos(ωt1 + θ ) cos(ωt2 + θ )} =

= 21 E{cos(ω(t1 + t2 ) + 2θ ) + cos(ω(t1 − t2 ))} = (2.77)

= 21 cos(ω(t1 − t2 ))

o que significa que a autocorrelação só depende da distância temporal entre os instantes de tempo
considerados, ou seja,

1 1
RX (t1 ,t2 ) = cos(ω(t1 − t2 )) = cos(ωτ) = RX (τ) (2.78)
2 2

o que, aliado ao facto de ter uma variância σX2 = 21 , ou seja, constante, prova a estacionaridade em
sentido lato.
V

14 Uma vez que toda a grandeza real ao quadrado é sempre não negativa!
15 efectivamente, não é necessário que o seja!
74 CAPÍTULO 2. PROCESSOS ESTOCÁSTICOS

2.3.3 E STIMATIVAS E E STIMADORES

Normalmente, mesmo na impossibilidade de se ter um conhecimento completo dos proces-


sos, há a necessidade de se ter uma estimativa das suas médias e/ou das suas correlações.

Recordemos que o operador valor expectável, como foi definido, faz uma média, para cada
instante de tempo, de todos os possíveis valores assumidos pelas funções-amostra nesse mesmo
instante de tempo. No caso do processo ser WSS, acresce que essa média é constante ao longo do
tempo, ou seja, ∀t : mX (t) = mX .

Por outro lado, poder-nos-á interessar obter, para uma dada função-amostra, obter a média ao
longo do tempo. Poderemos questionar se e quando estas duas médias são intermutáveis: a resposta
fica para a secção seguinte.

Seja então x(ξi ,t) uma função-amostra do processo X (t) e obtenhamos a sua média temporal
num dado intervalo de observação T ,
T
1
Z
2
mx (ξi , T ) =≺ x(ξi , T ) = x(ξi ,t)dt (2.79)
T − T2

Uma vez que para cada realização mX (ξi , T ) do processo X (t), temos uma média, então,
estas médias são uma variável aleatória mX (T ) que, como é claro, depende da (duração da) janela
temporal T de observação. Assim, podemos obter o seu valor expectável,
T
1
Z
2
E{mX (T )} = E{ X(t)dt} (2.80)
T − T2

e, dada a linearidade do operador valor expectável, podemos proceder à sua troca com o operador
integral,
Z T
1 2
E{mX (T )} = E{X(t)}dt (2.81)
T − T2
Admitindo que X (t) é estacionário em sentido lato, então teremos

E{mX (T )} = E{X(t)} = mX (2.82)

Por este facto, diz-se que mX (T ) é uma estimativa não-enviesada do valor expectável mX do pro-
cesso X (t) WSS.

Seja agora a seguinte média temporal na janela de observação T


T
1
Z
2
Rξi (τ, T ) = x(ξi ,t)x(ξi ,t − τ)dt (2.83)
T − T2

que é referida à ξi realização do processo; o seu conjunto para todas as realizações, também pode
ser encarada como uma variável aleatória RX (τ, T ), da qual se obtém o valor expectável,
T T
1 1
Z Z
2 2
E{RX (τ, T )} = E{ X(t)X(t − τ)dt} = E{X(t)X(t − τ)}dt
T − T2 T − T2
2.3. PROCESSOS ESTOCÁSTICOS 75

ou seja, sendo X (t) um processo WSS, então E{X(t)X(t − τ)} = RX (τ) e,

E{RX (τ, T )} = RX (τ) (2.84)

ou seja, a média temporal de x(ξi ,t)x(ξi ,t − τ) é um estimador da autocorrelação do processo X (t)


WSS.

2.3.4 E RGODICIDADE , M ÉDIA T EMPORAL E M ÉDIA NO C ONJUNTO

Como acabámos de ver, a média de um processo estocástico pode envolver dois domínios:
o do tempo (denominando-se média temporal) e o do espaço de amostras (originando a média no
conjunto). Esta última já foi apresentada na equação (2.70) e que se recorda agora
Z
mX (t) , E{X(t)} = x · fX(t) (x)dx ∀t ∈ R
R

Consideremos uma função amostra do processo X (t), x(ξi ,t) = xξi (t) e definamos a sua
média temporal,
1
Z D
mX (ξi ) =≺ x(ξi ,t) , lim x(ξi ,t)dt (2.85)
T →+∞ T
T

A média temporal mX (ξi ) assim definida resulta de uma dada função amostra x(ξi ,t) e, por
conseguinte, pode ser considerada, por sua vez, como uma amostra de uma variável aleatória «mé-
dia» que se define
1
Z
MX , lim X(t)dt (2.86)
T →+∞ T
T

D
Ergodicidade na Média Seja um dado processo X (t) WSS e seja mX o seu valor expectável. O
processo X (t) é ergódico na média sse

lim ≺ X(t) = mX
T →+∞

lim Var{mX (T )} = 0 (2.87)


T →+∞

D
Ergodicidade na Correlação Seja um dado processo WSS X (t) e seja RX (τ) a sua autocorrela-
ção. O processo é ergódico na correlação sse
1
Z
lim X(t)X(t − τ)dτ = RX (τ)
T →+∞ T
T

lim Var{RX (τ, T )} = 0 (2.88)


T →+∞

Recorde-se que a definição de ergodicidade assume que os processos sejam estacionários em


sentido lato; ou seja, se um processo é ergódigo, então é forçosamente WSS16 .
16 Atenção que a inversa não é verdadeira: um processo WSS pode não ser ergódigo.
76 CAPÍTULO 2. PROCESSOS ESTOCÁSTICOS

2.3.5 P OTÊNCIA E E NERGIA

Recordemos a definição de um sinal de energia x(t) no caso de ser determinístico


Z
|x(t)|2 dt < ∞ (2.89)
R

Caso não se verifique a condição expressa na equação (2.89), o sinal diz-se sinal de potência.
Assim, facilmente se vê que os sinais periódicos são sinais de potência. A pertença à classe dos sinais
de potência não é exclusiva dos sinais periódicos: por exemplo, o sinal de Heaviside é claramente
um sinal de potência.

No caso dos processos estocásticos, comecemos por particularizar para uma dada função
amostra x(ξi ,t) e definamos a sua energia
D
Z Z
Ei , |x(ξi ,t)|2 dt = x2 (ξi ,t)dt (2.90)
R R

sempre que este integral seja diferente de infinito. Podemos também definir potência desta função
amostra como sendo
D 1
Z
Pi , lim x2 (ξi ,t)dt (2.91)
T →∞ T
T

Quer a energia quer a potência são ambas dependentes da função amostra que as determina.
Assim sendo, podemos encará-las como sendo, por sua vez, realizações das variáveis aleatórias EX
e PX que são, naturalmente, definidas por
D

EX = X 2 (t)dt
R



 R
(2.92)

1R 2
 PX = limT →∞ X (t)dt


T
T

pelo que as Energia Média e Potência Média são os momentos de 1a ordem das variáveis aleatórias
EX e PX , definidas na equação (2.92)
D

EX = E{EX } = E{ X 2 (t)dt}
R



 R
(2.93)

1R 2
 PX = E{PX } = E{limT →∞ X (t)dt}


T
T

Admitindo que se trata, respectivamente, de processos de energia e de potência, podemos


trocar o operador valor esperado pelo integral o que, tratando-se de processos estacionários, resulta
em:
T Z Z Z
EX = E{EX } = E{ X 2 (t)dt} = E{X 2 (t)}dt} = RX (0)dt (2.94)
R R R

A equação a que se chegou, equação (2.94), levanta um sério problema pois, por hipótese,
o processo é um processo de energia mas o integral é infinito porque, como se sabe, RX (0) é uma
2.3. PROCESSOS ESTOCÁSTICOS 77

grandeza positiva. Ora, este facto implica que o integral é infinito, o que contraria a hipótese inicial.
Por conseguinte, um processo estacionário só é um processo de energia se for nulo em toda a parte17
e, consequentemente, sem qualquer interesse prático.

Em conclusão, um processo estocástico estacionário pertence, obrigatoriamente, à classe dos


sinais de potência, com uma potência média
T

PX = RX (0) (2.95)

2.3.6 P ROCESSOS I NDEPENDENTES , I NCORRELACIONADOS , O RTOGONAIS E C ON -


JUNTAMENTE E STACIONÁRIOS

Consideremos, no que se segue, que X (t) e Y (t) são dois processos estocásticos; assim,
para todos os pares de instantes de tempo (t1 ,t2 ) ∈ R2 , teremos as seguintes definições.

D
Definição: Processos Estatisticamente Independentes os processos estocásticos dizem-se es-
tatisticamente independentes quando as variáveis aleatórias X(t1 ) e Y (t2 ) forem estatisticamente
independentes.

D
Definição: Processos Incorrelacionados os processos estocásticos dizem-se incorrelacionados
quando as variáveis aleatórias X(t1 ) e Y (t2 ) forem incorrelacionadas.

D
Definição: Processos Ortogonais os processos estocásticos dizem-se ortogonais quando as va-
riáveis aleatórias X(t1 ) e Y (t2 ) forem ortogonais.

D
Definição: Correlação Cruzada e Estacionaridade Conjunta Define-se correlação cruzada como
sendo
RXY (t1 ,t2 ) , E{X(t1 )X(t2 )} = RY X (t2 ,t1 ) (2.96)

Se a correlação cruzada for dependente da diferença dos instantes de tempo, ou seja se


RXY (t1 ,t2 ) = RXY (τ), os processos dizem-se conjuntamente estacionários.

2.3.7 P ROCESSOS E STOCÁSTICOS E S ISTEMAS L INEARES E I NVARIANTES NO T EMPO


(SLIT)

As realizações dos processos estocásticos são, como vimos, funções (mais correctamente,
funções amostra); o mesmo é dizer: são sinais. Assim, da mesma forma que caracterizámos o sinal
17 Designa-se um processo nulo no seu suporte por processo trivial.
78 CAPÍTULO 2. PROCESSOS ESTOCÁSTICOS

(determinístico) de saída y(t) através da resposta impulsiva h(t) do sistema para uma dada entrada
x(t) que lhe é aplicada,
Z Z
y(t) = h(t) ∗ x(t) = x(t) ∗ h(t) = h(τ)x(t − τ)dτ = x(τ)h(t − τ)dτ (2.97)
R R

também, no caso das funções amostra, teremos relações semelhantes à expressa na equação (2.97):

y(ξi ,t) = h(t) ∗ x(ξi ,t) = x(ξi ,t) ∗ h(t) =


(2.98)
R R
= h(τ)x(ξi ,t − τ)dτ = x(ξi , τ)h(t − τ)dτ
R R

Então, a função amostra y(ξi ,t), no fundo, a saída do SLIT quando solicitado por uma rea-
lização do processo estocástico X (t), é também uma realização do processo estocástico de saída
Y (t), pelo que, com propriedade, teremos
T

Y (t) = h(t) ∗ X (t) (2.99)

Repare-se que a equação (2.99) traduz, para os processos estocásticos, uma relação entrada-
saída em tudo semelhante à relação entrada-saída de um SLIT para sinais determinísticos, figura
2.11.

x(t) y(t)
−→ h(t) −→
X (t) Y (t)

Figura 2.11: Entradas e saídas num SLIT de resposta impulsiva h(t).

Valor Expectável Contudo, no desconhecimento de uma expressão analítica fechada para X (t),
necessitamos de outro formalismo que, sem determinação explícita do processo de saída Y (t), nos
permita obter uma caracterização sua que seja adequada.

Nestes considerandos, determinemos o momento de 1a ordem (valor expectável) do processo


de saída, mY (t) = E{Y (t)} = E{h(t)∗X(t)} e que, graças à linearidade do operador valor expectável,
resulta em E{Y (t)} = E{h(t) ∗ X(t)} = h(t) ∗ E{X(t)} = h(t) ∗ mX (t) e, desenvolvendo o integral
de convolução e, supondo que o processo de entrada é WSS, teremos
T
R
mY (t) = h(t) ∗ mX (t) = h(t) ∗ mX = mX h(τ)dτ =
R
= mX h(τ) e− j2π f τ | f =0 dτ = H(0) · mX
R (2.100)
R | {z }
=1

em que H(0) que é o denominado ganho estático do SLIT. Este resultado tem uma contrapartida
directa nos sinais determinísticos, em que o valor contínuo da saída se obtém pelo produto do ganho
estático com o valor contínuo da entrada. Se admitirmos que os processos de entrada e de saída são
ergódicos na média, a equação (2.100) confirma esta última afirmação.
2.3. PROCESSOS ESTOCÁSTICOS 79

Autocorrelação do Processo de Saída Vejamos agora a autocorrelação do processo de saída

RY (t1 ,t2 ) = E{Y (t1 )Y (t2 )} = E{h(t1 ) ∗ X(t1 ) · h(t2 ) ∗ X(t2 )} =

R R
= E{ X(µ)h(t1 − µ)dµ · X(ν)h(t2 − ν)dν} =
R R
(2.101)
RR
= E{ X(µ)h(t1 − µ)X(ν)h(t2 − ν)dµdν} =
RR

RR
= E{X(µ)h(t1 − µ)X(ν)h(t2 − ν)}dµdν
RR

Supondo que os processos de entrada e de saída são WSS, esta equação assume o seguinte
desenvolvimento fazendo t1 = t e t2 = t − τ:

RR
RY (t1 ,t2 ) = E{X(µ)X(ν)}h(t1 − µ)h(t2 − ν)dµdν =
RR

RR
= RX (µ − ν)h(t − µ)h(t − τ − ν)dµdν =
RR η=µ−ν

R R
= h(t − τ − ν)[ RX (η)h(t − ν − η)dη]dν =
R R
(2.102)
R
= h(t − τ − ν)[RX (t) ∗ h(t − ν)]dν =
R

R
= RX (τ) ∗ h(t − τ − ν)h(t − ν)dν = RX (τ) ∗ h(τ) ∗ h(−τ) =
R

= RY (τ)

Ou seja, resumindo, RY (τ) = RX (τ) ∗ h(τ) ∗ h(−τ), o que confirma a hipótese do processo de saída
Y (t) ser WSS.

Correlações Cruzadas Saída - Entrada Podemos de igual forma obter as correlações cruzadas
saída - entrada como se segue

RY X (t,t − τ) = E{Y (t)X(t − τ)} = E{h(t) ∗ X(t) · X(t − τ)} =


(2.103)
= h(t) ∗ E{X(t) · X(t − τ)} = h(t) ∗ RX (τ)

ou seja ainda,

RY X (t,t − τ) = RY X (τ) = h(τ) ∗ RX (τ) (2.104)


80 CAPÍTULO 2. PROCESSOS ESTOCÁSTICOS

Correlações Cruzadas Entrada - Saída E, no caso da correlação cruzada entrada-saída,

RXY (t,t − τ) = E{X(t)Y (t − τ)} = E{X(t) · h(t) ∗ X(t − τ)} =

R R
= E{X(t) h(ε)X(t − τ − ε)dε} = E{ h(ε)X(t)X(t − τ − ε)dε} =
R R
(2.105)
R R
= h(ε)E{X(t)X(t − τ − ε)}dε = h(ε)RX (τ + ε)dε =
R R

= h(−τ) ∗ RX (τ)

ou seja
RXY (t,t − τ) = RXY (τ) = h(−τ) ∗ RX (τ) (2.106)

Obtivemos, desta forma, um conjunto de equações que caracterizam o comportamento de um


SLIT de resposta impulsiva h(t) quando sujeito, na sua entrada a um processo estocástico X (t) esta-
cionário em sentido lato, do qual se supõe conhecer o seu valor expectável mX e a sua autocorrelação
RX (τ) e que, pela sua importância, repetimos de seguida:
T


 mY = H(0) · mX






RY X (τ) = h(τ) ∗ RX (τ)




(2.107)

RXY (τ) = h(−τ) ∗ RX (τ)










RY (τ) = RX (τ) ∗ h(τ) ∗ h(−τ)

onde H(0) = TF[h(t)] f =0 .

2.3.8 C ARACTERIZAÇÃO DO C OMPORTAMENTO DO SLIT NO D OMÍNIO DA F REQUÊN -


CIA

Recordemos a definição de potência média (equação (2.93)) de uma variável aleatória de um


dado processo estocástico X̂(t) ,
1
Z
PX = E{PX } = E{ lim X̂ 2 (t)dt} (2.108)
T →∞ T
T

Consideremos, contudo, que a variável aleatória do processo em causa tem suporte num inter-
valo de tempo T finito. Assim sendo, trata-se seguramente de um processo de energia pois as suas
funções amostras serão sinais de energia18 e, por conseguinte, admitem transformada de Fourier,
Z∞
X̂ξi ( f ) , TF[x̂(ξi ,t)] = x̂(ξi ,t)e− j2π f t dt (2.109)
−∞
18 pois são de duração limitada e amplitude < ∞.
2.3. PROCESSOS ESTOCÁSTICOS 81

Desta forma as funções amostra X̂ξi ( f ) resultam da i-ésima realização (ξi ) de um processo Xˆ ( f )
que, por sua vez, sendo um processo de energia, podemos considerar existente a sua transformada
de Fourier, X̂( f ) = X̂(t)e− j2π f t dt.
R
R

Se recordarmos o teorema de Parseval ou de Rayleigh (equação (2.110)),


T

T 6 : Teorema de Parseval ou de Rayleigh


Z Z Z
2 2
∀t, f ∈ R : |z(t)| dt = z (t)dt = |Z( f )|2 d f (2.110)
R R R

onde Z( f ) = TF[z(t)].

então obteremos X̂ 2 (t)dt = X̂ 2 ( f )d f . Substituindo este resultado na equação (2.108) e utilizando


R R
T R
a linearidade do operador valor expectável, teremos
T
Z+∞
1 1
Z Z
2
PX = E{ lim X̂ (t)dt} = lim E{|X( f )|2 }d f = GX ( f )d f (2.111)
T →∞ T T →∞ T
T R −∞

onde se definiu GX ( f ) como sendo


T
1
GX ( f ) , lim E{|X( f )|2 } (2.112)
T →∞ T

A função GX ( f ) é designada por (função) densidade espectral de potência, pois a sua integração no
seu domínio da frequência permite-nos (através da equação (2.111)) obter a potência do processo.

T
Corolário Z
E{X 2 (t)} = RX (0) = GX ( f )d f (2.113)
R

T
Corolário Z
GX (0) = RX (t)dt (2.114)
R

T
Corolário se o processo X(t) é estacionário em sentido lato (WSS),

∀f GX ( f ) ≥ 0 (2.115)

T
Corolário a função densidade espectral de potência é uma função par,

GX ( f ) = GX (− f ) (2.116)
82 CAPÍTULO 2. PROCESSOS ESTOCÁSTICOS

T
Corolário a função densidade espectral de potência tem as propriedades de uma função densidade
de probabilidade (ser não negativa e o seu integral ser unitário). Seja
GX ( f )
pX ( f ) , R ≥0
R GX ( f )d f

pelo que Z
pX ( f )d f = 1
R

É possível mostrar que, a partir da equação (2.111), se obtém o seguinte facto:


T
T 7 : Teorema de Einstein-Wiener-Khintchine

− j2π f τ dτ
R
 GX ( f ) = TF[RX (τ)] = RX (τ)e


 R
(2.117)

 RX (τ) = TF−1 [GX ( f )] = GX ( f )e j2π f τ d f
 R

R

Onde, como se verifica, as funções densidade espectral de potência e de autocorrelação formam um


par transformada de Fourier.

A partir deste importante resultado e por aplicação da transformada de Fourier às equações


de entrada-saída (equação (2.107)), teremos:
T


 GY X ( f ) = H( f ) · GX ( f )





GXY ( f ) = H ∗ ( f ) · GX ( f ) (2.118)






GY ( f )] = |H( f )|2 GX ( f )

2.3.9 S OMA DE P ROCESSOS E STOCÁSTICOS

Sejam X (t) e Y (t) dois processos estocásticos caracterizados pelas suas médias (valores
espectáveis) mX (t) e mY (t) e funções de autocorrelação RX (t1 ,t2 ) e RY (t1 ,t2 ), respectivamente. Seja
agora o processo Z (t) definido como a soma dos processos anteriores, Z (t) = X (t) + Y (t). Pela
linearidade do operador valor expectável, de imediato se conclui que:
T

mZ (t) = mX (t) + mY (t) (2.119)

e, supondo que ambos são estacionários na média,


T

mZ = mX + mY (2.120)

Determinemos agora a autocorrelação deste processo:


T
2.3. PROCESSOS ESTOCÁSTICOS 83

RZ (t1 ,t2 ) = E{Z(t1 )Z(t2 )} = E{[X(t1 ) +Y (t1 )][X(t2 ) +Y (t2 ]} =


(2.121)
= E{[X(t1 )X(t2 )]} + E{[X(t1 )Y (t2 )]} + E{[X(t2 )Y (t1 )]} + E{[Y (t1 )Y (t2 )]}

Se admitirmos que os processos X (t) e Y (t) são estacionários na correlação e que ainda são
conjuntamente estacionários, teremos
T

∀t1 ,t2 ∈ R : t1 − t2 = τ → E{[X(t1 )X(t2 )]} = RX (τ), E{[X(t1 )Y (t2 )]} =

= RXY (τ), E{[X(t2 )Y (t1 )]} = RY X (τ), E{[Y (t1 )Y (t2 )]} = RY (τ)

o que leva a equação (2.121) a resultar em

RZ (τ) = RX (τ) + RXY (τ) + RY X (τ) + RY (τ) (2.122)

Desta equação se conclui que a potência da soma de dois processos19 é dada por:
T

PZ = PX + RXY (0) + RY X (0) + PY (2.123)

e que, no caso de se tratar de dois processos ortogonais, isto é, as suas correlações cruzadas serem
nulas, RXY (0) = RY X (0) = 0, teremos
T
PZ = PX + PY (2.124)

E, nestas condições (estacionaridade e estacionaridade conjunta e ortogonalidade),


T

GZ ( f ) = GX ( f ) + GY ( f ) (2.125)

2.3.10 P ROCESSOS G AUSSIANOS

Na teoria da informação e das telecomunicações, os processos gaussianos assumem, por


várias razões, uma importância acrescida.

Um processo WSS gaussiano X (t) ∼ Gauss(mX , σX2 ) aplicado na entrada de um SLIT estável
vai produzir na sua saída um processo Y (t) também WSS gaussiano, Y (t) ∼ Gauss(mY , σY2 ), figura
2.12.

X (t) ∼ Gauss(mX , σX2 ) −→ SLIT −→ Y (t) ∼ Gauss(mY , σY2 )

Figura 2.12: SLIT solicitado por processo X (t) ∼ Gauss(mX , σX2 ).

Este resultado será frequentemente utilizado nos capítulos que se seguem.


19 Na condição de serem estacionários e conjuntamente estacionários na correlação.
84 CAPÍTULO 2. PROCESSOS ESTOCÁSTICOS

2.4 TIPOS DE RUÍDO

Vimos anteriormente um tipo de ruído que comummente se considera no estudo de sistemas


de telecomunicações, o ruído branco gaussiano. Outros tipos de ruído existem, entre os quais distin-
guiremos: ruído impulsivo (shot noise), ruído térmico ou ruído de Johnson-Nyquist, ruído rosa ou
ruído 1/ f , etc.

2.4.1 RUÍDO I MPULSIVO OU Q UÂNTICO


D
Este ruído pode ser gerado pelo movimento irregular das cargas eléctricas (electrões) nos
condutores eléctricos; seja n = I·tq o número médio de cargas de valor q que no instante t se deslo-
cam num dado condutor percorrido pela corrente I (macroscópica) que se supõe constante. A título
exemplificativo, a equação anterior significa que uma corrente de 1 A é produzida pelo desloca-
mento de 6, 24 · 1018 electrões num segundo. Acontece que este movimento de cargas elementares,
a nível individual, não é uniforme, pelo que poderemos considerar que há flutuações imprevisíveis
de corrente em torno do valor I. Tratando-se do resultado de cargas discretas, o ruído impulsivo é
bem descrito pela distribuição de Poisson.

Seja então X(t) uma função amostra do processo estocástico X (t) que modela o ruído im-
pulsivo:
+∞
X(t) = ∑ h(t − τk ) (2.126)
k=−∞

onde h(t − τk ) representa um impulso de corrente gerado no instante t − τk . O número de cargas


eléctricas «geradas» no intervalo [0,t] constitui um processo estocástico discreto que é incrementado
de uma unidade sempre que uma carga é gerada. Seja ν o número de cargas eléctricas geradas no
intervalo [t,t + τk ] e o seu valor expectável vem

E{ν} = λ · τ (2.127)

onde λ é o ritmo do processo. O número total de cargas geradas no intervalo em causa vem então

ν = N(t + τk ) − N(t) (2.128)

e que segue uma distribuição de Poison cujo valor médio é dado pela equação (2.130).

Especificamente, a probabilidade de se gerarem exactamente k cargas no intervalo [t,t + τk ]


vem então:
(λ · τ)k
Pr(ν = k) = (2.129)
k!
Dadas as dificuldades na caracterização do processo da equação (2.126), apresentaremos ape-
nas os dois momentos da variável aleatória X, o seu valor médio
Z
µX = λ h(t)dt (2.130)
R

e a autocovariância dada pelo


2.4. TIPOS DE RUÍDO 85

T 8 : Teorema de Campbell Z T
CX (τ) = λ h(t)h(t + τ)dt (2.131)
R

onde h(t) é a forma de onda do impulso de corrente.

Se, a título de exemplo, supusermos que esta forma de onda é rectangular, ou seja, se h(t) =
d
A (t/T ), teremos que as equações (2.128) e (2.131) resultam, respectivamente, em
Z Z
µX = λ h(t)dt = λ Adt = λ AT (2.132)
R T
e
t l t +τ
Z Z l
2
CX (τ) = λ h(t)h(t + τ)dt = λ A ( ) ( )dt =
T T
R R
l τ
= λ A2 (T − |τ|)
( ) (2.133)
2T
Na figura 2.13 ilustra-se a autocovariância da equação (2.133) para λ = 3, A = 2 e T = 1, 5.
20

18

16

14

12

10

0
−3 −2 −1 0 1 2 3

Figura 2.13: Autocovariância do ruído impulsivo sendo λ = 3, A = 2 e T = 1, 5.

2.4.2 RUÍDO T ÉRMICO OU DE J OHNSON -N YQUIST


D
O ruído térmico é gerado por flutuações no equilíbrio nas cargas mesmo sem haver a apli-
cação de diferenças de potencial aos dispositivos eléctricos ou electrónicos. Resulta, portanto, do
movimento aleatório dos portadores de carga eléctrica quando sujeitos a uma dada temperatura. Foi
inicialmente medido por Johnson em 1928 e descrito por Nyquist. Relativamente ao ruído impul-
sivo anteriormente descrito, que só existe quando há uma corrente eléctrica, o ruído térmico existe
mesmo sem haver fluxo de cargas (corrente eléctrica).

A potência do ruído térmico vem dada por

PN = 4kB T ∆ f [W] (2.134)


86 CAPÍTULO 2. PROCESSOS ESTOCÁSTICOS

onde kB é a constante de Boltzmann, kB = 1, 3806488 · 10−23 [J/K], T é a temperatura em o K e


∆ f a largura de banda.

A densidade espectral de potência 4kB T [W/Hz] é uniforme numa gama alargada de frequên-
cias (estendendo-se até aos 300 GHz) e, por esse facto, este ruído é designado por ruído branco.
Expressando a equação (2.134) em dBm20 e a uma temperatura de 27oC (300 K), teremos

PN = −167, 8 + 10 log10 ∆ f [dBm] (2.135)

Desta equação se verifica que a potência do ruído térmico medida numa largura de banda de 1 MHz
seria de -107,8 dBm ou 1, 66 · 10−14 W. Do ponto de vista eléctrico, poderemos considerar que o
ruído térmico gerado aos terminais de uma dada resistência R sujeita a uma certa temperatura T é
modelado por um gerador de tensão ideal vTN (t) em série com uma resistência ideal21 de valor R,
figura 2.14.

Figura 2.14: Circuito equivalente gerador ruído térmico.

Teremos então que o valor quadrático médio da tensão vTN (t) vem

E{v2TN (t)} = 4kB T R∆ f (2.136)

Sabemos da teoria dos circuitos que a máxima transferência de potência do gerador de ruído
para uma carga ocorre quando esta se encontra adaptada à resistência do gerador. Assim, e como a
tensão aos terminais da carga adaptada se reduz a metade da tensão do gerador, a potência de ruído
transitada para a carga é 1/4 da potência expressa na equação (2.134). Resumindo, a tensão do
gerador de ruído (circuito em vazio) e a potência máxima entregue a uma resistência de valor R vêm
dadas por

vTN = 4kB T R∆ f [V]
(2.137)
PN = kB T ∆ f [W]

2.4.3 RUÍDO B RANCO G AUSSIANO


D
Quando um dado processo estocástico é caracterizado por ter um espectro de potência cons-
tante, isto é, ∀ f ∈ R : GX ( f ) = k, diz-se que é um processo branco22 . Nas telecomunicações, o ruído
20 Recorda-se que 0dBm representa 1mW; assim, por exemplo, +6dBm ↔ 4mW.
21 Idealno sentido de que mesmo a uma temperatura diferente dos 0 K não é geradora de ruído.
22 Por analogia com a luz branca que resulta de todas as componentes espectrais.
2.5. PROBLEMAS RESOLVIDOS 87

Tabela 2.2: dos tipos de ruído colorido

α GN ( f ) ./ f −α Designação
−2 GN ( f ) ./ f2 violeta
−1 GN ( f ) ./ f azul
0 GN ( f ) = η2 branco
1 GN ( f ) ./ 1f rosa
1
2 GN ( f ) ./ f2
castanho

proveniente da agitação (movimento browniano) dos átomos em condutores aquecidos tem um es-
pectro de potência relativamente constante numa banda extraordinariamente extensa de frequências,
pelo que é razoavelmente modelizado por um processo branco. Por outro lado, as suas amplitudes
ao longo do tempo resultam, graças ao teorema do valor central, numa função densidade de pro-
babilidade normal ou de Gauss. Assim, caracterizaremos o ruído "térmico"através de um processo
N (t) branco e Gaussiano.

Recordando que uma densidade espectral uniforme corresponde a uma autocorrelação que
apresenta um impulso de Dirac, caracterizaremos o ruído branco gaussiano através das equações
η
∀f ∈ R : GN ( f ) = 2
(2.138)
η
∀τ ∈ R : RN (τ) = 2 δ (τ)

Normalmente, considera-se o ruído branco caracterizado por uma colecção de variáveis alea-
tórias de média nula e com uma dada variância.

2.4.4 RUÍDO C OLORIDO


D
A filtragem (no domínio da frequência) leva a outras formas de ruído: azul (componentes
passa-alto, linearmente crescentes numa escala logarítmica, declive de +3dB/oitava ou de +10dB/década),
rosa (componentes passa-baixo, linearmente decrescentes numa escala logarítmica, com um declive
de -3dB/oitava ou de -10dB/década), castanho (integração no tempo do ruído branco, linearmente
decrescente numa escala logarítmica, declive de -6dB/oitava ou de -20dB/década), etc.

Nesta classe de sinais de ruído colorido estão os ruídos cujas densidades espectrais de potên-
cia sejam proporcionais a f1α e são denominados em função de α, conforme se indica na tabela 2.2,
onde ./ significa proporcional a.

2.5 PROBLEMAS RESOLVIDOS

P. 1: Seja a variável aleatória X(x, y) = x + y que associa ao lançamento de dois dados a soma das
suas faces. Determine o valor expectável e a variância de X.
88 CAPÍTULO 2. PROCESSOS ESTOCÁSTICOS

Resolução Vejamos que, havendo em cada dado 6 faces, haverá 36 possibilidades de re-
sultados, se bem que haja somas repetidas; por exemplo, a soma X = 6 pode resultar das
seguintes experiências ou lançamentos: (1, 5), (2, 4),(3, 3), (4, 2) e (5, 1). Assim, podemos
construir uma tabela, já condensada das repetições, com os valores da variável aleatória bem
como das probabilidades correspondentes, tabela 2.3.

Tabela 2.3: (condensada) dos domínio, contradomínio e probabilidades da variável aleatória X(·)

i 1 2 3 4 5 6 7 8 9 10 11
X(x, y) = ai 2 3 4 5 6 7 8 9 10 11 12
No de ocorrências 1 2 3 4 5 6 5 4 3 2 1
1 2 3 4 5 6 5 4 3 2 1
Pr(X(x, y) = ai ) 36 36 36 36 36 36 36 36 36 36 36

Podemos agora obter o valor expectável desta variável aleatória, conforme a equação (2.9), e
que neste exemplo resulta em
11
1 2 3 4 5
E{X} = ∑ ai · Pr(X = ai ) = 2 · +3· +4· +5· +6· +
i=1 36 36 36 36 36
6 5 4 3 2 1
+7· + 8 · + 9 · + 10 · + 11 · + 12 · =7 (2.139)
36 36 36 36 36 36
Já o cálculo da variância desta variável aleatória, passa por recordar a equação (2.10): σX2 =
E{X 2 } − E 2 {X}. Mas, para facilitar a sua determinação, atente-se na tabela 2.4:

Tabela 2.4: (condensada) dos domínio, contradomínio e probabilidades de X 2

i 1 2 3 4 5 6 7 8 9 10 11
X 2 = ai 4 9 16 25 36 49 64 81 100 121 144
No de ocorrências 1 2 3 4 5 6 5 4 3 2 1
1 2 3 4 5 6 5 4 3 2 1
Pr(X 2 (x, y) = ai ) 36 36 36 36 36 36 36 36 36 36 36

Assim sendo, é imediato ver que


11
1 2 3 4 5
E{X 2 } = ∑ a2i · Pr(X 2 = a2i ) = 4 · + 9 · + 16 · + 25 · + 36 · +
i=1 36 36 36 36 36
6 5 4 3 2 1
+ 49 · + 64 · + 81 · + 100 · + 121 · + 144 · = 54, 3(3) (2.140)
36 36 36 36 36 36
pelo que, finalmente
σX2 = E{X 2 } − E 2 {X} = 54, 3(3) − 72 = 5, 83(3) (2.141)


" #
1
]T
P. 2: Para o vector aleatório X = [X1 , X2 caracterizado pelas estatísticas mX = , RX =
−1
" #
5 −1
, diga, justificando se X1 e X2 são (ou não) estatisticamente independentes.
−1 2
2.5. PROBLEMAS RESOLVIDOS 89

Resolução A independência estatística de duas variáveis aleatórias consiste, como se sabe,


em ter-se fXY (x, y) = fX (x) · fY (y). Neste caso, estaremos a tratar de duas componentes da
mesma variável aleatória que é bi-dimensional e, por conseguinte, encaremos cada uma das
componentes como sendo uma variável aleatória; logo a independência estatística entre X1
e X2 corresponde a ter-se fX1 X2 (x1 , x2 ) = fX1 (x1 ) fX2 (x2 ). Como consequência deste facto,
teremos que a correlação entre as duas componentes do vector aleatório X virá ∀i, j = {1, 2}
" #
σX21 X1 σX21 X2
CXX = [E{(Xi − mXi )(X j − mX j )}] = =
σX22 X1 σX22 X2

 
E{(X1 − mX1 )2 } E{(X1 − mX1 )(X2 − mX2 )}
= (2.142)
 

E{(X2 − mX2 )(X1 − mX1 )} E{(X2 − mX2 )2 }

Vejamos como se obtêm cada uma das componentes da diagonal da matriz de covariância:

E{(Xi − mXi )2 } = E{Xi2 − 2mXi Xi + m2Xi } =


= E{Xi2 } − 2mXi E{Xi } + m2Xi =
= E{Xi2 } − 2m2Xi + m2Xi = E{Xi2 } − m2Xi

i=1→ E{(X1 − mX1 )2 } = E{X12 } − m2X1 = 5 − 1 = 4


i=2→ E{(X2 − mX2 )2 } = E{X22 } − m2X2 = 2 − 1 = 1

e dos restantes elementos da matriz

E{(X1 − mX1 )(X2 − mX2 )} = E{X1 X2 + mX1 mX2 − mX1 X2 − mX2 X1 } =


= E{X1 X2 } + mX1 mX2 − mX1 E{X2 } − mX2 E{X1 } =
= E{X1 X2 } + mX1 mX2 − mX1 mX2 − mX2 mX1 =
= E{X1 X2 } − mX1 mX2 = E{X1 }E{X2 } − mX1 mX2 = 0
sse indep.

Ora, completando a matriz da covariância com os resultados anteriores, teremos


" #
4 0
CXX =
0 1

Se atentarmos em RX = E{[x1 x2 ]T · [x1 x2 ]} vemos que, efectivamente, E{X1 X2 } = −1 ou


seja que os elementos fora da diagonal principal de CXX são por isso nulos, o que confirma a
independência estatística.

P. 3: Seja a variável aleatória X normalmente distribuída de média unitária e variância 0, 5, ou seja,


d
X ∼ N(1, 1/2). Considerando a transformação g(a) = da ln(pX (a)) em que pX é a função
densidade de probabilidade de X, determine E{Y }, sendo Y = g(X).
90 CAPÍTULO 2. PROCESSOS ESTOCÁSTICOS

Resolução Comecemos por escrever pX , a função densidade de probabilidade da variável


aleatória X, (
(a−mX )2
1 − 2 mX = 1
pX (a) = q e 2σX ∴
2πσX2 σX2 = 0, 5

e obtenhamos g(a)
(a−mX )2
d d −
q
2 2
g(a) = ln(pX (a)) = ln( 2πσX e 2σX ) =
da da
d d (a − mX )2 2(a − mX )
q
= ln( 2πσX2 ) + (− 2
) = 0− =
da da 2σX 2σX2
= −2a + 2

Finalmente,
Z
E{Y } = E{g(X)} = E{−2X + 2} = −2 xpX (x)dx = −2mX + 2 = 0
R

P. 4: Transmitem-se dados binários através de sequências de pacotes de 2 byte utilizando um canal


ruidoso. Sabendo que a probabilidade de receber um bit errado é de 0,001 e que a ocorrência
de erros em vários bits da sequência é independente das suas posições em qualquer um dos
pacotes, determine:

(a) o número médio de erros por cada sequência de 16 bits recebida;

(b) a probabilidade de ocorrerem 2 ou mais erros numa sequência.

Resolução

(a) Seja X a variável aleatória que modela o número de erros nos pacotes de 16 bit e, dado
que a probabilidade de ocorrência de um erro num qualquer bit da sequência é indepen-
dente da sua posição no pacote e independente da ocorrência de outro(s) bit errado(s), X
é bem modelado por uma distribuição binomial, X ∼ Bin. Logo, o valor expectável do
número de erros E{X} é

E{X} = n · p = 16 · 0, 001 = 0, 016

(b) Uma vez que Pr(X ≥ 2) = 1 − Pr(X ≤ 3) e usando a equação (2.18),


3 
16
Pr(X ≥ 2) = 1 − Pr(X ≤ 3) = ∑ (1 − 0, 001)16−k · 0, 001k ≈ 1, 8 · 10−9
k=0 k


2.5. PROBLEMAS RESOLVIDOS 91

P. 5: Considere o processo estocástico X(t) = A cos(ωt) + B sen(ωt) em que A e B são variáveis


aleatórias arbitrárias e ω é uma constante.

(a) Estabeleça as condições de estacionaridade em sentido lato do processo X(t);

(b) Mostre que, nestas condições, este processo é ergódico na média e na variância.

Resolução

(a) Relembremos que a estacionaridade em sentido lato implica que, quer a média (valor
esperado), quer a autocorrelação, sejam independentes do instante da realização do pro-
cesso e que, no caso da autocorrelação, a dependência seja unicamente da distância tem-
poral considerada: E{X(t)} = mX (t) = mX e E{X(t1 )X(t1 + τ} = RX (τ). Comecemos
pela determinação do valor esperado:

E{X(t)} = E{A cos(ωt) + B sen(ωt)} = cos(ωt)E{A} + sen(ωt)E{B}

e que, como se verifica, para eliminar a sua variação temporal há que forçar os valores
esperados das variáveis aleatórias A e B a serem nulos, E{A} = E{B} = 0. Para a
autocorrelação, teremos

E{X(t)X(t + τ)} = RX (t,t + τ) =

= E{[A cos(ωt) + B sen(ωt)][A cos(ω(t + τ)) + B sen(ω(t + τ))] =

= E{[A2 cos(ωt) cos(ω(t + τ))} + E{B2 sen(ωt) sen(ω(t + τ))}+

+E{[AB cos(ωt) sen(ω(t + τ))} + E{AB sen(ωt) cos(ω(t + τ))} =

= 12 [cos(2ωt + ωτ) + cos(ωτ)]E{A2 }+

+ 12 [cos(ωτ) − cos(2ωt + ωτ)]E{B2 }+

+ sen(2ωt + ωτ)E{AB}

Veja-se que, se tivermos

E{A2 } = E{B2 } = σ 2 ⇒

RX (t,t + τ) = σ 2 cos(ωτ) + E{AB} sen(2ωt + ωτ)

e, para se anular a dependência da autocorrelação com t, é necessário ter

E{AB} = 0 ⇒

RX (t,t + τ) = σ 2 cos(ωτ) = RX (τ)


92 CAPÍTULO 2. PROCESSOS ESTOCÁSTICOS

(b) Comecemos pela ergodicidade na média. Assim,

MX = limT →+∞ T1 X(t)dt =


R
T

= limT →+∞ T1 [A cos(ωt) + B sen(ωt)]dt = 0 = mX


R
T

Ou seja, confirma-se que X(t) é ergódico na média.

Quanto à variância, temos,

≺ X 2 (t) = limT →+∞ T1 X 2 (t)dt →


R
T

= E{X 2 (t)} = σX2


E{X(t)}=0

onde, ≺ · · ·  representa a média temporal. Então teremos para a variância (lembremo-


nos que se trata de um processo de média nula)

≺ X 2 (t) =≺ [A cos(ωt) + B sen(ωt)]2 =

=≺ [A2 cos2 (ωt) + B2 sen2 (ωt) + 2AB cos(ωt) sen(ωt)] =

= A2 ≺ cos2 (ωt)  +B2 ≺ sen2 (ωt)  +2AB ≺ cos(ωt) sen(ωt) =

= 12 [A2 + B2 ]

uma vez que estamos a calcular valores médios de funções sinusoidais. Se, admitirmos
que A2 = B2 = σ 2 , de imediato se verifica que

RX (τ) = σ 2 cos(ωτ) →

RX (0) = σ 2 =≺ X 2 (t) 

encerrando-se desta forma a resolução.

P. 6: Considere o processo estocástico Y (t) = X(t) cos(2π fct + Θ) em que se supõe que X(t) é um
processo estocástico WSS de média nula e com suporte numa banda B e que modela a fonte
de mensagens aleatórias, Θ é uma variável aleatória uniformemente distribuída no intervalo
] − π, π] e fc é uma constante. Supõe-se ainda que X(t) e Θ são independentes.

(a) Determine mY (t) e RY (t,t − τ), ou seja, o valor esperado e a autocorrelação do processo
Y (t), respectivamente, e verifique que é também WSS;

(b) Determine a densidade espectral de potência GY ( f ) de Y (t) e a sua potência.


2.5. PROBLEMAS RESOLVIDOS 93

Resolução

(a) mY (t) = E{Y (t)} = E{X(t) cos(2π fct + Θ)} = E{X(t)}E{cos(2π fct + Θ)} uma vez
que, por hipótese do enunciado, X(t) e Θ são independentes. Como se admitiu que
E{X(t)} = 023 , então mY (t) = 0. Quanto à autocorrelação de Y (t):

RY (t,t + τ) = E{X(t) cos(2π fct + Θ)X(t − τ) cos(2π fc (t − τ) + Θ)} =

= E{X(t)X(t − τ)}E{cos(2π fct + Θ) cos(2π fc (t − τ) + Θ)} =

= E{X(t)X(t − τ)} 21 E{cos(2π2 fct − 2π fc τ + 2Θ) + cos(2π fc τ)} =

= 21 RX (t,t − τ) cos(2π fc τ) = RX (τ) cos(2π fc τ)


X(t) é WSS

onde RX (τ) é a autocorrelação do processo WSS X(t). Pode-se ainda verificar que,
por este resultado, RY (t,t − τ) = RY (τ), o que, conjuntamente com o facto do valor
expectável de Y (t) ser constante (nulo, efectivamente), garante a estacionaridade em
sentido lato do processo Y (t).

(b) Uma vez que se pede GY ( f ) não temos mais do que calcular a transformada de Fourier
de RY (τ):

GY ( f ) = TF[ 21 RX (τ) cos(2π fc τ)] = 12 TF[RX (τ)] ∗ TF[cos(2π fc τ)] =

= 12 GX ( f )] ∗ 12 [δ ( f − fc ) + δ ( f + fc )] =

= 14 [GX ( f − fc ) + G( f + fc )]

E quanto à potência do processo Y (t):

Z+∞ Z+∞
1 1
PY = GY ( f )d f = [GX ( f − fc ) + G( f + fc )]d f = PX
4 2
−∞ −∞

+∞
R
onde se utilizou o facto de que GX ( f )d f = PX .
−∞

P. 7: Determine a potência do processo estocástico N(t) obtido pela filtragem passa-baixo de 1a


ordem do ruído branco gaussiano cuja densidade espectral é GW ( f ) = η2 ; considere que a
função de resposta em frequência deste filtro é H( f ) = 1 f .
1+ j fc

23 lembremo-nos que, pelo enunciado, X(t) é de média nula.


94 CAPÍTULO 2. PROCESSOS ESTOCÁSTICOS

Resolução Comecemos por determinar a densidade espectral de potência do processo N(t):

1 η f2 η
GN ( f ) = |H( f )|2 GW ( f ) = · = 2 c 2·
|1 + j ffc |2 2 fc + f 2

A potência do ruído filtrado vem então

Z+∞ +∞
fc2 η η fc2 f η
PY = · d f = · · arc tg( ) =π· · fc
fc2 + f 2 2 2 fc fc 2
−∞ −∞

P. 8: Determine a frequência de corte do filtro passa-baixo ideal que, na sua saída, produzisse um
processo filtrado com a mesma energia do processo Y (t) da alínea anterior.

Resolução Sendo função de resposta em frequência do filtro passa-baixo ideal Hid ( f ) =


d
( f /2B), teremos que a potência do processo de saída (considerando um processo de entrada
branco GW ( f ) = η2 ) vem dada por
Z B
η
PYid = · 1d f = η · B (2.143)
−B 2
pelo que, conforme se pretende,
η π
η ·B = π · · fc → B = fc (2.144)
2 2

P. 9: Sejam X1 (t) = X(t) · cos(2π fc t + Θ) e X2 (t) = X(t) · sen(2π fc t + Θ), onde Θ é uma variável
aleatória uniformemente distribuída no intervalo [−π, π[, dois processos estocásticos obtidos
a partir do processo WSS X (t). Mostre que os processos X1 (t) e X2 (t) são ortogonais.

Resolução Comecemos por determinar

E{X1 (t)X2 (t − τ)} = E{X(t) · cos(2π fc t + Θ) · X(t − τ) · sen(2π fc (t − τ) + Θ)} =

= E{X(t)X(t − τ)} · E{cos(2π fc t + Θ) sen(2π fc (t − τ) + Θ)} =


1
= RX (τ) · sen(2π fc τ) (2.145)
2
Ora, esta equação mostra que E{X1 (t)X2 (t − τ)} = R12 (τ), para τ = 0, vem nulo pois teremos
R12 (0) = RX (0) · sen(2π fc ·0) = 0 = E{X1 (t)X2 (t)} que é a condição de ortogonalidade de
dois processos estocásticos.

P. 10: Seja um dado processo estocástico N (t) cuja densidade espectral de potência é GN ( f ) = 1
2B
para | f | < B.
2.5. PROBLEMAS RESOLVIDOS 95

(a) Determine a potência do processo N (t);

(b) Determine a autocorrelação RX (t1 ,t2 ) do processo N (t) e mostre que é estacionário na
autocorrelação;

(c) Mostre que os processos NI (t) = N (t) · cos(2π fct + Θ) e NQ (t) = N (t) · sen(2π fct +
Θ) obtidos a partir do processo N (t), onde Θ é uma variável aleatória uniformemente
distribuída no intervalo ] − π; π], são ortogonais.

Resolução

(a) A potência é o integral da densidade espectral de potência no suporte D do processo


estocástico,
1 +B
Z Z
P = GN ( f )d f = df = 1
D 2B −B

(b) A autocorrelação é, para os processos WSS (pelo menos no que toca à autocorrelação),
pelo teorema de Wiener-Khintchine, a transformada de Fourier inversa da densidade
espectral de potência,
RN (τ) = TF−1 [GN ( f )]

e que resulta em
Z +B
1 1 2 j sen(2πBτ)
RN (τ) = TF−1 [GN ( f )] = e j2π f τ d f = · = sinc(2Bτ)
2B −B 2B j2πτ
sendo que a estacionaridade do processo na autocorrelação está implícita na aplicação
do teorema.

(c) A resolução é imediata, admitindo24 que os processos N (t) e cos(2π f t + Θ) são inde-
pendentes. Assim, determinemos a sua correlação cruzada RNI NQ (0),

RNI NQ (0) = E{NI (t)NQ (t + 0)} = E{N (t) · cos(2π fct + Θ) · N (t) · sen(2π fct + Θ)} =

= E{N (t) · N (t)} · E{cos(2π fct + Θ) sen(2π fct + Θ)} =

= RN (0) · E{cos(2π fct + Θ) sen(2π fct + Θ)} =


1
= RN (0) · E{sen(4π fct + 2Θ)} = 0
2
o que mostra a indepêndencia dos processos NI (t) e NQ (t).

24 O que é mais do que razoável pois não há qualquer relação entre os processos N (t) e cos(2π f t + Θ).
96 CAPÍTULO 2. PROCESSOS ESTOCÁSTICOS
Capítulo 3

SISTEMAS DE COMUNICAÇÃO EM
BANDA DE BASE

Trataremos neste capítulo dos sistemas de comunicação «directa» entre o emissor e o


receptor onde os sinais, eventualmente codificados, são transmitidos «tal e qual» ou seja, sem so-
frerem nenhum processo de modulação. Preservam-se assim as características espectrais dos sinais
originais, pelo que se designa por comunicação em banda de base. Iremos começar por caracterizar
as fontes de sinal, matéria que será também necessária ao capítulo seguinte, onde apresentaremos
a comunicação com recurso à modulação de portadoras sinusoidais. Os mecanismos de geração
de mensagens são designados por fontes de sinal. Consoante estas mensagens pertencem a con-
juntos contáveis ou não, assim as classificaremos de, respectivamente, discretas ou analógicas e,
inclusivamente, mistas se os conjuntos forem a união de (pelo menos) um conjunto contável com
outro não-contável. No seguimento, iremos caracterizar diversos tipos de fontes, o efeito do canal
de transmissão e alguns processos de transmitir e receber as mensagens geradas pela fonte.

3.1 FONTES DE SINAL DISCRETAS

Um texto escrito é um óptimo exemplo de uma fonte discreta. Lembremos que um texto é
uma sequência de palavras e que estas, por sua vez, resultam da sequência de letras que pertencem
a um dado alfabeto. A sequência de letras, ao formar uma palavra, não é aleatória para que esta
faça sentido. Ou seja, a sequência de letras da palavra casa não pode ser modificada porque, doutra
forma, teremos ou uma nova palavra (saca) ou apenas uma sequência de letras sem qualquer sentido

97
98 CAPÍTULO 3. SISTEMAS DE COMUNICAÇÃO EM BANDA DE BASE

(por exemplo, aasc). Naturalmente que o aparecimento de uma dada letra numa palavra numa dada
posição é dependente das letras que (eventualmente) a precedam. Será, portanto, possível tentar
estabelecer a probabilidade de se ter uma dada letra numa certa posição de uma determinada pala-
vra a partir do conhecimento das ocorrências das outras letras (probabilidades condicionais). Num
patamar superior, teremos que a sequência de palavras numa frase é também ditada por regras ou
gramáticas específicas da língua dos intervenientes na comunicação.

Consideremos então as seguintes entidades: alfabeto, símbolos e mensagem. A primeira, al-


fabeto, designa o conjunto dos símbolos possíveis numa dada linguagem; por conseguinte, símbolos
são as entidades primárias duma linguagem que permitem, quando justapostos, formar mensagens.
Assim, as mensagens são formadas exclusivamente por sequências (eventualmente singulares) de
símbolos escolhidos dum dado alfabeto.

Assim, seja um alfabeto A = {si , i = 1, 2, · · · , A} em que A é a dimensão do alfabeto (ou seja,


o número de símbolos distintos); seja ainda

pi = Pr(ocorrer o símbolo si )

D
Tornando esta probabilidade independente da ocorrência (ou não) de outros símbolos, ob-
temos uma fonte discreta sem memória (FDSM). Como se depreende, ∑Ai=1 pi = 1. Considere-
mos agora uma sequência qualquer de símbolos (formando uma mensagem), por exemplo, M =
{s2 , s1 , s1 , · · · , sA , · · · , sA−3 , } e, supondo que a fonte não tem memória, a probabilidade desta men-
sagem ter sido gerada por esta fonte é pM = p2 · p1 · p1 · · · · · pA · · · · · pA−3 .

3.1.1 C ONCEITO DE I NFORMAÇÃO

Definamos ganho de informação ou informação associado(a) à ocorrência de um dado sím-


bolo si como sendo
D

∀i = 1, · · · , A 1
I(si ) , logb = − logb pi (3.1)
∀si ∈ A pi

Note-se que a base logarítmica b é arbitrária; contudo, como veremos, é usual utilizar-se a base
2. Assim, a informação é medida em bit/símbolo. Esta definição tem o mérito de atribuir ao sím-
bolo certo um ganho de informação nulo; de facto, qual o ganho de informação com a ocorrência
do mesmo símbolo que é sempre seleccionado? Por outro lado, o sinal menos (ou o inverso da
probabilidade) garante que a informação assim definida é sempre não-negativa.

T
Corolário pi = 1 ⇒ I(si ) = 0

T
Corolário ∀i = 1, · · · , A → I(si ) ≥ 0
3.1. FONTES DE SINAL DISCRETAS 99

T
Corolário pi < p j ⇒ I(si ) > I(s j )

Recordando que a probabilidade de ocorrência de acontecimentos estatisticamente indepen-


dentes resulta do produto das probabilidades dos acontecimentos individuais, então a informação
associada a uma mensagem M = {· · · , si , · · · , s j , · · · } gerada por uma fonte discreta sem memória
vem dada por

A
I(M) = − log(· · · pi · · · p j , · · · ) = −[· · · + log(pi ) + · · · + log(p j ) + · · · ] = − ∑ log(pk )
k=1

Identificando, na equação anterior cada termo como a informação da ocorrência de cada símbolo
isolado, teremos
T
A
I(M) = · · · + I(si ) + · · · + I(s j ) + · · · = ∑ I(sk )
k=1

ou seja, a informação associada à mensagem resulta da soma da informação associada aos símbolos
que a constituem.

3.1.2 U NIDADE B INÁRIA DE I NFORMAÇÃO ( BIT )

Seja uma fonte binária de informação em que o alfabeto é composto apenas por dois símbolos:
A = {0, 1}. Consideremos, por hipótese, a equiprobabilidade da ocorrência dos símbolos deste
alfabeto; nestes pressupostos, define-se a unidade binária de informação (bit) como se segue.

D
Definição: Bit 1 bit é a informação associada a qualquer um dos símbolos de um alfabeto binário
quando equiprováveis1 . Ou seja, 1 [bit] = I(s0 ) = I(s1 ) sendo, naturalmente, s0 =«0»; s1 =«1» e
onde a base logarítmica utilizada2 é a base 2, log(· · · ) = log2 (· · · ).

3.1.3 E NTROPIA DE UMA F ONTE D ISCRETA S EM M EMÓRIA


D

Definição: Entropia Define-se entropia H(A ) de uma FDSM como sendo o valor expectável da
informação própria dos símbolos da fonte o que, recordando a equação (3.1), se traduz em:

A A
H(A ) , E{I(M)} = ∑ pi · I(si ) = − ∑ pi logb (pi ) (3.2)
i=1 i=1

Se a fonte em causa for binária, teremos b = 2, pelo que


D
A
H(A ) = − ∑ pi log2 (pi ) (3.3)
i=1

e a entropia vem expressa em bit/símbolo.


100 CAPÍTULO 3. SISTEMAS DE COMUNICAÇÃO EM BANDA DE BASE

T
Corolário Se os A símbolos da fonte forem equiprováveis, a entropia da FDSM é dada por

H(A ) = log2 (A) (3.4)

pois que, nestas circunstâncias, pi = A1 , i = 1, 2, · · · , A.

T
Corolário Se um dos símbolos da fonte tiver uma probabilidade de ocorrência unitária (símbolo
«certo»), ∃˙ 1 ≤ i ≤ A : pi = 1, então a fonte terá uma entropia nula:

∃˙ 1 ≤ i ≤ A : pi = 1 ⇒ H(A ) = 0 (3.5)

Demonstração Sendo, como suposto, um símbolo i do alfabeto «certo», então, pi = 1 ⇒ pi log(pi ) =


0. Por outro lado, as probabilidades de ocorrência de todos os outros símbolos serão forçosamente
nulas (símbolos «impossíveis»). Ora, nestes pressupostos, a entropia vem dada por
A
H(A ) = −[pi log2 (pi ) + ∑ pk log2 (pk )] (3.6)
k=1
k 6= i

Lembrando que sendo lima→0 [a log(a)] = 0, teremos como consequência que a equação (3.2) resulta
numa entropia nula. Esta demonstração é, naturalmente, válida para uma base logarítmica diferente
da base 2 que utilizámos na definição da entropia.


T
Corolário a entropia de uma FDSM verifica a desigualdade 0 ≤ H(A ) ≤ log2 (A) onde, como
anteriormente, A é o número de símbolos do alfabeto A .

Ex

Exemplo Consideremos uma fonte binária sem memória B em que p representa a probabilidade
de ocorrência do símbolo «0», p = Pr(s0 ) e, logicamente, 1 − p = Pr(s1 ). A entropia H desta fonte
vem dada por:
H(B) = −[p log(p) + (1 − p) log(1 − p)] (3.7)
Recordemos que, sendo limx→0 [x log(x)] = 0, a entropia associada ao símbolo «certo» ou ao símbolo
«impossível» é nula. Por outro lado, o máximo da entropia da fonte binária sem memória, ocorrerá
para p = 1/2 resultado que se obtém a partir da solução de ddp H(B) = 0 através de manipulação
matemática elementar. Na figura 3.1 apresenta-se a variação da entropia de uma FDSM binária.
1 Obviamente que, havendo unicamente dois símbolos, e sendo estes equiprováveis, teremos as suas probabilidades de
ocorrência idênticas, pelo que: p0 = p1 = 1/2 ⇒ I(s0 ) = I(s1 ) = − log2 1/2 = 1 [bit].
2 Quando a base logarítmica é a natural ou neperiana, a unidade de informação denomina-se nat(s); tratando-se da base

decimal, a unidade de informação é denominada ban(s).


3.1. FONTES DE SINAL DISCRETAS 101

0.9

0.8

0.7

0.6

0.5

H
0.4

0.3

0.2

0.1

0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
p

Figura 3.1: Entropia de uma FDSM binária em função da probabilidade de ocorrência p de um dos seus
símbolos.

3.1.4 D ESIGUALDADE F UNDAMENTAL

Seja um dado alfabeto A de uma FDSM caracterizado por uma certa distribuição de proba-
bilidades de ocorrência dos seus símbolos que designaremos abreviadamente por pi , i = 1, 2, · · · , A.
Seja ainda qi uma outra distribuição de probabilidades definida sobre as ocorrências dos símbolos
de A (em que forçosamente teremos ∑Ai=1 qi = 1). Então mostra-se que:
T
A A
qi pi
∑ pi log pi ≤ 0 ⇔ ∑ pi log qi ≥ 0 (3.8)
i=1 i=1

sendo a igualdade expressa na equação (3.8) obtida para qi = pi e a base logarítmica arbitrária.

Demonstração da Desigualdade Fundamental Verifiquemos que ∀x ∈ R+ se tem log(x) ≤ x −13


, como se ilustra na figura 3.2. Então, teremos
A A A
qi qi
∑ pi log pi ≤ ∑ pi ( pi − 1) = ∑ (qi − pi ) = 0
i=1 i=1 i=1

pois que, obviamente, ∑Ai=1 qi = ∑Ai=1 pi = 1, e logo


A
qi
∑ pi log pi ≤ 0
i=1

o que encerra a demonstração.

No caso de se tratar de outra base logarítmica, por exemplo b, teremos


A A
qi 1 qi
∀b > 1 : ∑ pi logb = · ∑ pi loge ≤ 0
i=1 pi loge (b) i=1 pi
| {z }
≤0
3 Esta propriedade aplica-se exclusivamente a logaritmos de base neperiana, ou seja, loge (x) = ln(x).
102 CAPÍTULO 3. SISTEMAS DE COMUNICAÇÃO EM BANDA DE BASE

−2

−4

−6

−8
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5

Figura 3.2: Funções log(x) (a cor azul) e x − 1 (a cor vermelha).

ficando demonstrada a desigualdade fundamental.

O lado direito da desigualdade da equação (3.8) é a conhecida distância de Kullback-Leibler


ou entropia relativa e cuja definição apresentaremos de imediato.

D
Definição: Distância de Kullback-Leibler ou Entropia Relativa define-se a divergência4 de
Kullback-Leibler como sendo
pi
D(PkQ) = ∑ pi ln (3.9)
i∈A qi
e que também se pode expressar da seguinte forma

D(XkY ) = H(X) − H(X|Y ) (3.10)

onde H(X|Y ) é a entropia condicional

H(X|Y ) = − ∑ p(xi , yi ) ln p(xi , yi ) (3.11)


i=sup (X,Y )

T
Corolário em geral a «distância» de K-L é não simétrica, ou seja

D(PkQ) 6= D(QkP) (3.12)

3.1.5 I NTRODUÇÃO À C ODIFICAÇÃO DE F ONTE

Em geral os símbolos gerados por uma fonte discreta (com ou sem memória) não são equi-
prováveis. Contudo, por uma questão de simplicidade iremos supor, como anteriormente, a inde-
pendência estatística dos símbolos dessa(s) fonte(s). Suponhamos ainda que o canal de transmissão
4 Esta
definição de distância ou divergência de Kullback-Leibler é a, por vezes, denominada divergência simétrica de
Kullback-Leibler (K-L). Na realidade, a divergência de K-L é definida como sendo a «distância» entre as distribuições
conjuntas de 2 variáveis aleatórias e as respectivas distribuições e é assimétrica, como se apresenta no corolário seguinte.
3.1. FONTES DE SINAL DISCRETAS 103

é um canal binário, isto é, que apenas admite a transmissão de dois símbolos binários que, no se-
guimento, designaremos por 0 e 1. Se, num canal binário, quiséssemos transmitir os dez dígitos
(1, 2, ..., 9, 0) iríamos necessitar de um mínimo de 4 bit, pois como sabemos, 23 < 10 < 24 . Mas os
4 bits permitir-nos-iam transmitir até 16 símbolos distintos pelo que, nestas circunstâncias, o nosso
codificador dígitos ↔ código binário seria pouco eficiente; na verdade estaríamos a utilizar 10/16
ou seja 62, 5% da sua capacidade de codificação.

Contudo, se alguns dos dígitos fossem mais prováveis de ocorrer do que outros, talvez se pu-
desse utilizar uma codificação em que os dígitos mais prováveis fossem codificados com menos do
que 4 bit, conseguindo-se um desejável aumento de eficiência. Samuel Morse, em 1839, concebeu
um sistema de codificação, o célebre código Morse, que se baseia na transmissão de «pontos ·» e
«traços −» (separados invariavelmente por silêncios) em que as letras do alfabeto mais frequen-
tes são representadas por um número reduzido de pontos e/ou traços5 , conseguindo-se um notável
eficiência na transmissão das mensagens (figura 3.3)

Figura 3.3: Código Morse internacional (en.wikipedia.org/wiki/Morse_code acedido em 21 de Janeiro de


2015).

Regressemos ao exemplo da codificação dos (dez) dígitos. Pensemos que, em vez de codifi-
carmos os dígitos di , i = 1, 2, · · · , 10 individualmente, tentaríamos codificar pares de dígitos, ou seja
codificaríamos (di , d j ), i, j = 1, 2, · · · , 10. Como teríamos 100 diferentes «novos» símbolos, iríamos
necessitar de 7 bit, pois 100 < 27 = 128, o que resultaria numa melhor utilização do codificador.
Concretamente iríamos utilizar 100/128 da capacidade da sua codificação, ou seja 78%. Este au-
mento de eficiência acarreta, contudo, um atraso de um símbolo para codificar pois necessitamos de
ter pares de dígitos presentes na entrada do codificador. Este mecanismo de codificação designa-se
por codificação por fonte extendida ou extensão de fonte.

5 Por exemplo, na língua inglesa, a letra mais frequente é a letra «e» que é codificada por um único ponto «·».
104 CAPÍTULO 3. SISTEMAS DE COMUNICAÇÃO EM BANDA DE BASE

Extensão de Fonte Seja então uma extensão de ordem K de uma FDSM que resulta num alfabeto
A K = {σ1 , σ2 , · · · , σAK } em que cada novo símbolo σi se obtém por uma sequência de K símbolos
da fonte A , isto é σi = (si1 , si2 , · · · , siK ). Dado que, por hipótese, os símbolos são independentes, a
distribuição de probabilidade dos símbolos σi da fonte estendida é dada por
K
qi , Pr(σi ) = ∏ Pr(símbolo s j ) (3.13)
j=1

Entropia da Fonte Estendida Pode-se mostrar que a entropia da extensão de ordem K de uma
fonte discreta sem memória é
T
H(A K ) = K · H(A ) (3.14)

Códigos de Comprimento Variável O código Morse é um excelente exemplo de um código de


comprimento variável. Esta variabilidade ocorre não só no número de símbolos (pontos e traços
e silêncio) necessários para codificar cada letra do alfabeto, mas também no próprio comprimento
resultante da codificação, uma vez que a duração do traço corresponde à duração de dois pontos.

O problema que se coloca é o de encontrar uma forma óptima para codificar os símbolos do
alfabeto de modo a reduzir o tempo de transmissão associado. No fundo, pretende-se um aumento
da eficiência da ocupação do canal. De facto, uma forma de aumentar essa eficiência passa pela
utilização de códigos de comprimento variável, reservando aos símbolos do alfabeto que ocorrem
mais frequentemente um menor número de bits. Esta atribuição pode ser efectuada heuristicamente
ou através de algoritmos, dos quais se destacam o código de Huffman e o algoritmo de Lempel-Ziv
que serão descritos com pormenor mais adiante.

D
Definição: Comprimento Médio de um Código define-se comprimento médio de um código
como sendo
A
L̄ = ∑ pi li (3.15)
i=1

onde li representa o comprimento do símbolo i.

D
Definição: Eficiência do Código define-se eficiência do código como sendo

H(A )
η= (3.16)

Desigualdade de Kraft - Mc Millan A desigualdade de Kraft - Mc Millan estabelece uma con-


dição necessária e suficiente de existência de um código instantâneo6 de palavras de comprimento
variável li . Assim, verifica-se que
T
6 Entende-se por código instantâneo todo aquele que permite uma descodificação da palavra ou mensagem codificada
logo (ou seja, no instante em) que a totalidade dos símbolos que a constituem for recebida.
3.1. FONTES DE SINAL DISCRETAS 105

A
∑ r−l i
≤1 (3.17)
i=1

sendo r o número de símbolos do alfabeto do código (num código binário, r = 2).

T 9 : 1o Teorema de Shannon
T

Consideremos um código instantâneo univocamente descodificável7 que verifica a desigual-


dade de Kraft (equação (3.17)). Então, mostra-se que

H(A ) ≤ L̄ · logb (r) (3.18)

sendo a base logarítmica b arbitrária.

A importância deste resultado reside no facto de estabelecer, através da entropia da fonte,


um limiar à codificação por códigos instantâneos e univocamente descodificáveis de comprimento
variável. O 1o teorema de Shannon estabelece que não é possível codificar/descodificar univoca-
mente uma FDSM com um código instantâneo de comprimento L̄ se este comprimento for inferior
à entropia da fonte, ou seja, se L̄ < H(A ).

3.1.6 C ÓDIGO DE H UFFMAN


D

O código de Huffman é um sistema de codificação cujo algoritmo se apresenta de seguida e


que permite obter uma codificação com o menor comprimento médio, dentro do estabelecido no 1o
teorema de Shannon.

1. os símbolos da fonte são ordenados por ordem decrescente da probabilidade de ocorrência;

2. aos últimos 2 símbolos assim ordenados, atribuem-se os bits «0» e «1»;

3. forma-se um novo símbolo com uma probabilidade de ocorrência que é a soma das probabili-
dades anteriores;

4. cria-se uma nova lista (reduzida em 1 símbolo) e reordena-se por ordem crescente de proba-
bilidades;

5. repetir os passos 2 a 4 até que restem somente 2 símbolos das sub-listas resultantes, atribuindo-
lhes os bits «0» e «1»;

6. obter, percorrendo a lista do fim para o princípio (backtracking), as palavras de código asso-
ciadas a cada símbolo da fonte.
Ex
7 Um código univocamente descodificável permite sempre recuperar a palavra ou o símbolo do alfabeto codificado.
106 CAPÍTULO 3. SISTEMAS DE COMUNICAÇÃO EM BANDA DE BASE

Exemplo Pretende-se obter uma codificação de Huffman para a fonte de mensagens caracteri-
zada como se segue. Assim, suponhamos uma fonte B = {si , i = 1, · · · , 7} com 7 símbolos cujas
probabilidades se assumem na tabela 3.1.

Tabela 3.1: das probabilidades dos símbolos de B

Símbolo s1 s2 s3 s4 s5 s6 s7
Pr(·) 0,60 0,02 0,15 0,04 0,04 0,05 0,1

Comecemos por reordenar os símbolos da fonte e prossigamos conforme exposto no ponto 1.


do algoritmo e que se apresenta na zona I da figura 3.4. Na zona II da figura 3.4 atribuíram-se os

Figura 3.4: Exemplo de aplicação do algoritmo de Huffman.

bits «0» e «1» conforme o ponto 2. do algoritmo, associaram-se estes dois simbolos (s2 e s4 ) após o
que se segue uma nova reordenação (zona III) e assim sucessivamente até se esgotar os símbolos da
tabela. O codificador resultante apresenta-se (ponto 6. do algoritmo) na tabela 3.2.

Tabela 3.2: do código de Huffman resultante para B

Símbolo Código
s1 0
s2 1111
s3 100
s4 1110
s5 1101
s6 1100
s7 101

Determinemos a eficiência deste codificador, para o que necessitamos de primeiramente obter


3.1. FONTES DE SINAL DISCRETAS 107

o comprimento médio do código, equação (3.15)

L̄ = 1 · 0, 6 + 4 · 0, 02 + 3 · 0, 15 + 4 · 0, 04 + 4 · 0, 04 + 4 · 0, 05 + 3 · 0, 01 = 1, 95[bit/símbolo] (3.19)

e a entropia desta fonte é H(B) = 1, 885 [bit/símbolo], o que se traduz num rendimento de η =
1,885
1,950 = 0, 967.

Se tivéssemos utilizado um código uniforme para codificar esta fonte, necessitaríamos de um


codificador de 3 bit (máximo de 8 palavras das quais só se utilizam 7) o que se traduziria numa
eficiência de η = 1,885
3 = 0, 628 que, como se verifica é bem inferior à obtida com o código de
Huffman.
V

Nota A codificação apresentada neste exemplo contém duas situações em que há valores de proba-
bilidades repetidas, nomeadamente nas zonas I e V da figura 3.4. Observando o exemplo, verifica-se
que se procedeu a uma troca da ordenação dos símbolos a que correspondem iguais probabilidades.
Esta troca é facultativa mas, a ocorrer, obtém-se um codificador que apresenta uma menor variância
do comprimento médio das palavras; definindo-se esta variância como sendo
A
σl2 = ∑ pi · (li − L̄)2 (3.20)
i=1

3.1.7 C ÓDIGOS DE P REFIXO

O exemplo anterior ilustra um processo que, de uma forma óptima, nos produz uma codificação
de comprimento variável. Outros processos há que nos permitem obter códigos de comprimento
variável mas correm-se dois riscos: não serem univocamente descodificáveis ou terem eficiência
mais baixa. Vejamos de seguida um exemplo.

Ex

Exemplo ainda baseado na fonte B apresentada no exemplo anterior em que usaremos agora a
seguinte heurística: atribuamos o bit «0» como indicativo de começo de palavra e vamos adicionando
o bit «1» por cada palavra (tabela 3.3) depois de ordenada por probabilidades.

Para este exemplo, o comprimento médio é de 2,45 bit/símbolo o que se traduz num ren-
dimento de 0, 77; valor este superior ao do codificador uniforme mas ainda bem inferior ao do
codificador de Huffman. Contudo, este código enferma de um «problema»: repare-se que o bit «0»
tanto assinala o símbolo s1 como o início de qualquer um dos outros 6 símbolos. Efectivamente
repare-se que o símbolo s1 é "prefixo"de todos os outros símbolos; o mesmo sucedendo ao símbolo
s3 que é prefixo do s7 e do s6 , etc. e assim sucessivamente. Neste caso, a descodificação só será
possível depois de se receber um novo «0» pois é indicativo do aparecimento de uma nova palavra.
V
108 CAPÍTULO 3. SISTEMAS DE COMUNICAÇÃO EM BANDA DE BASE

Tabela 3.3: de um código heurístico para B

Símbolo Código
s1 0
s2 0111111
s3 01
s4 011111
s5 01111
s6 0111
s7 011

D
Definição: Código de Prefixo Definimos então código de prefixo como todo o código em que
nenhuma palavra é prefixo de outra. Caso uma palavra seja prefixo de outra, a descodificação pode
ficar comprometida, inviabilizando a distinção de duas ou mais palavras da mensagem. Repare-se
que o código de Huffman é forçosamente um código de prefixo.

3.1.8 C ÓDIGO B INÁRIO DE L EMPEL -Z IV

O grande inconveniente da codificação de Huffman reside na necessidade de se conhecer o modelo


probabilístico da fonte para se poder obter uma codificação eficiente. O algoritmo de Lempel-
Ziv (L-Z) permite, sem recorrer a esse modelo, uma codificação eficiente e fácil. Embora o L-Z
tenha sido proposto para codificar sequências de caracteres, iremos apenas considerar o caso de uma
fonte binária. Basicamente trata-se de ir particionando a sequência de símbolos em sub-sequências
de menor comprimento que ainda não tenham sido previamente encontradas. Desta forma se vai
construindo um livro de código (codebook) - ldc, que se adapta à sequência a codificar.

Ex

Exemplo Suponhamos que pretendíamos codificar a mensagem:

M = 000101110010100101 . . .

Partamos do princípio de que os símbolos (elementos do livro de código) 0 e 1 já estavam previa-


mente seleccionados e que constituem as primeiras subsequências do L-Z. Esquematizando, teremos
então a codificação da tabela 3.4. Assim, o primeiro símbolo de M (o 1o «0») já pertende ao ldc,

Tabela 3.4: da construção do código de Lempel-Ziv (início)

Índice do ldc 1 2
Subsequência 0 1
Falta codificar - -

pelo que iremos procurar uma subsequência maior: «00» que não pertence ainda a ldc; ficamos
3.1. FONTES DE SINAL DISCRETAS 109

assim com a tabela 3.5. Nesta fase, como se pode ver pela sequência que ainda não foi codificada

Tabela 3.5: da construção do código de L-Z (continuação).

Índice do ldc 1 2 3
Subsequência 0 1 00
Falta codificar - - 0101110010100101...

(0101110010100101), aparece-nos agora a subsequência «01» que ainda não tinha sido encontrada,
pelo que vai ter de ser acrescentada ao ldc, conforme a tabela 3.6.

Tabela 3.6: da construção do código de L-Z (continuação).

Índice do ldc 1 2 3 4
Subsequência 0 1 00 01
Falta codificar - - - 01110010100101...

Prosseguindo em «01110010100101» vemos que as subsequências «0»,«01» já fazem parte


do ldc, pelo que a próxima subsequência será «011», tabela 3.7.

Tabela 3.7: da construção do código de L-Z (continuação).

Índice do ldc 1 2 3 4 5
Subsequência 0 1 00 01 011
Falta codificar - - - - 10010100101...

Seguidamente, teremos que codificar «10010100101» e encontramos a subsequência «10»,


tabela 3.8.
Tabela 3.8: da construção do código de L-Z (continuação).

Índice do ldc 1 2 3 4 5 6
Subsequência 0 1 00 01 011 10
Falta codificar - - - - - 010100101...

Continuando o algoritmo, ficaremos com o indicado na tabela 3.9.

Tabela 3.9: da construção do código de L-Z (continuação).

Índice do ldc 1 2 3 4 5 6 7 8 9
Subsequência 0 1 00 01 011 10 010 100 101
Falta codificar - - - - - - - - ...

Vamos agora codificar as palavras do ldc, pelo que usaremos o índice (posição no ldc) já
determinado. Assim, a subsequência «00» (3a posição do ldc) é constituída pelo símbolo «0» (1a
110 CAPÍTULO 3. SISTEMAS DE COMUNICAÇÃO EM BANDA DE BASE

posição do ldc) seguida pelo símbolo «0» (novamente a 1a posição) pelo que lhe atribuiremos a
palavra de código «11»; de igual forma, por exemplo, a 7a posição será codificada pela palavra de
código 41 pois teremos que é constituída pela subsequência «01» (4a posição) seguida pelo símbolo
«0» (1a posição). Neste caso, o da 7a posição, a codificação atribuída não poderia ser 16 (símbolo
«0», 1a posição seguido de «10», 6a posição) pois o processo de construção da tabela seria violado!
Vejamos agora como atribuir um código binário a cada uma das palavras do ldc. Verifiquemos que
a 3a posição do ldc se obteve da 1a posição justapondo-lhe o símbolo «0» (chamemos a este «novo»
símbolo uma inovação); na 2a linha da tabela 3.10 assinalámos a negrito as inovações

Tabela 3.10: da codificação de Lempel-Ziv

Índice do ldc 1 2 3 4 5 6 7 8 9
Subsequência 0 1 00 01 011 10 010 100 101
código a atribuir - - 11 12 42 21 41 61 62
código binário - - 0010 0011 1001 0100 1000 1100 1101

O código binário resultante obtém-se codificando (em binário) o primeiro dígito do código
(assinalado em itálico) do código atribuído, justapondo-lhe a respectiva inovação.
V

Comparando com o código de Huffman, o L-Z tem a vantagem de atribuir um número fixo
de bits a sequências de tamanho variável o que lhe permite ser usado em sistemas de comunicação
síncrona. Na prática, usam-se blocos de 12 bits de código binário, o que corresponde a um ldc de
dimensão 4096. Relativamente a situações onde a compressão de dados pode ter um papel relevante
(por exemplo, o algoritmo de compressão ZIP) o código de L-Z atinge uma eficiência de 55%
enquanto que o código de Huffman se fica pelos 43%.

Independentemente do tipo de codificação utilizado, é sabido que no receptor ocorrerão erros


originados pelo ruído (omni)presente no canal de comunicação. É possível, dentro de certos, reduzir
ou mesmo eliminar esses erros. No apêndice 3.3 apresentaremos alguns códigos destinados a dtectar
e corrigir eventuais erros de comunicação, considerando uma fonte binária.

3.2 FONTES ANALÓGICAS

Neste caso, o domínio dos sinais ou dos processos estocásticos que representam ou mo-
delam este tipo de fontes são intervalos não-contáveis, ou seja, em que a variável independente
(normalmente o tempo) é uma variável contínua. Como exemplos de fontes analógicas temos sinais
determinísticos ou estocásticos, de energia ou de potência. Normalmente é suposto que os sinais
são de banda limitada (sinais determinísticos) ou de suporte limitado (sinais estocásticos). Neste
último caso, é ainda usual supor que são de média (valor expectável) nula e com uma dada função
densidade de probabilidade que se supõe conhecida a priori.
3.2. FONTES ANALÓGICAS 111

3.2.1 D IGITALIZAÇÃO DE F ONTES A NALÓGICAS

A comunicação de sinais digitais pressupõe uma digitalização dos sinais analógicos. A título
de exemplo, refira-se que a rede móvel de comunicações assenta, na sua quase totalidade, em co-
municações digitais. Assim, é importante apresentar, embora de forma introdutória, o processo de
digitalização que, na realidade, compreende várias etapas: limitação do espectro (filtragem passa-
baixo ou passa-banda), amostragem, quantificação e codificação, figura 3.5.

Conversão
~ Quantificação
~ Amostragem Retenção Paralelo -
- Série
Codificação

Comunicação
Compensação Conversão
x/sen(x) Reconstrução Série - Descodificação
- Paralelo

Figura 3.5: Digitalização de Fontes Analógicas.

Amostragem Ideal Seja então X (t) um processo estocástico cuja densidade espectral de potên-
cia é nula para | f | > B (processo passa-baixo) e seja B a frequência de corte (banda passante) do
filtro passa-baixo8 que se supõe ideal. A amostragem, se bem que na realidade seja efectuada num
dispositivo de amostragem-retenção, é melhor compreendida considerando uma situação idealizada
em que um interruptor fecha e abre instantaneamente a um ritmo de Ta vezes na unidade de tempo.
Este mecanismo é modelado pelo produto do sinal por um trem de impulsos de Dirac, figura 3.6.

Figura 3.6: Amostragem ideal (esquerda) e modelo matemático (direita).

Seja ainda x(t) uma função amostra do processo X (t) e p(t) = ∑+∞
k=−∞ δ (t − kTa ) um trem de
9
impulsos unitários de Dirac , em que Ta é o período de amostragem.

Nestes pressupostos, o sinal amostrado xa (t) é dado por

+∞
xa (t) = x(t) · ∑ δ (t − kTa ) (3.21)
k=−∞

8 No fundo, o filtro passa-baixo limita em frequência o processo de entrada. No caso da fala, este filtro limita a cerca
de 3,4 kHz a frequência máxima do sinal. É também frequente uma remoção de baixas frequências, de forma a que a
banda útil do sistema de comunicação se estende dos 300 Hz aos 3,4 kHz.
9 Impulso unitário significa que, para ε arbitrariamente pequeno, se tem R ε δ (t)dt = 1.
−ε
112 CAPÍTULO 3. SISTEMAS DE COMUNICAÇÃO EM BANDA DE BASE

recordando a propriedade do produto de um sinal por um impulso de Dirac (equação (1.23)), a


equação (3.21) resulta em
+∞
xa (t) = ∑ x(kTa ) · δ (t − kTa ) (3.22)
k=−∞

Apliquemos a transformada de Fourier à equação (3.22), e recordemos a propriedade da transfor-


mada de Fourier do produto de dois sinais (que se traduz na convolução das suas transformadas) e da
transformada de Fourier de um sinal periódico (equação (1.57) e equação (1.40), respectivamente)

1 +∞ 1
Xa ( f ) = TF[xa (t)] = X( f ) ∗ P( f ) = X( f ) ∗ ∑ δ ( f − k Ta ) =
Ta k=−∞

1 +∞ 1 +∞
= X( f ) ∗ ∑ δ ( f − k f a ) = ∑ X( f − k fa ) (3.23)
Ta k=−∞ Ta k=−∞
onde f a = 1/Ta representa a frequência de amostragem. Este resultado, recordando que, por hi-
pótese, temos ∀ f : | f | > B → X( f ) = 0, encontra-se ilustrado na figura 3.7, para vários valores da
frequência de amostragem10 .

De imediato se verifica ser necessário ter fa = 1/Ta ≥ 2B para que haja a possibilidade de
reconstruir o sinal x(t) por filtragem passa-baixo ideal de xa (t). Este resultado é conhecido pelo
teorema da amostragem e é de extrema importância em Telecomunicações e em Processamento de
Sinais; o seu enunciado será de seguida apresentado.

T 10 : Teorema da Amostragem Seja um processo passa-baixo com suporte numa banda de


T
frequências [−B, B[; é possível amostrar e posteriormente reconstruir este processo sem qualquer
perda de informação se for utilizado um ritmo de amostragem igual ou superior a 2 × B, ou seja, a
frequência de amostragem deve obedecer a fa ≥ 2 × B.

D
Definição: Ritmo de Nyquist diz-se do ritmo de amostragem tal que, nas condições do teorema
10, se tem rN = 2 × B.

3.2.2 R ECONSTRUÇÃO DO S INAL

O processo de, a partir da sua versão amostrada, obter novamente o sinal original, é deno-
minado reconstrução do sinal. Assim, consideremos que a amostragem se efectua a um ritmo de
fa = T1a ≥ 2B amostra/s garantindo, como se viu, a não sobreposição das versões transladadas em
múltiplos de fa do espectro do sinal. No fundo, o processo resume-se a eliminar em Xa ( f ) todas
as componentes para | f | > B, ou seja, filtrar Xa ( f ) através de um filtro passa-baixo. Idealmente,
10 O
espectro apresentado para a mensagem é arbitrário no sentido de que a sua densidade espectral de potência pode
assumir quaisquer valores desde que limitada a uma banda de frequências de 0 a B Hz; a sua forma triangular deve-se
apenas a uma maior facilidade gráfica.
3.2. FONTES ANALÓGICAS 113

Figura 3.7: Amostragem ideal de um sinal de banda limitada a B, de cima para baixo: espectro arbitrário de
x(t), para fa < 2B, fa = 2B e finalmente fa > 2B.

d f
este filtro seria caracterizado por uma função de resposta em frequência H( f ) = Ta ( 2B ) que nos
garantiria o anulamento das componentes de alta frequência resultantes do processo de amostragem.
Este filtro, anulando efectivamente quaisquer componentes em frequência superiores a B, é um filtro
passa-baixo ideal. Em termos do domínio do tempo, esta operação traduz-se em aplicar xa (t) a um
filtro passa-baixo de resposta impulsiva
Z B
−1
h(t) = TF [H( f )] = Ta e j2π f t d f = 2Ta B sinc(2Bt) = sinc(2Bt) (3.24)
−B

pois 2Ta B = 1. Assim, o sinal reconstruído x̃(t) obtém-se pela convolução de h(t) (equação (3.24)),

+∞
x̃(t) = h(t) ∗ xa (t) = h(t) ∗ ∑ x(kTa )δ (t − kTa ) =
k=−∞

+∞
= ∑ x(kTa ) sinc(2Bt) ∗ δ (t − kTa ) =
k=−∞

+∞
= ∑ x(kTa ) sinc[2B(t − kTa )] (3.25)
k=−∞

Ou seja, x̃(t) resulta da interpolação das amostras do sinal equi-espaçadas xa (t) = x(kTa )
através da função sinc(·) e que, pelo facto de permitir que o sinal reconstruído seja igual ao sinal
original, x̃(t) = x(t), é denominada de interpolador ideal:
D
+∞
x̃(t) = ∑ x(kTa ) sinc[2B(t − kTa )] (3.26)
k=−∞

Convém notar que o interpolador ideal não é fisicamente realizável! Efectivamente, trata-se
de um filtro não-causal, pois a sua resposta impulsiva (equação (3.24)) é não nula para t < 0, como
se ilustra na figura 3.8 a vermelho.
114 CAPÍTULO 3. SISTEMAS DE COMUNICAÇÃO EM BANDA DE BASE

0.8

0.6

Resposta Impulsiva 0.4

0.2

−0.2

−2.5 −2 −1.5 −1 −0.5 0 0.5 1 1.5 2 2.5


t −3
x 10

Figura 3.8: Resposta impulsiva do interpolador ideal, assinalando-se a vermelho a resposta para t < 0.

Há formas de, na prática, ultrapassar esta impossibilidade: por exemplo, pode-se utilizar um
filtro cuja função de resposta em frequência não apresente a descontinuidade em f = B11 . Claro
que, em qualquer caso, a interpolação deixará de ser a ideal, pelo que haverá sempre uma distorção
do sinal reconstruído de saída mas, desde que esta distorção seja inferior ao ruído introduzido pelo
sistema de comunicação e pelo canal, poderemos desprezar o seu efeito.

3.2.3 A MOSTRAGEM E R ETENÇÃO DE A MOSTRAS

Mais uma vez, a realidade não corresponde à situação ideal apresentada; ou seja, há que man-
ter o valor da amostra durante um período de amostragem12 (figura 3.9), ou seja, há que utilizar um
dispositivo de retenção das amostras. Um retentor nestas condições, que mantém o valor da amostra,
é conhecido por retentor de ordem zero (zero-order hold), ROZ, e tem uma resposta impulsiva dada
por (
1 0 ≤ t ≤ Ta
h(t) = (3.27)
0 c.c.

Desta forma, o sinal à saída do ROZ é o resultado da convolução do sinal amostrado pela
resposta impulsiva do ROZ, xR (t) = xa (t) ∗ h(t). No domínio da frequência, teremos que o espectro
do sinal amostrado vem modificado pela resposta em frequência do ROZ, pois, XR ( f ) = Xa ( f ) ·
H( f ). Sendo, como sabemos, a resposta em frequência igual à TF da resposta impulsiva, teremos
então
H( f ) = TF[h(t)] = Ta · e− jπTa · sinc( f Ta ) (3.28)
11 Repare-seque, assim sendo, a resposta em frequência deixará de ser nula para ∀ f > B, pelo que se torna necessário
amostrar a um ritmo superior ao ritmo de Nyquist para se reduzir ao máximo a corrência de aliasing. Efectivamente, e
por exemplo, no PCM telefónico, a banda útil B e limitada aos 3, 4 kHz enquanto se amostra a 8.000 Hz.
12 Dado que os dispositivos electrónicos de conversão analógico-digital necessitam de alguns instantes de tempo para

que essa conversão seja efectuada, o sinal de entrada a converter deve manter-se constante durante esse intervalo.
3.2. FONTES ANALÓGICAS 115

0.8

0.6

0.4

0.2

−0.2

−0.4

−0.6

−0.8
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
t

Figura 3.9: Amostragem ideal com retenção de ordem zero (a vermelho) de um sinal sinusoidal (a azul).

cujo módulo, em função de f , se apresenta na figura 3.10.

Por conseguinte, no descodificador há que efectuar uma correcção em frequência inversa desta
resposta em frequência para que se preservem as características do sinal original. Normalmente, nos
dispositivos electrónicos CODEC13 destinados à comunicação digital, esta correcção vem já incluída
x
pelo fabricante e é conhecida por correcção sen(x) .

3.2.4 Q UANTIFICAÇÃO U NIFORME

A quantificação destina-se a converter um sinal amostrado, em que o seu contradomínio é


um conjunto incontável, embora limitado, num sinal em que seu contradomínio (discreto) esteja
contido num conjunto de cardinalidade finita. Trata-se, no fundo, de mapear um dado intervalo de
valores não-contáveis num conjunto discreto de valores. Se este conjunto corresponder a valores
equi-espaçados, estaremos em presença de uma quantificação uniforme. Seja M o número destes
intervalos (intervalos de quantificação) e cuja amplitude se relaciona com a amplitude X do sinal a
quantificar (supondo que não ocorreria saturação ou sobrecarga do quantificador) através de
2X
∆= (3.29)
M
onde, por hipótese, o sinal se supôs de média nula.

Consideremos, sem perda de generalidade, que a quantificação é efectuada por um quantifi-


cador uniforme de M níveis de quantificação que supomos seja uma potência inteira de 2, ou seja,
M = 2N e onde N representa o número de bits do quantificador. Assim, por exemplo, um quan-
tificador de 8 bit permite quantificar até 256 níveis de amplitude. Ao quantificar um sinal, figura
3.11, estaremos a perder informação sobre esse sinal; origina-se então um erro que será tanto menor
quanto maior for M ou, de forma equivalente, quanto maior for N, o número de bits do quantificador.
13 CODEC = coder + decoder ou seja, codificador e descodificador.
116 CAPÍTULO 3. SISTEMAS DE COMUNICAÇÃO EM BANDA DE BASE

−4
x 10
1.4

1.2

0.8

0.6

0.4

0.2

0
−1.5 −1 −0.5 0 0.5 1 1.5
frequência 4
x 10

Figura 3.10: Módulo da resposta em frequência do ROZ (azul), assinalando-se a cor verde a gama de frequên-
cias correspondente ao suporte B da mensagem, B = 2T1a = 4 kHz.

Este erro, denominado erro de quantificação, define-se pela diferença do sinal quantificado para o
sinal original,
eq (t) = x(t) − xq (t) (3.30)
Se, por hipótese, o intervalo de quantificação for suficientemente pequeno, poderemos aproximar
o erro de quantificação por uma processo estocástico caracterizado por uma variável aleatória que
se distribui uniformemente no intervalo [− ∆2 , ∆2 [ e, portanto, a função densidade de probabilidade do
erro de quantificação vem fe (ε) = ∆1 ( ∆ε ). Assim sendo, poderemos calcular a potência do erro de
d

quantificação

Z2
1 1 1 ∆3 ∆3 ∆2
Peq = Ee (0) = E{eq (t)eq (t)} = ε 2 dε = · ( + )= (3.31)
∆ ∆ 3 8 8 12
− ∆2

Com este resultado, podemos determinar a relação sinal/ruído de quantificação,


T
PX PX
SNRq = ' 2 (3.32)
Pe ∆ /12
Considerando a quantificação de um sinal sinusoidal de amplitude X e um quantificador de N bit
não saturado, teremos que a equação (3.32) se pode reescrever
T
SNRq |dB = 1, 5|dB + 20N log10 (2) = 1, 76 + 6, 02 · N [dB] (3.33)

uma vez que, nestas circunstâncias, PX = 12 X 2 . A título de exemplo, este resultado permite-nos
determinar a relação sinal/ruído de um CD de áudio, cuja quantificação (linear) sendo a 16 bit, é de
98,1 dB.
3.2. FONTES ANALÓGICAS 117

1 1

0.5 0.5

0 0

−0.5 −0.5

−1 −1
−1 −0.5 0 0.5 1 −1 −0.5 0 0.5 1

0.15 25

0.1
20
0.05

0 15

−0.05 10
−0.1
5
−0.15

−0.2 0
−1 −0.5 0 0.5 1 −0.2 −0.1 0 0.1 0.2

Figura 3.11: Quantificação uniforme com 3 bit (8 níveis): cima e à esquerda, sinal original e quantificado;
cima e direita, curva de quantificação; baixo e à esquerda, erro de quantificação e histograma do erro de
quantificação, em baixo e à direita.

3.2.5 Q UANTIFICAÇÃO N ÃO -U NIFORME

No caso do sinal de fala, verificou-se ser necessário um mínimo de 10 bit para que, usando
uma quantificação uniforme, haja uma qualidade aceitável na comunicação. Contudo, as amplitudes
das amostras de fala não se encontram uniformemente distribuídas. Verifica-se que é nas amplitudes
mais baixas que se encontra o maior número de ocorrências de amostras de fala, como se mostra
na figura 3.12. Efectivamente, a quase totalidade das amplitudes ocorrem em menos de ≈ 20% do
seu máximo, pelo que poderá ser vantajoso utilizar uma quantificação que privilegie as pequenas
amplitudes. Desta forma, promove-se uma quantificação fina nas baixas amplitudes, aumentando
o intervalo de quantificação à medida que as amplitudes do sinal aumentam. Como resultado, é
possível, usando um quantificador não linear e para a mesma qualidade de comunicação, utilizar
menos níveis de quantificação e, logo, um ritmo de transmissão mais baixo. No caso concreto da
fala, é utilizada uma quantificação de 8 bits, segundo a norma A (A-law) na Europa e a norma µ (µ
-law) nos EUA e no Japão. Esta quantificação não uniforme corresponde a utilizar um compressor14
seguido de um quantificador uniforme. A característica entrada-saída do compressor é, no caso na
norma A (o valor utilizado é A = 87, 6), considerando que a entrada é x0 e a saída é y0
D

14 Um compressor é um dispositivo que modifica as amplitudes do sinal de entrada, através de um ganho variável.
Assim, as pequenas amplitudes são mais amplificadas do que as grandes amplitudes.
118 CAPÍTULO 3. SISTEMAS DE COMUNICAÇÃO EM BANDA DE BASE

4
x 10
3.5

2.5

1.5

0.5

0
−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8

Figura 3.12: Histograma de um sinal de fala (normalizado à unidade).


A·|xi | 1


 1+ln(A) |xi | < A
x0 = F(xi ) = sign(xi ) ·
1+ln(A·|xi |)
 1
≤ |xi | ≤ 1


1+ln(A) A
(3.34)
1+ln(A)
 1

 A · |yi | |yi | < 1+ln(A)
y0 = F −1 (yi ) = sign(yi ) ·
exp[(1+ln(A))·|yi |−1)]

1
≤ |xi | ≤ 1

A A

Esta característica encontra-se representada na figura 3.13 para vários valores de A.

No caso na norma µ, fazendo µ = 255,


D
i |)
x0 = F(xi ) = sign(xi ) · ln(1+µ|x
ln(1+µ) |xi | ≤ 1
(3.35)
y0 = F −1 (y i) = sign(yi ) · 1
µ [(1 + µ)
|yi | − 1] |yi | ≤ 1
que se encontra representada na figura 3.14 para vários valores da constante µ.

Na figura 3.15 apresenta-se o histograma do sinal de fala utilizado no exemplo da figura 3.12,
depois de comprimido pela norma-µ. Como resultado, obtém-se uma distribuição das amplitudes
aproximadamente constante, pelo que um quantificador uniforme irá produzir na sua saída um sinal
com um erro de quantificação consideravelmente maior do que se teria sem esta compressão.

3.2.6 T RANSMISSÃO D IGITAL DE FALA EM S ERVIÇOS T ELEFÓNICOS PCM

Na quase totalidade dos sistemas actuais de telecomunicações telefónicas, o sinal de fala é en-
viado após ter sido digitalizado, pois a transmissão digital oferece óbvias vantagens face à transmis-
são analógica, dado que apresenta uma superior imunidade ao ruído. Há várias formas de efectuar a
digitalização da fala, sendo que as mais simples operam directamente nas amplitudes das amostras
do sinal:
D
3.2. FONTES ANALÓGICAS 119

lei A
1

0.8

0.6

0.4

0.2
y(t)

−0.2

−0.4

−0.6

−0.8

−1
−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1
x(t)

Figura 3.13: Quantificação uniforme (a preto) e não uniforme, norma-A, a cor azul (a vermelho, A=87,6).
Na ordenada 0, 5 e de baixo para cima: A = 1, 2, 5, 10, 50, 87, 6, e 100.

• PAM (pulse amplitude modulation) ou modulação em amplitude do impulso;

• PDM (pulse duration modulation) ou modulação em duração do impulso;

• PPM (pulse position modulation) ou modulação em posição do impulso;

• PCM (pulse code modulation) ou modulação por codificação do impulso;

• ADPDM (adaptive differential PCM) ou PCM adaptativo diferencial.

Pela sua larga divulgação nas ligações telefónicas, apenas iremos abordar o sistema PCM.

Na figura 3.16 apresenta-se de forma simplificada um sistema de comunicação PCM, onde os


blocos dentro do rectângulo a tracejado já foram estudados na secção 3.2.1.

Na figura 3.16 estão assinalados, dentro de dois rectângulos vermelhos, dois sub-blocos de-
signados por coder e decoder, respectivamente. Normalmente, nos sistemas de comunicação co-
merciais, estes dois sub-blocos encontram-se dentro do mesmo dispositivo electrónico, conhecido
por codec15 .
D
Nos sistemas PCM, o espectro do sinal de fala é limitado aos 3, 4 kHz, mediante uma filtragem
passa-baixo; segue-se-lhe uma amostragem ao ritmo de 8.000 amostras/segundo, correspondendo a
um período de amostragem de 125 µs. A quantificação efectuada é não-uniforme, utilizando-se na
Europa a lei-A (veja-se 3.2.5), de 8 bit/amostra, o que resulta num ritmo de bit total de 64 kbit/s
na saída/entrada de cada codec. O «espaço» entre duas amostras é, como se disse, de 125 µs e que
15 Recordemos que CODEC provém de COder+DECoder.
120 CAPÍTULO 3. SISTEMAS DE COMUNICAÇÃO EM BANDA DE BASE

lei u
1

0.8

0.6

0.4

0.2
y(t)

−0.2

−0.4

−0.6

−0.8

−1
−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1
x(t)

Figura 3.14: Quantificação uniforme (a preto) e não uniforme, norma-µ a cor azul (a vermelho, µ = 255.
Na ordenada 0, 5 e de baixo para cima: µ = 0, 1, 5, 10, 100, 255, e 300.

pode ser preenchido sequencialmente por outras amostras (canais) provenientes de outros codecs,
como se ilustra na figura 3.17; na Europa são utilizados 32 canais16 . O conjunto destes 32 canais é
designado por trama E1.
D
Dado que se está a utilizar a «posição» ou localização temporal para identificar cada ca-
nal, estamos perante um mecanismo de multiplexagem temporal dos sinais, também conhecido por
TDM17 .
D
Por sua vez, as tramas E1 podem ser agrupadas entre si, em grupos de 4 constituindo uma
trama E2 que, por sua vez podem ser novamente agrupadas em grupos de 4 tramas E2, resulando
numa trama E3 e assim sucessivamente até ao nível hierárquico E5, conforme se exemplifica na
figura 3.18 (até ao nível 4).

Na tabela 3.11 são apresentados os diferentes ritmos PCM europeus, em função do respectivo
nível hierárquico.

16 Destes 32 canais, o primeiro ou canal 0 é utilizado para sincronismo e canal 16 para sinalização.
17 TDM de Time Division Multiplexing.
3.2. FONTES ANALÓGICAS 121

2000

1800

1600

1400

1200

1000

800

600

400

200

0
−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1

Figura 3.15: Histograma do sinal de fala após compressão pela norma-µ.

CODER
Conversão
~ Quantificação
~ Amostragem Retenção Paralelo -
- Série
Codificação

Comunicação

DECODER

Compensação Conversão
x/sen(x) Reconstrução Série - Descodificação
- Paralelo

Figura 3.16: Diagrama de blocos de um sistema PCM.

Tabela 3.11: dos ritmos PCM

Nível No de Canais Ritmo


E1 30 2,084 Mb/s
E2 120 8,448 Mb/s
E3 480 34,368 Mb/s
E4 1.920 139,264 Mb/s
E5 7.680 565,148 Mb/s
122 CAPÍTULO 3. SISTEMAS DE COMUNICAÇÃO EM BANDA DE BASE

Bit 0

Bit 7
1 Trama
125 µs

canal 15
canal 16
canal 17

canal 31
canal 0
canal 1
canal 2
canal 3

canal 0
canal 1
canal 2
canal 3
Sinalização 3, 9 µs

Sinalização de Trama

Figura 3.17: Estrutura de uma trama E1 PCM.

MPX MPX MPX E3


E1 E2
30 4 4
MPX MPX MPX
30 4 4
MPX MPX MPX
30 4 4
MPX MPX MPX MPX
E4
30

Figura 3.18: Diagrama de blocos de um sistema PCM.


3.3. INTRODUÇÃO AOS CÓDIGOS BINÁRIOS 123

3.3 INTRODUÇÃO AOS CÓDIGOS BINÁRIOS

Sabemos que a existência de ruído no canal de comunicação se traduz, invariavelmente,


na ocorrência de erros nos receptores. Se bem que, numa comunicação analógica, o ruído tenha
consequências distintas das de uma comunicação digital18 , o facto é que uma vez ocorrido um erro
e a não ser que se tomem medidas adicionais antes de se enviar as mensagens para o canal, torna-se
muito difícil recuperar a mensagem inicial. Apresentaremos seguidamente uma breve introdução a
algumas técnicas destinadas a minorar a ocorrência de erros no receptor/descodificador.

Todo o sistema de comunicação deve ser concebido para que a mensagem recebida seja o mais
fiel possível à mensagem enviada. Uma forma de proceder no sentido de diminuir a ocorrência de
erros é através de um aumento de redundância dos dados transmitidos. Naturalmente que o aumento
de redundância se obtém acescentando à mensagem inicial um conjunto adicional de bits, que por
si só não transmitem informação útil e consequentemente, eficiência global diminui por isso. Há
sempre um preço a apagar pelo aumento de qualidade na comunicação e, nesta óptica, passa por ter
um ritmo de transmissão eficaz mais baixo. Do lado do receptor podem ser adoptadas estratégias de
detectar a ocorrência de erros e de corrigir o efeito desses erros. Assim, nos casos mais simples, os
erros podem ser detectados e imediatamente corrigidos; no caso mais severo da ocorrencia de erros,
o receptor pode detectar a sua existência mas não consegue proceder à sua correcção e em casos
mais extremos, os erros podem passar sem serem sequer detectados. Recordemos que o transmissor
codifica a mensagem adaptando-a ao canal de comunicação; o receptor, a partir dos bits recebidos
tenta obter uma estimativa da mensagem enviada. A (boa) codificação de canal consiste nos proce-
dimentos de codificação-descodificação de forma a que a probabilidade de erro de bit seja reduzida.
A detecção de erro consiste em, com elevada probabilidade, virmos a saber se a mensagem foi bem
descodificada.

Assim, seja ε a probabilidade de, num canal binário simétrico19 , se ter um bit errado. Claro
que se ε = 1/2 o canal é inútil, pelo que consideraremos apenas o caso em que ε < 1/2. Admitindo
que a lei dos grandes números é aplicável, uma forma de estimar a probabilidade de erro passa por
enviar N bit e contabilizar o número de erros ocorridos Ne , pelo que ε = limN→∞ NNe . Podemos ter
uma noção do efeito desta probabildade numa comunicação digital. Por exemplo, consideremos,
uma probabilidade bastante baixa de 10−9 ou , em linguagem corrente, um erro em mil milhoes de
bit. Na figura 3.19 ilustra-se, em função do ritmo de dados, o tempo médio para ocorrer um erro de
um bit. Embora se tenha partido de um valor de probabilidade aparentemente baixo (ε = 10−9 ), se
tivermos uma comunicação a 100 Mbit/s como vai sendo norma nas nossas residências, teríamos no
espaço de uma hora cerca de 360 erros!

Se considerarmos que, na maior dos casos na prática, a probabilidade de erro é muito reduzida,
18 Numa comunicação de voz, o ruído traduz-se por uma maior dificuldade em percepcionar a mensagem. A grande
redundância da comunicação verbal permite que, mesmo com (bastante) ruído, o destinatário consiga muitas vezes com-
preender a mensagem.
19 Ou seja, num canal em que a probabilidade de detectar um ”1” quando foi enviado um ”0” é igual à probabilidade de

detectar um ”0” quando foi efectivamente enviado um ”1”.


124 CAPÍTULO 3. SISTEMAS DE COMUNICAÇÃO EM BANDA DE BASE

6
10

5
10

4
10
Tempo de erro (s)

3
10

2
10

1
10

0
10
0 100 200 300 400 500 600 700 800 900 1000
Ritmo de dados (Mbit/s)

Figura 3.19: Tempo médio de ocorrência de um erro para ε = 10−9 .

pode-se mostrar que, a partir da equação (3.80) a probabilidade de termos um erro num pacote
(string) de N bits é Pr(pacote) ≈ ε · N.

3.3.1 C ÓDIGOS DE R EPETIÇÃO

O código mais simples consiste apenas em repetir n vezes cada bit da mensagem; assim
obtêm-se sequências de n ”1” e de n ”0” por cada ”1” e cada ”0” da mensagem original. Claro que,
neste caso, a eficiência do código decresce significativamente com o número n de repetições! Na
figura 3.20 apresenta-se a probabilidade de erro em função do índice m de repetições, ou seja, o
número de repetições (sendo ímpar) vem n = 2 × m + 1.

E como se desenha uma estratégia no receptor? Suponhamos, então, que cada bit da mensa-
gem é codificado com n repetições, independentemente de ser ”1” ou ”0”. Assim, por cada conjunto
de n bits recebido, decida-se pelo ”1” ou pelo ”0” consoante, nesse conjunto a maioria de bits recebi-
dos for, respectivamente, de ”1” ou de ”0”. É óbvio que, nesta estratégia, n não pode ser um número
par para se garantir a desambiguação20 . Recordemos que esta assunto já foi tratado no exemplo
apresentado em 3.4.4.

Designemos por (x, y) o código de repetição21 ; assim, suponhamos que tínhamos palavras de
20 Admitindo que os símbolos binários na fonte são equiprováveis.
21 Não se trata, neste caso, de uma repetição efectiva, pois acrescentam-se x − y bit a cada palavra de código.
3.3. INTRODUÇÃO AOS CÓDIGOS BINÁRIOS 125

0
10

−1
10

−2
10
Probabilidade de erro

−3
10

−4
10

−5
10

−6
10
0 5 10 15 20 25 30 35
n

Figura 3.20: Probabilidade de erro em função do número n de repetições, obtidas para uma probabilidade
de erro no canal binário simétrico ε = 1/2.

1 único bit (código (1, 1)). Obviamente são possíveis duas palavras distintas, ”0” e ”1”, figura 3.21
a). Ocorrendo um único erro na transmissão, poderíamos ter um de dois casos (figura 3.21 b)):

”0” −→ ”1”

”1” −→ ”0”

Dado que no receptor, quer o ”0” quer o ”1” são ambas palavras de código possíveis ou válidas, não
há a possibilidade de detectar e muito menos de corrigir a ocorrência de um erro.

0 0 0 0

1 1 1 1
a) b)

00 00 00 00

10
01

11 11 11 11

c) d)

Figura 3.21: Exemplos de códigos de Hamming (1,1), em cima e (2,1) em baixo; à esquerda sem erro no
canal e, à direita, com a ocorrência de um erro.

Acrescentemos agora um bit idêntico ao bit de cada palavra a emitir (código (2, 1)) de sorte
126 CAPÍTULO 3. SISTEMAS DE COMUNICAÇÃO EM BANDA DE BASE

a que à palavra ”0” corresponda a palavra ”00” e façamos o mesmo à palavra ”1” que será enviada
como ”11”, figura 3.21 c). Não havendo nenhum erro, as palavras recebidas correspondem a uma
das duas situações possíveis. Se, contudo, ocorrer um erro (indiferentemente)em qualquer um dos
dois bits de cada palavra, obter-se-ão duas palavras que não pertencem ao código; referimo-nos às
palavras ”10” e ”01” assinaladas a cor vermelha na figura 3.21 d). Neste caso já é possível a detecção
de um erro, muito embora ainda não seja possível determinar qual a palavra correcta. Veja-se que,
esta codificação não permite detectar a ocorrência de dois erros em simultâneo.

Consideremos agora o envio de palavras de dois bit e que, obviamente, pertencerão a uma
das = 4 possibilidades; acrescentemos-lhe um bit extra, resultando em 23 = 8 possibilidades das
22
quais apenas nos interessam as 4 anteriores, resultando numa codificação (3, 2). Tentemos desenhar
o código (3, 2) que nos permita determinar (mas não corrigir) a ocorrência de um erro e comecemos,
por exemplo, com a palavra de código ”000”. Uma vez que apenas poderá, por hipótese, ocorrer um
erro, receber-se-ia uma de três hipóteses: ”001” ou ”010” ou ainda ”100”. Então, isto significa que
nenhuma das outras palavras de código válidas poderia ser uma destas. De outra forma, as palavras
válidas teriam que se distinguir umas das outras em 2 bit ou seja, concretamente, ”101” ou ”011” ou
ainda ”110”. Para melhor se visualizar o exposto, representemos estas palavras de forma a que se
situem nos vértices não contíguos de um cubo, como se ilustra na figura 3.22.

100 110

000 010

101 111

001 011

Figura 3.22: Exemplos de código de Hamming (3,2), assinalando-se com um círculo as palavras de código
válidas e a vermelho as que resultam da ocorrência de um erro de um bit.

Introduza-se, como se segue, a noção de distância entre duas palavras de código.

D
Definição: Distância de Hamming HD como sendo o número de vezes que duas palavras (men-
sagens) w1 e w2 de l bit de comprimento cada difiram entre si.

A título de exemplo sejam w1 = ”11001” e w2 = ”01000”, logo HD (w1 , w2 ) = 2.




Facilmente se verifica que


0 ≤ HD (w1 , w2 ) ≤ l (3.36)
T
3.3. INTRODUÇÃO AOS CÓDIGOS BINÁRIOS 127

T 11 : Teorema Um código cujas palavras tenham entre si uma distância de Hamming HD pode
detectar qualquer padrão resultante da ocorrência de HD − 1 erros.

T
Corolário Nestes termos, existe pelo menos um padrão com HD erros que não pode ser detectado
com fiabilidade.

Sem constituir uma demonstração deste teorema, vejamos como se verifica nos exemplos
atrás dados:
Ex
1. no código (1, 1), cada palavra dista da outra de 1 bit ou seja, HD = 1, logo, e como se viu, não
é possível detectar um erro;

2. no código (2, 1) , cada palavra dista da outra de 2 bit, isto é HD = 2, logo, e como se viu, é
possível detectar apenas um erro;

3. ipsis verbis para o código (3, 2).


V

Importa saber se, ao aumentarmos a distância de Hamming entre as palavras de código, advém
alguma vantagem na detecção de erros.

Assim, voltemos ao caso em que pretendemos codificar apenas duas palavras ”0” e ”1” e
utilizemos um código (3, 1).

Ex
Seja então S = {000, 111} o conjunto das palavras válidas deste código e que, como de
imediato se verifica, distam entre si de 3 bits ou seja, HD (w1 , w2 ) = 3. Seja ainda E o conjunto das
palavras «corrompidas» por um único erro de S : E000 = {001, 010, 100} e E111 = {110, 101, 011},
como se assinala na figura 3.23, respectivamente a vermelho e violeta.

Podemos verificar que E000 E111 = 0/ 22 pois HD (wi , u j ) ≥ 1, sendo wi e u j com i, j = 1, 2, 3


T

uma palavra arbitrária de E000 e de E111 , respectivamente.

Este código permite corrigir a ocorrência de um erro e detectar a ocorrência de dois erros.
Observando a figura 3.23, é muito fácil saber, determinando a distância de Hamming se o erro
22 Ademonstração é por redução ao absurdo: admitamos que a intersepção é não-vazia; então isso significa que há
duas palavras de E000 e E111 comuns. Assim sendo, teríamos forçosamente que a distância de Hamming entre elas seria
nula. Ora, tal não pode suceder pois então uma das palavras de E000 ou de E111 teria sido obtida pela modificação de 2
bits, contrariando a hipótese de apenas ter ocorrido um erro. Este caso é, por exemplo, assinalado na figura 3.23 pela seta
vermelha (a tracejado).
128 CAPÍTULO 3. SISTEMAS DE COMUNICAÇÃO EM BANDA DE BASE

100 110

000 010

101 111

001 011

Figura 3.23: Código de Hamming (3,1), assinalando-se com um círculo as palavras de código válidas e a
vermelho e a violeta as que resultam da ocorrência de um erro de um bit.

proveio da sequência ”000” ou da ”111”. Podemos também racionar da seguinte forma: a sequência
u ou palavra recebida verifica uma das seguintes condições:

(u ∈ S ) ⊕ (u ∈ E000 ) ⊕ (u ∈ E111 ) (3.37)

onde ⊕ significa «ou exclusivo». Então, a decisão no receptor, ud , sobre o bit enviado pode
expressar-se como sendo:

u = ”000” 

⊕ −→ ud = ”0”
u ∈ E000

⊕ (3.38)

u = ”111” 

⊕ −→ ud = ”1”
u ∈ E111

Este exemplo permite-nos apresentar os teoremas seguintes:


T

T 12 : Teorema Num canal binário simétrico cuja probabilidade de erro seja inferior a 1/2, a
estratégia do receptor é optar pela palavra de código válida que tenha menor distância à sequência
recebida.


T

T 13 : Teorema Seja um dado código cuja distância seja HD ; então, esse código permite corrigir
qualquer padrão ou palavra recebida com um número Ne erros

HD − 1
Ne ≤ b c
2
e detectar HD − 1 ocorrências de erros.
3.3. INTRODUÇÃO AOS CÓDIGOS BINÁRIOS 129


T
T 14 : Teorema A distância de Hamming entre palavras de n bits verifica a desigualdade triangular,

HD (x, y) + HD (y, z) ≥ HD (x, z) (3.39)

O problema com os códigos de Hamming é o seu desenho uma vez que não há uma forma
expedita conhecida para serem obtidos.

3.3.2 C ÓDIGOS DE B LOCO L INEARES

Um código de bloco é caracterizado por ter sequências de bits de comprimento k (blocos)


que são «expandidas» para n bits, acrescentando-lhe n − k bits de redundância. Sendo k a dimensão
inicial dos blocos, teremos um total de 2k palavras de código distintas ou seja, o alfabeto da fonte
binária tem dimensão 2k palavras. Como na secção anterior, desiganeremos esses códigos por (x, y),
sendo x ≥ y, e que apresentam um ritmo de y/x ≤ 1.
D
Um código diz-se linear quando as mensagens que dele se obtêm resultam de operações
algébricas lineares dos seus bits. Serão estes tipos de códigos que passaremos a analisar e que são
de uso bastante alargado. Uma classe de códigos lineares são os códigos binários lineares em que se
utiliza uma aritmética de base 2: campos de Galois de base 2 ou F2 .

Como é sabido, um campo ou corpo em álgebra é um anel comutativo23 em que todo o


elemento não-nulo apresenta um inverso em relação à multiplicação.

No corpo F2 a adição é definida como

0+0 = 1+1 = 0
0+1 = 1+0 = 1

e a multiplicação como
0·0 = 0·1 = 1·0 = 0
1·1 = 1
T
23 Sendo que um anel é uma estrutura algébrica que consiste num conjunto A com um elemento nulo (0) e duas operações

binárias + (adição ou soma) e · (produto ou multiplicação) que satisfazem as condiçõe de a) associatividade da adição
∀a, b, c ∈ A : (a + b) + c = a + (b + c); b) existência de elemento neutro (0) da adição: ∀a ∈ A : a + 0 = 0 + a = a; c)
existência de simétrico da adição: ∀a ∈ A, ∃b ∈ A : a + b = 0; d) comutatividade da adição: ∀a, b ∈ A : a + b = b + a;
e) associatividade do produto: ∀a, b, c ∈ A : (a · b) · c = a · (b · c); f) distributividade do produto em relação à adição (à
esquerda e à direita): ∀a, b, c ∈ A : a · (b + c) = a · b + a · c ∧ (a + b) · c = a · c + b · c; g) existência de elemento neutro (1)
do produto (axioma do elemento neutro): ∃1 ∈ A, 1 6= 0 ∧ (∀a ∈ A, 1.a = a.1 = a). Dado que a multiplicação tem elemento
neutro, o anel é dito anel com identidade ou anel com unidade.
130 CAPÍTULO 3. SISTEMAS DE COMUNICAÇÃO EM BANDA DE BASE

T 15 : Teorema Um codigo é linear se e só se a soma de quaisquer palavras de código é uma


(outra) palavra de código.


Ex

Exemplo Mostre que o código de bloco C = {000, 011, 101} não é um código linear.

Resolução Para tal, basta ver que, em F2 , se tivermos 011 + 101 obteremos 110 que é uma
palavra que não pertence a C .

Ex
Exemplo Mostre agora que o código de bloco B = {000, 011, 101, 110} é linear e que a distância
de Hamming entre quaisquer duas palavras de B é HD = 2.
V

D
Definição: Peso de uma Palavra de Código como sendo o número de ”1” dessa palavra.
T

T 16 : Teorema A mínima distância de Hamming de código de bloco linear é igual ao menor peso
das suas palavras de código não-nulas.

3.3.3 C ÓDIGOS R ECTANGULARES DE C ORRECÇÃO DE E RROS

Comecemos por definir paridade de uma dada palavra de código.

D
Definição: Paridade de uma Palavra de Código w como sendo o ou exclusivo dos seus bits, ou
seja, P(w) = b1 ⊕ b2 ⊕ · · · ⊕ bn em que w = b1 b2 · · · bn .

Uma palavra tem paridade (ím)par quando P é (ím)par; o mesmo é dizer quando o número de
”1” dessa palavra for (ím)par.

Designe  a operação de concatenação (junção ou agrupamento) de duas sequências de bits


ou de duas mensagens24 . Então é trivial ver que

P(w  P(w)) = 0 (3.40)


3.3. INTRODUÇÃO AOS CÓDIGOS BINÁRIOS 131

D
Definição: Código de Paridade Par diz-se de todo o código que verifica a equação (3.40).

Num código de paridade par, a ocorrência de um erro resulta numa paridade ímpar pelo
que é, no receptor, uma situação trivial de ser detectada. Ora, esta situação resulta de termos um
código obtido pela concatenação do código original com a sua paridade, resultando numa distância
de Hamming de 2 entre todas as suas palavras.

Vamos usar este conceito para construir o denominado código rectangular; posteriormente
veremos como descodificá-lo.

Consideremos, para facilidade de exposição, que pretendemos transmitir palavras de 8 bits,


por exemplo, wi = b1  b2  · · ·  b8 e construamos uma tabela ou matriz de, por exemplo, 2 × 425 :

Tabela 3.12: da construção de um código rectangular.

b1 b2 b3 b4
b5 b6 b7 b8

Acrescente-se a cada linha e a cada coluna a respectiva paridade,

b1 b2 b3 b4 P(b1 , b2 , b3 , b4 )
b5 b6 b7 b8 P(b5 , b6 , b7 , b8 )
P(b1 , b5 ) P(b2 , b6 ) P(b3 , b7 ) P(b4 , b8 )

Designe agora L = P(b1 , b2 , b3 , b4 )  P(b5 , b6 , b7 , b8 ) uma palavra obtida pela concatenação


das paridades de linha e C = P(b1 , b5 )P(b2 , b6 )P(b3 , b7 )P(b4 , b8 ) e obtenha-se a nova palavra
ui ou mensagem a transmitir como sendo ui = wi  L  C. Dado que a palavra inicial tinha 8 bits,
a nova palavra terá agora 8 + 1 + 1 + 1 + 1 + 1 + 1 bits, correspondendo a um ritmo efectivo de
transmissão de r = 8/14.

Com generalidade: se o número de bits de wi for N, teremos que se pode construir uma matriz
de l linhas e k colunas sendo naturalmente l × k = N; havendo l linhas, teremos l bits de paridade de
linhas (um por cada linha) e k bits de paridade de colunas (um por cada coluna), pelo que o número
de bits da palavra estendida u é de N + l + K, resultando num ritmo:

N l ×k
r= =
N +l +k l ×k+l +k

Vejamos como este código permite corrigir um único erro. Para tal, suponha-se a existência
de duas palavras arbitrárias mi e m j pertencentes ao código C . Sejam ui e u j as correspondentes
palavras resultantes das operações u = w  L  C. Então, a distância de Hamming entre elas pode
ser dada por uma das três hipóteses seguintes:
24 Nada obsta a que uma mensagem ou uma sequência possa ser composta unicamente por um bit.
25 Poderia também ser 4 × 2 ou 8 × 1 ou ainda 1 × 8.
132 CAPÍTULO 3. SISTEMAS DE COMUNICAÇÃO EM BANDA DE BASE

• HD (mi , m j ) = 1 ou seja, as duas palavras diferem de apenas 1 bit. Neste caso, o código rec-
tangular de cada uma das duas palavras conterá 3 bits distintos entre si: um bit da paridade
da linha, outro bit da paridade da coluna e, finalmente, o bit que distingue as duas palavras.
Assim, a distância de Hamming entre as duas palavras resultantes da codificação rectangular
é HD (ui , u j ) = 3;

• HD (mi , m j ) = 2 ou seja, as duas palavras diferem de apenas 2 bit. Ora, ao construir o código
rectangular, os bits distintos ou a) ocorrem na mesma linha ou b) na mesma coluna ou ainda c)
ocorrem em linhas e colunas diferentes. No caso a) mantém-se a paridade de linha, alterando-
se as paridades das 2 colunas; em b) mantém-se a paridade da coluna e alteram-se as paridades
das 2 linhas e em c) alteram-se as paridades da linha e da coluna. Em resumo, a distância de
Hamming entre as duas palavras resultantes da codificação rectangular é HD (ui , u j ) > 3;

• HD (mi , m j ) ≥ 3 ou seja, as duas palavras diferem de 3 ou mais bits. Este caso é o mais simples
de analisar pois os códigos rectangulares distarão mais de 3 bits uma vez que ui ⊃ mi e u j ⊃ m j ;
logo HD (ui , u j ) ≥ 3.

Conclui-se assim que HD (ui , u j ) ≥ 3 e, portanto, este simples código rectangular, de acordo com o
teorema 13, permite corrigir a ocorrência de um erro.

Vejamos agora como se procede à descodificação do código rectangular; trata-se de, rece-
bendo uma mensagem u determinar a mensagem ou palavra de código original w que lhe deu origem
e, sendo caso, determinar se ocorreram erros e, quando possível, corrigi-los. Assim, suponhamos
que, se ocorrer um erro, apenas um bit será afectado. No receptor, será efectuado um cálculo (em
F2 ) de paridade por linhas e por colunas e da mensagem recebida. Então, uma das quatro situações
será possível:

• não ocorreu nenhum erro de paridade: a mensagem descodificada corresponde directamente


à mensagem recebida;

• ocorreu um único erro de paridade da linha ou da coluna: neste caso, o erro ocorreu no
próprio bit de paridade26 , pelo que a correspondente mensagem pode ser obtida directamente
(retirando os bits das paridades);

• ocorreram dois erros, um na paridade da linha e outro na paridade da coluna: agora isto
significa que o bit correspondente a essa linha e a essa coluna sofreu um erro. Assim, basta
inverter o seu valor lógico e reconstruir a mensagem;

• ocorreram mais erros de paridades das linhas e colunas: então houve mais do que um bit
errado... nesta situação o receptor não tem forma de localizar o(s) erro(s).

Ex

Exemplo Para facilidade de compreensão do exposto, suponhamos que se pretendia enviar uma
mensagem de 8 bits através de um código rectangular: w = ”10100011”.
26 pois de outro modo, teríamos 2 erros de paridade!
3.3. INTRODUÇÃO AOS CÓDIGOS BINÁRIOS 133

Tabela 3.13: da construção de um código rectangular para a mensagem w = ”10100011”.

1 0 1 0 P(1010) = 0
0 0 1 1 P(0011) = 0
P(10) = 1 P(00) = 0 P(11) = 0 P(01) = 1

Para facilidade de visualização repetimos a tabela, omitindo a indicação explícita das parida-
des (que assinalamos a cor azul):

1 0 1 0 0
0 0 1 1 0
1 0 0 1

Assim, a mensagem enviada é

u = ”10100011  0  0  1  0  0  1” = ”10100011001001”

Construamos agora a tabela 3.13 na hipótese de ter ocorrido um erro único de paridade da
linha:

1 0 1 0 0
0 0 1 1 1
1 0 0 1

Dado que, no receptor, o cálculo das paridades de linha resultará em 0 para a primeira linha e,
também, 0 para a segunda e que neste lugar se recebeu um ”1”, então o erro só pode ter ocorrido no
próprio bit da paridade27 , pelo que basta descartar os bits das paridades para recuperar, sem erros, a
mensagem w.

Suponhamos agora que o erro cai sobre sobre um dos bits da mensagem; no receptor detecta-
se de imediato uma inconsitência entre a paridade da linha e da coluna calculadas em contraste com
as recebidas, conforme se assinala com →:

1 0 1 0 0
0 1 1 1 0→ 1
1 0→ 1 0 1

3.3.4 C ÓDIGOS DE H AMMING


D
27 Obviamente! Pois se tivesse ocorrido nos bits da mensagem, então haveria inconsistência entre as paridades das
colunas correspondentes à localização do erro e que foram enviadas com as calculadas no receptor.
134 CAPÍTULO 3. SISTEMAS DE COMUNICAÇÃO EM BANDA DE BASE

Definição: Códigos Sistemáticos dizem-se dos códigos lineares onde cada palavra de código de
n bits pode ser decomposta em k bits da palavra inicial concatenada com n − k bits de paridade.

Dada a existência de n − k bits de paridade, a ocorrência de um erro origina, no receptor, a


possibilidade de se terem 2n−k condições de erro. Assim, é necessário ter, pelo menos, um número
de bits de paridade n − k para uma palavra de k bits que verifiquem a condição
T
2n−k ≥ n + 1 (3.41)

Na tabela 3.14 apresentam-se o número total mínimo de bits n de um código sistemático que
verifique a equação (3.41).

Tabela 3.14: do número mínimo total de bits de um Código Sistemático, onde k é o número de bits da palavra
inicial e n é o número total de bits resultante.

k 1 2 4 8 16 32 64 128 256 512 1024


n 3 5 7 12 21 38 71 136 265 522 1035

Reparemos que os códigos rectangulares não verificam esta condição no que respeita ao mí-
nimo número de bits.
Ex
Suponhamos agora que as nossas palavras de código têm k = 4 bits, w = b1  b2  b3  b4.
Da tabela anterior, tabela 3.14, podemos ver que serão necessários 7 − 4 = 3 bits de paridade que
podem «proteger» 4 bits (a negrito). Estes bits de paridade devem, cada um, proteger grupos de 3
bits; ou seja, cada bit de paridade deve ter a mesma importância na protecção de bits das palavras
do código que os restantes bits de paridade. Assim, teremos de associar os quatro bits em grupos de
três (sem repetição). Concretamente, teríamos as seguintes C34 = 4 combinações:
P(b1  b2  b3) = p1
P(b1  b2  b4) = p2
(3.42)
P(b2  b3  b4) = p3
P(b1  b3  b4)
onde não se indica o bit de paridade da última combinação; isto porque, como se viu, bastam 3 bits
de paridade e, atentando na figura 3.24, onde se apresentam os 4 bits da mensagem bem como os
bits de paridade correspondentes, nota-se que cada bit da mensagem aparece envolvido pelo menos
2 vezes nas determinações das paridades.

Coloquemo-nos agora no receptor; assim, será efectuado um cálculo da paridade de cada


quarteto de bits recebido, como se indica:
P(b1  b2  b3  p1) = P1
P(b1  b2  b4  p2) = P2 (3.43)
P(b2  b3  b4  p3) = P3
Assim, a ocorrência de um erro, seja nos bits da mensagem seja nas paridades, resulta num valor de
Pi diferente de zero o que sinaliza que «algo não está bem» ou seja, há um sintoma ou síndroma de
que pode ter ocorrido um erro.Por este motivo, as paridades Pi são conhecidas por bits de síndroma.
D
3.3. INTRODUÇÃO AOS CÓDIGOS BINÁRIOS 135

b1
p2 p1
b2

b4 b3

p3

Figura 3.24: Exemplo de aplicação de um código de Hamming (7,4).

É fácil verificar que acções correctivas devem ser aplicadas à palavra recebida para se recupe-
rar do (eventual) erro. Este processo assinala-se na tabela 3.15 e é facilmente obtido por inspecção
da figura 3.24.

Tabela 3.15: das acções correctivas em função do Síndroma P3  P2  P1 .

P3 P2 P1 Acção
000 (não ocorreu erro)
001 p1 está errado → inverta-se
010 p2 está errado → inverta-se
011 b1 está errado → inverta-se
100 p3 está errado → inverta-se
101 b3 está errado → inverta-se
110 b4 está errado → inverta-se
111 b2 está errado → inverta-se

3.3.5 F ORMALIZAÇÃO PARA C ÓDIGOS L INEARES

Geração de Códigos Regulares

Recordemos que, a partir de palavras de código com k bits, se obtêm palavras de n bits através
da concatenação de n − k bits de paridade. Este processo pode ser formalizado recorrendo ao cálculo
matricial, dado tratar-se de um problema linear:

D · G=C (3.44)
F2

onde D = [b1 b2 · · · bk ] é um vector linha (1 × k) composto pelos bits bi da mensagem, C é um vec-


tor coluna C = [c1 c2 · · · cn ] de dimensão (n × 1) correspondendo às palavras de código a transmitir
e G uma matriz k × ndenominada matriz geradora do código linear de blocos.
D
Estando o código na forma sistemática, C = [b1 b2 · · · bk p1 p2 · · · pn−k ], então a matriz
geradora G pode ser decomposta como sendo a concatenação, linha-a-linha duma matriz identidade
136 CAPÍTULO 3. SISTEMAS DE COMUNICAÇÃO EM BANDA DE BASE

k × k com uma matriz A (k × (n − k)) que define o código:



G = Ik×k A (3.45)

onde  representa a concatenação linha-a-linha.

Ex

Exemplo Vejamos no caso apresentado do código (7 × 4); teremos então, e recordando o cálculo
das paridades, conforme a equação (3.42):

 
b1
b2
   
 
1 0 0 0 1 1 0  
   b3 
 0 1 0 0 1 1 1   
(b1 b2 b3 b4 ) ·  = b4 (3.46)

  
| {z }   0 0 1 0 1 0 1   
D  p1 
0 0 0 1 0 1 1  
p2
 
| {z }  
G
p3
| {z }
C
Analisemos a transposta da submatriz A que assume a forma
 
1 1 1 0
AT =  1 1 0 1  (3.47)
 

0 1 1 1

e que não é mais do que as três primeiras linhas da equação (3.42)!


V

Descodificação de Máxima Verosimilhança

Supondo que a probabilidade de erro de um canal binário simétrico é ε < 1/2, a descodi-
ficação no receptor «limita-se» a determinar a palavra do seu livro de código que tenha a menor
distância de Hamming da palavra recebida (com ou sem erros). Este problema pode ser equacio-
nado como sendo a maximização da probablidade de se ter recebido r quando se enviou a palavra c,
ou seja max Pr(r|c); suponha-se ainda que a distância de Hamming entre as duas palavras de código
é de d (ou seja, as palavras diferem entre si de d bits), HD (r, c) = d então, a probabilidade Pr(r|c) de
se ter r dado que se enviou c vem

Pr(r|c) = ε d (1 − ε)n−d (3.48)

onde, como anteriormente, n é o número de bits das palavras de código. Aplicando logaritmos a esta
equação, resulta em
ε
log Pr(r|c) = d log(ε) + (n − d) log(1 − ε) = d · log + n · log(1 − ε) (3.49)
1−ε
3.3. INTRODUÇÃO AOS CÓDIGOS BINÁRIOS 137

Na hipótese de trabalho28 de ε < 12 , temos forçosamente que 1−ε


ε ε
< 1 ⇒ log 1−ε < 0. Ora, isto
significa que maximizando Pr(r|c) resulta de minimizar d (como se pretendia) uma vez que o termo
n · log(1 − ε) é constante!

Para um desenvolvimento deste tema veja-se (Balakrishnam et al. , 2012), por exemplo.

3.3.6 C ÓDIGOS DE C ONVOLUÇÃO

Nesta secção iremos tratar de uma classe de códigos que tem grande importância nos sistemas
de comunicação sem fios, nomeadamente nos protocolos 802.11 e nas comunicações via-satélite;
fazem ainda parte de códigos mais evoluídos que têm utilização nas redes celulares, nomeadamente
em 3G, LTE e 4G.

Contrariamente aos códigos lineares de blocos, os códigos convolucionais, apenas enviam os


bits resultantes da determinação da paridade das palavras de código e não enviam os próprios bits
da mensagem. Os trabalhos de Peter Elias em meados da década de 50 foram determinantes na
evolução destes códigos convolucionais.

Construção do Código Convolucional

Suponha-se uma palavra de código com N bits, conforme se ilustra na figura 3.25, onde o
cálculo das paridades assenta numa janela deslizante de 3 bits, onde
(
p0 (n) = bn ⊕ bn−1 ⊕ bn−2
(3.50)
p1 (n) = bn ⊕ bn−1

com n = 3, · · · N e representando o operador ⊕ a soma em F2 ou, como usualmente é conhecido,


o «ou exclusivo». Designe agora K a duração (comprimento) da janela que se desloca sobre a
mensagem a transmitir e que é denominado o comprimento da restrição (constraint length) e r
o número de bits de paridade a determinar; a janela desloca-se bit-a-bit ao longo da mensagem.
Obviamente quanto maior for K e mais bits de paridade se obtiverem, maior será a imunidade do
código a erros de comunicação. Contudo, este aumento de segurança acarreta uma codificação mais
morosa, um aumento do tempo de latência e das necessidades de processamento.

A equação (3.50) pode ser formulada como sendo


T
!
K−1
pi (n) = ∑ gi ( j)b(n − j) = gi ∗ bn
F2
(3.51)
j=0 F2

onde, para facilidade de visualização, se substituiu bn− j por b(n − j) e que, de imediato, se identifica
com o somatório de convolução e, portanto, justifica-se assim o nome deste código. A notação
(· · · )F2 reporta-se a uma aritmética módulo 2, como tem vindo a ser usual. Nesta equação podemos
ainda observar que gi não é mais do que a coluna índice j da matriz A da equação (3.47).
28 Se esta hipótese não se verificar, teremos duas situações: ou ε = 1/2 e que corresponde ao canal inútil, ou ε > 1/2 e,
neste caso, basta inverter a palavra recebida e proceder como se descreve.
138 CAPÍTULO 3. SISTEMAS DE COMUNICAÇÃO EM BANDA DE BASE

b1 b2 b3 ... bn-2 bn-1 b n bn+1 ...

p (3)
0
p (3)
1

b1 b2 b3 ... bn-2 bn-1 b n bn+1 ...

p (n)
0
p (n)
1

Figura 3.25: Exemplo da geração de um Código Convolucional.

Descodificação do Código Convolucional

Independentemente do tipo de código utilizado, seja ele de blocos, linear, etc., o receptor
terá de optar pela palavra de código que seja a mais provável de ter sido transmitida, dada uma
sequência detectada. Esta decisão deve basear-se na menor distância de Hamming entre as sequência
recebida e a(s) existente(s) no livro de código. Um pequeno exemplo numérico pode ajudar a ter
uma noção do efeito da distância de Hamming na probabilidade anterior. Assim, reportemo-nos à
equação (3.48) e particularizemos para uma sequência de 8 bit (n = 8) e vários erros de bit num
canal binário simétrico; a probabilidade de se ter recebido uma palavra que diste DH bits em função
de DH para várias probabilidades de erro do canal ε, é dada na figura 3.26. Podemos ver que,
no caso de ε = 10−6 a variação da probabilidade é de 10−7 para 10−18 , ou seja, de onze ordens
de grandeza, quando a distância de Hamming passa de 1 bit para 3 bits. O problema consiste na
procura exaustiva das palavras de código mais próximas que se torna rapidamente inviável com N. O
processo de tornar esta descodificação mais eficaz passa pela utilização de métodos de optimização
(local) da busca, entre os quais se destaca a utilização da treliça29 e o algorimto de Viterbi para
determinar qual a sequência mais provável. A treliça é uma estrutura onde se explicita a evolução
temporal (geralmente na horizontal) e os estados do descodificador para cada instante de tempo30 .
O estudo mais aprofundado destas matérias extravasa claramente o âmbito destas notas, pelo que se
recomenda a leitura de (Balakrishnam et al. , 2012), por exemplo.

29 do inglês trellis que, por sua vez, derivou do latim trilix.


30 Vejam-se, por exemplo, os capítulos 7 e 8 de (Balakrishnam et al. , 2012).
3.4. CANAIS DISCRETOS SEM MEMÓRIA 139

0
10

−5
10

−10
10
Pr(u,w)

−15
10

−20
10

−25
10
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
Distancia de Hamming

Figura 3.26: Pr(u, w) em função da distância de Hamming para (de cima para baixo) ε igual a 10−3 , 10−4 ,
10−5 e 10−6 , respectivamente asinaladas com os símbolos ◦, +, × e ∗.

3.4 CANAIS DISCRETOS SEM MEMÓRIA

Comecemos por apresentar um conjunto de definições.

Definição: Canal Discreto sem Memória um canal discreto sem memória é um modelo estatís-
tico com uma entrada X e uma saída Y que se entende como sendo uma versão ruidosa de X.

Naturalmente que, no que se segue, X e Y são variáveis aleatórias. Em cada instante de tempo,
o canal aceita na entrada um dado símbolo xi pertencente ao alfabeto ou dicionário de entrada X,
∀i = 1, 2, · · · : xi ∈ X, e, por sua vez, produz na sua saída um símbolo yk que pertencerá ao alfabeto
de saída Y , ∀k = 1, 2, · · · : yk ∈ Y . Sendo, respectivamente, as dimensões I e K dos alfabetos X e
Y finitas31 , o canal diz-se discreto.

Quando, num dado instante de tempo, o símbolo de saída depende apenas do símbolo de
entrada nesse instante e não de outros símbolos em instantes anteriores, o canal diz-se sem memória.
Sendo assim, o canal é caracterizado por ter um alfabeto de entrada, um alfabeto de saída e um

31 Em geral, os dicionários podem ter dimensões de entrada e de saída distintas: I = dim(X) 6= K = dim(Y ).
140 CAPÍTULO 3. SISTEMAS DE COMUNICAÇÃO EM BANDA DE BASE

conjunto de probabilidades condicionais ou de transição

X = {x0 , x1 , . . . , xI−1 }

Y = {y0 , y1 , . . . , yK−1 } (3.52)

p(yk |xi ) = Pr(Y = yk |X = xi ) ∀i, k

sendo que, forçosamente, ∀i, k : 0 ≤ p(yk |xi ) ≤ 1.

Uma forma conveniente de apresentar estas probabilidades de transição é através da matriz de


transição ou matriz do canal
D
 
p(y0 |x0 ) p(y1 |x0 ) . . . p(yK−1 |x0 )
 
 p(y0 |x1 ) p(y1 |x1 ) . . . p(yK−1 |x1 ) 
Pc = 
  (3.53)
 ... ... ... ... 

p(y0 |xI−1 ) p(y1 |xI−1 ) . . . p(yK−1 |xI−1 )

Notemos que, nesta matriz, cada linha representa a saída para um dado símbolo de entrada
constante, enquanto que, cada coluna representa saída constante para distintos símbolos de entrada.
Reparemos também que a soma das probabilidades de transição em cada linha de Pc é unitária, ou
seja, ∀i = 0, 1, · · · , I − 1 : ∑K−1
k=0 p( jk |xi ) = 1. Claro que, se se tratasse de um canal perfeito, onde
não ocorressem trocas de símbolos, teríamos que a matriz do canal seria agora uma matriz quadrada
(pois I = K):  
1 0 ... 0
 
 0 1 ... 0 
Pc =    (3.54)
 ... ... ... ... 

0 0 ... 1

Seja p(xi ) = Pr(X = xi ) a probabilidade a priori de se ter a variável aleatória X = xi ou seja,


termos na entrada do canal o símbolo xi . Temos também que a probabilidade conjunta de se ter xi
na entrada e jk na saída vem dada por:

p(xi , yk ) = Pr(X = xi ,Y = yk ) = Pr(Y = yk |X = xi ) Pr(X = xi ) =


(3.55)
= p(yk |xi )p(xi )

Como, por outro lado, se tem que p(yk ) = Pr(Y = yk ) (usando o resultado da equação (2.7)),
obtemos
I−1
∀k = 0, 1, · · · , K − 1 → p(yk ) = ∑ p(yk |xi )p(xi ) (3.56)
i=0

que nos permite a probabilidade de se ter um dado símbolo yk na saída do canal, conhecendo a
distribuição a priori de símbolos na entrada. Assim, sendo

PX = [p(x0 ), p(x1 ), · · · , p(xI−1 )]T


3.4. CANAIS DISCRETOS SEM MEMÓRIA 141

e
PY = [p(y0 ), p(y1 ), · · · , p(yK−1 )]T

os vectores das probabilidades dos símbolos de entrada e de saída, respectivamente, teremos


T

PY = PcT · PX (3.57)

3.4.1 C ANAL B INÁRIO S IMÉTRICO

Este é um tipo de canal com bastante interesse prático e que corresponde, nas equações
anteriores, a ter-se K = I = 2. Assim teremos 2 símbolos enviados e recebidos, o «0» e o «1».
Se admitirmos que a probabilidade de recebermos um «1» quando se enviou um «0» é igual à
probabilidade de recebermos um «0» quando se enviou um «1» teremos um canal simétrico. Seja
p a probabilidade (condicional) de se ter um erro (recebeu-se um «1» quando se enviou um «0» e
vice-versa). Então a matriz do canal, (equação (3.53)) fica
T
 
1− p p
Pc =  (3.58)
 

p 1− p

3.4.2 I NFORMAÇÃO M ÚTUA

Comecemos por tentar responder à questão de determinar qual a incerteza sobre X dado que
se observou Y ? Para tal, definamos a entropia condicional:
D
I−1 I−1
1
H(X|Y = yk ) = − ∑ p(xi |yk ) log2 p(xi |yk ) = ∑ p(xi |yk ) log2 p(xi |yk ) (3.59)
i=0 i=0

e a partir desta entropia, poderemos calcular


K−1
H(X|Y ) = ∑ H(X|Y = yk )p(yk ) (3.60)
k=0

e que se pode desenvolver como:


K−1 I−1 K−1 I−1
1 1
H(X|Y ) = ∑ ∑ p(xi |yk )p(yk ) log2 p(xi |yk ) = ∑ ∑ p(xi , yk ) log2 p(xi |yk ) (3.61)
k=0 i=0 k=0 i=0

D
Definição: Entropia Condicional a entropia H(X|Y ), definida na equação (3.61), denomina-se
entropia condicional.

Esta entropia condicional dá-nos uma medida da incerteza da entrada do canal depois de
observar a sua saída. Por outro lado, a entropia da fonte de entrada H(X) dá-nos uma medida
da incerteza da fonte (entrada do canal) antes de observar a saída; pelo que H(X) − H(X|Y ) dar-
nos-á a incerteza sobre a entrada do canal determinada pela sua saída. Esta diferença denomina-se
informação mútua do canal.
142 CAPÍTULO 3. SISTEMAS DE COMUNICAÇÃO EM BANDA DE BASE

D
Definição: Informação Mútua a informação mútua é definida como

I(X;Y ) = H(X) − H(X|Y ) (3.62)

ou, de modo semelhante,


I(Y ; X) = H(Y ) − H(Y |X) (3.63)

T
Corolário a informação mútua é simétrica32

I(X;Y ) = I(Y ; X) (3.64)

Demonstração
I(X;Y ) = H(X) − H(X|Y ) =
I−1 K−1 I−1
1 1
= ∑ p(xi ) log2 p(xi ) − ∑ ∑ p(xi , yk ) log2 p(xi |yk ) =
i=0 k=0 i=0
I−1 K−1 K−1 I−1
1 1
= ∑ p(xi ) log2 ∑ p(yk |xi ) − ∑ ∑ p(xi , yk ) log2 p(xi |yk ) =
i=0 p(xi ) k=0 k=0 i=0
| {z }
=1
K−1 I−1 K−1 I−1
1 1
= p(x )p(y |x ) log −
∑ ∑ | i {z k i} 2 p(xi ) ∑ ∑ p(xi , yk ) log2 p(xi |yk ) =
k=0 i=0 k=0 i=0
=p(yk ,xi )

K−1 I−1
1 1
= ∑ ∑ p(yk , xi )[log2 p(xi ) − log2 p(xi |yk ) ] (3.65)
k=0 i=0

dado que p(xi , yk ) = p(yk , xi ). Desenvolvendo o termo entre parêntesis rectos, vemos que
1 1 p(xi |yk )
[log2 − log2 ] = log2 (3.66)
p(xi ) p(xi |yk ) p(xi )
e ainda que 
p(yk , xi ) = p(yk |xi )p(xi ) 
 p(xi |yk ) p(yk |xi )
⇒ = (3.67)
 p(xi ) p(yk )
p(xi , yk ) = p(xi |yk )p(yk )

permitem-nos obter o seguinte resultado


K−1 I−1
p(xi |yk ) K−1 I−1 p(xi |yk )
I(X;Y ) = ∑ ∑ p(yk , xi ) log2 = ∑ ∑ p(xi , yk ) log2 (3.68)
k=0 i=0 p(xi ) k=0 i=0 p(xi )

Por outro lado, calculemos I(Y ; X)

I(Y ; X) = H(Y ) − H(Y |X) =


32 Este corolário parece estar em contradição com a equação (3.12).Contudo, a equação (3.12) resulta de uma definição
da divergência de Kullback-Leibler mais geral do que a apresentada na equação (3.9) que, como se referiu oportunamente,
conduz a ter-se D(X||Y ) 6= D(Y ||X).
3.4. CANAIS DISCRETOS SEM MEMÓRIA 143

K−1 K−1 I−1


1 1
= ∑ p(yk ) log2 − ∑ ∑ p(yk , xi ) log2 =
k=0 p(yk ) k=0 i=0 p(yk |xi )
K−1 I−1 K−1 I−1
1 1
= ∑ p(yk ) log2 p(yk ) ∑ p(xi |yk ) − ∑ ∑ p(yk , xi ) log2 p(yk |xi ) = . . .
k=0 i=0 k=0 i=0
| {z }
=1
K−1 I−1
p(yk |xi )
= ∑ ∑ p(yk , xi ) log2 (3.69)
k=0 i=0 p(yk )

E, da igualdade dos resultados das equações (3.68) e (3.69), se completa finalmente a de-
monstração.

T
Corolário a informação mútua é sempre não-negativa

I(X;Y ) ≥ 0 (3.70)

e a igualdade a zero ocorre sse p(yk , xi ) = p(yk )p(xi ) ou seja, se os símbolos de entrada e de saída
no canal forem estatisticamente independentes.

T
Corolário
I(X;Y ) = H(X) + H(Y ) − H(X,Y ) (3.71)

sendo H(X,Y ) a entropia conjunta da entrada e da saída do canal


I−1 K−1
1
H(X,Y ) = ∑ ∑ p(xi , yk ) log2 p(xi , yk ) (3.72)
i=0 k=0

3.4.3 C APACIDADE DO C ANAL


D
Definição: Capacidade do Canal define-se capacidade Cs do canal como sendo o valor máximo
da informação mútua
T
Cs = max I(X;Y ) (3.73)
{p(xi )}

sendo a maximização efectuada para todas as possíveis probabilidades a priori da fonte; a capacidade
do canal é medida em bit por símbolo transmitido.

Canal Sem Perdas No canal sem perdas, temos que H(X|Y ) = 0, logo I(X,Y ) = H(X) e, conse-
quentemente,
T
Cs = max I(X;Y ) = log2 (I)
{p(xi )}

sendo I o número de símbolos de X.


144 CAPÍTULO 3. SISTEMAS DE COMUNICAÇÃO EM BANDA DE BASE

Canal Determinístico No canal determinístico, temos que H(Y |X) = 0, logo I(X,Y ) = H(Y ) e,
consequentemente,
T
Cs = max I(X;Y ) = log2 (K)
{p(xi )}

sendo K, como anteriormente, o número de símbolos de Y .

Canal Sem Ruído Uma vez que um canal sem ruído é, simultaneamente, sem perdas e determi-
nístico, então H(Y |X) = 0 e logo I(X,Y ) = H(Y ) = H(X), pelo que

Cs = max I(X;Y ) = log2 (I) = log2 (K)


{p(xi )}

Canal Binário Simétrico No caso particular do canal binário simétrico, isto é, onde os erros de
transmissão são idênticos, p(y0 |x1 ) = p(y1 |x0 ) = p e, por conseguinte, p(y0 |x0 ) = p(y1 |x1 ) = 1 − p
teremos
T
C = 1 + p log(p) + (1 − p) log(1 − p) (3.74)

e que se apresenta, em função da probabilidade de transição, na figura 3.27.


1

0.9

0.8

0.7

0.6

0.5
C

0.4

0.3

0.2

0.1

0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
p

Figura 3.27: Capacidade do canal em função da probabilidade de transição.

Reparemos que, se a probabilidade de transição for de 12 , o canal é um canal inútil, correspon-


dendo a uma capacidade nula, C = 0. Efectivamente, se no canal a probabilidade de um símbolo ser
trocado for de 1/2, não poderemos saber se houve ou não a troca do símbolo.

3.4.4 T EOREMA DA C ODIFICAÇÃO DE C ANAL

Um dos grandes problemas das telecomunicações é a presença do ruído no canal que, no


caso da transmissão digital, irá «transformar» os zeros em uns e vice-versa, originando erros de
comunicação. Assim, o projectista de sistemas de telecomunicações deve promover a fiabilidade da
comunicação e uma das formas de o fazer é introduzindo redundância na codificação. Este processo,
que consiste no aumento do número de dados a transmitir, vai competir com os esforços anteriores
que consistiam em aumentar a eficiência do processo, através de diminuição dos dados a enviar!
3.4. CANAIS DISCRETOS SEM MEMÓRIA 145

Admitamos que a sequência da mensagem é particionada em blocos sequenciais de k bit cada


e que cada um destes blocos é mapeado num outro bloco de n bit sendo n > k. Assim, n − k é o
número de bit extra que se introduzem para aumentar a redundância (estas matérias já foram alvo do
nosso estudo, concretamente na secção 3.3).

D
Definição: Ritmo de Codificação seja então o ritmo de codificação r definido através do quoci-
ente
k
r= (3.75)
n
e que logicamente é inferior à unidade. Se aumentarmos o número de bit extra a enviar, faremos
com que o ritmo da codificação tenda para zero. Poderemos agora formular a seguinte pergunta:
existirá algum esquema de codificação de canal para o qual a probabilidade de um bit errado seja
menor do que um dado valor (positivo) ε, tão pequeno quanto se queira e, no entanto, o código
seja suficientemente eficiente, ou seja r não seja demasiado pequeno? A resposta a esta pergunta é
afirmativa e é dada pelo 2o teorema de Shannon.
T
T 17 : 2o Teorema de Shannon

Seja um alfabeto J de uma fonte discreta sem memória com entropia H(J ) e que produz
símbolos a cada Ts unidades de tempo. Seja ainda um canal discreto sem memória com capacidade
C usado cada Tc unidades de tempo. Então, existe uma codificação de canal para a qual a saída da
fonte pode ser transmitida pelo canal e reconstruída com uma probabilidade de erro arbitrariamente
pequena, desde que se verifique
H(J ) C
≤ (3.76)
Ts Tc
C
onde o quociente Tc é o ritmo crítico.

Infelizmente, este teorema não nos permite determinar qual o código de canal mas especifica
um limite teórico no débito de informação para uma comunicação fiável.

Ex

Exemplo Admitindo equiprobabilidade dos símbolos de uma fonte binária de mensagens, a equa-
ção (3.18) resulta em (mostre porquê)
1 C
≤ (3.77)
Ts Tc
e, de acordo com as premissas do teorema anterior, o ritmo de informação é T1s símbolos por segundo.
Por sua vez, o ritmo de transmissão no canal é T1c símbolos por segundo e, sendo a capacidade do
canal C imposta pela probabilidade de transição p, teremos que

r ≤C (3.78)

onde
Tc k
r= = (3.79)
Ts n
146 CAPÍTULO 3. SISTEMAS DE COMUNICAÇÃO EM BANDA DE BASE

Ex

Exemplo Seja um canal com uma dada probabilidade de transição p = 10−2 (o que corresponde
a um bit trocado em 100 bit enviados). Teremos, pela equação (3.74), que C = 0, 9192; então para
∀ε > 0 e r ≤ 0, 9192 haverá um código com n suficientemente grande e um dado ritmo r e ainda uma
descodificação apropriada tal que, quando se envia a informação no canal, a probabilidade média
do erro é inferior a ε. Suponha-se que a estratégia de codificação passa pela repetição de cada bit a
enviar e que, no receptor, se usa um sistema de decisão baseado na maioria de votos. Então, seja cada
bit transmitido através de um bloco de n bits, tal que33 n = 2m + 1 sendo m ∈ Z. A probabilidade de
erro vem dada por
n  
n i
Pe = ∑ p (1 − p)n−i (3.80)
i=m+1 i

e é independente das probabilidades a priori dos símbolos da fonte.

Na tabela 3.16 apresentam-se vários valores da probabilidade de erro em função do número


de repetições dos bits da fonte, assinalando-se a azul o caso correspondente à probabilidade de
transição p = 10−2 . Na figura 3.28, apresenta-se a probabilidade de erro (equação (3.80)) em função
do número m de repetições para os valores da probabilidade de transição constantes da tabela.

Tabela 3.16: da probabilidade de erro para vários valores de p.

p = 10−1 p = 10−2 p = 10−3


m n r Pe Pe Pe
0 1 1 0,1 0,01 10−3
1 3 1/3 2, 8 · 10−2 3 · 10−4 3 · 10−6
2 5 1/5 8, 56 · 10−3 10−5 10−8
3 7 1/7 2, 73 · 10−3 3, 42 · 10−7 3, 42 · 10−11
4 9 1/9 8, 91 · 10−4 1, 28 · 10−8 1, 26 · 10−13
5 11 1/11 2, 96 · 10−4 4, 42 · 10−10 4, 6 · 10−16

Assim, podemos ver que, se pretendermos uma probabilidade de erro de 10−5 ainda na hipó-
tese de se ter p = 10−2 , necessitaremos de um rimo de codificação de 51 = 0, 2 que é quase cinco
vezes menor do que a capacidade do canal34 . Se agora considerarmos que p = 0, 1, podemos ver na
tabela que seria necessário ter-se um eficiência r ainda mais baixa pois, nem com r = 1/11 se con-
segue o valor de Pe pretendido35 . Ou seja, embora apropriada, uma estratégia baseada na repetição
dos bits é, como se verifica, pouco eficiente.
33 Estamos, no fundo, a forçar a que n seja um inteiro ímpar o que garante sempre uma maioria no receptor para se
basear a decisão de qual o bit transmitido.
34 Uma probabilidade p = 10−3 (ou seja, o canal trocar um bit em cada 1.000) pode parecer muito baixa mas, por

exemplo, num stream de 2 Gbit, corresponderia a termos 2.000.000 bit trocados!


35 Na realidade, seria necessário termos r = 1/23.
3.4. CANAIS DISCRETOS SEM MEMÓRIA 147

0 0
10 10

−5 −5
10 10

−10 −10
10 10

−15 −15
10 10

−20 −20
10 10

−25 −25
10 10

−30 −30
10 10
0 2 4 6 8 10 0 0.2 0.4 0.6 0.8 1
m r

Figura 3.28: Probabilidade de erro em função do número m de repetições (à esqerda) e do ritmo no canal
1
r = n1 = 2·m+1 (à direita) para vários valores da probabilidade de transição p, sendo, de cima para baixo,
p = 0, 1, p = 0, 01 e p = 0, 001.

3.4.5 F ORMATOS DE S INALIZAÇÃO B INÁRIA

O envio dos sinais digitais em canais de banda limitada é um tópico das telecomunicações
que assume grande importância. O efeito da largura de banda limitada é melhor compreendido com
os exemplos seguintes onde se transmite sempre a mesma mensagem «11010010», figura 3.29

Em qualquer um dos casos se pode observar uma considerável distorção do sinal enviado, em
que os dois níveis de sinal (0 e 1) são modificados pelas características do canal. É certo que pode
ser argumentado que a mensagem (neste caso os sinais enviados) eram desadequados ao canal. O
que importa, neste momento, é verificar efectivamente que o sinal recebido após a sua transmissão
no canal pode ter poucas semelhanças com o sinal que lhe deu origem. Estas modificações poderão
originar, como consequência, o aparecimento de erros no receptor (trocas de «1» por «0» e vice-
versa). Importa, portanto, adequar os sinais a enviar para o canal às suas características que será o
tema que simplificadamente iremos abordar. Para podermos transmitir a informação ou as mensa-
gens, teremos que fazer corresponder aos valores lógicos «0» e «1» níveis de tensão ou corrente que
serão enviados no canal. Tal correspondência é efectuada mediante uma interface electrónica que
148 CAPÍTULO 3. SISTEMAS DE COMUNICAÇÃO EM BANDA DE BASE

0.5

0
0 2 4 6 8 10 12
4
x 10
1

0.5

−0.5

−1
0 2 4 6 8 10 12
4
x 10
1

0.5

−0.5

−1
0 2 4 6 8 10 12
4
x 10

Figura 3.29: Transmissão da mensagem binária «0110100010» (a azul) em diversos canais de banda limitada
(a vermelho); de cima para baixo: canal passa-baixo, canal passa-alto e canal passa-banda.

não importa estudar neste âmbito. Contudo, esta correspondência, do ponto de vista do sinal pode
assumir várias formas ao longo do tempo e que constituem os impulsos ou sinais de sinalização ou
ainda códigos de linha.

Seja, então T o tempo de duração de um bit, independentemente do seu valor lógico ser «0»
ou «1». O ritmo R de transmissão de dados é, naturalmente, o número de bits enviados na unidade
de tempo, que se obtém através de R = T1 [baud]36 . Os formatos de sinalização mais usuais são:




 Unipolar

 Polar
Formato de Sinalização
 Bipolar



 Manchester

sendo que os formatos unipolar e polar poderão ser ou não com retorno a zero. Na figura 3.30
exemplificam-se as formas de onda correspondentes a estes formatos de sinalização para a mensa-
gem do exemplo anterior, "11010010". Cada um dos formatos descritos acarreta diferentes suportes
na frequência o que, consequentemente, irá ter implicações quer no ritmo de transmissão, quer nos
requisitos a observar nos canais de transmissão. Vejamos então as respectivas densidades espectrais
de potência.

36 Baud ou bit/s.
3.4. CANAIS DISCRETOS SEM MEMÓRIA 149

Figura 3.30: Formatos de Sinalização, de cima para baixo: unipolar, unipolar com retorno a zero, polar,
polar com retorno a zero, bipolar e Manchester. Os tracejados sinalizam a duração do bit.

3.4.6 D ENSIDADES E SPECTRAIS DE P OTÊNCIA

Seja p(t) o impulso de sinalização de um dado formato de transmissão binária. Este impulso
poderá ter representações analíticas distintas para os valores lógicos «0» e «1» mas consideremos
apenas um único sinal para representar este impulso de sinalização. Nestes considerandos, a mensa-
gem a enviar pode ser uma combinação de impulsos deslocados no tempo de sucessivos valores de
T e cujos pesos Ak são os valores lógicos da mensagem

X(t) = ∑ Ak p(t − kT ) (3.81)


k

No fundo, estes pesos Ak constituem uma variável aleatória que modelará a fonte discreta. A
colecção ou o conjunto das variáveis aleatórias X(t) constituirá, por sua vez, um processo estocástico
X . Recordando que a função densidade espectral de potência é (equação (2.112))

1
GX ( f ) , lim E{|X( f )|2 } (3.82)
T →∞ T

pode-se mostrar que, com recurso a alguma manipulação matemática, esta função densidade espec-
tral de potência virá dada por
T

|P( f )|2 +∞
GX ( f ) = ∑ RA (k)e− j2πk f T (3.83)
T k=−∞

em que, como de costume, RA (·) designa a função de autocorrelação que, no caso em apreço, resulta
de RA (k) = E{An An−k }; e onde P( f ) = TF[p(t)].
150 CAPÍTULO 3. SISTEMAS DE COMUNICAÇÃO EM BANDA DE BASE

No caso dos diferentes formatos de sinalização mencionados teremos as seguintes densidades


espectrais de potência
T

A2
Unipolar GX ( f ) = 4 [δ ( f ) + T sinc( f T )]

Polar GX ( f ) = A2 T sinc2 ( f T )
(3.84)
2
Bipolar GX ( f ) = A2 T sinc ( f T ) sen2 (π fT)

Manchester GX ( f ) = A2 T sinc2 ( f T2 ) sen2 (π f T2 )

Reparemos que, no caso dos impulsos unipolar e polar, existe uma componente contínua na
forma de onda a transmitir (como se depreende da figura 3.30), o que se confirma pelo facto de,
nestes casos, GX (0) 6= 0. Este facto significa que o canal de transmissão deverá apresentar um
ganho estático não-nulo para que se preserve ao máximo a forma de onda dos impulsos. Na figura
3.31 apresentam-se as respectivas densidades espectrais de potência, considerando que a amplitude
A dos impulsos de sinalização é unitária.

2.5

1.5

0.5

−0.5
−1.5 −1 −0.5 0 0.5 1 1.5

Figura 3.31: Densidades Espectrais de Potência para os impulsos de sinalização unipolar (vermelho), polar
(magenta), bipolar (azul) e Manchester (negro). Foram usados os seguintes parâmetros: duração do bit,
T = 3; amplitude A do impulso p(t), A = 1.

Reparemos ainda que a ocupação espectral do código de Manchester é dupla da ocupação dos
outros códigos, facto que se deve a haver, na unidade de tempo, o dobro das transições A → −A
(figura 3.30) e vice-versa ou seja, uma duração dos impulsos p(t) de T /2 instantes de tempo.
3.4. CANAIS DISCRETOS SEM MEMÓRIA 151

3.4.7 T RANSMISSÃO B INÁRIA EM C ANAIS COM RUÍDO

O problema que iremos tratar resume-se a determinar a que velocidade (ritmo) poderemos
enviar informação num dado canal. Necessitamos primeiramente das seguintes definições.

D
Definição: Ritmo de transmissão o ritmo de transmissão R é definido como sendo o número de
bits enviados na unidade de tempo (1 segundo).

D
Definição: Capacidade de um Canal de Comunicação define-se esta grandeza C como sendo o
ritmo máximo de envio ou transporte de informação. Se o ritmo de envio (real) de informação for
inferior à capacidade do canal, a comunicação efectuar-se-á sem erros ou com uma taxa de erros
diminuta.

Na figura 3.32 representa-se um sistema de comunicação através de um canal com ruído


aditivo, onde o filtro passa-baixo modela (ou força) a limitação de frequência imposta pelo canal de
transmissão.

Figura 3.32: Comunicação através de um canal com ruído.

Seja GW ( f ) = η2 a densidade espectral de potência do ruído, seja PX a potência do sinal


na entrada do canal e represente B a largura de banda (frequência de corte) do filtro passa-baixo.
Apresenta-se, sem prova formal, o teorema de Shannon-Hartley que estabelece a capacidade do
canal em função da relação sinal/ruído (S/N).

T 18 : Teorema de Shannon-HartleyA capacidade do canal relaciona-se com a relação sinal/ruído


T
(S/N) através de
S
C = B · log2 (1 + ) (3.85)
N

S
onde N é o quociente das potências do sinal e do ruído (e não a relação sinal/ruído em dB).


Na figura 3.33 representa-se a capacidade do canal em função da relação sinal/ruído (em dB)
para vários valores da largura de banda B do canal em Hz; assim, se suposermos uma largura de
banda de 4 MHz e para uma S/N de 30 dB, teremos uma capacidade de 40 Mbit/s37
37 Note-seque do gráfico se retira C = 40 mas onde B = 1; ora como, efectivamente, B = 4 MHz logo há que afectar a
capacidade do factor multiplicativo 106 correspondente à largura de banda ser dada em MHz.
152 CAPÍTULO 3. SISTEMAS DE COMUNICAÇÃO EM BANDA DE BASE

200
C
180
B=10
160

140
B=8
120

100

80

60
B=4

40
B=2
20
B=1
0
0 10 20 30 40 50 60 S/N dB

Figura 3.33: Capacidade do canal em função da relação sinal/ruído em dB, para vários valores (assinalados)
da sua largura de banda. (ver texto)

Na equação (3.85), NS obtém-se a partir de PPNX sendo PN a potência do ruído (na ausência de
sinal) à saída do filtro caracterizado por uma função de resposta em frequência H( f ) e que resulta
de Z
PN = |H( f )|2 GW ( f )d f = ηB (3.86)
R

onde se supôs que



l f  1
 |f| < B
H( f ) = ( ) = (3.87)
2B 
0 c.c.

ou seja, o filtro passa-baixo é um filtro passa-baixo ideal. Assim, a equação (3.85) reescreve-se
como
T
PX
C = B · log2 (1 + ) (3.88)
ηB

Esta equação permite-nos verificar que, sendo possível, para uma dada variância do ruído,
é preferível aumentar a largura de banda do canal do que aumentar a potência das unidades de
informação para se ter uma maior capacidade de informação. A equação (3.88) coloca um limite
máximo ao ritmo de comunicação no canal com uma probabilidade de erro arbitrariamente pequena
mas desde que se utilizem sistemas de codificação suficientemente complexos.

Se considerarmos que a potência média para enviar uma unidade de informação (enviada ao
ritmo de R bit/s) é PB então, a partir da equação (3.88) teremos para a potência de transmissão

C C · PB PB 2C/B − 1
PX = C · PB −→ = log2 (1 + ) ←→ = C
(3.89)
B η ·B η B
3.4. CANAIS DISCRETOS SEM MEMÓRIA 153

que nos dá a densidade espectral de potência da energia por bit face ao ruído. Se representarmos
graficamente o quociente RB , que nos representa a eficiência espectral ρ = R/C, em função da relação
PX 38
η |dB (equação (3.89) ao centro) obteremos o diagrama da figura 3.34 .

Limiar da
capacidade
do canal

Limite de Shannon
-1,6 dB

Figura 3.34: Diagrama da eficiência espectral.

Nesta figura há a salientar:

• a linha a azul que representa a transmissão num canal ideal, ao ritmo máximo RB = C;

• a zona do plano acima da curva que corresponde a uma codificação sempre com erros em que
se transmite acima da capacidade do canal RB > C;

• a zona abaixo da curva, que corresponde a uma comunicação potencialmente isenta de erros,
transmitindo-se abaixo da capacidade do canal, RB < C;

• o limite de Shanon (SNR=-1, 6 dB) é obtido fazendo, na equação (3.89), uma eficiência es-
pectral unitária, CB = 139 .

Notas

• A equação (3.85) sugere que, para uma relação sinal/ruído infinita (ausência de ruído), a
capacidade do canal é efectivamente infinita, qualquer que seja a largura de banda B do canal.
38 Na realidade, esta figura é obtida calculando a relação sinal/ruído em função da eficiência ρ = R/B e depois efectu-
ando a troca dos eixos ordenados.
39 Ou seja, uma eficiência espectral ρ = C = 1. Contudo, PB resulta numa indeterminação que se levanta aplicando a
B η
d
PB dρ (2ρ −1) PB
regra de l’Hôpital/Cauchy: η = limρ→1 d
ρ
= limρ→1 ln(2) · 2ρ = 0, 693 ou seja η |dB = −1, 591 ≈ −1, 6 dB.

154 CAPÍTULO 3. SISTEMAS DE COMUNICAÇÃO EM BANDA DE BASE

• Um outro resultado importante do teorema de Shannon-Hartley advém do uso de canais de


largura de banda infinita (o aumento da largura de banda do canal traduz-se, equação (3.85),
no aumento da potência do ruído e consequente degradação da S/N) em que se terá uma
capacidade máxima do canal dada por

PX
C∞ , lim C = 1, 44 · (3.90)
B→∞ η

sendo η = kB Teq onde kB = 1, 38 · 10−23 [J/K] é a constante de Boltzmann e Teq a temperatura


equivalente do ruído.

3.5 INTERFERÊNCIA INTER-SIMBÓLICA

Recordemos a equação (3.81) onde p(t) é o impulso de sinalização de um dado formato de


transmissão binária. Como se viu, este impulso poderá ter representações analíticas distintas para os
valores lógicos «0» e «1». Contudo, consideremos apenas um único sinal de duração limitada para
representar este impulso de sinalização. Assim, a mensagem a enviar pode ser uma combinação de
impulsos deslocados no tempo de sucessivos valores de T e cujos pesos Ak são os valores lógicos da
mensagem
X(t) = ∑ Ak p(t − kT ) (3.91)
k

Como anteriormente, estes pesos Ak constituem uma variável aleatória que modelará a fonte dis-
creta. A colecção ou o conjunto das variável aleatória X(t) constituirá, por sua vez, um processo
estocástico X . Ao enviarmos estes impulsos num canal de banda limitada (figura 3.29, em cima)
verificamos que parte da energia utilizada para transmitir o nível lógico «1» vai aparecer no inter-
valo destinado ao valor lógico «0». No entanto, se o impulso de sinalização recebido obedecesse à
condição
(
1 t =0
pR (t) = (3.92)
0 t = kT k = 1, 2, · · ·

poderíamos sem ambiguidade detectar os impulsos enviados e, em consequência, descodificar com-


pletamente (sem erros) a mensagem enviada; não haveria, portanto, o que se designa por interferên-
cia inter-simbólica, IIS. Mas a questão de um símbolo transmitido se «espalhar» sobre outro símbolo
não é exclusivo dos canais de banda limitada. Em situações onde existam múltiplos caminhos para a
propagação do sinal (multipath) ocorre uma situação semelhante. Como exemplos do que se acabou
de dizer, temos a propagação de luz (infravemelha ou outra) em fibras ópticas ou, no caso de comuni-
cação usando rádio-frequência, quando ocorrem reflexões do sinal rádio-eléctrico, seja no solo, seja
na superfície dos rios, lagos, mares, etc. Em todos estes casos, um diferente percurso de propagação
corresponde a um tempo de chegada diferente ao receptor. Portanto, o sinal recebido resulta dum
somatório de vários sinais, cada um correspondente a um percurso diferente. No caso das reflexões
ocorrerem sobre superfícies líquidas, acresce a perturbação aleatória da superfície reflectora através
do movimento das ondas ou das marés.
3.5. INTERFERÊNCIA INTER-SIMBÓLICA 155

3.5.1 C RITÉRIO DE N YQUIST

Vejamos em que condições se pode comunicar sem IIS. Assim, vamos supor que a comu-
nicação se procede através de um canal do tipo passa-baixo, cuja largura de banda é B. Seja então
a condição a respeitar pelos impulsos de sinalização recebidos após a sua transmissão no canal,
equação (3.92). Esta equação não restringe a duração temporal destes impulsos, mas apenas impõe
que nos múltiplos dos instantes de amostragem (o período de amostragem é igual à duração do im-
pulso de sinalização), esses impulsos recebidos sejam nulos. Amostrando os impulsos de sinalização
referidos na equação (3.81), teremos
+∞ +∞
pa (t) = p(t) ∑ δ (t − kTa ) = ∑ p(kTa )δ (t − kTa ) (3.93)
k=−∞ k=−∞

e que, após aplicação da transformação de Fourier ao 2o membro, resulta em


+∞
1 +∞
Pa ( f ) = P( f ) ∗ ∑ TF[δ (t − kTa )] = ∑ P( f − k fa ) (3.94)
k=−∞ Ta k=−∞

sendo, como é sabido, fa = 1/Ta , tendo-se aplicado o resultado expresso na equação (1.57) e ainda
o facto de se ter ∀ε, ε0 ∈ R : Y (ε) ∗ δ (ε − ε0 ) = Y (ε − ε0 ). Por outro lado, aplicando agora a TF ao
lado direito da equação (3.94), teremos

1 +∞ +∞
Z
P( fa ) = ∑ P( f − k fa ) = [ ∑ p(kTa )δ (t − kTa )]e− j2π f t dt =
Ta k=−∞ k=−∞
R

+∞ Z +∞
= ∑ p(kTa ) δ (t − kTa )e− j2π f t dt = ∑ p(kTa )e− j2π f kTa (3.95)
k=−∞ k=−∞
R

Sendo ∀k 6= 0 : p(kTa = 0 (ou seja, ausência de interferência inter-simbólica), então, a anterior


traduz-se em: T1a ∑+∞
k=−∞ P( f − k f a ) = p(0) = 1 ou seja, T
+∞ +∞
∑ P( f − k fa ) = ∑ P( f − k · rT X ) = Ta (3.96)
k=−∞ k=−∞

onde se igualou a frequência de amostragem ao ritmo de transmissão, fa = rT X . Esta equação é


conhecida pelo critério de Nyquist.

Dado que o canal tem, por hipótese, largura de banda B, então os impulsos de sinalização
deverão ter igual largura de banda, ou seja,
T
1 l f
P( f ) = ( ) (3.97)
2B 2B
«aproveita-se» assim o canal até à sua máxima largura de banda. Por outro lado, a equação (3.96)
estabelece que a soma, para qualquer valor de frequência, dos espectros do impulso de sinalização
seja constante; o que só será possível se rT X = 2B que é um resultado em tudo semelhante ao do
teorema da amostragem!
156 CAPÍTULO 3. SISTEMAS DE COMUNICAÇÃO EM BANDA DE BASE

Estamos, neste caso em situações ideais de interpretação do critério de Nyquist


1 l f
P( f ) = ( ) ⇒ rT X = 2B (3.98)
2B 2B

E assim sendo, os impulsos de sinalização serão obtidos a partir de


T
1 l f
p(t) = TF−1 [P( f )] = TF−1 [ ( )] = sinc(2Bt) (3.99)
2B 2B
função esta que tem valores nulos nos múltiplos inteiros de Ta pois ∀t : t = kTa ⇒ sinc(2Bt) = 0,
uma vez que fa = 2B. No entanto, este resultado pressupõe que haja uma sincronização perfeita
entre o transmissor e o receptor pois, caso contrário, haverá sempre IIS. Contudo, esta IIS poderá
ser não ser desprezável, dando origem a erros de transmissão. Uma forma de obviar ao problema
da IIS originado pela dificuldade de sincronizar os instantes de amostragem com os impulsos de
sinalização passa pela utilização de impulsos que tenham um decaimento no tempo mais rápido
do que o proporcionado pela função sinc(·)40 . Recordemos que a forma do impulso ser dada pela
função sinc(·) surge pelo facto de se estar a transmitir ao máximo ritmo do canal, o que impôs que
o espectro do impulso fosse dado pela equação (3.97). Se a transmissão se efectuar a um ritmo mais
lento, ou seja, se rT X < 2B, então, o espectro do impulso de sinalização poderá estender-se para
além de B.

3.5.2 I MPULSOS C OSSENO –E LEVADO

Em muitas situações práticas, são utilizados impulsos denominados cosseno-elevado (raised cosine)
que são definidos por
D
 
1

 
 2B | f | < (1 − α)B

 


 

 
1
 π
4B [1 + cos( 2αB (| f | − (1 − α)B)] (1 − α)B < | f | < (1 + α)B
 P( f ) =


 
(3.100)




 
0 | f | > (1 − α)B

 







 cos(2παBt)
p(t) = sinc(2Bt) · 1−4(2αBt)

2

onde o parâmetro α é o factor de decaimento (roll-off factor) e pode variar de 0 (que corresponde ao
impulso sinc) a 1 (correspondendo a um cosseno elevado de 0,25). Na figura 3.35 exemplificam-se o
espectros (em cima) e a forma de onda (em baixo) destes impulsos para vários valores de α. Quando
se utilizam estes impulsos, o ritmo máximo de transmissão será dado por
T
2B
rT X = (3.101)
1+α
Esta equação usa-se para, sabendo a largura de banda do canal, determinar qual o ritmo de trans-
missão; de forma equivalente, se for necessário transmitir ao ritmo de rT X , a largura de banda B
necessária do canal vem
T
40 Recordemos que esta função tende para zero com x.
3.5. INTERFERÊNCIA INTER-SIMBÓLICA 157

1
B = (1 + α) · rT X (3.102)
2
Em qualquer destas duas equações, recordemos que o ritmo de transmissão é o inverso da duração
do bit a transmitir, rT X = T1 .

Impulso cosseno Elevado


0.5

0.4

0.3
P(f)

0.2

0.1

0
−2.5 −2 −1.5 −1 −0.5 0 0.5 1 1.5 2 2.5
f

0.8

0.6

0.4
p(t)

0.2

−0.2

−0.4
−2 −1.5 −1 −0.5 0 0.5 1 1.5 2
t

Figura 3.35: Impulsos de Sinalização Cosseno-Elevado para vários factores de decaimento α para B = 1,
sendo: α = 1 a preto, α = 0, 75 a azul, α = 0, 5 a magenta, α = 0, 25 a verde, α = 0 a ciano.

3.5.3 D IAGRAMA DE O LHO

O envio de impulsos de sinalização por canais de banda limitada traduz-se, como se viu, no
«espalhamento» dos impulsos de sinalização no tempo. Para melhor visualizarmos esta questão,
suponha-se que se pretende o envio de símbolos binários por um canal de banda limitada mas ope-
rando dentro do ritmo de Nyquist (equação (3.101)) usando impulsos cosseno levado com factor de
decaimento α, figura 3.36. É importante atentar, nesta figura, ao seguinte:

• há um atraso na resposta à saída do canal (gráficos ao centro e em baixo)

• a amplitude dos impulsos filtrados varia de símbolo para símbolo (gráfico ao centro)

• a amplitude do sinal à saída apresenta valores negativos (gráfico ao centro).

Se visualizarmos o sinal à saída do canal (suposto sem ruído) num osciloscópio, por exem-
plo, e se escolhermos uma base de tempo igual à duração do impulso de sinalização, obteremos,
158 CAPÍTULO 3. SISTEMAS DE COMUNICAÇÃO EM BANDA DE BASE

0
0 20 40 60 80 100 120 140 160 180 200

10

−5
0 20 40 60 80 100 120 140 160 180 200

10

−5
0 20 40 60 80 100 120 140 160 180 200

Figura 3.36: Envio de impulsos cosseno elevado com α = 0, 5 num canal de banda limitada; em cima:
sequência binária; ao centro: sinal à saída do canal, considerando ausência de ruído; em baixo: sinal à
saída do canal, considerando ruído branco gaussiano N(0, σ 2 = 0, 16).

por sobreposição de varrimentos sucessivos, uma figura semelhante à da figura 3.36.Esta figura ou
D
diagrama é o conhecido diagrama de olho. Na figura 3.38 apresenta-se o diagrama na situação
de ruído de canal correspondente à figura 3.36 em baixo; na parte direita desta figura, assinalam-se
alguns parâmetros de interesse.

Este diagrama permite-nos ainda identificar o tipo de fonte que, neste caso analisado foi bi-
nária. Na figura 3.39 apresentam-se os diagramas de olho para uma fonte ternária (esquerda e em
baixo) e quaternária (à direita e em baixo) correspondentes às respectivas sequências (gráficos em
cima); em ambos os casos, supôs-se um canal não-ruidoso.
3.5. INTERFERÊNCIA INTER-SIMBÓLICA 159

−1

−2
1 2 3 4 5 6 7

Figura 3.37: Diagrama de olho.

C
A

Figura 3.38: Diagrama de olho: A, intervalo de tempo adequado à amostragem do sinal; B, margem do sinal
relativamente ao ruído; C, variações (distorções) nas passagens por zero, resultantes do «jitter»; D, instante
óptimo de amostragem.
160 CAPÍTULO 3. SISTEMAS DE COMUNICAÇÃO EM BANDA DE BASE

1 1.2

0.8

0.6 1

0.4
0.8
0.2

0
0.6
−0.2

−0.4
0 10 20 30 40 50 60 70 80 90 100 0.4

0.2
1.5

0
1

0.5 −0.2

0 −0.4

−0.5 −0.6
0 10 20 30 40 50 60 70 80 90 100 1 2 3 4 5 6 7
1 1.5

0.5

1
0

−0.5
0.5

−1
0 10 20 30 40 50 60 70 80 90 100

0.5 −0.5

−0.5 −1

−1

−1.5 −1.5
0 10 20 30 40 50 60 70 80 90 100 1 2 3 4 5 6 7

Figura 3.39: Sinalização no canal (lado esquerdo) e diagramas de olho (metade direita); em cima, código
ternário e em baixo, código quaternário.
3.6. PROBLEMAS RESOLVIDOS 161

3.6 PROBLEMAS RESOLVIDOS

P. 1: Considere uma fonte discreta sem memória B que gera símbolos si com probabilidades de
ocorrência indicadas na tabela 3.17, bem como um dado código heurístico XPTO.

Tabela 3.17: das probabildades de ocorrência para a fonte B

Símbolo pi Código XPTO


s1 0,6 1
s2 0,02 1000000
s3 0,15 10
s4 0,04 100000
s5 0,04 10000
s6 0,05 1000
s7 0,1 100

Determine a eficiência deste código XPTO e compare-a com a do código de Huffman indicado
na tabela 3.2, bem com a de um código uniforme.

Resolução Como sabemos, a determinação da eficiência passa pela determinação do com-


primento médio do código, L̄, equações (3.15) e (3.16). Apresentaremos a resolução com base
numa tabela (3.18) para uma melhor visualização.

Tabela 3.18: das características dos códigos utilizados para B sendo H(B) = 1, 885.

Comprimento Médio Variância Eficiência


Código L̄ σl2 η
Uniforme 3 0 0,628
Huffman 1,95 1,45 0,967
XPTO 1,98 2,41 0,952

P. 2: Uma dada FDSM gera mensagens obtidas a partir de símbolos si com i = 1, · · · 9 cujas proba-
bilidades de ocorrência são indicadas na tabela 3.19.

Tabela 3.19: das probabildades de ocorrência para a fonte B

Símbolo s1 s2 s3 s4 s5 s6 s7 s8 s9
Pr(·) 0,4 0,02 0,15 0,04 0,04 0,05 0,1 0,08 0,12

(a) Determine a entropia da fonte;


162 CAPÍTULO 3. SISTEMAS DE COMUNICAÇÃO EM BANDA DE BASE

(b) Supondo uma codificação uniforme, qual o seu comprimento médio e respectivo rendi-
mento?

(c) Obtenha um código não uniforme de Huffmann;

(d) Determine, para este código, o seu comprimento médio e respectivo rendimento.

Resolução

(a) Basta recordar a definição de entropia de uma fonte discreta sem memória,
N 9
H(B) = − ∑ pk · log2 (pk ) = − ∑ pk · log2 (pk ) = 2, 6306 bit/símbolo (3.103)
k=1 k=1

(b) O número de bit de cada mensagem, considerando um código uniforme, é dado por
log2 (#B), onde #B representa a cardinalidade do alfabeto da fonte B. Ora, neste caso,
teremos log2 (#B) = log2 (9) = 3, 1699 → L = 4. Assim sendo, a eficiência é dada por
H(B) 2, 6306
η= = 0, 658
L 9

(c) Na figura 3.40 apresenta-se a construção do código de Huffmann, conforme algoritmo


descrito em 3.1.6. A codificação obtida está apresentada na tabela 3.20. Não esquecer
que a codificação de cada símbolo da fonte se obtém, na tabela, da direita para a esquerda
e, na figura, os respectivos bit estão assinalados a vermelho.

Figura 3.40: Construção do código de Huffmann.


3.6. PROBLEMAS RESOLVIDOS 163

Tabela 3.20: do código de Huffmann para a fonte B

Símbolo s1 s2 s3 s4 s5 s6 s7 s8 s9
Pr(·) 0,4 0,02 0,15 0,04 0,04 0,05 0,1 0,08 0,12
Codificação 0 10100 110 10101 11100 11101 1111 1011 100
lk 1 5 3 5 5 5 4 4 3

(d) Utilizando o resultado da tabela da alínea anterior, e sendo o comprimento médio dado
por
N
L= ∑ lk · pk
k=1

onde N = 9 e lk é o número de bit de codificação de cada símbolo, teremos L = 2, 68 e


para a eficiência, η = 0, 9816.

P. 3: Deduza a equação (3.90) respeitante à capacidade de canais de largura de banda infinita

Resolução Recordemos o teorema de Shannon-Hartley ((3.85)

S
C = B · log2 (1 + ) (3.104)
N
e determinemos o limite da capacidade C do canal quando a sua largura de banda B tende para
infinito,
S
C∞ = lim B · log2 (1 + )
B→∞ N
e recordemos que, para um canal com ruído aditivo branco e gaussiano, a potência do ruído é
N = η · B. Assim,
S
C∞ = lim B · log2 (1 + )
B→∞ η ·B

S
e façamos a seguinte mudança de variável γ = η·B ; então, a equação anterior resulta em

S S log2 (1 + γ) S log2 (1 + γ)
C∞ = lim · log2 (1 + γ) = lim · = · lim
γ→0 η · γ γ→0 η γ η γ→0 γ

Recordando que limα→0 ln(1+α)


α = 1, não temos mais que efectuar a mudança da base logarít-
mica, pelo que
S 1 ln(1 + γ) S
C∞ = · lim ≈ 1, 44 ·
η ln(2) γ→0 γ η


164 CAPÍTULO 3. SISTEMAS DE COMUNICAÇÃO EM BANDA DE BASE

Figura 3.41: Sensores da Curiosity (fonte NASA, http://www.nasa.gov).

P. 4: Considere a câmara de vídeo principal do veículo Curiosity, figura 3.41, que se encontra
actualmente em missão no planeta Marte. Segundo a NASA, esta câmara tem as seguintes
características: 1600x1200 píxeis, enviados a um ritmo máximo de 10 quadros por segundo.

Admita que o sinal resultante de cada píxel tem uma amplitude máxima de 5 V em 95% das
vezes e ainda que o seu valor médio é nulo. Sabendo que se pretende quantificar uniforme-
mente o sinal de cada píxel com uma relação sinal/ruído de quantificação igual ou superior a
50 dB, determine:

(a) o número de bit do conversor analógico-digital necessário para se ter este desempenho;

(b) determine o ritmo dos dados binários na saída da câmara de vídeo.

Resolução

(a) recordando a equação (3.32) que nos permite obter a relação sinal/ruído de quantifica-
ção, SNRQ = δ 2P/12
X
, verificamos que se torna necessário conhecer a potência do processo
estocástico que modela o sinal de vídeo de cada pixel, PX . Uma vez que a única infor-
mação disponível se prende com a probabilidade das amplitudes das funções amostra
deste processo não ultrapassarem o valor de 5 V com uma probabilidade de 0,95, iremos
utilizar a desigualdade de Chebyshev que nos permitirá obter o respectivo desvio padrão

1
Pr(|X − mX | ≥ kσX ) ≤ k2

1
Pr(|X − 0| ≥ kσX = 5) ≤ k2
= (1 − 0, 95) →
(3.105)
k= √1 = 4, 472 →
0,05

5
σX = k = 1, 118

Ora, na posse do desvio padrão, obtemos de imediato a variância, σX2 = 1, 25 que nos
permitirá, finalmente, obter a potência deste processo

PX = E{X 2 (t)} = E{(X(t) − mX )2 } = σX2 = 1, 25 (3.106)


3.6. PROBLEMAS RESOLVIDOS 165

Então, necessitamos obter o valor do intervalo de quantificação, equação 3.29,


2X
∆= M

PX
SNRQ |dB = 50 ↔ SNRQ = 105 = ( 2X 2 ↔
M ) /12
(3.107)
5 (2·5)2
M= ( 1012·1,25 )1/2 = 816, 5

N = log2 (M) = 9, 75 → 10bit

(b) Assim, cada pixel vai ser convertido em 10 bit e a câmara tem 1600 × 1200 = 1, 92 · 106
pixéis que são enviados 10 vezes em cada segundo. Assim, o ritmo de transmissão será
de 1, 92 · 106 · 10 · 10 bit/s. Na prática, este ritmo de transmissão é bastante elevado, pelo
teremos que utilizar algoritmos de compressão de dados.

P. 5: Uma comunicação digital tem uma largura de banda para o sinal de fala de 3,3 kHz que é
digitalizado ao ritmo de 8.000 amostras por segundo. Supondo que se utilizam conversores
analógico-digital e digital-analógico com retenção de ordem zero das amostras, determine
qual a atenuação máxima no extremo da banda de áudio relativamente às baixas frequências.

Resolução Atentemos na equação (3.28) que explicita a função de resposta em frequência


do bloco retentor de ordem zero. Assim, precisamos de, nessa equação, determinar, em dB, o
seu módulo para a frequência de 3,3 kHz,

H( f ) = Ta · e− jπ f Ta sinc( f Ta ) →

|H( f )| f =3,3[kHz] = Ta | sinc( f Ta )| f =3,3[kHz] =


3.300
1 sen(π 8.000 ) 1
= · 3.300
= · 0, 743 (3.108)
8.000 π 8.000 8.000
Dado que nas baixas frequências a função sinc(·) é aproximadamente unitária (é efectivamente
1 para f = 0), teremos finalmente
|H(3.300)|
∀ f ≈ 0 ↔ |H( f )| ' Ta ⇒ = 0, 743 ⇔ −2, 6[dB] (3.109)
(H(0)|
Ou seja, teremos uma atenuação de 2,6 dB no extremo da banda de áudio.

P. 6: Um sistema de telemetria embarcado num UAV41 necessita enviar 9 sinais provenientes do


acelerómetro, da magneto-bússola e e dos giroscópios (todos em 3 eixos/dimensão) para a
41 Unmanned Aierial Vehicle ou veículo aéreo não tripulado.
166 CAPÍTULO 3. SISTEMAS DE COMUNICAÇÃO EM BANDA DE BASE

estação de controlo remoto. Estes sinais são analógicos, têm uma largura de banda de 1,5 kHz
e irão ser digitalizados a 1,25 vezes o ritmo de Nyquist e com um erro que se pretende inferior
a 0,5% da sua amplitude máxima. Determine a largura de banda mínima do canal, sabendo
que se utilizam impulsos cosseno-elevado com factor de decaimento de 0,25.

Resolução Vamos começar por determinar o número de bit da quantificação. Recordando


que
2Xmax
∆= ≤ 0, 01Xmax → M = 200 ⇔ N = log2 (200) = 7, 64 ⇒ 8[bit] (3.110)
M
Então, cada sinal terá o seguinte ritmo de transmissão

r1sinal = 8[bit] × 1, 5 · 103 × 2 ×1, 25 = 30 kbit/s (3.111)


| {z }
2 × frequência máxima =
= ritmo de Nyquist
Uma vez que temos de transmitir 9 sinais, necessitaremos de rT X = 9 × r1sinal = 270 kbit/s.
De acordo com a equação (3.102), a (mínima) largura de banda do canal será
1 1 + 0, 25
B = (1 + α) · rT X = × 270 kbit/s = 168, 5 kbit/s (3.112)
2 2

P. 7: Seja um canal de 8 kHz de largura de banda afectado por ruído branco gaussiano quja densi-
dade espectral de potência η/2 é de 10−12 W/Hz. Sabendo que a potência no receptor deve
ser de 200 µW, determine a capacidade do canal.

Resolução Este problema resolve-se com recurso ao teorema de Shannon-Hartley,


S
C = B · log2 (1 + )
η ·B
onde B = 8 · 103 . Assim, teremos η = 2 · 10−12 e, logo,
200 · 10−6
C = 8 · 103 · log2 (1 + ) ≈ 108, 9 · 103 bit/s
2 · 10−12 · 8 · 103

P. 8: Seja uma fonte de sinal de 8 kHz de largura de banda que é amostrada a 1, 5 vezes o ritmo
de Nyquist, sendo as amostras quantificadas a 10 bit por amostra (admita que as amostras são
estatisticamente independentes entre si).

(a) Determine o ritmo da informação desta fonte;

(b) É possível transmitir sem erros estes dados num canal de 30 kHz de largura de banda e
com uma relação sinal/ruído de 30 dB? Justifique.
3.6. PROBLEMAS RESOLVIDOS 167

Resolução

(a) Uma vez que a largura de banda da fonte é de 8 kHz, o ritmo de Nyquist é, como se sabe,
de 16 kHz. Como se amostra a 1,5× este ritmo, teremos que o ritmo de dados vem

R = 8 · 103 × 2 · 1, 5 · 10 = 240 · 103 bit/s (3.113)

(b) Para saber se é possível transmitir sem erros estes dados num canal de 30 kHz de largura
de banda e com uma relação sinal/ruído de 30 dB, vamos determinar a capacidade C
deste canal. Se esta for inferior ao ritmo dos dados, então será possível a transmissão
sem erros.
S
C = B · log2 (1 + ) = 30 · 103 · log2 (1 + 103 ) = 299 · 103 bit/s
N

uma vez que NS |dB = 30 dB corresponde a termos S


N = 1030/10 = 103 . Ou seja, uma vez
que C ≥ R, é possível a transmissão sem erros.


168 CAPÍTULO 3. SISTEMAS DE COMUNICAÇÃO EM BANDA DE BASE
Capítulo 4

INTRODUÇÃO À TEORIA DA
DETECÇÃO E À COMUNICAÇÃO
DIGITAL

4.1 MODELO DE SISTEMA DE COMUNICAÇÃO DIGITAL

Neste capítulo apresentaremos os fundamentos da teoria da detecção, baseada na representa-


ção geométrica de sinais. A grande distribuição que os sistemas de comunicação digital têm tido, em
especial após a década de 80 do século XX, é razão suficiente para que sejam aqui apresentados, se
bem que o seu estudo mais aprofundado (referimo-nos concretamente às questões relacionadas com
a ocupação espectral, imunidade ou sensibilidade às não-linearidades do canal, ao ruído e outras
formas de distorção do sinal) é deixado para outras disciplinas.

Consideremos então o sistema de transmissão discreto apresentado na figura 4.1.

4.1.1 R EPRESENTAÇÃO G EOMÉTRICA DE S INAIS

Comecemos por estabelecer uma representação geométrica de sinais, pelo que usaremos uma
representação de um conjunto de M de sinais de energia através de uma combinação de N funções
de base (ortonormada), sendo N ≤ M.

169
170CAPÍTULO 4. INTRODUÇÃO À TEORIA DA DETECÇÃO E À COMUNICAÇÃO DIGITAL

Transmissor

Fonte de Codificador símbolos


Mensagens Vectorial Modulador CANAL
mi { xi }

Figura 4.1: Diagrama de blocos de sistema de transmissão discreto.

Fonte de Mensagens e Transmissor

Sejam, então:
D
• um dado alfabeto de símbolos digitais de dimensão M;

• uma fonte digital sem memória que gera símbolos mi , i = 0, 1, · · · , M − 1 com probabili-
dade pi = Pr(mi ) a um ritmo r = 1/T bit/s, sendo T a duração de um bit;

• a cada símbolo mi , faz-se corresponder um vector si = [si1 , si2 , · · · , siN ]T , sendo N ≤ M tal
que s = {si , i = 0, 1, · · · , M − 1};

• estes símbolos vão ser enviados pelo canal através de impulsos de sinalização1 si (t), i =
0, 1, · · · , N − 1;

• uma base ortonormada de sinais Φ = [φ0 , φ1 , · · · , φN−1 ]T de dimensão N.

Assim, e como é sabido, a condição de ortogonalidade das componentes da base corresponde


a ter nulo o seu produto interno, ou seja,
Z T
(
1 i= j
∀i, j ∈ {0, 1, · · · , N − 1} φi (t)φ j (t)dt = (4.1)
0 0 i 6= j

Banco de Correladores

Os impulsos de sinalização a enviar no canal de transmissão formam um espaço vectorial, que se


podem projectar nesta base ortonormada Φ,
T
Z T
∀i = 0, 1, · · · , M − 1
si j =≺ si , φ j = si (t)φ j (t)dt (4.2)
∀ j = 0, 1, · · · , N − 1 0

de que resultam os coeficientes si j .

A operação assinalada com ≺ a, b  representa a projecção de um vector a noutro vector b ou


o produto interno dos dois vectores a e b.

Por sua vez, a partir destes coeficientes poderemos reconstruir os impulsos de sinalização
através da combinação linear
T
1 Estes impulsos são sinais de energia pois a sua duração é finita (T unidades de tempo).
4.1. MODELO DE SISTEMA DE COMUNICAÇÃO DIGITAL 171

N−1
∀i = 0, 1, · · · , M − 1 si (t) = ∑ si j φ j (t) (4.3)
j=0

Assim, a equação (4.2) corresponde à equação de análise dos impulsos de sinalização e que
representamos na figura 4.2 (à esquerda); enquanto que a equação (4.3) corresponde à equação de
síntese e que se apresenta no lado direito da mesma figura. Cada ramo do lado esquerdo da figura
4.2, correspondendo a uma multiplicação por uma componente da base do espaço de sinais, seguida
da sua integração temporal, é denominado de correlador, pelo que o sistema de análise consiste num
banco de correladores.

Figura 4.2: Análise de Sinais por banco de correladores (à esquerda) e Síntese (à direita).

Pelo exposto, e resumindo, cada impulso de sinalização si (t) é completamente caracterizado


pelo vector dos seus componentes si j , ou seja

si = [si0 , si1 , · · · , siN−1 ]T , i = 0, 1, · · · , M − 1

que não são mais do que a sua projecção nas componentes da base.

D
Definição: Constelação de Sinais diz-se do conjunto de M vectores si , i = 0, 1, · · · , M − 1
definido no plano das funções de base Φ.

D
Definição: Espaço de Sinais diz-se do correspondente conjunto de sinais ou formas de onda
moduladas {si (t) = ∑N−1
k=0 sik · φk (t), i = 0, 1, · · · , M − 1}.

Assim, cada si tal que



−s = [s , s , s , · · · , s T
i i0 i1 i2 iN−1 ] (4.4)

é denominado vector de sinal, definido num espaço Euclidiano N-dimensional, onde os eixos deste
espaço são as componentes φi , i = 0, 1, · · · , N − 1. Dado que estamos em presença de um espaço
euclidiano, podemos obter a norma dos seus vectores de sinal si
T

k si k, ≺ si , si  (4.5)
172CAPÍTULO 4. INTRODUÇÃO À TEORIA DA DETECÇÃO E À COMUNICAÇÃO DIGITAL

ou seja, a norma de um vector é, como é sabido, a raiz quadrada do seu produto interno por si
próprio.

Tentemos obter a energia dos impulsos de sinalização,


Z T
Ei = s2i (t)dt (4.6)
0

A partir da equação (4.3) teremos


Z T Z T N−1
Ei = s2i (t)dt = [ ∑ si j φ j (t)]2 dt =
0 0 j=0

Z T N−1 N−1 N−1 N−1 Z T


= [ ∑ si j φ j (t)][ ∑ sik φk (t)]dt = ∑ ∑ si j sik φ j (t)φk (t)]dt =
0 j=0 k=0 j=0 k=0 0

N−1
= ∑ s2i j (4.7)
j=0

pois, como se viu, as componentes da base do espaço de sinais são ortogonais (equação (4.1))
anulando o integral 0T φ j (t)φk (t)]dt para todos os i 6= k. Finalmente, identificando o resultado da
R

equação (4.7) com a definição de norma (equação (4.5) de um vector, teremos que a energia dos
impulsos de sinalização não é mais do que
T

Ei =k si k2 (4.8)

Estas equações encerram uma propriedade importante que é o facto de a energia dos impulsos
ser invariante à escolha das funções de base φi 2 .

Dado que os impulsos de sinalização são vectores no espaço N-dimensional, podemos deter-
minar a distância (euclidiana) entre eles,
T
N−1 Z T
2 2
k si − sk k = ∑ [si j − sk j ] = [si (t) − sk (t)]2 dt (4.9)
j=0 0

bem como o ângulo que formam entre si,


T
sTi · sk
θik = arc cos (4.10)
k si k · k sk k

Ex
Exemplo 1 Consideremos os sinais de uma base ortonormada φ1 (t) e φ2 (t) que se apresentam na
figura 4.3. Esta base corresponde à codificação de Manchester, como se viu anteriormente.

Com estas duas funções de base podemos com facilidade gerar quatro impulsos de sinalização,
recurrendo à equação (4.3), fazendo s11 = 1, s12 = 1, s21 = 1, s22 = −1, s31 = −1, s32 = 1, s41 = −1
e s42 = −1,    
s1 (t) 1 1
    " #

−s (t) =  s2 (t)   1 −1 
· φ 1 (t)
 s (t)  =  −1 (4.11)
  
 3   1  φ2 (t)
s4 (t) −1 −1
4.1. MODELO DE SISTEMA DE COMUNICAÇÃO DIGITAL 173

φ1 (t) φ2 (t)
2 /T 2 /T

T/2 T t T/2 T t

Figura 4.3: Funções de base.

s1 (t) s2 (t)
2 /T 2 /T
T
T/2 T t T/2 t
- 2 /T

s3 (t) s4 (t)
2 /T

T
T/2 T t T/2 t
- 2 /T - 2 /T

Figura 4.4: Impulsos de sinalização.

e que resultam nos impulsos representados na figura 4.4, correspondendo-lhes, no plano da base do
espaço assim definido uma «constelação» que se assinala na figura 4.5.

Os impulsos de sinalização estão, na figura 4.5, representados por pontos, e designam-se


pontos da constelação.

Podemos «aproveitar» cada um destes pontos da constelação para lhes fazer corresponder
pares de bit, por exemplo
s1 ↔ 00
s2 ↔ 01
s3 ↔ 11
s4 ↔ 10

onde, como se pode verificar, se usou um código de Gray.


V

Ex

Exemplo 2: QPSK ou 4-PSK Consideremos agora os sinais φ1 (t) = 2 cos(2π fc t) e φ2 (t) =

2 sen(2π fc t) para ∀t : t ∈ [0, 1[, sendo fc  1, que formam uma base ortonormada.
2 Obviamente que estamos a considerar que a energia destas componentes é unitária.
174CAPÍTULO 4. INTRODUÇÃO À TEORIA DA DETECÇÃO E À COMUNICAÇÃO DIGITAL

φ2 (t)
s3 (t) s1 (t)

φ1 (t)

s4 (t) s2 (t)

Figura 4.5: Constelação ou representação da modulação digital no espaço de sinais.

À semelhança do exemplo anterior, com estas duas funções de base podemos com facilidade
gerar quatro impulsos de sinalização, recurrendo novamente à equação (4.3), fazendo como anteri-
ormente s11 = 1, s12 = 1, s21 = 1, s22 = −1, s31 = −1, s32 = 1, s41 = −1 e s42 = −1,
   
s1 (t) 1 1
 " #
−s (t) = √2 · 
  
→ s2 (t)   1 −1 
· cos(2π f c t)
 s (t)  =  −1 (4.12)
  
 3   1 
 sen(2π fc t)
s4 (t) −1 −1

e que resultam nos impulsos representados na figura 4.6, correspondendo-lhes a «constelação» assi-
nalada na figura 4.7.

De forma idêntica à do problema anterior, a cada ponto da constelação podemos corresponder


pares de bit. Este procedimento tem a característica de permitir o envio de dados a uma taxa superior
a 100% face à que se obtém sem a utilização da constelação. Não é difícil de ver que, se a constelação
tivesse 8 pontos, o ritmo de envio seria a triplicar; no fundo, o ritmo resultante seria log2 (M) vezes
superior ao de base3 .

A título exemplificativo, apresenta-se na figura 4.8 a constelação anterior à entrada do receptor


após adição de ruído gaussiano.
V

4.1.2 R ESPOSTA DO BANCO DE C ORRELADORES AO RUÍDO B RANCO G AUSSIANO

No canal, o sinal vai ser contaminado por ruído w(t) e sobre o qual se admitem as seguintes
hipóteses: o ruído é aditivo, é branco (densidade espectral de potência constante) e as suas amostras
são normalmente distribuídas. Assim, o sinal à saída do canal de transmissão (entrada do receptor)
vem dado por
∀t ∈ [0, T [, i = 0, 1, · · · , M − 1 X(t) = si (t) +W (t) (4.13)
3 Embora não seja evidente, este procedimento ao ser usado numa comunicação série leva a criar-se alguma latência;
efectivamente, só após se coleccionarem log2 (M) bit, se pode proceder à sua codificação.
4.1. MODELO DE SISTEMA DE COMUNICAÇÃO DIGITAL 175

2 2

1 1
s1(t)

s2(t)
0 0

−1 −1

−2 −2
0 0.2 0.4 0.6 0.8 1 0 0.2 0.4 0.6 0.8 1
t t

2 2

1 1
s3(t)

0 s4(t) 0

−1 −1

−2 −2
0 0.2 0.4 0.6 0.8 1 0 0.2 0.4 0.6 0.8 1
t t

Figura 4.6: Impulsos de sinalização, a cor azul; as funções da base estão assinaladas a cor verde e a
vermelho, respectivamente, φ1 (t) e φ1 (t).

onde W (t) é suposto ser de média nula e autocorrelação RW (τ) = η2 δ (τ) ⇔ GW ( f ) = η2 . É a partir
deste sinal que, no receptor, se terá de decidir sobre o símbolo transmitido e esta decisão pode
envolver, como veremos, vários critérios.

Comecemos então por ver qual a resposta do banco de correladores ao ruído de canal. Assim,
determinar wk , ou seja, a saída índice k do banco de correladores ao ruído branco gaussiano passa,
claramente, por obter a projecção do ruído pela componente k da base do espaço de sinais definido,
T

Z T
wk =≺ w, φk = w(t) · φk (t)dt (4.14)
0

para k = 0, 1, · · · , N − 1. Relembremos que um processo gaussiano aplicado na entrada de um


SLIT vai originar na sua saída um processo que também é gaussiano. Determinemos o seguinte
176CAPÍTULO 4. INTRODUÇÃO À TEORIA DA DETECÇÃO E À COMUNICAÇÃO DIGITAL

φ2 (t)

x3 (t) x1 (t)

φ1 (t)

x4 (t) x2 (t)

Figura 4.7: Constelação ou representação da modulação digital QPSK no espaço de sinais (no texto, xi (t) =
si (t)).

φ2 (t)
2

1.5
x3 (t) x1 (t)
1

0.5

0
φ1 (t)
−0.5

−1

x4 (t) x2 (t)
−1.5

−2
−2 −1.5 −1 −0.5 0 0.5 1 1.5 2

Figura 4.8: Constelação da modulação digital QPSK no espaço de sinais do receptor após ruído gaussiano
no canal, xi (t) = si (t) +W (t).

valor esperado do produto de duas saídas do banco de correladores,


RT RT
E{wk wl } = E{ 0 w(t) · φk (t)dt 0 w(t) · φl (t)dt} =

RT RT
= E{ 0 0 w(t) · φk (t) · w(ε) · φl (ε)dtdε} =

RT RT
= 0 0 E{w(t) · w(ε)} · φk (t) · φl (ε)dtdε =

RT RT η (4.15)
= 0 0 2 δ (t − ε) · φk (t) · φl (ε)dtdε =

RT RT
= 0 φl (ε) 0 δ (t − ε) · φk (t)dtdε =
(
η RT η 1 k=l
= 2 0 φl (ε) · φk (ε)dε = 2 ·
0 k 6= l
4.2. DETECTOR DE MÁXIMA VEROSIMILHANÇA 177

Assim, e uma vez que a saída do banco de correladores é constituída por todos os wk com
k = 0, 1, · · · , N − 1, então o vector das componentes do ruído à saída do banco de correladores é


w = [w0 , w1 , · · · , wN−1 ]T .

Sendo, por definição, o valor expectável de → −w ·→



w T a covariância4 (ver equação (2.58) e re-
T 5 uma vez que cada componente tem média nula), então teremos
cordando que m→ w = [0, 0, · · · , 0]

que o resultado expresso na equação (4.15) permite-nos, de imediato, obter a matriz de covariância
do vector de ruído à saída do banco de correladores,
T
 
1 0 ··· 0
 

− →
− T η  0 1 · · · 0  η
CW = E{ w · w } = ·   = IN (4.16)
2  ··· ··· ··· 0 

 2
0 0 ··· 1

onde IN é a matriz identidade [N × N]. Como interpreta este resultado?

A sua função densidade de probabilidade vem dada por 6


T

− →−T
1 − w ·ηw
fW (w) = p ·e (4.17)
(ηπ)N

4.2 DETECTOR DE MÁXIMA VEROSIMILHANÇA

Este detector também é conhecido por observador ideal e pode-se mostrar que tem um de-
sempenho equivalente aos detectores MAP7 (Das et al. , 1986). Comecemos com uma importante
definição: verosimilhança.

D
Definição: Verosimilhança como sendo a função densidade de probabilidade condicionada

L(mi ) , fX (x|mi ) ∀i = 0, 1, · · · , N − 1 (4.18)


4A covariância de uma dada variável aleatória vectorial Z de média mZ nula é

− →
− − →
−→ −
CZ = E{( Z − −
m→ →T
Z ) · ( Z − mZ ) } →

= E{ Z Z T }
m Z =0

5 Repare-se que o valor expectável de →−


w é, por sua vez, um vector cujos elementos são os valores expectáveis das


componentes de w ; assim, m→ →

−w ou m w representam o mesmo momento estatístico.
6 Relembremos que a função densidade de probabilidade de um vector → −
Z = [z0 , z1 , · · · , ZN−1 ]T de variáveis alea-
tórias gaussianas zk , k = 0, 1, · · · , N − 1, é dada por
1 1 →
− − →
− − T
det− 2 [CZ ]exp[− ( Z − →
m Z )(CZ )−1 ( Z − →
1
fZ (z) = m Z) ]
(2π)N/2 2


onde CZ é a matriz de covariância de Z . Particularizando, notemos que, neste caso, CZ = η2 · I → det[CZ ] = det[ η2 · I] =

− →
− − →
− − T →
− → −
(η/2)N ] e que CZ−1 = η/2
1
· I e ainda que, sendo →

m Z = 0 , resulta em ter-se ( Z − →
m Z )(CZ )−1 ( Z − →
m Z ) = η2 Z · Z T ,
justificando-se a equação (4.17).
7 MAP, de Maximum A Posteriori
178CAPÍTULO 4. INTRODUÇÃO À TEORIA DA DETECÇÃO E À COMUNICAÇÃO DIGITAL

A partir da verosimilhança assim definida, seja agora a log-verosimilhança

l(mi ) , log L(mi ) (4.19)

Consideremos, por questões de simplicidade, o caso de uma fonte binária (M = 2) e sejam as


probabilidades de ocorrência dos seus (dois) símbolos

p0 = Pr(ocorrer 0)
p1 = Pr(ocorrer 1)

e sejam H0 e H1 as hipóteses de terem sido transmitidos, respectivamente, os impulsos s0 e s1 que,


como se depreende, corresponderão aos símbolos m0 e m1 , ou seja

H0 : x(t) = s0 (t) + w(t) ↔ x =→



− −s + →
0

w

− →
− →
− (4.20)
H1 : x(t) = s1 (t) + w(t) ↔ x = s +w
1

Do lado do receptor, figura 4.9, e observado um sinal x(t) recebido põe-se a questão de saber qual o
símbolo da mensagem que efectivamente se transmitiu.

CANAL
ído
Receptor Ru

Descodificador símbolos
Mensagens Vectorial Desmodulador
mi { xi }

Figura 4.9: Diagrama de blocos de um sistema de recepção discreto.

Consideremos, por exemplo, x(t) = sk + wk (t) como uma função amostra do processo X (t)
que modela a resposta do canal índice k à transmissão dos impulsos de sinalização nesse canal
que se supõe linear e invariante no tempo, com ruído aditivo de média nula e variância conhecida.
Então, como a saída do banco de correladores conta com N funções amostra, ao caracterizarmos a
variável aleatória xk a que corresponde a função amostra x(t) = sk + wk (t) acima referida, estaremos
a caracterizar o processo estocástico que modela a saída do banco de correladores.

Comecemos, então, por determinar o seu valor expectável

mxk = E{xk } = E{sk + wk } = E{sk } + E{wk } = E{sk } = sk (4.21)

pois, por hipótese, o ruído é de média nula; por outro lado, a sua variância virá
η
σx2k = E{(xk − mxk )2 } = E{(wk )2 } = (4.22)
2

Este resultado é muito importante, pois mostra que a componente k à saída do banco de cor-
reladores é uma variável aleatória normalmente distribuída de média sk (equação (4.21)) e variância
4.2. DETECTOR DE MÁXIMA VEROSIMILHANÇA 179

η
2 (equação (4.22)), ou seja, xk ∼ N(sk , η2 ) e, por conseguinte, a variável aleatória N-dimensional X
é normalmente distribuída
X ∼ N(→ −s , η I )
N (4.23)
2
onde IN é, como anteriormente, a matriz identidade [N × N]. Posto o que poderemos obter de se-
guida a função densidade de probabilidade dos processos correspondentes às hipóteses formuladas
aquando da equação (4.20)
x −→
k→
− −s k2

(→ − 0
fX|H0 x ) = (ηπ)−N/2 · e− η
− →
→ −
k x − s 1k 2
fX|H1 (→

x ) = (ηπ)−N/2 · e− η (4.24)

onde k →
−z k é a norma do vector N-dimensional →
−z que, como se sabe, vem dada por

N−1
k→
−z k= [
∑ z2k ]1/2 (4.25)
k=0

O vector X vai pertencer a um espaço de sinais e o processo de detecção corresponderá a determinar


uma partição adequada [S0 S1 ] desse espaço, de forma a decidir pelo símbolo correspondente à
partição respectiva, ou seja
T
x ∈ S0 −→ m0
˙
∨ (4.26)
x ∈ S1 −→ m1

Defina-se agora uma função de custo que atribui a cada acontecimento um peso ou custo que,
D
consoante os casos, favoreça ou penalize as decisões certas ou as erradas, respectivamente. Ora,
neste problema há 4 casos possíveis

H0 |H0 ser verdadeira


H1 |H1 ser verdadeira
(4.27)
H0 |H1 ser verdadeira
H1 |H0 ser verdadeira

Reparemos que os dois primeiros acontecimentos de (4.27) correspondem a acertos, enquanto que
os dois últimos correspondem a decisões erradas. Então deveremos penalizar estes dois últimos e
favorecer (ou, pelo menos, não penalizar) os dois primeiros.

Assim, seja F o funcional que caracterize os acontecimentos de (4.27)

F = C0 P0 +C1 P1 +C01 P01 +C10 P10 (4.28)

onde, de acordo com a discussão anterior, C0 = C1 = 0, C01 = C10 = 1, e com

P0 = p0 · Pr(H0 |H0 ser verdadeira)


P1 = p1 · Pr(H1 |H1 ser verdadeira)
(4.29)
P01 = (1 − p0 ) · Pr(H0 |H1 ser verdadeira)
P10 = (1 − p1 ) · Pr(H1 |H0 ser verdadeira)

sujeitas, naturalmente, a p0 + p1 = 1.
180CAPÍTULO 4. INTRODUÇÃO À TEORIA DA DETECÇÃO E À COMUNICAÇÃO DIGITAL

Consequentemente, o funcional F resulta em

F = (1 − p) · Pr(H0 |H1 ser verdadeira) + p · Pr(H1 |H0 ser verdadeira) (4.30)

onde p = p0 . Este resultado expresso na equação (4.30) não é mais do que a probabilidade de erro,
ou seja, Z Z
Pe = (1 − p) fX|H1 (→

x )d→
−x + p fX|H0 (→−x )d→
−x (4.31)
S0 S1

Mas, recordando que o espaço de amostras resulta da união dos dois sub-espaços das partições S0 e
S1 Z Z Z
fX|H0 ( x )d x = 1 ⇒ fX|H0 ( x )d x = 1 − fX|H0 (→

− →
− →
− →
− −
x )d→

x (4.32)
S0 ∪S1 S1 S0

Pelo que, minimizar a probabilidade de erro (equação (4.31)) corresponde a minimizar

fX|H1 (→
− x + p − p fX|H0 (→
x )d→
− −
x )d→

R R
Pe = (1 − p) x =
S0 S0
(4.33)
= p + [(1 − p) · fX|H1 (→

x ) − p · fX|H0 (→

x )]d→

R
x
S0

Uma vez que p é um valor fixo, minimizar a probabilidade de erro Pe da equação (4.33) é equivalente
a minimizar [(1 − p) · fX|H1 (→

x ) − p · fX|H0 (→

x )], o que se traduz na seguinte regra de decisão
D
fX|H1 (→

x ) H1 p
≷ (4.34)
fX|H0 (→

x ) H0 1 − p

que se pode expressar como sendo


T H1
λ (x) ≷ γ (4.35)
H0

onde λ (x) é a razão de verosimilhança (likelihood ratio) e γ o limiar de decisão. Por outro lado, note-
se que a equação λ (x) = γ representa a fronteira entre as regiões de decisão S0 e S1 . Desenvolvendo
a equação (4.34), usando a equação (4.24) e aplicando logaritmos, resulta finalmente em
T
H1 p
x −→
k→
− −s k2 − k →
1 x −→
− −s k2
0 ≶ −η · ln (4.36)
H0 1− p
p
Na figura 4.10 representa-se o factor ln[ 1−p ] em função de p e que afecta o limiar de decisão na
equação (4.36).

Supondo equiprobabilidade dos símbolos da fonte binária, a equação anterior, equação (4.36)
resume-se a
T
k→−x −→ −s k2 H ≶ k→
1
−x −→−s k2 (4.37)
1 0
H0

Se desenvolvermos as equações referentes às normas dos vectores em ambos os membros da equação


(4.37), k x − sk k2 =k x k2 + k sk k2 −2 ≺ x, sk  para k = 1, 2, e lembrando que k sk k2 = Esk é a
energia do impulso de sinalização (equação (4.8), chegaremos a
T
Es1 H1 Es0
≺ x, s1  − ≷ ≺ x, s0  − (4.38)
2 H0 2
4.2. DETECTOR DE MÁXIMA VEROSIMILHANÇA 181

−2

−4

−6

−8
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
p

Figura 4.10: Representação gráfica de ln[p/(1 − p)] em função de p.

Equação esta que traduz de forma óptima8 um resultado intuitivo que corresponde, tão simples-
mente, a escolher o símbolo em função da proximidade da observação x ao afixo do vector →
−s .

Recordemos que este resultado a que se chegou é apenas válido sse o ruído for gaussiano de
média nula e os símbolos «0» e «1» forem equiprováveis. Abordaremos mais adiante o caso em que
as energias dos impulsos de sinalização são, por hipótese, idênticas.

4.2.1 P ROBABILIDADE DE E RRO

A probabilidade de erro Pe é complementar da probabilidade de decidir correctamente, ou


seja, Pe = 1 − ∑M−1
i=0 Pr(mi |Hi ) onde se supôs que as mensagens são obtidas num alfabeto de M
símbolos distintos. Por conseguinte, a probabilidade de erro virá
T
M−1 Z
Pe = 1 − ∑ pi fX|Hi (→

x )d→

x (4.39)
i=0
Si

Este resultado apresenta uma dificuldade que se prende, simultaneamente, com as função densidade
de probabilidade fX|Hi (→

x ) e com as regiões de decisão Si , pelo que só em casos simples poderemos
determinar esta probabilidade de erro de uma forma fechada. Assim, apresentaremos em seguida
alguns casos de bastante interesse para as telecomunicações.

4.2.2 S INAIS O RTOGONAIS COM I GUAL E NERGIA

Sejam os sinais apresentados na figura 4.11, dois sinais com duração T e energia unitária
que, como facilmente se verifica, são dois sinais ortogonais.
8É uma forma óptima pois resulta da aplicação de um critério de máxima verosimilhança ou de mínima probabilidade
de erro.
182CAPÍTULO 4. INTRODUÇÃO À TEORIA DA DETECÇÃO E À COMUNICAÇÃO DIGITAL

Figura 4.11: Sinais ortogonais de energia unitária.

Assim, usemos estes dois sinais como base ortonormada Φ = [φ0 , φ1 ]T . Na posse desta

base, podemos gerar os sinais sk (t) = E · φk (t), com energia E e que utilizaremos para sinalizar as
diversas mensagens de uma dada fonte binária. Neste caso, as regras de decisão anteriores, equações
(4.36) ou (4.38), resumem-se a
T
H1
≺ x, s1 =≺ x, φ1 = x1 ≷ ≺ x, s0 =≺ x, φ0 = x0 (4.40)
H0

e que corresponde a um receptor se pode obter através, por exemplo, a partir do sistema representado
pelo diagrama de blocos da figura 4.12. A região fronteira às regiões de decisão S0 e S1 é definida
por x0 = x1 a que, naturalmente corresponde uma recta no plano do espaço de amostras (figura 4.13,
√ √
à esquerda) e onde d = 2E, pois sendo sk = E, basta aplicar o teorema de Pitágoras para se obter
a distância d entre s0 e s1 .

Figura 4.12: Receptor de máxima verosimilhança (caso particular).

Probabilidade de Erro Mínima

Vejamos como resulta o integral da equação (4.39), referente à probabilidade de erro Pe . Neste caso,
e tendo em conta que a função densidade de probabilidade apresenta uma simetria circular9 em torno
do valor médio do impulso de sinalização (equação (4.23) e figura 4.13 ao centro) e, atendendo ao
9 Apresenta simetria circular, porque o expoente da exponencial contém a forma quadrática k x − sk k2 , com k = 0, 1,
que se traduz num valor idêntico para todos os vectores x(t) à volta de sk .
4.2. DETECTOR DE MÁXIMA VEROSIMILHANÇA 183

q0
S0 x0 = x1 S0
x0 = x1
s0 s0

S
1
0
S
E S1 d S1
q1

s0
s1 s1

s1
d
E

Figura 4.13: Regiões de decisão correspondentes à equação (4.40).

facto de que a probabilidade de erro é invariante quer à rotação quer à translacção do sinal (e por
consequência, a função densidade de probabilidade também o é), consideremos o novo referencial
assinalado na figura 4.13 à direita, e que nos vai permitir o cálculo da probabilidade de erro de uma
forma mais expedita,
M−1 Z
Pe = 1 − ∑ pi fX|Hi (→

x )d→

x =
i=0
Si

1 1
Z Z
= 1− fX|H0 (→

x )d→

x − fX|H1 (→

x )d→

x =
2 2
S0 S1

Z∞ Z0
1
Z
fX|H0 (→

x )d→
− 2 2
= 1− x = 1− · e−[(q1 +d/2) +q0 ]/η dq1 dq0 =
ηπ
S0 −∞ −∞

Z∞ Z0
1 2 1 2
= 1 − √ e−q0 /η dq0 · √ · e−(q1 +d/2) /η dq1 =
ηπ ηπ
−∞ −∞
| {z }
=1

Z0 √
1 2
= 1− √ · e−(q1 +d/2) /η dq1 ∴ d= 2E (4.41)
ηπ
−∞

Nesta equação, fazendo a mudança de variável

√d √d
2 η) √ 2 η)
1 d 1
Z Z
η −ν 2 2
ν = √ (q1 + ) −→ √ e dν = √ e−ν dν (4.42)
η 2 ηπ π
−∞ −∞

e, relembrando que
Z A
1 1 1
Z ∞ Z ∞
2 2 2
√ e−ν dν = 1 = √ e−ν dν + √ e−ν dν = 1 (4.43)
−∞ π −∞ π A π

então, a equação (4.41) virá


T
184CAPÍTULO 4. INTRODUÇÃO À TEORIA DA DETECÇÃO E À COMUNICAÇÃO DIGITAL

d

R0 2
2 2
2
√1 e(q1 −d/2) /η dq1 √1 √1 e−ν dν
R
Pe = 1 − ηπ = 1− π ηπ =
−∞ −∞
(4.44)
R∞ −ν 2  
= √1π e dν = 12 erfc 2√d η
d √
2 2

onde se utilizou a função do erro complementar que é definida de imediato.

D
Definição: Função do Erro Complementar como sendo

Z+∞
2 2
∀υ > 0 : erfc (υ) , √ e−ε dε (4.45)
π
υ

Não há uma forma fechada para o integral da função erfc(υ) da equação (4.45) pelo que esta
se encontra tabelada10 em função do parâmetro υ. A função do erro complementar erfc(υ) pode ser
expressa em termos da função Q(·) que se define
D
Z +∞
1 ε2
Q(υ) , √ e− 2 dε (4.46)
2π υ

através da relação
√ 
erfc(υ) = 2 Q 2υ (4.47)

Recordando que a energia do impulso de sinalização é E e que corresponde a d 2 /2, a expres-


são da probabilidade de erro vem, finalmente,
T
s ! s !
1 E E
Pe = erfc =Q (4.48)
2 2η η

4.2.3 S INAIS A NTIPODAIS COM I GUAL E NERGIA


q d
Ao invés do caso dos sinais ortogonais, seja agora s1 (t) = −s0 (t) e em que s0 (t) = T ( t−TT /2 ) E

é um impulso de sinalização de energia E e duração T unidades de tempo, como se representa na


figura 4.14.

Claramente que a ortogonalidade dos sinais não é mais verificada11 ; então, trata-se de um
de dimensão unitária, sendo φ (t) a função de base, de energia unitária, φ (t) =
espaço de sinais q
q
E d t−T /2
T ( T ) = T1 s0 (t). Neste caso, e usando a regra de decisão da equação (4.38), teremos
T

10 Veja-se a tabela C.1 em apêndice.


11 Istoporque, por hipótese, o impulso s1 (t) é simplesmente o simétrico do impulso s0 (t). Logo, ≺ s1 (t), s0 (t) = −T
e, portanto, ≺ s1 (t), s0 (t) 6= 0, ou seja, não são sinais ortogonais.
4.2. DETECTOR DE MÁXIMA VEROSIMILHANÇA 185

Figura 4.14: Sinalização e detecção com sinais antipodais de igual energia.


≺ x(t), s1 (t)  = − E ≺ x, φ (t)  =

H1
= −x ≷ x= (4.49)
H0


= E ≺ x(t), φ (t)  = ≺ x(t), s0 (t) 

o que acaba por resultar em


H0 T
x ≷ 0 (4.50)
H1

que é um resultado evidente mas que aparece agora suportado teoricamente.

O leitor facilmente verificará que os impulsos em causa não são mais do que os utilizados na
sinalização polar sem retorno a zero, conforme indicado na figura 3.30.

Probabilidade de Erro Mínima

Neste caso teremos para as função densidade de probabilidade das observações

1 (ε−si )2
∀i = 0, 1 : fX|Hi (ε) = √ e− η (4.51)
πη

e que se representam na figura 4.15. A probabilidade de erro, a partir da equação (4.39), virá agora
dada por Z
Pe = 1 − fX|Z1 (ε)dε (4.52)
Z1

Claro que a probabilidade de erro também pode ser dada por


Z
Pe = 1 − fX|Z0 (ε)dε (4.53)
Z0

e que corresponde à área assinalada a sombreado amarelo na figura 4.15. Esta probabilidade virá,
desenvolvendo a partir das equações (4.52), (4.53) e (4.51)
T
Z+∞ 2 Z0 2
1 − (ε−d/2) 1 − (ε+d/2)
Pe = 1 − √ e η (ε)dε = 1 − √ e η (ε)dε (4.54)
πη πη
0 −∞
186CAPÍTULO 4. INTRODUÇÃO À TEORIA DA DETECÇÃO E À COMUNICAÇÃO DIGITAL

0.35

0.3

0.25

0.2

0.15

0.1

0.05

0
−6 −4 −2 0 2 4 6

− E E
d

Figura 4.15: Funções Densidade de Probabilidades Condicionais, η = 1, 5 e si = (−1)i , i = 1, 2.


onde d = 2 E é a distância entre os dois sinais de sinalização.

Então, e de acordo com a definição de função do erro complementar, equação (4.45), a pro-
babilidade de erro vem agora
T s ! s !
1 E 2E
Pe = erfc =Q (4.55)
2 η η

Este resultado é, de certo modo intuitivo porque: por um lado, sendo a função complementar
de erro uma função monotónica decrescente, com o aumento do seu argumento a equação (4.55) re-
sulta numa probabilidade de erro menor do que a traduzida pela equação (4.48); e por outro, sendo a
distância d entre os impulsos antipodais maior do que a distância entre os impulsos ortogonais, seria
de esperar que o erro de detecção viesse menor, o que se verifica e confirma agora analìticamente.

4.3 DETECÇÃO ÓPTIMA

Ao invés da secção anterior, em que se procurava inferir a mensagem enviada a partir da


minimização da probabilidade de erro, iremos de seguida basear a decisão numa relação sinal/ruído
que se pretende máxima.

4.3.1 C ORRELADOR

Atentemos num dos ramos da figura 4.2 e que, por facilidade de exposição, se representa
novamente na figura 4.16. O sinal de saída do filtro correlador é, no instante t = T ,
Z T
y(T ) = y(t)|t=T = r(t) · sk (t)dt (4.56)
0
Esta equação é de extrema importância pois, como veremos de seguida, é equivalente à resposta do
filtro adaptado.
4.3. DETECÇÃO ÓPTIMA 187

Figura 4.16: Correlador.

4.3.2 F ILTRO A DAPTADO

Dado que, como sabemos, se tem na saída de um canal de comunicação os impulsos de sina-
lização corrompidos por ruído, x(t) = sk (t) + wk (t), seria interessante ter um filtro que maximizasse,
no(s) instante(s) de decisão (ou seja quando t = kT onde T é, como habitualmente, a duração do
intervalo de sinalização), a energia do sinal recebido face à do ruído, «adaptando-se» assim ao im-
pulso de sinalização, pois o ruído tem uma potência que se supõe constante. Trata-se, portanto, de
maximizar a relação sinal/ruído à saída do filtro «adaptado», pelo que teremos de determinar qual a
sua função de transferência ou, de forma equivalente, a sua resposta impulsiva.

Formulemos então o problema, onde y(t) é o sinal de saída do filtro adaptado de resposta
impulsiva h(t) ao impulso de sinalização sk (t)

y(t) = h(t) ∗ x(t) = h(t) ∗ sk (t) + h(t) ∗ w(t) (4.57)

onde se supôs que w(t) é uma função amostra do processo de ruído W (t), pelo que y(t) também
pode ser encarado como uma função amostra do processo de saída Y (t)

Y (t) = h(t) ∗ sk (t) + N(t) (4.58)

Nesta equação, N(t) é o processo do ruído obtido por filtragem no filtro adaptado do ruído na sua
entrada; assim, seja n(t) uma função amostra deste processo de ruído N(t). Consideremos que a
densidade espectral de potência do processo de ruído é, como habitualmente, GW ( f ) = η/2, pelo
que a densidade espectral de potência do processo de ruído à saída do filtro vem, como se viu
anteriormente (ver equação (2.118))
η
GN ( f ) = |H( f )|2 · GW ( f ) = |H( f )|2 (4.59)
2
Assim, trata-se de determinar H( f ) ou h(t) de modo a que a relação sinal/ruído venha maximizada
nos instantes de amostragem, t = T

|h(t) ∗ sk (t)|t=T |2 | j2π f t d f | 2


R
R H( f ) · Sk ( f )e t=T |
SNRH = = +∞
(4.60)
PN R η
2
2 |H( f )| d f
−∞

O numerador desta equação, usando a desigualdade de Schwarz vem


Z Z Z
| H( f ) · Sk ( f )e j2π f t d f |t=T |2 ≤ |H( f )|2 d f · |Sk ( f )e j2π f t |2 d f |t=T (4.61)
R R R
188CAPÍTULO 4. INTRODUÇÃO À TEORIA DA DETECÇÃO E À COMUNICAÇÃO DIGITAL

sendo que a igualdade na equação (4.61) é obtida quando a função de resposta em frequência do
filtro adaptado verifica a condição
T
Hadaptado ( f ) = K · Sk∗ ( f )e− j2π f T (4.62)

De facto
j2π f t d f | 2
R
| R H( f ) · Sk ( f )e t=T | =


( f ) · S ( f ) e− j2π f T e j2π f t |t=T d f |2
R
= K| RS =
| k {z k } | {z } (4.63)
=|S( f )|2 =1

= K2| 2 2 = K2| 2 2
R R R
R |Sk ( f )| d f | R |Sk ( f )| d f | · | R |Sk ( f )| d f |
que facilmente se identifica com o termo da direita da equação (4.61)
Z Z Z Z
2 j2π f t 2 2 2
|H( f )| d f · |Sk ( f )e | d f |t=T = K |Sk ( f )| d f · |Sk ( f )|2 d f (4.64)
R R R R

onde, nesta dedução, se usaram as identidades ∀θ ∈ R : |e jθ | = 1 e |Sk∗ ( f )| = |Sk ( f )| e o facto de,


por hipótese, se ter H( f ) = K · Sk∗ ( f )e− j2π f T .

Assim sendo, e substituindo a equação (4.62) na equação (4.60) teremos que a relação si-
nal/ruído vem
T
j2π f t d f | 2 K2| 2 2
R R
| R H( f ) · Sk ( f )e t=T | R |Sk ( f )| d f |
SNRH = +∞
= +∞
=
R η η 2 R
2 |Sk ( f )|2 d f
2 |H( f )| d f 2 K
−∞ −∞
2
R
R |Sk ( f )| d f
= η (4.65)
2
que não é mais do que a energia do impulso de sinalização dividida pela potência do ruído e, como se
verifica, independente do ganho K do filtro adaptado; pelo que, se considera ser K = 1 sem qualquer
prejuízo ou perda de generalidade. Ora, a condição expressa na equação (4.62) é, pela transformação
inversa de Fourier
T
hadaptado (t) = TF−1 [Hadaptado ( f )] = sk (T − t) (4.66)
que corresponde a afirmar que a resposta impulsiva do filtro adaptado não é mais do que o próprio
impulso de sinalização correspondente, mas atrasado da sua duração T e invertido no tempo.

Finalmente, obtenha-se a resposta deste filtro, desenvolvendo a equação (4.57)


Z+∞ Zt
y(t) = hadaptado (t) ∗ x(t) = x(τ)sk (T − t + τ)dτ = x(τ)sk (T − t + τ)dτ (4.67)
−∞ t−T

dado que o impulso de sinalização é nulo para ∀t : t ∈


/ [0, T ]; mas, por este mesmo facto, o integral
da equação (4.67) pode reescrever-se como sendo
ZT
y(t) = x(τ)sk (τ)dτ = y(T ) (4.68)
0

e que identificamos como sendo a saída do correlador índice k do banco de correladores, equações
(4.2) e (4.3), no instante de tempo t = T .
4.3. DETECÇÃO ÓPTIMA 189

4.3.3 A PLICAÇÃO A S ISTEMAS DE T RANSMISSÃO B INÁRIA

Os resultados anteriores são agora aplicados a diversas situações de sinalização em banda de base
e à modulação de portadoras sinusoidais para o envio de dados binários. É fácil identificar os dois
primeiros casos, pois já foram apresentados neste capítulo. Nas figuras 4.17 e 4.18 apresentam-se
as sinalizações correspondentes à sequência «0011001» e que serão, de seguidas, analisadas.

0.5

0
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5
4
x 10
1

0.5

−0.5

−1
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5
4
x 10
1

0.5

−0.5

−1
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5
4
x 10

Figura 4.17: Sequência 0011001 utilizando sinalização unipolar (cima), Polar (centro) e ASK (baixo), con-
siderando A = 1.

Sinalização Unipolar em Banda de Base

Os impulsos de sinalização são


D
(
s0 (t) = 0 0≤t ≤T
si (t) = (4.69)
s1 (t) = +A 0≤t ≤T

A2 T
tendo uma energia média por bit de Eb = 2 . Estes impulsos podem ser encarados como sendo
obtidos a partir da função de base
l t − T /2
φs (t) = ( )
T
aplicando os «pesos» s0 = 0 e s1 = A.

A sequência «0011001» é ilustrada na figura 4.17, no cimo.


190CAPÍTULO 4. INTRODUÇÃO À TEORIA DA DETECÇÃO E À COMUNICAÇÃO DIGITAL

0.5

0
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5
4
x 10
1

0.5

−0.5

−1
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5
4
x 10
1

0.5

−0.5

−1
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5
4
x 10

Figura 4.18: Sequência «0011001» utilizando sinalização unipolar (cima), PSK (centro) e FSK (baixo),
considerando A = 1.

A probabilidade de erro Pe vem


s ! s !
1 Eb Eb
Pe = erfc =Q (4.70)
2 2η η

Sinalização Polar em Banda de Base

Os impulsos de sinalização são


D
(
s0 (t) = −A 0≤t ≤T
si (t) = (4.71)
s1 (t) = +A 0≤t ≤T

tendo uma energia média por bit de Eb = A2 T . Estes impulsos podem ser encarados como sendo
obtidos a partir da função de base
l t − T /2
φs (t) = ( )
T
aplicando os «pesos» s0 = −A e s1 = A.

A sequência «0011001» é ilustrada na figura 4.17, ao centro.

A probabilidade de erro Pe vem


s ! s !
1 Eb 2Eb
Pe = erfc =Q (4.72)
2 η η
4.3. DETECÇÃO ÓPTIMA 191

ASK - Amplitude-Shift Keying

Os impulsos de sinalização são


D
(
s0 (t) = 0 0≤t ≤T
si (t) = (4.73)
s1 (t) = A · cos(2π f1t) 0≤t ≤T

A2 T
sendo T um múltiplo inteiro de 1/ f1 e tendo uma energia média por bit de Eb = 4 . Estes impulsos
podem ser encarados como sendo obtidos a partir da função de base
l t − T /2
φs (t) = ( ) cos(2π f1t)
T
aplicando os «pesos» s0 = 0 e s1 = A.

A sequência «0011001» é ilustrada na figura 4.17, em baixo.

A probabilidade de erro Pe vem


s ! s !
1 Eb Eb
Pe = erfc =Q (4.74)
2 2η η

PSK - Phase-Shift Keying

Os impulsos de sinalização são


D
(
s0 (t) = A · cos(2π f1t − π) = −A · cos(2π f1t) 0≤t ≤T
si (t) = (4.75)
s1 (t) = A · cos(2π f1t) 0≤t ≤T

A2 T
sendo T um múltiplo inteiro de 1/ f1 e tendo uma energia média por bit de Eb = 2 . Estes impulsos
podem ser encarados como sendo obtidos a partir da função de base
l t − T /2
φs (t) = ( ) cos(2π f1t)
T
aplicando os «pesos» s0 = −A e s1 = A.

A sequência «0011001» é ilustrada na figura 4.18, ao centro.

A probabilidade de erro Pe vem


s ! s !
1 Eb 2Eb
Pe = erfc =Q (4.76)
2 η η

FSK - Frequency-Shift Keying

Os impulsos de sinalização são


D
(
s0 (t) = A · cos(2π f1t) 0≤t ≤T
si (t) = (4.77)
s1 (t) = A · cos(2π f2t) 0≤t ≤T
192CAPÍTULO 4. INTRODUÇÃO À TEORIA DA DETECÇÃO E À COMUNICAÇÃO DIGITAL

A2 T
sendo 2π f1 T  1, 2π f1 T  1 e 2π| f1 − f2 |T  1 e tendo uma energia média por bit de Eb = 2 .
Estes impulsos podem ser encarados como sendo obtidos a partir das funções de base

φ0 (t) = ( t−TT /2 ) cos(2π f1t)


d

φ 1(t) = ( t−TT /2 ) cos(2π f2t)


d

aplicando os «pesos»
s00 = A s01 = 0
s10 = 0 s11 = A
.

A sequência «0011001» é ilustrada na figura 4.18, em baixo.

A probabilidade de erro Pe vem


s ! s !
1 Eb Eb
Pe = erfc =Q (4.78)
2 2η η

No problema P. 8: deste capítulo faz-se um breve estudo comparativo das sinalizações bipolar,
ASK e FSK no que respeita às amplitudes dos impulsos (no fundo, a respectiva energia) para um
canal com as mesmas probabilidades de erro de bit e densidade espectral de ruído, supondo o mesmo
ritmo de bit.

4.4 SISTEMAS DE COMUNICAÇÃO DIGITAL

Do ponto de vista funcional, um sistema de comunicação digital tem uma estrutura de blocos
do tipo da que se apresentada na figura 4.19.

Figura 4.19: Diagrama de sistema de comunicação digital.

No diagrama anterior, a sequência binária pode provir de uma fonte digital (ficheiros binários,
por exemplo) ou de uma fonte analógica; neste último caso, pressupõe-se uma conversão analógico-
digital entre essa fonte e o transmissor do sistema de comunicação. Claramente que, neste caso, o
receptor terá de incluir um conversor digital-analógico para que se recupere o sinal analógico.

Nos parágrafos seguintes iremos detalhar um pouco os processos da modulação digital, que
consiste na modulação de uma portadora analógica por um dado código digital. A modulação digital
4.4. SISTEMAS DE COMUNICAÇÃO DIGITAL 193

apresenta, face à modulação «analógica», vantagens, em especial no que respeita à imunidade ao


ruído. Contudo, a modulação digital necessita de uma maior largura de banda face à modulação
analógica.

Tabela 4.1: das aplicações da modulação digital.

Modulação Aplicação
BPSK modems cabo, telemetria espacial
FSK, GFSK paging, sistemas móveis terrestres
MSK, GMSK sistema global p/ serviço móvel
QPSK, π4 QPSK CDMA, satélites, modems cabo, TFTS
OQPSK CDMA, satélites
8-PSK satélites, aviões, telemetria p/sistemas vídeo banda larga
16-QAM modems, rádio digital micro-ondas
32-QAM micro-ondas terrestre
64-QAM set top boxes banda larga, modems, MMDS
256-QAM modems, vídeo digital (EUA)

Na tabela 4.1 apresenta-se um resumo dos diferentes tipos de modulação digital e da sua res-
pectiva aplicação em sistemas de comunicação digital em uso. Nesta tabela, usaram-se as seguintes
abrviaturas: BPSK, binary phase shift keying12 ; FSK e GFSK, frequency shift keying e gaussian fre-
quency shift keying13 , respectivamente; MSK e GMSK, minimum shift keying e gaussian minimum
shift keying14 , respectivamente; QPSK, quadrature phase shift keying15 ; OQPSK, offset quadrature
phase shift keying16 ; QAM, quadrature amplitude modulation17 ; CDMA, Code Division Multiple
Access é um método de acesso utilizado em sistemas de comunicação celular e GPS; TFTS, Terres-
trial Flight Telecommunications Systems,é um sistema destinado às comunicações de passageiros a
bordo de aeronaves e MMDS, Multichannel, Multipoint Distribution Service também conhecido por
«cabo sem fios», é destinado à difusão de televisão e acesso à internet.

Dos vários tipos de modulação digital apresentaremos os mais comummente utilizados


e que vêm referidos na tabela 4.1.

4.4.1 BASK - Binary Amplitude Shift Keying

A informação sobre a sequência binária reside na amplitude da portadora; assim, um «0»


corresponde a não haver portadora e o «1» à sua existência. Anteriormente, no capítulo 6, este tipo de
modulação foi designado por ASK. Na figura 4.20 apresenta-se o diagrama de blocos correspondente
à modulação de amplitude binária.
12 sinalização por mudança binária de fase.
13 sinalização por mudança de frequência e sinalização guassiana por mudança de frequência.
14 sinalização por mudança mínima e sinalização guassiana por mudança mínima.
15 sinalização por mudança de fase em quadratura.
16 sinalização por mudança de fase em quadratura com desvio.
17 modulação de amplitude em quadratura.
194CAPÍTULO 4. INTRODUÇÃO À TEORIA DA DETECÇÃO E À COMUNICAÇÃO DIGITAL

Figura 4.20: Diagrama do modulador de BASK; NRZ (no return to zero) significa que quando a sequência é
«1» o nível de amplitude se mantém constante, não retornando a zero.

Este tipo de modulação necessita de uma largura de banda relativamente elevada, tem fraca
imunidade ao ruído18 mas é de fácil realização.

4.4.2 BFSK - Binary Frequency Shift Keying

Neste tipo de modulação, são enviadas duas portadoras de frequências distintas, consoante
se pretende enviar «0» ou «1»; na figura 4.21 apresenta-se uma realização possível para esta modu-
lação. Estas duas portadoras podem ser enviadas sem mais modulações (banda de base) ou poderão
ir modular outra portadora de frequência mais elevada. No capítulo 6, esta forma de modulação foi
referida como FSK.

Figura 4.21: Diagrama do modulador de BFSK.

4.4.3 BPSK - Binary Phase Shift Keying

Esta é a forma mais simples de modulação de fase, em que esta assume apenas dois valores,
˙ π. No fundo, trata-se de inverter a polaridade da portadora19 quando se pretende codificar um
0 ∨
dos valores lógicos da sequência binária, conforme assinalado na figura 4.22.

Este formato de modulação pode ser encarado como um caso particular (unidimensional) da
modulação em quadratura, QAM, que se apresenta de seguida.
18 quando comparada com outras formas de modulação digital.
19 pois resulta de ser desfasada de π radianos.
4.4. SISTEMAS DE COMUNICAÇÃO DIGITAL 195

Figura 4.22: Diagrama do modulador de BPSK.

4.4.4 QAM - Quadrature Amplitude Modulation

Anteriormente, no capítulo 4, abordámos esta forma de modulação que vai ser agora esten-
dida a sequências binárias. Nesta forma de modulação, quer a amplitude quer a fase da portadora
serão influenciadas pelos dados a transmitir. Se nos reportarmos à figura 5.12, poderemos ver que
se estão a modular duas portadoras com a mesma frequência mas desfasadas de 90o (ou seja, estão
em quadratura).

Há várias implementações de QAM em que se utilizam várias amplitudes e fases para se


codificarem símbolos compostos por vários bits. Assim, e por exemplo, 8-QAM resulta de se co-
dificarem símbolos com 3 bits (23 = 8 símbolos distintos), utilizando 4 fases diferentes e quatro
amplitudes. Da mesma forma, 16-QAM, resulta da codificação de símbolos com 4 bits (da mesma
forma, 24 = 16 símbolos distintos) com 4 amplitudes e 12 fases. Se representarmos no plano I-Q
(das componentes em fase I e em quadratura Q), obteremos o diagrama da figura 4.23, também
conhecido por constelação.

Figura 4.23: Constelação de 16-QAM.

Esta codificação é, do ponto de vista da ocupação espectral, muito eficiente; contudo, quando
em presença de ruído ou de distorções de amplitude e de fase que ocorram no canal, a sua desmodu-
lação é difícil.

4.4.5 QPSK - Quadrature Phase Shift Keying

Na figura 4.24 apresenta-se um diagrama de um modulador de QPSK que consiste em dois


moduladores de BPSK mas com portadoras desfasadas de π/2 radianos. No entanto, a selecção da
196CAPÍTULO 4. INTRODUÇÃO À TEORIA DA DETECÇÃO E À COMUNICAÇÃO DIGITAL

fase de cada portadora, em vez de ser efectuada pelos valores (individuais) da sequência binária, é
agora realizada por pares de valores binários, conforme se indica na mesma figura.

Figura 4.24: Diagrama do modulador de QPSK.

Esta forma de modulação permite o dobro da eficência espectral quando comparada com a
BPSK. No plano I-Q das componentes em fase e em quadratura teremos, para esta modulação, o
diagrama da figura 4.25, onde se supôs que A é a amplitude da(s) portadora(s).

Figura 4.25: Diagrama do modulador de QPSK.

4.4.6 OQPSK - Offset Quadrature Phase Shift Keying

Esta forma de modulação digital resulta da QPASK em que se limitam as transições de fase
de180o para os 90o , o que se consegue evitando que as variações de amplitude e de fase ocorram si-
multâneamente. Na figura 4.26 do lado esquerdo ilustra-se a modulação QPSK já apresentada, onde
se assinalam todas as possíveis transições de símbolos (conjunto de 2 bits, neste caso), enquanto
que, no lado direito, correspondente à OQPSK, são assinaladas as transições possíveis.

4.4.7 MSK - Minimum Shift Keying

A MSK é um tipo de modulação que se adapta bem a canais de características gaussianas e


com desvanecimento (fading) e resulta do desenvolvimento da modulação ou sinalização por desvio
4.5. EXEMPLOS DE APLICAÇÃO 197

Figura 4.26: Constelações de QPSK (à esquerda) e OQPSK (à direita).

de frequência, FSK. O sinal modulador em MSK é caracterizado pela equação


πt πt
x(t) = aI (t) cos( )cos(2π fc t) − aQ (t) sen( ) sen(2π fc t) (4.79)
2T 2T
onde aI e aQ modelam, respectivamente, os símbolos pares20 e ímpares21 e T é a duração de cada
bit. Através de alguma manipulação, a equação (4.79) resulta em
πt
x(t) = cos(2π fc t + bk (t) + φk ) (4.80)
2T
sendo ( (
+1 aI (t) = aQ (t) 0 aI (t) = +1
bk (t) = φk =
−1 aI (t) 6= aQ (t) π aI (t) 6= 1

Como se verifica, a equação (4.80) corresponde a uma modulação de frequência.

4.4.8 GMSK - Gaussian Minimum Shift Keying

A GMSK resulta de uma filtragem da sequência binária por um filtro com uma característica
de resposta em frequência do tipo passa-baixo e gaussiana, indo depois modular uma portadora em
frequência.

4.5 EXEMPLOS DE APLICAÇÃO

Nesta secção apresentaremos, para alguns dos tipos de modulação digital referidos, as for-
mas de onda dos sinais xi (t) das constelações MPSK (2-PSK e 4-PSK) e 8-QAM, bem como as
formas de onda do sinal a ser enviado para o canal de comunicação e que corresponde a uma dada
sequência binária. Ver-se-á, também, por análise das figuras, a diminuição do tempo necessário
para a transmissão de uma sequência binária, fruto do aumento de complexidade do codificador.
Esta diminuição do tempo de transmissão corresponde, efectivamente, a um aumento do ritmo de
transmissão, aproveitando ao máximo as características do canal de comunicação.
20 «00» e «11», por exemplo.
21 «01» e «10», por exemplo.
198CAPÍTULO 4. INTRODUÇÃO À TEORIA DA DETECÇÃO E À COMUNICAÇÃO DIGITAL

4.5.1 M ODULAÇÃO 2-PSK


Ex
Na figura 4.27 apresenta-se a forma de onda da modulação 2-PSK para a sequência binária
”010011010101”, obtida a partir dos sinais de sinalização da figura 4.28, sendo que a respectiva
constelação se representa na figura 4.29, à esquerda.

0.8

0.6

0.4

0.2

0
100 200 300 400 500 600 700 800 900 1000 1100 1200
Sequencia Binaria

0.5

−0.5

−1
100 200 300 400 500 600 700 800 900 1000 1100 1200
2−PSK

Figura 4.27: Sequência binária ”010011010101” (em cima) e respectiva modulação 2-PSK (em baixo).

4.5.2 M ODULAÇÃO 4-PSK


Ex
Existem outras formas de modulação digital que apresentam maior eficiência e que utilizam,
na sua essência, (sub)portadoras sinusoidais em quadratura. No fundo, uma extensão do conceito
apresentado em 5.1.5, mas em que x1 (t) e x2 (t) podem corresponder a pares de bits. Se, por exemplo,
fizermos
+1 se ”00”
x1 (t) ←→ (4.81)
−1 se ”11”

+1 se ”01”
x2 (t) ←→ (4.82)
−1 se ”10”

e utilizarmos o sistema QAM da figura 5.12, teremos uma constelação M-PSK com M = 4, também
conhecida como 4-PSK, conforme se apresenta na figura 4.29.
4.5. EXEMPLOS DE APLICAÇÃO 199

0.5

−0.5

−1
10 20 30 40 50 60 70 80 90 100
x1

0.5

−0.5

−1
10 20 30 40 50 60 70 80 90 100
−x1

Figura 4.28: Sinalizações da modulação 2-PSK.

01

0 1 11 00

10

2-PSK 4-PSK

Figura 4.29: Constelações M-PSK: 2-PSK, à esquerda e 4-PSK, à direita.

Repare-se que a modulação PSK apresentada atrás na figura 4.27 (em baixo), onde ocorre
uma descontinuidade de π radianos quando há uma transição 0 → 1 ou 1 → 0, corresponde a ter-se
uma inversão de polaridade da sinusoide. Assim, trata-se de uma modulação 2-PSK, assinalada na
figura 4.29, à esquerda.

As correspondentes formas de onda dos «pontos» da constelação (impulsos de sinalização)


indicam-se na figura 4.30. Na figura 4.31 representa-se a sequência ”010011010100” que é enviada
como sendo x2 x1 − x1 x2 x2 x1 .

4.5.3 M ODULAÇÃO 8-PSK


Ex
Optemos por codificar ternos de símbolos através de umas combinação linear de x1 (t) e x2 (t),
como se indica na tabela 4.2.
200CAPÍTULO 4. INTRODUÇÃO À TEORIA DA DETECÇÃO E À COMUNICAÇÃO DIGITAL

1 1

0.5 0.5

0 0

−0.5 −0.5

−1 −1
20 40 60 80 100 20 40 60 80 100
x1 −x1

1 1

0.5 0.5

0 0

−0.5 −0.5

−1 −1
20 40 60 80 100 20 40 60 80 100
x2 −x2

Figura 4.30: Formas de onda das sub-portadoras da modulação 4-PSK.

Tabela 4.2: da Codificação 8-PSK

Símbolos x1 x2
000 1 0
001 √1 √1
2 2
010 - √12 √1
2
011 0 1
100 √1 - √12
2
101 0 -1
110 -1 0
111 - √12 - √12

Repare-se que, nestas codificações M-PSM, o módulo (amplitude) das sub-portadoras modu-
ladas é sempre unitário, característica das modulações de ângulo.

A tabela 4.2 pode ser apresentada de uma forma em que os saltos (variações) de fase é limitada
a π/4 se abandonarmos a codificação binária e adoptarmos a codificação de Gray, em que há uma
mudança de um único bit entre quaisquer duas palavras adjacentes desse código, tabela 4.3. A
constelação 8-PSK (Gray) é conforme se indica na figura 4.32.

Apresenta-se na figura 4.33, a forma de onda resultante da modulação 8-PSK da mesma


sequência da figura 4.31, ”0100110101”, transmitida como sendo s4 q s3 q s4 q s7 . Os símbolos
codificados correspondem às formas de onda da figura 4.34.
4.5. EXEMPLOS DE APLICAÇÃO 201

0.8

0.6

0.4

0.2

0
100 200 300 400 500 600 700 800 900 1000 1100 1200
Sequencia Binaria

0.5

−0.5

−1
50 100 150 200 250 300 350 400 450 500 550 600
PSK

Figura 4.31: Sequência binária ”0100110101” (em cima) e respectiva modulação 4-PSK.

4.5.4 M ODULAÇÃO 8-QAM


Ex
Contudo, a codificação, para além da informação embebida na fase da(s) sub-portadora(s)
pode também estar na(s) sua(s) amplitude(s), conforme se indica na tabela 4.4. Trata-se, neste caso
de uma codificação 8-QAM, de que há variantes.

A constelação 8-QAM é conforme se indica na figura 4.35.

Apresenta-se na figura 4.36, a forma de onda resultante da modulação 8-QAM da mesma


sequência da figura 4.31, ”0100110101”, transmitida como sendo s4 q s3 q s4 q s7 . Os símbolos
codificados correspondem às formas de onda da figura 4.37.

Podemos verificar que, ao compararmos as figuras 4.28, 4.31, 4.33 e 4.36, ocorre uma dimi-
nuição do tempo necessário para enviar a mesma sequência, fruto do aumento de complexidade do
processo de modulação.

Efectivamente, ao passarmos de PSK (na realidade, 2-PSK) para 4-PSK, a redução foi de
50% no tempo de transmissão (ou, de modo equivalente, aumentou-se o ritmo de transmissão para
o dobro) e, passando para 8-QAM ou 8-PSK, a redução foi de 31 , pois passaram-se a codificar 3 bits
consecutivos.
202CAPÍTULO 4. INTRODUÇÃO À TEORIA DA DETECÇÃO E À COMUNICAÇÃO DIGITAL

011
010
001

110 000

111
100
101

Figura 4.32: Constelação 8-PSK (Código de Gray).

Tabela 4.3: da Codificação 8-PSK (Gray)

Símbolos x1 x2 sinal
000 1 0 s1
001 √1 √1 s2
2 2
011 0 1 s3
010 - √12 √1
2
s4
110 -1 0 s5
111 - √12 - √12 s6
101 0 -1 s7
100 √1 - √12 s8
2

Tabela 4.4: da Codificação 8-QAM (Gray)

Símbolos x1 x2 sinal
000 − 12 − 21 s1
001 -1 -1 s2
011 1 -1 s3
1
010 2 - 12 s4
1 1
110 2 2 s5
111 1 1 s6
101 -1 1 s7
100 − 12 1
2 s8
4.5. EXEMPLOS DE APLICAÇÃO 203

0.8

0.6

0.4

0.2

0
100 200 300 400 500 600 700 800 900 1000 1100 1200
Sequencia Binaria

1.5

0.5

−0.5

−1

−1.5
50 100 150 200 250 300 350 400
8−QAM

Figura 4.33: Sequência binária ”0100110101” (em cima) e respectiva modulação 8-PSK.

1 1

0 0

−1 −1
20 40 60 80 100 20 40 60 80 100
s1=000 s2=001

1 1

0 0

−1 −1
20 40 60 80 100 20 40 60 80 100
s3=011 s4=010

1 1

0 0

−1 −1
20 40 60 80 100 20 40 60 80 100
s5=110 s6=111

1 1

0 0

−1 −1
20 40 60 80 100 20 40 60 80 100
s7=101 s8=100

Figura 4.34: Formas de onda das sub-portadoras em 8-PSK.


204CAPÍTULO 4. INTRODUÇÃO À TEORIA DA DETECÇÃO E À COMUNICAÇÃO DIGITAL

101 111

100 110

000 010

001 011

Figura 4.35: Constelação 8-QAM.

0.8

0.6

0.4

0.2

0
100 200 300 400 500 600 700 800 900 1000 1100 1200
Sequencia Binaria

1.5

0.5

−0.5

−1

−1.5
50 100 150 200 250 300 350 400
8−QAM

Figura 4.36: Sequência binária ”0100110101” (em cima) e respectiva modulação 8-QAM.
4.5. EXEMPLOS DE APLICAÇÃO 205

1 1
0 0
−1 −1
20 40 60 80 100 20 40 60 80 100
s1=000 s2=001

1 1
0 0
−1 −1
20 40 60 80 100 20 40 60 80 100
s3=011 s4=010

1 1
0 0
−1 −1
20 40 60 80 100 20 40 60 80 100
s5=110 s6=111

1 1
0 0
−1 −1
20 40 60 80 100 20 40 60 80 100
s7=101 s8=100

Figura 4.37: Formas de onda das sub-portadoras em 8-QAM.


206CAPÍTULO 4. INTRODUÇÃO À TEORIA DA DETECÇÃO E À COMUNICAÇÃO DIGITAL

4.6 PROBLEMAS RESOLVIDOS

P. 1: Deduza a equação 4.70 da probabilidade de erro de bit na sinalização unipolar.

Resolução Seja, então, a probabilidade de erro


s ! s !
1 Eb Eb
Pe = erfc =Q (4.83)
2 2η η

que pretendemos obter. Comecemos por determinar a probabilidade de erro que contém dois
tipos de erros: decidir por s1 quando, devido ao ruído, foi enviado s0 e, ao invés, decidir por s0
quando, devido ao ruído, foi enviado s1 . Neste caso, sinalização unipolar, s0 é, efectivamente
uma amplitude nula (A0 = 0) e a s1 corresponde uma dada amplitude A1 positiva22 , como se
assinala na figura 4.38,
Z Z
Pe = p1 fY |s1 (y)dy + p0 fY |s0 (y)dy
z0 z1

sendo z0 e z1 as regiões, respectivamente, à esquerda e à direita da linha «Limiar de Decisão».


Assim, o primeiro integral virá
Limiar de Decisão

0.45

0.4
s1 (t)
0.35
s0 (t)

0.3

0.25

0.2

0.15

0.1

0.05

0
y

-0.05
-2 -1 0 1 2 3 4 5

A0 A1

Figura 4.38: Espaço de sinais para a sinalização unipolar.

A1
1 − (y−Aη 1 )2
Z Z
2
√ e fY |s1 (y)dy =
dy
z0 −∞ πη
q
Façamos a seguinte mudança de variável y − A1 = u η2 ; assim, teremos

A1 Z − √A1 Z +∞  
1 − (y−Aη 1 )2 1 1 − u2 A1
Z
2 2η u2
√ e dy = √ e− 2 du = A
√ e 2 du = Q √ (4.84)
−∞ πη −∞ 2π √1

2π 2η
22 O facto de ser positiva é absolutamente irrelevante, desde que, no receptor se aceite como tal.
4.6. PROBLEMAS RESOLVIDOS 207

Quanto ao segundo integral da equação (4.83) será


Z +∞
1 − (y)2
Z
fY |s0 (y)dy = A1
√ e η dy
z1 2
πη
q
e, efectuando a mudança de variável y = u η2 , teremos
Z +∞ Z +∞  
1 − (y)2 1 − u2 A1
A1
√ e η dy = A
√ e du = Q √
2 (4.85)
2
πη √1

2π 2η

A probabilidade de erro Pe é dada pela média ponderada dos resultados das equações (4.84) e
(4.85)    
A1 A1
Pe = p1 · Q √ + p0 · Q √
2η 2η
o que, na hipótese de símbolos equiprováveis23 , a ainda recordando que a energia média Eb
A2
dos símbolos de sinalização é 21 , de imediato teremos
  s ! s !
A1 Eb 1 Eb
Pe = Q √ =Q = erfc
2η η 2 2η

P. 2: Considere um sinal polar si (t) = A ou −A conforme, respectivamente, i = 1 ou i = 0, no


intervalo [0, T [ aplicado na entrada do detector da figura 4.39.

(a) Sabendo que σn20 = 0, 1 determine o limiar de detecção óptima se Pr(s1 ) = 2/3;

(b) Repita a alínea anterior se, agora, σn20 = 0, 3;

(c) Admitindo que σn20 = 0, 3, determine o limiar de detecção óptima se Pr(s1 ) = 1/2.

Figura 4.39: Detector Integrate-and-Dump.

Resolução

(a) Comecemos por ver o sinal recebido na entrada do detector

r(t) = si (t) + n(t) (4.86)

onde (
A 0≤t ≤T i=1
si (t) = (4.87)
−A 0≤t ≤T i=0
   
23 Na verdade, é irrelevante a equiprobabilidade dos símbolos «0» e «1» pois Pe = (p1 + p0 ) · Q √A1 = 1·Q √A1 .
2η 2η
208CAPÍTULO 4. INTRODUÇÃO À TEORIA DA DETECÇÃO E À COMUNICAÇÃO DIGITAL

pelo que, a saída do bloco integrador da figura 4.39 virá dada, no instante final de sina-
lização, t = T , por
Z T
(
a + n0 0≤t ≤T i=1
y(T ) = [si (t) + n(t)]dt = (4.88)
0 −a + n0 0≤t ≤T i=0
RT RT
onde a = 0 Adt = A · T e n0 = 0 n(t)dt.

Podemos ver que a equação anterior corresponde, como se sabe, à saída do banco de
correladores (equação (4.2) com t = T . Podemos, portanto, utilizar o resultado expresso
na equação (4.34) e que, por facilidade de exposição, repetimos

fX|H1 (→

x ) H1 p

fX|H0 (→

x ) H0 1 − p

Admitindo24 que as funções densidade de probabilidade anteriores são gaussianas de


média nula e variância σn2 teremos

x −→
k→
− − x −→
s1 k2 − k →
− −
s0 k2 H1 p
exp − ≷
2σn20 H0 1 − p

Seja, para facilidade do desenvolvimento, X =k →x k, S1 =k →


− −
s1 k e S0 =k →

s0 k; então,
por aplicação de logaritmos à equação acima e desenvolvendo os quadrados das normas
dos vectores, teremos

S12 − S02 − 2X(S1 − S0 ) H1 p


− 2
≷ ln
2σn0 H0 1− p

e que, por manipulação elementar, sendo que X será a amplitude do sinal que decidirá a
favor do símbolo binário recebido, então γ = X e

H1 S1 + S0 σn20 p
γ≷ + ln (4.89)
H0 2 S1 − S0 1 − p

Sendo Pr(s1 ) = 2/3 ⇒ Pr(s0 ) = 1/3 = p e, portanto, dado que S1 = AT e S0 = −AT ,


H1 0, 1 1 0, 035
γ ≷ 0+ ln( ) = −
H0 2AT 2 AT

(b) Basta-nos a equação (4.89) para resolver esta alínea, pelo que
H1 0, 3 1 1, 040
γ≷ ln( ) = −
H0 2AT 2 AT

(c) Recorrendo novamente à equação (4.89) e dado que Pr(s1 ) = 1/2 ⇒ Pr(s0 ) = 1/2 = p,
de imediato se conclui que
H1
γ ≷0
H0
24 Veja-se o apresentado na secção Detector de Máxima Verosimilhança.
4.6. PROBLEMAS RESOLVIDOS 209

P. 3: Nas condições do problema anterior, ou seja, considerando um sinal polar si (t) = A ou −A


conforme, respectivamente, i = 1 ou i = 0, no intervalo [0, T [ aplicado na entrada do detector
da figura 4.39, pretende-se obter uma probabilidade de erro inferior a 10−9 . Determine a
amplitude A dos impulsos de sinalização, sabendo que a densidade espectral de potência do
ruído é de 10−5 W/Hz e que o ritmo de transmissão é de 100 kbit/s.

Resolução Como se viu aquando da transmissão de impulsos polares, a probabilidade de


erro vem dada pela equação (4.72)
s !
1 Eb
Pe = erfc
2 η
q
Por consulta na tabela C.1, obtém-se x ≥ 4, 4 ou seja, Eηb ≥ 4, 5 o que significa que, sendo
η
2 = 10−5 , teremos

Eb ≥ 4, 52 · η = 20, 25 · 2 · 10−5 = 4, 05 · 10−4

Como a energia média dos impulsos é 2 · A2 T e T = 1/r sendo r = 105 , teremos finalmente
que r r
Eb 4, 05 · 10−4
A= = = 4, 5
2T 2 · 10−5

P. 4: Seja o impulso de sinalização s1 (t) assinalado na figura 4.40.

(a) Obtenha a resposta impulsiva h1 (t) do correspondente filtro adaptado;

(b) Determine a saída y11 (t) deste filtro adaptado ao impulso s1 (t) e determine a máxima
relação sinal/ruído que se obtém;

Figura 4.40: Impulso de sinalização s1 (t).

(c) Verifique que a saída y10 (t) = h1 (t) ∗ s0 (t) do filtro adaptado ao impulso de sinalização
s0 (t) representado na figura 4.41 é nula em t = T .

(d) Obtenha a resposta impulsiva do filtro adaptado h0 (t) e a sua resposta y00 (t) ao impulso
de sinalização s0 (t);
210CAPÍTULO 4. INTRODUÇÃO À TEORIA DA DETECÇÃO E À COMUNICAÇÃO DIGITAL

Figura 4.41: Impulso de sinalização s0 (t).

(e) Determine a resposta y01 (t) = h0 (t) ∗ s1 (t) do filtro adaptado ao impulso de sinalização
s1 (t).

Resolução

(a) A equação (4.66) permite-nos determinar a resposta impulsiva do filtro adaptado h1 (t) =
s1 (T − t) e que pode ser obtida como se representa graficamente na figura 4.42.

Figura 4.42: Obtenção da resposta impulsiva do filtro adaptado.

(b) Assim, a saída deste filtro vem dada pela equação (4.68) e que neste caso resulta em

T


 0 ≤t
2
 A2 (t − T )
 T
≤t <T
y11 (t) = 2 2 (4.90)
 A 2 ( 3 T − t) T ≤ t < 32 T

 2
t > 23 T

 0

e que se representa na figura 4.43. Recordando a equação (4.91) que nos permite obter

Figura 4.43: Resposta do filtro adaptado ao impulso de sinalização s1 (t).


4.6. PROBLEMAS RESOLVIDOS 211

a máxima relação sinal/ruído à saída deste filtro, teremos

2 2
R R
R |Sk ( f )| d f R |sk (t)| dt
SNRH = η =2 (4.91)
2
η

e que resulta em
A2 T
SNRH = (4.92)
η

(c) Nesta caso, teremos y10 (t) = h1 (t) ∗ s0 (t) e que resulta na equação (4.93), representada
na figura 4.44



 0 T ≤t
 A2 (t − T ) T ≤ t < 32 T

y10 (t) = 3
(4.93)


 A2 (2T − t) 2 T ≤ t < 2T
t > 23 T

 0

e que mostra que, efectivamente, y10 (T ) = 0.

Figura 4.44: Resposta do filtro adaptado ao impulso de sinalização s0 (t).

(d) A obtenção de h0 (t) é imediata pois h0 (t) = s0 (T −t) e que se representa na figura 4.45 A

s (t)
0

1/2 T T t

h (t)
0

1/2 T T t

Figura 4.45: Impulso de sinalização s0 (t).

sua resposta y00 (t) ao correspondente impulso de sinalização é muito fácil de obter pois
é em tudo semelhante a y11 (t) uma vez que a convolução de dois sinais é comutativa e,
212CAPÍTULO 4. INTRODUÇÃO À TEORIA DA DETECÇÃO E À COMUNICAÇÃO DIGITAL

nesta situação, s1 (t) → h0 (t) e h1 (t) → s0 (t). Logo, y00 (t) = h0 (t) ∗ s0 (t) = s1 (t) ∗ h1 (t),

T
 0 2 ≤t


 A2 (t − T )
 T
y00 (t) = 2 2 ≤t <T (4.94)
2 3 3


 A ( 2 T − t) T ≤ t < 2 T
t > 23 T

 0

(e) A obtenção de y01 (t) é, naturalmente, obtida pela convolução da resposta impulsiva h0 (t)
com o sinal s1 (t), ou seja, y01 (t) = h0 (t) ∗ s1 (t) e que, após alguma manipulação dá



 0 0≤t
 A2t 0 ≤ t < T2

y01 (t) = T
(4.95)
 A2 (T − t)
 2 ≤t <T


 0 t >T

P. 5: Seja o impulso de sinalização s1 (t) assinalado na figura anterior (figura 4.40). Neste problema
usar-se-á um filtro RC em vez do filtro adaptado.

(a) Determine a saída y1 (t) deste filtro RC ao impulso s1 (t);

(b) Determine a máxima relação sinal/ruído que se obtém, comparando-a com a correspon-
dente relação sinal/ruído do problema anterior;

Resolução
t
1
(a) A resposta impulsiva dum filtro RC passa-baixo é, como sabemos, h(t) = RC · e− RC · u(t);
então
y1 (t) = s1 (t) ∗ h(t) = TL−1 [S1 (s) · H(s)] (4.96)
1
onde H(s) = s
1+ RC . Por transformação de Laplace inversa25 , teremos

t
y(t) = A · (1 − e− RC ) · u(t) (4.97)

Determinemos a potência do sinal filtrado (no intervalo de sinalização do impulso, logo


será o intervalo [0 T2 [),
T T
S = y21 ( ) = A2 [1 − e− 2RC ]2
2
Para calcularmos a potência do ruído, admitindo que se trata de ruído branco gaussiano,
teremos (veja-se o problema P. 7: do capítulo 2)
Z ∞
η η
N= · |H( f )|2 d f = πf (4.98)
−∞ 2 2 c
25 Na verdade, por inspecção sobre decomposição em fracções simples.
4.6. PROBLEMAS RESOLVIDOS 213

1 26 1
uma vez que H( f ) = sendo, portanto, fc = e que resulta em
1+ j ff 2πRC
c

η
N= (4.99)
4RC
Teremos agora que S/N virá
T T
S A2 [1 − e− 2RC ]2 A2 T [1 − e− 2RC ]2
= η = η · T
N 4RC 2 2RC

T
e que pretendemos maximizar em ordem a RC; para tal seja ε = 2RC e teremos

S A2 T [1 − e−ε ]2 d S
= η · → =0 (4.100)
N 2
ε dε N

e que se traduz em resolver a equação e−ε (1+2ε) = 1 que tem como solução ε = 0∨ε ≈
1, 256; assim (excluindo naturalmente a solução trivial ε = 027 ) teremos que
T
RC ≈ (4.101)
2 · 1, 256
e que corresponde a termos uma relação sinal/ruído

S A2 T (1 − e−1,256 )2 A2 T
= η · = 0, 8145 · (4.102)
N 2
1, 256 η

ou seja, aproximadamente 0,9 dB inferior à relação sinal/ruído obtida com o filtro adap-
tado (equação (4.92)).

P. 6: Um sinal binário polar é ± 5 V no intervalo t ∈ [0 T [. Sabendo que a densidade espectral do


ruído aditivo no canal é η2 = 10−6 [W/Hz], determine qual o ritmo de transmissão máximo
que garanta uma probabilidade de erro de bit Pe ≤ 10−6 .

Resolução Sabemos que (equação (4.72))


s !
2E
Q ≤ 10−6 (4.103)
η
q
o que, por consulta da tabela C.1 leva a ter-se ≈ 4, 75. Ora, sendo η = 2·10−6 , então vem
2E
η
q
que E = 22, 56 · 10−6 . Uma vez que (veja-se a figura 4.14) A = ET → T = AE2 e sendo A = 5
t
26 Sendo h(t) = 1
RC · e− RC · u(t), por aplicação da transformada de Fourier, teremos
Z +∞
1 1
H( f ) = e−t( j2π f + RC ) dt =
0 1 + j ff
c

1
onde se fez fc = 2πRC . Este mesmo resultado já tinha sido apresentado no problema P. 1: do capítulo 1.
27 Porquê?
214CAPÍTULO 4. INTRODUÇÃO À TEORIA DA DETECÇÃO E À COMUNICAÇÃO DIGITAL

e como E = 22, 56 · 10−6 então, obtém-se para T o valor de 9, 025 · 10−7 s o que corresponde
a um ritmo de transmissão máximo de R = T1 = 1, 11 Mbit/s.

P. 7: Repita o problema anterior mas usando agora uma sinalização ASK com impulsos de 5 V de
amplitude,

 s1 (t) = Acos(2π f0 t)
 0≤t <T
si (t) = (4.104)

s0 (t) = 0 0≤t <T

1
onde, como se viu, T é múltiplo de f0 e, pelo enunciado, A = 5.

Resolução Recordemos a probabilidade de erro de bit, equação 4.74


s !
Eb
Pe = Q (4.105)
η

2
onde, como se viu, a energia média por bit é Eb = A4T . Então, recordando que η = 2 · 10−6 ,
teremos para a duração T do impulso de sinalização, T = 7, 22 · 10−6 s, o que se traduz por
um ritmo máximo de transmissão de

R = 138, 5 kbit/s (4.106)

P. 8: Determine quais devem ser as amplitudes dos impulsos de sinalização em ASK e em FSK que,
nas mesmas condições de ruído de canal e duração de bit (ritmo de transmissão), garantam a
mesma probabilidade de erro de bit que se obtém na sinalização polar.

Resolução Não temos mais do que relembrar as probabilidades de erro de bit para cada
sinalização pretendida, bem como as respectivas energias médias de bit, que apresentamos na
tabela seguinte, tabela 4.5. Nas condições pretendidas (igual probabilidade de erro de bit e

Tabela 4.5: das probabilidades de erro (Pe ) e da energia dos impulsos (Eb ) para várias sinalizações binárias.

Modulação Polar ASK FSK


q  q  q 
2Eb Eb Eb
Pe Q η Q η Q η
A2 T A2 T
Ebit Eb = A2 T Eb = 4 Eb = 2

ritmo de transmissão), teremos que os argumentos das funções Q(·) são idênticos, o que leva
a terem-se os seguintes resultados apresentados na tabela seguinte, tabela 4.6.
4.6. PROBLEMAS RESOLVIDOS 215

Tabela 4.6: das probabilidades de erro para várias sinalizações binárias.

Modulação Polar ASK FSK



Amplitude de sinalização APolar AASK = 2 2 · APolar AFSK = 2 · APolar

Podemos, em conclusão, verificar que a sinalização Polar é a que permite ritmos de transmis-
são mais elevados, o que se deve ao facto de os impulsos de sinalização terem mais energia
do que em ASK ou FSK.


216CAPÍTULO 4. INTRODUÇÃO À TEORIA DA DETECÇÃO E À COMUNICAÇÃO DIGITAL
Capítulo 5

MODULAÇÃO DE PORTADORAS
SINUSOIDAIS

A necessidade de comunicar a grandes distâncias usando ondas electromagnéticas es-


teve na base dos sistemas de modulação. No fundo, tudo se prende com a tentativa de optimizar os
sistemas radiantes onde, por razões físicas, há que adaptar as impedâncias dos dispositivos radiantes
(antenas) à dos dispositivos emissores. Além disso, as antenas de elevado ganho operam em larguras
de banda relativamente estreitas, em nada consentâneas com a extrema diferença (relativa) entre as
frequências máxima e mínima dos sinais de fala. Concretamente, a relação entre estas frequências
é superior a 10 vezes (uma ordem de grandeza) enquanto que a largura de banda de uma antena é
muito mais reduzida. Naturalmente que, se «deslocarmos» o espectro do sinal de fala para, digamos,
1MHz, teremos agora uma largura de banda relativa de 0,3% ou seja, na prática desprezável. Deste
modo, a adaptação da antena ao emissor será muito próxima do teoricamente desejável. Recordando
que a transformada de Fourier do produto de dois sinais resulta na convolução das suas transforma-
das (equação (1.57)) e ainda que a transformada duma função sinusoidal é um par de impulsos de
Dirac, teremos o seguinte resultado

TF 1 1
x(t) · cos(2π fc t) ↔ X( f ) ∗ [δ ( f − fc ) + δ ( f + fc )] = [X( f − fc ) + X( f + fc )] (5.1)
TF−1 2 2

Esta equação mostra que, através do produto do sinal x(t) por um cosseno, se obtém um sinal
cujo espectro se situa agora em torno de fc , ou seja, um sinal «deslocado» em frequência. Esta é a
essência da modulação de amplitude como iremos detalhar seguidamente.

217
218 CAPÍTULO 5. MODULAÇÃO DE PORTADORAS SINUSOIDAIS

5.1 MODULAÇÃO DE AMPLITUDE

Do ponto de vista analítico, a equação (5.1) define a modulação de amplitude na sua forma
mais elementar. Seja então x(t) = X cos(2π fmt) o sinal modulante1 e p(t) = Ac cos(2π fc t) o sinal
da portadora de frequência fc . O sinal modulado em amplitude (AM, amplitude modulation) é então
definido por
D
xAM (t) = x(t) · p(t) = Ac X cos(2π fmt) cos(2π fc t) (5.2)
e cuja TF é
T
1
XAM ( f ) = Ac · X · [δ ( f − fc + fm ) + δ ( f − fc − fm ) + δ ( f + fc − fm ) + δ ( f + fc + fm )] (5.3)
4
representados graficamente na figura 5.1. No gráfico da esquerda e em baixo, sobrepôs-se a cor
verde o sinal modulante para melhor ilustrar a sua influência no sinal AM.

1 0.8

0.6
0.5
X(f))

0.4

0.2
x(t)

0
0
−100 −50 0 50 100
−0.5
0.8
−1
−0.4 −0.2 0 0.2 0.4 0.6
P(f)

0.4

0.2
1
0
−100 −50 0 50 100
0.5
0.4
Xam(t)

0 0.3
Xam(f)

0.2
−0.5
0.1

−1 0
−0.4 −0.2 0 0.2 0.4 −100 −50 0 50 100
t f

Figura 5.1: Modulação de Amplitude (DSB/SC). À esquerda, sinal modulante (cima) e sinal modulado
(baixo); à direita, os espectros do sinal modulante (cima), da portadora (centro) e do sinal modulado (baixo),
considerando sinais sinusoidais de amplitude unitária.

Se observarmos quer as equações quer os gráficos de XAM ( f ), verificamos que não aparece
a componente na frequência da portadora fc . Por outro lado, em torno desta frequência aparecem
as componentes em frequência do sinal modulante. Esta é a razão pela qual se denomina esta
modulação DSB/SC ou seja, banda-lateral dupla com supressão de portadora.
1 Sinal
modulante é o sinal que irá modificar a portadora; na modulação em amplitude, o sinal modulante determina a
amplitude instantânea da portadora e constitui-se como a mensagem que se pretende transmitir.
5.1. MODULAÇÃO DE AMPLITUDE 219

1.5 0.8

0.6
1

X(f))
0.4
0.5
0.2
x(t)

0 0
−100 −50 0 50 100
−0.5
0.8
−1
−0.4 −0.2 0 0.2 0.4 0.6

P(f)
0.4

0.2
1.5
0
1 −100 −50 0 50 100

0.5
0.4
Xam(t)

0 0.3
Xam(f)
−0.5 0.2

−1 0.1

−1.5 0
−0.4 −0.2 0 0.2 0.4 −100 −50 0 50 100
t f

Figura 5.2: Modulação de Amplitude (DSB) com portadora. À esquerda, sinal modulante (cima) e sinal mo-
dulado (baixo); à direita, os espectros do sinal modulante (cima), da portadora (centro) e do sinal modulado
(baixo), considerando sinais sinusoidais de amplitude unitária e que o valor médio de x(t) foi de 1/3.

Se o sinal modulante tivesse um valor médio não-nulo, o resultado seria um pouco diferente,
como se ilustra na figura 5.2. Neste caso verifica-se facilmente o aparecimento de uma componente
em fc pelo que teremos uma modulação DSB com portadora. Se a componente contínua (valor
médio) de x(t) for maior do que a sua amplitude X, o resultado é aquele que se apresenta na figura
5.3.

Esta última situação, em que o valor médio de x(t) > X, resulta numa envolvente superior
do sinal modulado igual ao sinal modulante (à parte um dado factor de escala). Reescrevamos a
equação (5.2), fazendo sobressair o valor médio de x(t)
D

xAM (t) = [xDC + x(t)] · p(t) = Ac [xDC + X cos(2π fmt)] · cos(2π fc t) (5.4)

em que xDC representa o valor médio de x(t).

Se, por hipótese, o sinal modulante tiver valor médio nulo (como é o caso do sinal de fala,
por exemplo), então, para se obter a modulação correspondente à equação (5.2), há que adicionar ao
sinal modulante um dado valor constante xDC , conforme se exemplifica na figura 5.4.

Assim, sempre que xDC ≥ max |x(t)|, teremos uma portadora sub-modulada (modulação [de
amplitude] inferior a 100%); denominando-se a igualdade de modulação de amplitude a 100%.
220 CAPÍTULO 5. MODULAÇÃO DE PORTADORAS SINUSOIDAIS

2.5 1.5

2 1

X(f))
1.5 0.5
x(t)

1 0
−100 −50 0 50 100
0.5
0.8
0
−0.4 −0.2 0 0.2 0.4 0.6

P(f)
0.4

0.2
3
0
2 −100 −50 0 50 100

1
0.8
Xam(t)

0 Xam(f) 0.6

−1 0.4

−2 0.2

−3 0
−0.4 −0.2 0 0.2 0.4 −100 −50 0 50 100
t f

Figura 5.3: Modulação de Amplitude (DSB) com portadora. À esquerda, sinal modulante (cima) e sinal mo-
dulado (baixo); à direita, os espectros do sinal modulante (cima), da portadora (centro) e do sinal modulado
(baixo), considerando sinais sinusoidais de amplitude unitária e que o valor médio de x(t) foi de 1,2.

5.1.1 E SPECTRO E P OTÊNCIA DA M ODULAÇÃO DE A MPLITUDE

Naturalmente que, em situações reais, o sinal modulante não terá uma representação ana-
lítica conhecida, pelo que será preferível representá-lo através de um processo estocástico com as
características que passaremos a enunciar.

Seja então o sinal modulante um processo estocástico X (t) WWS de média nula, cuja den-
sidade espectral de potência GX ( f ) tem suporte numa banda ] − B, +B] e com potência PX
D

 mX = 0

Processo WSS X (t) ∀ f ∈]
/ − B, +B] : GX = 0 (5.5)

PX = RX (0)

Seja, como anteriormente, p(t) uma portadora de frequência fc mas com uma fase desco-
nhecida e modelada por uma variável aleatória uniformemente distribuída no intervalo ] − π, +π],
que pode ser modelada por um processo estocástico P(t) = AC · cos(2π fc t + Θ) com as seguintes
características,
D 
1 d θ
 fΘ (θ ) = 2π ( 2π )

Processo WSS P(t) mP = 0 (5.6)
 1 2
RP (τ) = 2 AC cos(2π fc τ)

5.1. MODULAÇÃO DE AMPLITUDE 221

X DC p(t)

x(t) xAM(t)

Figura 5.4: Modulação de Amplitude para sinais de média nula, onde p(t) = AC · cos(2π fc t).

e com uma potência média PP = RP (0) = 21 AC2 .

Então, o sinal AM vem dado por


T

XAM (t) = [XDC + X (t)] · P(t) = Ac [XDC + X (t)] · cos(2π fc t + Θ) (5.7)

Se determinarmos a autocorrelação deste processo XAM (t) iremos obter:

RXAM (t1 ,t2 ) , E{XAM (t1 )XAM (t2 )} =

= AC2 E{[XDC + X (t1 )] cos(2π fc t1 + Θ)[XDC + X (t2 )] cos(2π fc t2 + Θ)} =

= AC2 E{XDC
2 cos(2π f t + Θ) cos(2π f t + Θ)}+
c 1 c 2
(5.8)
+AC2 E{XDC X (t2 ) cos(2π fc t1 + Θ) cos(2π fc t2 + Θ)}+

+AC2 E{XDC X (t1 ) cos(2π fc t1 + Θ) cos(2π fc t2 + Θ)}+

+AC2 E{X (t1 )X (t2 ) cos(2π fc t1 + Θ) cos(2π fc t2 + Θ)}

Nesta equação, e fazendo uso da independência estatística das variáveis aleatórias dos pro-
cessos X (t) e P(t) que, como é sabido, se traduz em que E{X(t) · P(t)} = E{X(t)} · E{P(t)} e
sabendo que, E{X(t)} e E{P(t)} são ambos nulos2 , resulta em

2 E{cos(2π f t + Θ) cos(2π f t + Θ)}+


RXAM (t1 ,t2 ) = AC2 XDC c 1 c 2
(5.9)
+AC2 E{X (t1 )X (t2 )}E{cos(2π fc t1 + Θ) cos(2π fc t2 + Θ)}

Recordando que o processo X (t) é, por hipótese, estacionário em sentido lato e ainda o resultado
obtido anteriormente na equação (2.78)

∀t1 ,t2 : t2 = t1 − τ →
(5.10)
1 2 2 1 2
RXAM (t1 ,t2 ) = RXAM (τ) = 2 AC XDC cos(2π fc τ) + 2 AC RX (τ) cos(2π fc τ)
222 CAPÍTULO 5. MODULAÇÃO DE PORTADORAS SINUSOIDAIS

Fazendo, nesta equação, τ = 0, obtemos a potência do processo modulado,


T
1 1 1
PXAM = RXAM (0) = AC2 XDC
2
+ AC2 RX (0) = AC2 [XDC
2
+ PX ] (5.11)
2 2 2
e, por aplicação da TF teremos finalmente a densidade espectral de potência do processo modulado
em amplitude
T
1 1
GXAM ( f ) = AC2 XDC
2
[δ ( f − fc ) + δ ( f + fc )] + AC2 [GX ( f − fc ) + GX ( f + fc )] (5.12)
4 4
resultado este ilustrado na figura 5.5.

0.25

0.2

0.15
Gx(f)

0.1

0.05

0
−1000 −800 −600 −400 −200 0 200 400 600 800 1000

0.35

0.3

0.25
Gam(f)

0.2

0.15

0.1

0.05

0
−1000 −800 −600 −400 −200 0 200 400 600 800 1000
f

Figura 5.5: Modulação de Amplitude (DSB) com portadora. Em cima, densidade espectral de potência
arbitrária do processo modulante de valor médio nulo; em baixo, a densidade espectral de potência do
processo modulado em amplitude. Considerou-se, a título de exemplo, B = 50 Hz e fc = 700 Hz.

O processo DSB/SC obtém-se do anterior fazendo XDC = 0:


D

XDSC/SC (t) = X (t) · P(t) = Ac X (t) · cos(2π fc t + Θ) (5.13)

a que corresponde uma função de autocorrelação

1
RXDSB/SC (τ) = AC2 RX (τ) cos(2π fc τ) (5.14)
2
e uma densidade espectral de potência
T
1
GXDSB/SC ( f ) = AC2 [GX ( f − fc ) + GX ( f + fc )] (5.15)
4
e, finalmente, este processo tem uma potência
T
2 Pois, por hipótese, X (t) é de média nula e, sendo P(t) um seno, também é de média nula.
5.1. MODULAÇÃO DE AMPLITUDE 223

Tabela 5.1: das potências de sinais AM para várias amplitudes de X(t), sendo XDC = 1 e AC = 1, arredonda-
das à 2a casa decimal.

X PX [W] PXDSB/SC [W] m PXAM [W] Rendimento AM/DSB


0 0 0,00 0% 0,50 0%
1/3 0,06 0,03 33% 0,53 5%
1/2 0,13 0,06 50% 0,56 11%

1/ 2 0,25 0,13 71% 0,63 20%
1 0,50 0,15 100% 0,75 33%
1,5 1,13 0,56 150% 1,06 53%
2 2,00 1,00 200% 1,50 67%

1 1
PXDSB/SC = RXDSB/SC (0) = AC2 RX (0) = AC2 PX (5.16)
2 2

Esta equação mostra que a modulação em banda lateral dupla com supressão da portadora
tem uma potência inferior à da modulação em amplitude com portadora. Outra forma de encarar
este resultado consiste em verificar que, para a mesma potência à saída do modulador, a modulação
em amplitude com portadora terá pior eficiência do que em DSB/SC pois estar-se-á a desperdiçar
energia a enviar um sinal que, por si só, não contém informação útil. Esta observação será mais
adiante desenvolvida aquando do estudo do desempenho dos sistemas de comunicação baseado em
modulação de portadoras.

Na tabela 5.1, apresentam-se, a título comparativo, alguns exemplos de potência de sinais


AM, supondo que o sinal modulante é um cosseno de amplitude máxima Xmax = 2; a amplitude da
portadora é unitária, AC = 1, e define-se índice ou profundidade de modulação como sendo
D
|X|
m= (5.17)
XDC
Nesta tabela assinalam-se a cor vermelha situações de sobre-modulalação da portadora e que a des-
modulação por detecção de envolvente não restitui o sinal modulante. A coluna da direita representa
o desempenho da modulação de amplitude face ao da modulação de banda lateral dupla na trans-
missão do mesmo sinal, isto é, em igualdade de PX .

5.1.2 D ESMODULAÇÃO DE AM: D ETECTOR DE E NVOLVENTE

O detector de envolvente é o sistema mais simples de desmodular o sinal de AM. Consiste


num rectificador de meia-onda, usando um díodo seguido de um circuito RC para filtragem passa-
baixo, figura 5.6.

O funcionamento do circuito da figura 5.6 encontra-se exemplificado na figura seguinte (figura


5.7); é necessário escolher criteriosamente a constante de tempo τ = RC, pois se for muito alta, não
será possível acompanhar as variações do sinal modulado; se for baixa, o sinal desmodulado irá
conter bastantes componentes de alta frequência.
224 CAPÍTULO 5. MODULAÇÃO DE PORTADORAS SINUSOIDAIS

Figura 5.6: Detector de Envolvente.

2
Xam(t)

−2

−4
−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1

0
−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1

3
Xd(t)

0
−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1
t

Figura 5.7: Detecção de Envolvente; a vermelho assinala-se o sinal modulante.

Assim, comecemos por analisar o circuito supondo que o condensador C tem uma capacidade
nula. Neste caso, o circuito constituído pelo díodo e pela resistência promove uma rectificação do
sinal de entrada (sinal modulado), como se mostra na figura 5.7 ao centro (a cor vermelha, o sinal
modulante que se supôs sinusoidal). O condensador C vai carregar-se com a tensão de entrada
sempre que a tensão no ânodo do díodo for superior à tensão do cátodo; se a tensão no ânodo
for inferior à tensão no cátodo, o condensador irá descarregar-se através da resistência. Assim, e
como se mostra na figura 5.7, verifica-se que a envolvente detectada (em baixo, a cor azul) aparece
com uma componente de alta frequência sobreposta que se poderia tentar eliminar aumentando a
constante de tempo do circuito de detecção. No entanto, se esta constante de tempo for demasiado
elevada, a descarga do circuito RC não consegue acompanhar as variações da envolvente do sinal de
entrada, como se mostra na figura 5.8.

Nestas simulações utilizou-se uma portadora com uma frequência que era cerca de 25 vezes
maior do que a frequência do sinal modulante, enquanto que, nas situações reais, esta relação é
superior a 100, permitindo uma detecção mais próxima da ideal. O condensador C1 destina-se a
retirar a componente contínua presente no sinal desmodulado.

Um dos grandes inconvenientes do detector de envolvente é o de não permitir uma detecção


5.1. MODULAÇÃO DE AMPLITUDE 225

Xam(t)
0

−2

−4
−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1

0
−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1

3
Xd(t)

0
−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1
t

Figura 5.8: Detecção de Envolvente onde a constante de tempo do circuito RC é demasiado elevada; a
vermelho assinala-se o sinal modulante.

adequada se ocorrer sobremodulação, ou no caso de a transmissão ser com portadora suprimida,


DSB/SC, como se ilustra na figura 5.9.

5.1.3 I NTRODUÇÃO AO E STUDO T EÓRICO DO D ETECTOR DE E NVOLVENTE

Para simplificar este estudo, consideremos que o detector de envolvente é constituído por um
díodo ideal, seguido por um filtro passa-baixo também ideal, ou seja, com uma função de resposta
d f
em frequência dada por H( f ) = H(0) · ( 2B ), sendo H(0) o seu ganho estático. A rectificação
de meia-onda de um sinal é facilmente modelada pelo produto do sinal modulado por uma onda
quadrada que varia de 0 a 1, sincronizada com a portadora, figura 5.10.

Seja então XAM (t) uma função amostra do processo estocástico XAM (t) que se supõe um
processo conforme a equação (5.7). Lembremos que a sua densidade espectral de potência aparece
apenas não-nula numa banda 2B centrada em ± fc (fc é a frequência da portadora sinusoidal). Assim,
o sinal rectificado (em meia-onda) XMO (t) resulta do produto de XAM (t) pela hipotética «portadora
local» pL (t). Como pL (t) é um sinal periódico, é fácil ver que o seu espectro é (conforme as
equações (1.40) e (1.47))
1 +∞
 
k
PL ( f ) = ∑ sinc δ ( f − k fc ) (5.18)
2 k=−∞ 2
Então, a densidade espectral do sinal rectificado é
+∞  
1 k
GXMO ( f ) = GXAM ( f ) ∗ PL ( f ) = GXAM ( f ) ∗ ∑ sinc δ ( f − k fc )
2 k=−∞ 2
226 CAPÍTULO 5. MODULAÇÃO DE PORTADORAS SINUSOIDAIS

Xam(t)
0

−1

−2
−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1

−1
−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1

1
Xd(t)

−1
−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1
t

Figura 5.9: Detecção de Envolvente de uma portadora sobremodulada; a vermelho assinala-se o sinal mo-
dulante.

1 +∞
 
k
= ∑ sinc GXAM ( f ) ∗ δ ( f − k fc ) =
2 k=−∞ 2

1 +∞
 
k
= ∑ sinc GXAM ( f − k fc ) (5.19)
2 k=−∞ 2
Uma vez que o filtro passa-baixo irá eliminar todas as frequências para as quais se tenha | f | > B,
só os termos da série para k = ±1 na equação (5.19) têm interesse para a desmodulação. Assim,
para se obter XD (t) = X(t), é necessário que H(0), o ganho estático do filtro passa-baixo, seja
2
H(0) = sinc(1/2) = π4 ≈ 1, 27 se considerarmos uma amplitude AC unitária para a portadora (AC = 1).

5.1.4 D ESMODULAÇÃO DE AM: D ETECÇÃO C OERENTE

Se atentarmos nas figuras 5.1 a 5.5, veremos que a modulação de amplitude se baseia numa
translação do espectro da mensagem para a frequência da portadora. Então, a detecção deveria
basear-se numa translação do espectro do sinal modulado para a origem. Esta operação é facilmente
realizável (pelo menos em teoria) através duma multiplicação de XAM (t) por pL (t), uma portadora
local de frequência fc e em fase com a portadora emitida (detecção coerente). Mas esta operação
tem de ser complementada com uma filtragem passa-baixo (figura 5.11), destinada a remover as
componentes de alta frequência: seja, como anteriormente, GX ( f ) a densidade espectral de potência
do processo da mensagem e que tem suporte B e seja a densidade espectral do processo AM emitido

1 1
GXT X ( f ) = AC2 [GX ( f − fc ) + GX ( f + fc )] + AC2 XDC
2
[δ ( f − fc ) + δ ( f + fc )] (5.20)
4 4
5.1. MODULAÇÃO DE AMPLITUDE 227

Figura 5.10: Modelação de um Detector de Envolvente ideal.

Figura 5.11: Sistema de Comunicação AM: emissor (modulador) e receptor com detecção coerente.

Assim, e estando o filtro passa-banda (figura 5.11) sintonizado para a frequência da portadora
e com uma largura de banda 2B, o sinal à entrada do receptor será, na ausência de ruído, igual ao
sinal (função amostra do processo) AM. Seja então XR (t) uma função amostra deste processo3

XR (t) = AC [XDC + X(t)] cos(2π fc t + θT X ) (5.21)

pelo que o sinal à saída do bloco «produto» será dado por

XRD (t) = AC [XDC + X(t)] · [cos(θT X ) + cos(2π2 fc t + θT X )] (5.22)

O filtro passa baixo de largura de banda igual ao suporte da mensagem B e encarrega-se de remover
o termo de alta frequência centrado em 2 fc 4 , produzindo à sua saída o sinal

XD (t) = AC [XDC + X(t)] · cos(θT X ) (5.23)

donde, por remoção do termo constante XDC se obtém finalmente o sinal desmodulado

XD (t) = AC X(t) · cos(θT X ) (5.24)

Se a fase da portadora do emissor (ou melhor, a diferença de fase entre as duas portadoras)
for diferente de zero, o sinal modulado será uma versão atenuada do sinal da mensagem e, no caso
3 Considerámos, por questão de generalidade, que a portadora do emissor apresenta uma fase não-nula na origem de
θT X rad.
4 Resultante do termo cos(2π2 f t + θ )
c TX
228 CAPÍTULO 5. MODULAÇÃO DE PORTADORAS SINUSOIDAIS

extremo, quando θT X = π/2, será mesmo nulo! Deste facto ressalta a necessidade de haver um
sincronismo perfeito entre as portadoras. Este resultado pode ser utilizado com vantagem, pois
permite enviar, na mesma banda de frequências duas mensagens distintas, moduladas com sinais em
quadratura (seno e cosseno) e, no receptor, recuperá-las, como se apresenta no parágrafo seguinte.

5.1.5 M ODULAÇÃO DE A MPLITUDE EM Q UADRATURA : QAM

Como se acabou de apresentar, a amplitude do sinal recebido depende do cosseno da des-


fasagem entre as portadoras do transmissor e do receptor (equação (5.24)), pelo que sendo essa
desfasagem de π/2 não é possível a detecção da mensagem. Este resultado pode ser explorado com
vantagem no envio de duas mensagens ou sinais no mesmo canal de comunicação se, cada um deles
for modulado por portadoras com a mesma frequência mas desfasadas de π/2, como se apresenta
na figura 5.12.

Figura 5.12: Sistema de modulação em quadratura, QAM.

Facilmente se vê que o sinal é dado por

XQAM (t) = X1 (t) · cos(2π fc t) + X2 (t) · sen(2π fc t) (5.25)

sendo a desmodulação efectuada pelo sistema da figura seguinte, figura 5.13, que é uma extensão do
detector coerente.

Figura 5.13: Desmodulador de QAM.

Embora tenhamos identificado este sistema de comunicação como sendo uma modulação de
amplitude em quadratura (que, efectivamente, o é), o termo QAM é, na prática, reservado para
formas de modulação mista. Mais adiante, retomaremos esta questão.
5.1. MODULAÇÃO DE AMPLITUDE 229

5.1.6 E XEMPLO DE E MISSOR DE M ODULAÇÃO DE A MPLITUDE

Figura 5.14: Esquema de um emissor de AM para Onda Média (MW).

Na figura 5.14 apresenta-se um circuito de um transmissor de AM realizado com 2 TJBs5 ,


sendo Q2 destinado à pré-amplificação em emissor-comum do áudio proveniente de um microfone
electrect6 No esquema da figura 5.14 o microfone encontra-se polarizado através de R8, C6 e R1,
não para carregar as placas do condensador, mas para alimentar um FET em montagem de dreno-
comum, existente na cápsula do próprio microfone, apresentando assim uma baixa impedância de
saída. A profundidade de modulação é regulada através do potenciómetro P17 . A malha ressonante
C1, L1 define a frequência da portadora fc . O sinal de áudio vai influenciar, em torno do valor
definido por R3 e R1 (esta é a resistência de retroacção para estabilizar o funcionamento em re-
pouso) a polarização da base de Q1, controlando assim o ganho do circuito oscilador. Portanto, a
amplitude das oscilações irá depender, em parte, do sinal de áudio. Contudo, se repararmos bem, o
circuito oscila mesmo na ausência de sinal de áudio, o que significa que se trata efectivamente de
um modulador de AM e não de DSB.

5.1.7 R ECEPTORES DE AM

Neste parágrafo serão apresentados os receptores mais utilizados e que se dividem em duas
categorias principais: os regenerativos e super-regenerativos e os super-heterodinos. Trata-se de
sistemas de recepção baseados em princípios distintos e que apresentam características também
distintas. Não nos deteremos em pormenores de electrónica, embora os circuitos sejam apresentados
no intuito de se identificarem os principais blocos constituintes.

5 TJB, transístor de junção bipolar


6O microfone de electrect é uma variante do microfone de condensador em que as suas cargas eléctricas, ao invés de
provirem duma fonte de alimentação exterior, residem numa película de mylar previamente carregada.
7 Em rigor, P1 é, neste circuito, um reóstato e não um potenciómetro
230 CAPÍTULO 5. MODULAÇÃO DE PORTADORAS SINUSOIDAIS

Receptor Regenerativo e Super-Regenerativo

Do ponto de vista histórico, os receptores regenerativos foram inventados por Edwin Arms-
trong em 1914 e tiveram grande divulgação entre 1920 e a 2a Guerra Mundial. A sua importância
caiu com a divulgação dos receptores super-heterodinos e, actualmente, a sua divulgação está li-
mitada a receptores onde a simplicidade, o baixo custo e o baixo consumo de energia sejam os
principais critérios de projecto, tais como em sistemas domóticos, em redes de sensores, em equi-
pamentos de biomedicina, etc.. Na figura 5.15 apresenta-se o diagrama de blocos deste tipo de
receptores e na figura 5.16 um circuito electrónico correspondente.

Figura 5.15: Diagrama de blocos de receptor regenerativo.

O princípio de funcionamento do receptor regenerativo é baseado numa realimentação posi-


tiva para as altas frequências, o que lhe proporciona um elevado ganho e, consequentemente, uma
alta sensibilidade. O mesmo dispositivo electrónico (inicialmente uma válvula, tríodo, ou mais
tarde, o transistor de junção ou de efeito de campo) promove a amplificação de rádio-frequência, a
detecção e a necessária amplificação do sinal detectado.

Figura 5.16: Cricuito de um receptor regenerativo.

No receptor da figura 5.16, a filtragem passa-baixo para a eliminação das componentes de RF


é efectuada pelo próprio altifalante e circuito de amplificação. Os receptores super-regenerativos
foram também inventados por Armstrong em 1921 e constituíram um avanço face aos receptores re-
generativos. No entanto, apresentam também um conjunto de desvantagens comuns, nomeadamente
má selectividade8 e má sensibilidade em RF. Baseiam-se num mecanismo de paragem e arranque de
um oscilador local, induzindo periodicamente o fenómeno de regeneração (amplificação RF e de-
tecção) sem a constante necessidade de ajuste como sucede nos receptores regenerativos. Em linhas
necessariamente muito gerais, apresentam um diagrama de blocos semelhante ao da figura 5.15, mas
onde se substituiu o bloco "Detector Regenerativo"pelo bloco da figura 5.17.
8A selectividade é a capacidade de um dispositivo sintonizado discriminar sinais de frequências próximas.
5.1. MODULAÇÃO DE AMPLITUDE 231

Figura 5.17: Detector super-regenerativo.

Receptor Super-Heterodino

Trata-se mais uma vez da invenção de E. Armstrong, realizada durante a 1a Grande Guerra,
em 1918. Uma forma de melhorar a selectividade dos receptores passa pela realização de circui-
tos sintonizados ou ressonantes com largura de banda relativamente estreita e grande capacidade
de rejeição de frequências fora da sua banda passante. Esta necessidade leva a que estes disposi-
tivos não possam ser directamente sintonizados para as diferentes frequências das portadoras que
se pretende receber. Assim, eles irão constituir uma etapa de filtragem (designada por filtragem in-
termédia ou frequência intermédia, FI ou IF na terminologia anglo-saxónica) sintonizada para uma
frequência fixa. Assim, torna-se necessário «transladar» as portadoras recebidas para esta frequência
intermédia, através de uma etapa misturadora com um oscilador local, este sim, sintonizável. Este
princípio exemplifica-se na figura 5.18 onde se apresenta um diagrama de blocos de um recpetor
super-heterodino.

Figura 5.18: Diagrama de blocos de um receptor super-heterodino.

A frequência intermédia tem os valores de 455 kHz no caso da onda-média (MW) e de 10,8
MHz no caso do FM em VHF. Na figura 5.19 ilustra-se um circuito eléctrico de um receptor super-
heterodino, onde se assinalam os correspondentes blocos da figura 5.18. Neste circuito, a sintonia é
comandada por uma tensão contínua que polariza inversamente os dois díodos D2 e D3 que actuam
como condensadores variáveis nas malhas ressonantes L1/C7/C8 (oscilador local) e L2/C11/C10
(filtro RF de entrada). A desmodulação é realizada internamente ao circuito integrado IC1 através
de um rectificador de onda-completa.
232 CAPÍTULO 5. MODULAÇÃO DE PORTADORAS SINUSOIDAIS

Figura 5.19: Esquema eléctrico de um receptor super-heterodino baseado no circuito TDA1572 da Philips.

5.2 MODULAÇÃO DE ÂNGULO

A modulação de amplitude, nas suas várias versões, apenas aproveita um dos parâmetros da
portadora para enviar informação: precisamente, e como o próprio nome indica, a sua amplitude.
Contudo, podemos optar por manter a amplitude da portadora constante e modificar a sua fase. As-
sim, iremos abordar duas formas de modulação de ângulo, a de fase e a de frequência. Comecemos
por apresentar duas definições relevantes para este tipo de modulação.

D
Definição: Fase Instantânea para uma portadora sinusoidal p(t) = AC cos(2π fc t + φ (t)), define-
se fase instantânea da portadora como sendo

Φ(t) , 2π fc t + φ (t) (5.26)

D
Definição: Frequência Instantânea a frequência instantânea resulta da derivada da fase instan-
tânea,
1 d
F(t) , Φ(t) (5.27)
2π dt
ou, de modo equivalente
Zt
Φ(t) = 2π F(τ)dτ (5.28)
−∞

5.2.1 M ODULAÇÃO DE FASE

Se, na equação (5.26) fizermos o termo φ (t) proporcional à mensagem a enviar, teremos que
a fase instantânea vem proporcional ao sinal modulante, ou seja,
T

Φ(t) = 2π fc t + φ (t) = 2π fc t + φ∆ X(t) (5.29)


5.2. MODULAÇÃO DE ÂNGULO 233

onde φ∆ representa o índice de modulação de fase ou a constante de desvio de fase.

Por consequência, o sinal modulado em fase vem definido por


D

XPM (t) , AC cos(2π fc t + φ∆ X(t)) (5.30)

5.2.2 M ODULAÇÃO DE F REQUÊNCIA

Na modulação em frequência, é a frequência instantânea da portadora que se faz proporcional


à mensagem, ou seja, F(t) = fc + f∆ X(t) e, consequentemente, o sinal modulado em frequência (FM)
é definido por
D
Zt
XFM (t) = AC cos(2π fc t + 2π f∆ x(τ)dτ) (5.31)
−∞

onde f∆ representa o índice de modulação de frequência ou, na gíria das telecomunicações, frequên-
cia de desvio.

Modulador de Fase Por inspecção das equações (5.31) e (5.30), pode-se ver que, se usarmos um
modulador de frequência com um sinal modulante proporcional a dtd x(t), obteremos um modulador
de fase, como ilustrado na figura 5.20 (em cima).

Modulador de Frequência De forma equivalente, se aplicarmos, na entrada de um modulador de


R
fase, um sinal proporcional a x(t)dt, obteremos um modulador de frequência, conforme se ilustra
na figura 5.20 (em baixo).

Modulador
Derivador de x PM (t)
Frequência
x(t)

Modulador
Integrador de x FM (t)
Fase

Figura 5.20: Esquema eléctrico de um receptor super-heterodino baseado no circuito TDA1572 da Philips.

5.2.3 E SPECTRO E P OTÊNCIA DA M ODULAÇÃO DE F REQUÊNCIA

A determinação do espectro de um sinal de FM é não trivial pelo que o caminho que será
exposto resulta de assumir que o sinal modulante é sinusoidal com uma frequência instantânea cons-
tante. Este resultado servirá de indicador para a determinação da largura de banda, como iremos ver.
Mas antes, mostraremos que a modulação de frequência pode ser dividida em duas «classes».
234 CAPÍTULO 5. MODULAÇÃO DE PORTADORAS SINUSOIDAIS

FM de Banda Estreita

Comecemos pela equação (5.31) e apliquemos-lhe uma simples relação trigonométrica

Rt
XFM (t) = AC cos(2π fc t + 2π f∆ x(τ)dτ) =
−∞
(5.32)
Rt Rt
= AC cos(2π fc t) cos(2π f∆ x(τ)dτ) − AC sen(2π fc t) sen(2π f∆ x(τ)dτ)
−∞ −∞

Se considerarmos, por hipótese, que a frequência de desvio f∆ é muito reduzida,então, a equação


(5.32) pode ser reescrita como

XFM (t) ≈ AC cos(2π fc t) − (2π f∆ )AC · Ẋ(t) · sen(2π fc t) (5.33)

Rt
onde Ẋ(t) = x(τ)dτ).
−∞

Como se pode ver, estamos perante uma modulação de amplitude (pois a amplitude da por-
tadora é «modulada» ou seja, multiplicada, pela mensagem)! Como o suporte de X(t) é B, logica-
mente que o suporte de XFM (t) é, à semelhança da modulação em amplitude 2B, pelo que, a largura
de banda da modulação de frequência de banda estreita é 2B.

FM de Banda Larga

No caso geral, ou seja, quando não se verificar que a frequência de desvio é muito pequena,
o processo analítico mais simples de obter o espectro do sinal FM passa então por supor que X(t) =
X cos(2π f1t) ou seja, que Ẋ(t) = 2π1f1 X sen(2π f1t). Nesta situação, a equação (5.31) vem

f∆
XFM (t) = AC cos(2π fc t + X f1 sen(2π f1t)) =
(5.34)
f∆ f∆
j2π fc t+X sen(2π f1 t)) X sen(2π f1 t))
= AC Re{e f1
} = AC Re{e f1
· e j2π fc t }

Esta equação pode ser interpretada como sendo uma translação na frequência (resultante do
f∆
X sen(2π f1 t))
produto de e j2π fc t por e f1
, função esta que passaremos a analisar com mais detalhe. Trata-
f∆
X sen(2π f1 t))
se de uma função periódica9
com período fundamental T1 = 1/ f1 . Assim sendo, e f1
pode
ser representada pela sua série de Fourier:

+∞
f∆ 1 f∆
Z
X sen(2π f1 t)) X sen(2π f1 t)) − j2πk f1 t
e f1
= ∑ ak e j2πk f1t ∴ ak = e f1
e dt (5.35)
k=−∞ T1
T1

Para prosseguirmos convém introduzir a função de Bessel de 1a espécie.


5.2. MODULAÇÃO DE ÂNGULO 235

D
Definição: Função de Bessel de 1a espécie a função de Bessel de 1a espécie é definida como


1
Jk (β ) , e− j(kε−β sen(ε)) dε (5.36)

−π

e que se representa graficamente na figura 5.21. Em apêndice apresenta-se a função de Bessel de


1

0.5

−0.5
0 1 2 3 4 5 6 7 8 9 10

Figura 5.21: Funções de Bessel de 1a Espécie para (de cima para baixo na abcissa β = 1: k = 0, 1, 2, 3, · · · ).

1a espécie em três tabelas: tabela D.1 para 0 ≤ β ≤ 3, tabela D.2 para 3 ≤ β ≤ 6 e tabela D.3 para
6 ≤ β ≤ 9.

As funções de Bessel de 1a ordem gozam de várias propriedades, das quais salientaremos,


sem demonstração as seguintes:

T
Corolário
J−k (β ) = (−1)k Jk (β ) (5.37)

T
Corolário
lim Jk (β ) = 0 (5.38)
β →+∞

T
Corolário
+∞
∑ [Jk (β )]2 = 1 (5.39)
k=−∞
f∆ f∆
9 Vejamos X sen(2π f1 t)) X sen(2π f1 t))
que, efectivamente, e f1
é uma função periódica, pois e f1
=
f∆ f∆
X sen(2π f1 (t−T )) X sen(2π f1 (t−T ))
e f1
para garantir a periodicidade. Desenvolvendo o expoente, teremos e f1
=
f∆ f∆
X sen(2π f1 (t) cos(2π f1 T )) X cos(2π f1 (t) sen(2π f1 T ))
e f1
e f1
. Ora, fazendo 2π f1 T = 2kπ → T1 = mink T ⇒ sen(2π f1 T )) =
f∆ f∆
X sen(2π f1 (t−T )) X sen(2π f1 t))
0⇒e f1
=e f1
.
236 CAPÍTULO 5. MODULAÇÃO DE PORTADORAS SINUSOIDAIS

A definição dos coeficientes da série harmónica da equação (5.35) pode ser agora explicitada
usando as funções de Bessel. Pelo que, utilizando a mudança de variável ff∆1 X = β , tendo em conta
o expresso nas equações (5.21) e (5.34) e que Re{a(t)} = 12 [a(t) + a∗ (t)], o espectro do sinal de FM
modulado por uma função sinusoidal de frequência f1 vem
T

AC +∞
XFM ( f ) = ∑ Jk (β )δ ( f − k f1 ) ∗ [δ ( f − fc ) + δ ( f + fc )] =
2 k=−∞

AC +∞
= ∑ Jk (β )[δ ( f − fc −k f1 ) + δ ( f + fc −k f1 )]
2 k=−∞

f∆
∴ β= X (5.40)
f1
A interpretação desta equação não é trivial mas permite-nos ver que o espectro de FM é efectiva-
mente ilimitado! No caso que temos estado a tratar em que o sinal modulante é sinusoidal, vemos
que cada componente em torno da frequência da portadora vem ponderada pela função de Bessel
que, por sua vez, depende da relação entre a amplitude do sinal modulante e do quociente da frequên-
cia de desvio pela sua própria frequência. Mais adiante dar-se-ão exemplos ilustrativos do espectro
de FM.

Regra de Carson

A largura de banda de uma portadora modulada em frequência é aproximadamente dada por


T

BT ≈ 2( f∆ + fmáx ) (5.41)

onde fmáx é a máxima frequência do sinal modulante. Esta regra pode ser estendida à modulação de
uma portadora sinusoidal por um processo estocástico de suporte B:
T

BT ≈ 2( f∆ + B) (5.42)

f∆
Na figura 5.22 ilustra-se a equação (5.40) para vários valores de β = f1 X, assinalando-se a
cor vermelha a largura de banda dada pela regra de Carson, equação (5.42).

Potência da Modulação em Frequência

A potência do sinal modulado em FM é, atendendo ao 3o corolário das funções de Bessel,


T

1
PXFM = AC2 (5.43)
2

correspondendo à potência de uma portadora sinusoidal de amplitude AC .


5.2. MODULAÇÃO DE ÂNGULO 237

1 1

0.5
0.5
0
0
−0.5

−1 −0.5
−100 −50 0 50 100 −100 −50 0 50 100

2 1

1 0.5

0 0

−1 −0.5

−2 −1
−100 −50 0 50 100 −100 −50 0 50 100

4 2

1
2
0
0
−1

−2 −2
−100 −50 0 50 100 −100 −50 0 50 100

Figura 5.22: Espectro FM modulado por sinusoide. À esquerda X = 0, 1 e à direita, X = 1. De cima para
baixo (ambos os gráficos), f1 = 100 Hz, 1 kHz e 8 kHz, com f∆ = 75 kHz. A frequência zero em todos os
gráficos corresponde à frequência da portadora fc .

5.2.4 R ELAÇÃO ENTRE AS M ODULAÇÕES DE FASE E DE F REQUÊNCIA

Recordando a relação entre fase e frequência instantâneas, equções (5.27) e (5.27), podemos
ver que um processo de obter um modulador de fase tendo como base um modulador de frequên-
cia é usar como sinal modulante do modulador de FM, a derivada do sinal que se quer transmitir.
Atentando na equação (5.31), verifica-se imediatamente que se substituirmos X(t) → dtd X(t) obtere-
mos um resultado idêntico ao da equação (5.30) que caracteriza precisamente a portadora modulada
em fase. De uma forma similar, se na saída do receptor de FM colocarmos um circuito integrador,
obteremos um desmodulador de fase.

5.2.5 T RANSMISSOR DE F REQUÊNCIA M ODULADA

A título de exemplo apresenta-se na figura 5.23 um circuito simplificado de um transmissor


de frequência modulada realizado à volta de um TJB do tipo BC107 ou 2N2222 para a gama de
frequências situada entre os 80 e os 100 MHz.

Este circuito já inclui a malha de pré-ênfase10 de 75µs.

10 Apré-ênfase consiste numa amplificação das altas frequências do sinal modulante e que será mais adiante abordada
aquando do desempenho dos sistemas de comunicação por portadoras moduladas; o valor de 75µs reporta-se à constante
de tempo do zero da função de resposta em frequência da equação (6.90).
238 CAPÍTULO 5. MODULAÇÃO DE PORTADORAS SINUSOIDAIS

5 espiras
4p7

4p-40p 100

3k3 2k2 9V

10n
47u + .1u 47u +
Áudio
7k5
10n

Figura 5.23: Circuito transmissor de FM.

5.2.6 D ESMODULADORES DE F REQUÊNCIA

A desmodulação de frequência deve ser efectuada num dispositivo que produza na saída
uma amplitude que dependa directamente da frequência (instantânea) do sinal de entrada. Aliás, é
fácil de perceber esta questão se representarmos graficamente a equação que relaciona a frequência
instantânea da portadora com o sinal modulante, F(t) = fc + f∆ X(t), figura 5.24.

Figura 5.24: Frequência instantânea na modulação de frequência, em função da amplitude do sinal modu-
lante.

Portanto, o desmodulador deve efectuar a operação inversa, ou seja, deve ter uma saída cuja
amplitude, para uma entrada de amplitude constante11 , varie proporcionalmente com a frequência
instantânea do sinal na sua entrada.Este dispositivo é conhecido por discriminador de frequência e
D
a sua característica entrada-saída indica-se na figura 5.25.

Recordemos a derivada de uma função sinusoidal de frequência instantânea


d
dt AC cos(Φ(t)) = −AC [ dtd Φ(t)] · sen(Φ(t)) =
(5.44)
= −2πAC [fc + f∆ X(t)] · sen(Φ(t))

e que identificamos como sendo uma portadora modulada em amplitude. Então, a detecção de
11 Esta é a razão que leva a incluir um dispositivo limitador de amplitude antes da desmodulação de frequência. No
capítulo destinado ao estudo do desempenho de sistemas de comunicação, iremos retomar este assunto
5.2. MODULAÇÃO DE ÂNGULO 239

Figura 5.25: Discriminação de frequência.

FM usando um dispositivo de discriminação na frequência necessita da presença de um detector de


envolvente a seguir ao dispositivo de diferenciação, figura 5.26.

Figura 5.26: Discriminação de frequência.

Na figura 5.27 exemplificam-se os conceitos apresentados, onde se pode ver que o sinal deri-
vado (em baixo) tem uma envolvente que corresponde ao sinal modulante.

5.2.7 E XEMPLO DE D ESMODULADORES DE F REQUÊNCIA

A utilização prática de ciruitos derivadores coloca problemas pelo que o seu uso como des-
moduladores é pouco mais do que uma «curiosidade de laboratório». Têm sido utilizados dois tipos
de detectores: o discriminador de Foster-Seeley e o detector de razão (ratio) e que se apresentam
na fig. 4.32. Se bem que os pormenores do seu funcionamento estejam fora do âmbito desta UC,
trata-se de dispositivos que aproveitam a diferença de fase entre enrolamentos dos transformadores
quando a frequência do sinal modulado em FM se desvia da frequência de ressonância fc . Com a di-
vulgação dos circuitos integrados graças ao seu baixo custo, este tipo de detectores que necessitam
de um fabrico e afinação cuidadosos, têm vindo a ser substituídos por malhas de captura de fase,
PLL12 .

Malha de Captura de Fase

O diagrama de blocos da malha de captura de fase indica-se na figura 5.29 e o seu modelo simpli-
ficado na figura 5.30, quando a diferença de fase entre o sinal recebido XR (t) e XVCO (t), o sinal de
saída do oscilador controlado por tensão (VCO), é suficientemente pequena para que a aproximação
sen(ΦR (t) − ΦVCO (t)) ≈ ΦR (t) − ΦVCO (t) seja válida.
12 PLL, do inglês Phase Locked Loop
240 CAPÍTULO 5. MODULAÇÃO DE PORTADORAS SINUSOIDAIS

0.5

−0.5

−1
−2 −1 0 1 2 3 4 5

0.5

−0.5

−1
−2 −1 0 1 2 3 4 5

100

50

−50

−100
−2 −1 0 1 2 3 4 5

Figura 5.27: Detecção de FM: em cima, sinal modulante; ao centro, sinal de FM, em baixo, sinal após o
derivador.

Na figura 5.31 ilustra-se a detecção de FM de uma portadora modulada por um sinal sinusoidal
(em baixo) e por uma onda quadrada (em cima).

5.2.8 M ODULAÇÃO E D ESMODULAÇÃO DE E STEREOFONIA

Na banda de VHF destinada à rádiodifusão pública (entre os 87,5 MHz e os 108 MHz) a
maioria das estações emite a sua programação em estereofonia; quer isto dizer que são enviados
dois canais em simultâneo, na mesma portadora. Por questões de compatibilidade, o sistema de es-
tereofonia foi desenhado para que os receptores «mono», existentes desde 1940, pudessem usufruir
das novas emissões, iniciadas a partir de 1961. Assim, a soma dos canais esquerdo (L) e direito (R),
ambos limitados a 15 kHz, vai modular directamente a portadora, enquanto que a diferença destes
dois canais, vai modular em banda lateral dupla uma sub-portadora de 38 kHz. Esta modulação, em
DSB, juntamente com um «piloto» de 19 kHz, são adicionadas à soma dos canais L e R, conforme
se representa na figura 5.32.

No receptor, procede-se ao processo inverso, conforme se ilustra na figura 5.33.

Nos sistemas de rádio-difusão em FM, o sinal modulante de áudio sofre ainda uma pré-ênfase
5.2. MODULAÇÃO DE ÂNGULO 241

Figura 5.28: Detectores de FM, Foster-Seeley (esquerda) e de razão (direita).

Figura 5.29: Malha de captura de fase, PLL, onde VCO significa: Voltage Controlled Oscilator.

(utilização de uma malha passa-alto com uma constante de tempo de 50µs13 ). No receptor haverá
uma filtragem passa-baixo correspondente, com igual constante de tempo. O resultado deste pro-
cesso é uma melhoria perceptualmente significativa na relação sinal/ruído nos receptores de FM. No
capítulo seguinte iremos justificar teoricamente esta filtragem.

13 Este valor para a constante de tempo é o adoptado na Europa, enquanto que, nos EUA é de 75µs.
242 CAPÍTULO 5. MODULAÇÃO DE PORTADORAS SINUSOIDAIS

Figura 5.30: Modelo linearizado da malha de captura de fase.

0.8

0.6

0.4

0.2

0 2 4 6 8 10 12 14
a)

0.5

−0.5

−1
0 2 4 6 8 10 12 14
b)

Figura 5.31: Exemplo de detecção FM usando PLL: em a) com um sinal modulante janela rectangular e,
em b) com um sinal modulante sinusoidal; em ambos os casos, os sinais modulantes estão a cor azul e os
detectados a verde.

Figura 5.32: Modulador de estereofonia para FM.


5.2. MODULAÇÃO DE ÂNGULO 243

Figura 5.33: Descodificador de estereofonia para FM.


244 CAPÍTULO 5. MODULAÇÃO DE PORTADORAS SINUSOIDAIS

5.3 EXEMPLOS de MODULAÇÕES

Nesta secção apresentam-se somente as formas de onda resultantes dos diversos tipos de mo-
dulações atrás estudados: de amplitude (DSB e AM) e de ângulo (seja a de fase, seja a de frequência),
considerando dois sinais modulantes distintos: sequência binária polar sem retorno a zero e uma si-
nusoide. A modulação em banda lateral única é também apresentada numa subsecção distinta pois
não é fácil de intuir a forma de onda do sinal modulado; de facto, se a modulação fosse resultante de
um sinal sinusoidal, a forma de onda de XSSB (t) seria, aparentemente, uma sinusoide de amplitude
constante... como, aliás, se mostrará.

5.3.1 M ODULAÇÕES DSB, AM, PM E FM POR S INAL B INÁRIO


Ex

Apresentam-se, nas figuras 5.34, 5.35 e 5.36, de cima para baixo, o sinal modulante, as mo-
dulações (respectivamente) de amplitude14 , de fase e de frequência, com os índices de modulação a
0%, a 25%, a 50% e a 100%.

Sinal Modulante
1

−1
−1 0 1 2 3 4 5 6 7 8 9 10
DSB
1
0

−1
−1 0 1 2 3 4 5 6 7 8 9 10
AM (25%)
1
0
−1
−1 0 1 2 3 4 5 6 7 8 9 10
AM (50%)

1
0
−1
−1 0 1 2 3 4 5 6 7 8 9 10
AM (100%)
2

−2
−1 0 1 2 3 4 5 6 7 8 9 10

Figura 5.34: Modulação de portadora sinusoidal em amplitude por uma sequência binária.
5.3. EXEMPLOS DE MODULAÇÕES 245

Sinal Modulante
1

−1
−1 0 1 2 3 4 5 6 7 8 9 10
PM (0%)
1
0

−1
−1 0 1 2 3 4 5 6 7 8 9 10
PM (25%)
1

−1
−1 0 1 2 3 4 5 6 7 8 9 10
PM (50%)
1

−1
−1 0 1 2 3 4 5 6 7 8 9 10
PM (100%)
1

−1
−1 0 1 2 3 4 5 6 7 8 9 10

Figura 5.35: Modulação de portadora sinusoidal em fase por uma sequência binária.

5.3.2 M ODULAÇÕES DSB, AM, PM E FM POR S INAL S INUSOIDAL


Ex
Apresentam-se, nas figuras 5.37, 5.38 e 5.39, de cima para baixo, o sinal modulante, as
modulações (respectivamente) de amplitude15 , de fase e de frequência, com os índices de modulação
a 0%, a 25%, a 50% e a 100%.

5.3.3 M ODULAÇÃO DE BANDA L ATERAL Ú NICA POR S INAIS S INUSOIDAL E B INÁ -


RIO
Ex

A modulação em banda lateral única, sendo, embora, uma modulação de amplitude, surge
em secção destacada uma vez que não há uma relação imediata entre a forma de onda do sinal
modulante e a do sinal modulado. À semelhança do número anterior, começaremos por utilizar
um sinal sinusoidal e, posteriormente, um sinal binário. Naquele, e contra o que seria de esperar
à primeira vista, obtém-se simplesmente uma sinusoide de amplitude constante. Efectivamente, se
atendermos ao facto de que uma modulação em DSB por um sinal sinusoidal X(t) = X · cos(2π fmt)

14 No caso da modulação de amplitude, em vez de se considerar a modulação com 0% de índice de modulação, incluiu-
se, no seu lugar, a modulação DSB.
15 No caso da modulação de amplitude, em vez de se considerar a modulação com 0% de índice de modulação, incluiu-

se, no seu lugar, a modulação DSB.


246 CAPÍTULO 5. MODULAÇÃO DE PORTADORAS SINUSOIDAIS

Sinal Modulante
1

−1
−1 0 1 2 3 4 5 6 7 8 9 10
FM (0%)
1
0

−1
−1 0 1 2 3 4 5 6 7 8 9 10
FM (25%)
1

−1
−1 0 1 2 3 4 5 6 7 8 9 10
FM (50%)
1

−1
−1 0 1 2 3 4 5 6 7 8 9 10
FM (100%)
1

−1
−1 0 1 2 3 4 5 6 7 8 9 10

Figura 5.36: Modulação de portadora sinusoidal em frequência por uma sequência binária.

resulta em
1
XDSB (t) = X(t) · Ac cos(2π fc t) = X · Ac · [cos(2π(fc + fm )t) + cos(2π(fc − fm )t)] (5.45)
2
e que a modulação em banda lateral consiste em, por exemplo, filtrar uma das duas bandas laterais,
obteremos para Banda Lateral Única
T
(
1
XSSB (t) = 2 X · Ac · cos(2π(fc + f m )t) Banda Lateral Superior
(5.46)
1
2 X · Ac · cos(2π(fc − f m )t) Banda Lateral Inferior

e que, em qualquer dos casos, não é mais do que uma sinusoide de amplitude constate, embora com
uma frequência distinta da da portadora.
5.3. EXEMPLOS DE MODULAÇÕES 247

Sinal Modulante
1

−1
−1 0 1 2 3 4 5 6 7 8 9 10
DSB
1
0

−1
−1 0 1 2 3 4 5 6 7 8 9 10
AM (25%)
1
0
−1
−1 0 1 2 3 4 5 6 7 8 9 10
AM (50%)

1
0
−1
−1 0 1 2 3 4 5 6 7 8 9 10
AM (100%)
2

−2
−1 0 1 2 3 4 5 6 7 8 9 10

Figura 5.37: Modulação de portadora sinusoidal em amplitude por um sinal sinusoidal.

Sinal Modulante
1

−1
−1 0 1 2 3 4 5 6 7 8 9 10
PM (0%)
1
0

−1
−1 0 1 2 3 4 5 6 7 8 9 10
PM (25%)
1

−1
−1 0 1 2 3 4 5 6 7 8 9 10
PM (50%)
1

−1
−1 0 1 2 3 4 5 6 7 8 9 10
PM (100%)
1

−1
−1 0 1 2 3 4 5 6 7 8 9 10

Figura 5.38: Modulação de portadora sinusoidal em fase por um sinal sinusoidal.


248 CAPÍTULO 5. MODULAÇÃO DE PORTADORAS SINUSOIDAIS

Sinal Modulante
1

−1
−1 0 1 2 3 4 5 6 7 8 9 10
FM (0%)
1
0

−1
−1 0 1 2 3 4 5 6 7 8 9 10
FM (25%)
1

−1
−1 0 1 2 3 4 5 6 7 8 9 10
FM (50%)
1

−1
−1 0 1 2 3 4 5 6 7 8 9 10
FM (100%)
1

−1
−1 0 1 2 3 4 5 6 7 8 9 10

Figura 5.39: Modulação de portadora sinusoidal em frequência por um sinal sinusoidal.

Sinal Modulante
1

−1
−1 0 1 2 3 4 5 6 7 8 9 10
Componente "COSSENO"
1
0

−1
−1 0 1 2 3 4 5 6 7 8 9 10
TH[sinal modulante]
5
0
−5
−1 0 1 2 3 4 5 6 7 8 9 10
Componente "SENO"
5
0
−5
−1 0 1 2 3 4 5 6 7 8 9 10
SSB
5
0
−5
−1 0 1 2 3 4 5 6 7 8 9 10

Figura 5.40: Modulação de portadora sinusoidal em banda lateral única por uma sequência binária.
5.3. EXEMPLOS DE MODULAÇÕES 249

Sinal Modulante
1

−1
−1 0 1 2 3 4 5 6 7 8 9 10
Componente "COSSENO"
1
0

−1
−1 0 1 2 3 4 5 6 7 8 9 10
TH[sinal modulante]
1

−1
−1 0 1 2 3 4 5 6 7 8 9 10
Componente "SENO"
1

−1
−1 0 1 2 3 4 5 6 7 8 9 10
SSB
1

−1
−1 0 1 2 3 4 5 6 7 8 9 10

Figura 5.41: Modulação de portadora sinusoidal em banda lateral única por um sinal sinusoidal.
250 CAPÍTULO 5. MODULAÇÃO DE PORTADORAS SINUSOIDAIS

5.4 PROBLEMAS RESOLVIDOS

P. 1: Considere uma portadora modulada em amplitude e caracterizada por XAM (t) = 4[XDC +
X(t)] cos(2π fct).

(a) determine a potência de XAM (t) supondo ∀t X(t) = 0;



(b) sendo X(t) = 2 cos(2π f1t), determine o menor valor de XDC que garanta a não exis-
tência de sobremodulação e esboce a forma de onda resultante;

(c) para X(t) = 2 cos(2π f1t) e XDC = 2 determine a potência de XAM (t);

(d) qual seria a potência da mesma portadora modulada em DSB?

Resolução

(a) Sendo X(t) = 0, teremos apenas a portadora; ora, a potência é

1
P = (4 · XDC )2 = 8 · XDC
2
2

(b) Para não haver sobremodulação é necessário que ∀t ∈ R : [XDC + X(t)] ≥ 0, pelo que
√ √
XDC ≥ 2 uma vez que o min{X(t)} = − 2, conforme se mostra na figura 5.42 ao
centro.

(c) A potência de um processo (neste caso, função amostra) é

A2c 2
PXAM = [X + PX ]
2 DC

Como X(t) = 2 cos(2π f1t) ⇒ PX = 1, teremos,

A2c 2 42 80
PXAM = [XDC + PX ] = [22 + 1] = = 40 W
2 2 2

A2c
(d) A potência em DSB é, como é sabido, PXDSB = 2 [PX ] o que, neste caso, resulta em

A2c 42
PXDSB = [PX ] = =8W
2 2

P. 2: Considere um dispositivo electrónico não linear cuja intensidade de corrente é dada por i(t) =
X(t) + cos(2π fc t) e que apresenta aos seus terminais uma diferença de potencial v(t) = a1 ·
i(t) + a2 · i2 (t) sendo a1 e a2 constantes. Sabendo que X(t) é uma função amostra de um
processo estocástico de média nula e suporte numa banda de frequências B e ainda que fc  B,
mostre que se pode obter uma modulação de amplitude através de uma filtragem passa-banda
da tensão v(t).
5.4. PROBLEMAS RESOLVIDOS 251

10
3
5
2
0
1

0 −5

−1 −10
0 1 2 3 4 0 1 2 3 4

20
3
10
2
0
1

0 −10

−1 −20
0 1 2 3 4 0 1 2 3 4

20
3
10
2
0
1

0 −10

−1 −20
0 1 2 3 4 0 1 2 3 4

Figura 5.42: Modulação de portadora sinusoidal em AM com sobremodulação (em cima), 100 % modulada
(ao centro) e modulada ≈ 74% (em baixo); os gráficos da esquerda representam XDC + X(t) e os gráficos da
direita representam XAM (t).

Resolução Comecemos por obter v(t),

v(t) = a1 · i(t) + a2 · i2 (t) =

= a1 · [X(t) + cos(2π fc t)] + a2 · [X(t) + cos(2π fc t)]2 =

= a1 · [X(t) + cos(2π fc t)]+


(5.47)
+a2 · [X 2 (t) + cos2 (2π fc t) + 2X(t)cos(2π fc t)] =

= a1 · X(t) + a1 · cos(2π fc t) + a2 · X 2 (t) + a2 · 12 (1 + cos(2π2 fc t))+

+a2 · 2X(t) cos(2π fc t)

Esta equação permite-nos ver que, por eliminação dos termos

a1 · X(t)
a2 · X 2 (t)
a2 · 21 (1 + cos(2π2 fc t))

obteremos
vo (t) = a1 · cos(2π fc t)] + 2a2 · X(t) · cos(2π fc t) (5.48)
252 CAPÍTULO 5. MODULAÇÃO DE PORTADORAS SINUSOIDAIS

que se pode escrever na forma de uma portadora sinusoidal modulada em amplitude

vo (t) = AC [XDC + X(t)] · cos(2π fc t)


 AC = 2a2
 (5.49)
sendo
 a1
XDC =

2a2

Nota a eliminação de x2 (t) pelo filtro passa-banda pressupõe, efectivamente que se tem
fc ≥ 3B. De facto, se x(t) é limitado a B ou seja, ∀| f | > B → GX ( f ) = 0, então mostra-se facil-
mente16 que x2 (t) vem limitado a 2B.


P. 3: Mostre que um sistema constituído pela não-linearidade anterior seguida de um filtragem


passa-baixo e de um bloco cujo sinal de saída seja a raiz-quadrada do sinal de entrada, pode
ser eficazmente utilizado para desmodular uma portadora modulada em amplitude.

Resolução Comecemos por considerar uma realização XAM (t) de um processo AM

XAM (t) = AC [XDC + X(t)] · cos(2π fc t) (5.50)

2 (t); pelo que teremos:


aplicada à não-linearidade mencionada, xo (t) = a1 · xAM (t) + a2 · xAM
2 (t) =
xo (t) = a1 · xAM (t) + a2 · xAM

= a1 · AC [XDC + X(t)] · cos(2π fc t) +


| {z } (5.51)

+a2 · {AC [XDC + X(t)] · cos(2π fc t)}2

Nesta equação, o termo assinalado com ⊗ irá ser rejeitado pelo filtro passa-baixo, visto que
ocupa uma banda de largura 2B centrada na frequência da portadora fc que se supõe muito
maior do que B.

Resta-nos o segundo termo desta equação que desenvolveremos de seguida, considerado sem
perda de generalidade que a2 = 2:

2AC2 [XDC + X(t)]2 · cos2 (2π fc t) =

= AC2 [XDC + X(t)]2 · [1 + cos(2π2 fc t)] =


(5.52)

= AC2 [XDC + X(t)]2 + AC2 [XDC + X(t)]2 · cos(2π2 fc t)


| {z }

16 Basta recordar que x2 (t) = x(t) · x(t) e que o espectro de x2 (t) será a convolução do espectro de x(t) por si próprio, o
que dará a x2 (t) um suporte de 2B.
5.4. PROBLEMAS RESOLVIDOS 253

onde, o termo assinalado com ⊗ será, à semelhança do sucedido na equação (5.51) também
rejeitado pelo filtro passa-baixo.

Finalmente, o bloco radiciador devolverá na sua saída o sinal modulante (adicionado ao termo
constante XDC , cuja eliminação é trivial):

AC2 [XDC + X(t)]2 → [ · · ·] → AC [XDC + X(t)] (5.53)

P. 4: Suponha que, no sistema QAM da figura seguinte (figura 5.43) há uma desfasagem de π/10
rad entre as portadoras do modulador e do desmodulador. Determine, para a saída A, a diafonia
resultante (em dB) entre os dois canais X e Y .

Figura 5.43: Sistema de comunicação em QAM.

Resolução A diafonia mede a relação entre as potências de dois sinais provenientes de ca-
nais distintos. Assim, o que se pretende é determinar qual a potência da componente Y que
vai aparecer na saída A da figura 5.43. É fácil de ver que, a partir da equação (5.24), o sinal
nesta saída vem dado por A(t) = X(t) · cos(∆θ ) + Y (t) · sen(∆θ ), onde ∆θ = π/10. Então,
teremos que a potência do sinal desmodulado PA = PX · cos2 (∆θ ) + PY · sen2 (∆θ ), ou seja,
PA = PX · 0, 905 + PY · 0, 095 o que corresponde a dizer que a componente de Y está ≈ 9, 8 dB
abaixo da componente X desejada.

A título de exemplo apresenta-se na figura 5.44 a diafonia17 (dB) em função da desfasagem


das portadoras (em o ).

É fácil de mostrar que, se pretendermos que X2 esteja pelo menos 40 dB abaixo de X1 , a desfa-
sagem entre as portadoras terá de ser inferior a 0, 57o !

17 Neste exemplo, uma diafonia de +∞ significa que apenas se obtém o sinal original e não o canal interferente; se, ao
contrário, a diafonia for de −∞, então apenas se obtém o sinal interferente. Claro que uma fiadonia nula (0 dB), os sinais
original e interferente têm a mesma amplitude.
254 CAPÍTULO 5. MODULAÇÃO DE PORTADORAS SINUSOIDAIS

50

40

30

20

10

Diafonia [dB]
0

−10

−20

−30

−40

−50
0 10 20 30 40 50 60 70 80 90
Desfasagem [o]

Figura 5.44: Diafonia (dB) em função da desfasagem das portadoras (em o ) na modulação QAM.

P. 5: Considere uma portadora sinusoidal xFM (t) = AC cos(2π fc t + 2π f∆ 0t x(τ)dt), modulada em


R

frequência pelo sinal x(t) = X cos(2π f1t). Supondo que se tem β = ff∆1 X = 1, determine o
espectro de xFM (t) na banda de frequências | f − fc | ≤ 2, 5 · f1 .

Resolução Comecemos por recordar a equação (5.40) que, neste caso, assume a forma

AC +∞
XFM ( f ) = ∑ Jk (β )[δ ( f − fc +k f1 ) + δ ( f + fc −k f1 )]
2 k=−∞
(5.54)

Assim sendo, resta-nos determinar 5 valores da Função de Bessel, correspondentes a k =


−2, −1, 0, 1, 2 pois para |k| ≥ 3 (não esquecer que k é um inteiro) estaremos fora da banda
de frequências mencionada no enunciado. Atendendo ao 1o corolário da função de Bessel
apresentado, e recorrendo ao seu desenvolvimento em série de potências, vem
+∞ (−1)m ( β2 )k+2m
Jk (β ) = ∑ (5.55)
m=0 m!(k + m)!

que podemos programar para obter os seguintes resultados da tabela 5.2 (até ao 3o dígito
significativo).

Na posse destes valores, obtemos a representação gráfica da figura 5.45, onde se supôs por
questões de facilidade que AC = 1.

Tabela 5.2: da função de Bessel

k 0 1 2 3 4 5
Jk (1) 0,765 0,440 0,115 0,020 0,003 0,000


5.4. PROBLEMAS RESOLVIDOS 255

Figura 5.45: Módulo do Espectro de Modulação de Frequência para β = 1. Consideraram-se apenas 5


termos (ver texto) e para f > 0.

P. 6: Na figura 5.46 apresenta-se um diagrama de blocos do método de Weaver para geração de


sinais modulados em banda lateral única. Considerando que

• o sinal modulante m(t) é limitado à banda de frequências f : | f | ≤ 3 kHz;

• as frequências das portadoras do primeiro par de moduladores são f0 = 1, 5 kHz;

• os filtros passa-baixo são idênticos e de frequências de corte iguais a 1, 5 kHz;

• as frequências das portadoras do segundo par de moduladores são fc = 1 MHz.

Mostre que, recorrendo às transformadas de Fourier dos sinais nos diferentes blocos da figura,
na saída do modulador se obtém uma modulação em banda lateral única (superior).

Figura 5.46: Modulador de Banda Lateral Única, método de Weaver.

Resolução Comecemos por redesenhar o sistema de modulação da figura 5.46 mas agora
representando-o não no domínio do tempo mas no da frequência, conforme se ilustra na figura
5.47.

Vamos determinar alguns dos sinais assinalados na figura 5.47:


1 1
A( f ) = M( f − fc ) + M( f + fc ) −→ B( f ) = bA( f )c (5.56)
2 2
e
1 1
D( f ) = M( f − fc ) − M( f + fc ) −→ E( f ) = bD( f )c (5.57)
2j 2j
256 CAPÍTULO 5. MODULAÇÃO DE PORTADORAS SINUSOIDAIS

A(f) B(f) C(f)


f
( )
* 2 f0 *
1 1
M(f) [δ ( f − f0 ) + δ ( f + f0 )] [δ ( f − fC ) + δ ( f + fC )] + Y(f)
2
2
-
D(f) f E(f) F(f)
* (
2 f0
)
*
1 1
[δ ( f − f0 ) − δ ( f + f0 )] [δ ( f − fC ) − δ ( f + fC )]
2j 2j

Figura 5.47: Modulador de Banda Lateral Única, método de Weaver.

uma vez que TF[cos(2π f1t) = 12 δ ( f − f1 ) + 12 δ ( f + f1 ), que TF[sen(2π f1t) = 21j δ ( f − f1 ) −


1
2 j δ ( f + f 1 ), que TF[x(t) · (p(t)] = X( f ) ∗ P( f ) (como usual, ∗ representa a convolução) e
onde b(Z( f )c representa a filtragem passa-baixo de Z( f ).

Supondo então que M( f ) tem suporte em | f | < B e que, conforme o enunciado, f0 = B/2), a
figura 5.48 representa os espectros M( f ), A( f ), B( f ), D( f ) e E( f ).

Sendo, por sua vez


1 1 1 1
Y ( f ) = C( f ) − F( f ) = B( f − fc ) + B( f + fc ) − E( f − fc ) + E( f + fc ) (5.58)
2 2 2j 2j
1
e que, graficamente, se representa na figura 5.49. recordando que j · 1j = −1. Como se pode
verificar, apenas se envia a banda lateral superior.

Se, no ponto de soma/diferença na figura 5.48 se somasse, em vez de subtrair, o sinal (espec-
tro) F( f ) ao sinal (espectro) C( f ), obteríamos uma modulação de banda lateral inferior que
se representa na figura 5.50.

Repare-se que há uma diferença entre fc desta modulação em banda lateral única, indepen-
dentemente de ser em banda (lateral) superior ou inferior, e a frequência da portadora AM que
foi, também, escolhida como sendo fc .

Na verdade, e para sermos precisos, a frequência da «portadora» da banda lateral superior


(Y ( f ) na figura 5.49) é fc − B2 .

No caso da modulação em banda lateral inferior (SSB/LB), teremos para a frequência da


portadora, fc + B2 .

P. 7: Seja o sistema da figura 5.51, onde


+∞
t − kT0
p(t) = ∑ u( )
k=−∞ T1

onde u( Tt1 ) é a janela rectangular de amplitude unitária e de duração T1 e onde o sinal m(t) é
o sinal modulante.

(a) Mostre que à saída se obtém uma modulação de amplitude ou em banda lateral dupla;
5.4. PROBLEMAS RESOLVIDOS 257

M(f)

-B B f
A(f)

-B -B/2 B/2 B f
H(f)

-B/2 B/2 f
B(f)

-B/2 B/2
f

Im{D(f)}

-B -B/2 B/2 B
f

Im{E(f)}

-B/2 B/2 f

Figura 5.48: Modulador de Banda Lateral Única, método de Weaver.

(b) Estabeleça condições para m(t) correspondam a ter-se uma modulação DSB/SC ou AM.

Resolução

(a) Comecemos por relembrar a propriedade da transformada de Fourier do produto de dois


sinais; TF[m(t) × p(t)] = M( f ) ∗ P( f ). Por outro lado, é sabido (veja-se, por exemplo, o
problema P. 3:18 resolvido no capítulo 1) que

T1 +∞
P( f ) = ∑ sinc(k f0 T1 ) · δ ( f − k f0 )
T0 k=−∞
(5.59)

18 Atenção que neste problema, a onda quadradada é simétrica (DC=50%) o que não se verifica necessariamente no
caso que estamos a tratar. No mesmo capítulo podemos encontrar a dedução dos coeficientes de Fourier (equação (1.47))
da onda quadrada não-simétrica e que utilizámos nesta resolução.
258 CAPÍTULO 5. MODULAÇÃO DE PORTADORAS SINUSOIDAIS

B(f)

-B/2 B/2 f

C(f)

-f c fc f

Im{E(f)}

-B/2 B/2 f

F(f)

-f c fc f

Y(f)

-f c fc f

Figura 5.49: Modulador de Banda Lateral Única, método de Weaver (banda lateral superior). Note-se que
as amplitudes relativas dos espectros não estão à escala.

Assim, se fizermos fc = f0 ou seja, se colocarmos a frequência central fc do filtro passa-


banda na frequência f0 da portadora19 e se a largura de banda deste filtro for maior ou
igual à largura do espectro da mensagem m(t), então teremos para o sinal de saída
T1
xm (t) = TF−1 [Xm ( f )] = TF−1 [ sinc(f0 T1 ) · [M( f − f0 ) + M( f − f0 )] =
T0
T1
= sinc(f0 T1 ) · m(t) · cos(2π f0 t) (5.60)
T0
uma vez que sinc(ε) = sinc(−ε). Nesta equação o termo TT10 sinc(f0 T1 ) corresponderá
à amplitude da portadora sinusoidal, pelo que podemos comparar esta equação com a
equação (5.13): trata-se efectivamente de uma modulação de amplitude (mesmo que
seja com portadora suprimida).

(b) Reescrevamos o resultado anterior expresso na equação (5.60):


T1
xm (t) = sinc(f0 T1 ) · m(t) · cos(2π f0 t) = Ac · m(t) · cos(2π f0 t)
T0
19 De 1
facto, f0 = T0 é a frequência fundamental da onda quadrada.
5.4. PROBLEMAS RESOLVIDOS 259

C(f)

-f c fc f

F(f)

-f c fc f

Y(f)

-f c fc f

Figura 5.50: Modulador de Banda Lateral Única Inferior. Note-se que as amplitudes relativas dos espectros
não estão à escala.

~
m(t) ~ x (t)
m

~
fc
p(t) BT

Figura 5.51: Modulador com onda quadrada.

Calculemos agora o valor médio (média temporal) de x(t), a que chamaremos XDC ,
Z +∆
1 2
XDC = lim m(t)dt (5.61)
∆→∞ ∆ ∆
2

Independentemente do valor que se obtenha para XDC , o sinal xAC (t) , x(t) − XDC terá
forçosamente valor médio nulo; assim, o sinal

xm (t) = Ac · xAC (t) · cos(2π f0 t) (5.62)

é efectivamente uma modulação em banda lateral dupla (DSB/SC). Resumindo: se o


valor médio de m(t) for nulo, a saída xm (t) do modulador é efectivamente um sinal
modulado em banda lateral dupla, como se comprova pela equação anterior.

De forma distinta, isto é se XDC 6= 0, teremos duas situações:

• ∀t, m(t) ≥ 0 ∨ ˙ m(t) ≤ 0, então estaremos face a uma modulação de amplitude


sem sobremodulação;

• a condição anterior não se verifica e estaremos face a uma modulação de amplitude


com sobremodulação;
260 CAPÍTULO 5. MODULAÇÃO DE PORTADORAS SINUSOIDAIS

P. 8: Seja X (t) o processo modulante que se supõe ter potência PX = 2 e sabe-se ainda que
|X (t)| ≤ 1, 5 durante 100% da sua duração. Considerando uma portadora sinusoidal de 7
Vef de amplitude, determine as potências necessárias para emitir em DSB/SC, AM e FM.


Resolução Reparemos que é-nos dada a amplitude eficaz, pelo que Ac = 2Aef o que leva
a ter-se nas próxima esquações A2c = 2 · Aef . Analisaremos separadamente cada modulação.
Assim, sejam as modulações

• DSB/SC: A potência é (equação (5.16)) PDSB = 21 A2c PX o que, utilizando então a ampli-
tude eficaz, PDSB = A2ef PX = 72 · 2 = 98 W20 ;

• AM: o processo mais simples é supor que não ocorre sobremodulação e ainda que XDC =
1, 521 . Neste caso, será então (equação (5.11)), PAM = 12 A2c (XDC
2 +P ) = A2 (X 2 +P ) =
X ef DC X
2
49 · (1, 5 + 2) = 208, 3 W;

• FM: este é o caso mais simples, pois (admitindo que se trata de modulação FM de banda
larga22 ) a potência é dada pela equação (5.43), PFM = 12 A2c = A2ef = 49 W.

Estes resultados estão sumarizados na tabela 5.3 para melhor comparação das potências ne-
cessárias.
Tabela 5.3: das potências para diferentes modulações

Tipo de Modulação: DSB AM FM


Potência [W]: 98 208 49

P. 9: Mostre que o sistema da figura 5.10 efectua uma desmodulação de amplitude.

Resolução Na figura 5.52 repetimos (à esquerda) a figura 5.10 para compará-la com a figura
5.51 (à direita) e verificar que apenas o bloco de saída é distinto.

Assim, podemos aproveitar parte da resolução do problema P. 3:, pelo que o espectro (trans-
formada de Fourier) do sinal à saída do produto é
T1 +∞
M( f ) ∗ P( f ) = ∑ sinc(k f0 T1 ) · [M( f − k f0 ) + M( f − k f0 )]
T0 k=−∞
20 Estamos a partir do pressuposto que o valor médio de m(t) é nulo.
21 Não podemos de imediato atribuir um valor a XDC , tudo dependendo da sua forma de onda. No entanto, com o valor
indicado, a sobre-modulação não ocorrerá; quando muito, e no pior caso, a profundidade de modulação (equação (5.17))
não se aproximaria dos 100%.
22 Se for de banda estreita, trata-se como se fosse AM, como já se demonstrou oportunamente.
5.4. PROBLEMAS RESOLVIDOS 261

~
m(t) ~ x (t)
m

~
fc
p(t) BT

Figura 5.52: Diversas formas de modulador.

onde M(t) é substiuído por XAM ( f ), originando

T1 +∞
∑ sinc(k f0 T1 ) · [XAM ( f − k f0 ) + XAM ( f + k f0 )]
T0 k=−∞

Dado que XAM ( f ) = 12 Ac [2XDC δ ( f ) + X( f − f0 ) + X( f + f0 )], esta equação resulta em

Ac T1 +∞
∑ sinc(k f0 T1 ) · [2XDC δ ( f − k f0 ) + X( f − (k + 1) f0 ) + X( f − (k − 1) f0 )+
2T0 k=−∞

+2XDC δ ( f + k f0 ) + X( f + (k − 1) f0 ) + X( f + (k + 1) f0 )]

O filtro passa baixo irá eliminar toas as componentes na frequência longe da origem e, admi-
tindo que a sua largura de banda é adequada ao espectro da mensagem, teremos então
2T1
· [XDC + sinc(f0 T1 )x(t)
T0

Finalmente, o condensador elimina a componente contínua deste sinal ( 2T


T0 · XDC ), resultando
1

que se obtém
2T1
· sinc(f0 T1 ) · x(t)
T0
ou seja, um sinal proporcional ao sinal (mensagem) original23 .

23 Se, T0 2T1 2
por exemplo, T1 = 2, o termo T0 · sinc(f0 T1 ) vale π = 0, 637.
262 CAPÍTULO 5. MODULAÇÃO DE PORTADORAS SINUSOIDAIS
Capítulo 6

DESEMPENHO DE SISTEMAS DE
TELECOMUNICAÇÕES

6.1 INTRODUÇÃO AO ESPAÇO DE SINAIS

Esta matéria permitir-nos-á apresentar melhor os sistemas de desmodulação, caracterizá-los


do ponto de vista do ruído e, em consequência, estabelecer quantitativamente critérios de desempe-
nho baseados na relação sinal/ruído. Começaremos por introduzir uma nova transformada,a trans-
formação de Hilbert, que ao contrário das transformadas de Laplace e de Fourier, mantém o sinal no
seu domínio de origem. Contudo, trata-se de um problema conceptual pois a aplicação desta trans-
formação consiste na filtragem do sinal por um sistema não-causal, logo não realizável fisicamente1 .

6.1.1 T RANSFORMADA DE H ILBERT

Comecemos por introduzir uma nova transformação, a transformada de Hilbert. Esta trans-
formada tem crucial importância na análise de sinais, pois veio permitir todo o formalismo adequado
à representação de sinais modulados e de processos passa-banda no espaço de sinais.

D
1 Resta-nos, felizmente, a possibilidade de aproximar este sistema dentro de certos critérios. Contudo, esta aproxima-
ção está fora do âmbito da Unidade Curricular.

263
264 CAPÍTULO 6. DESEMPENHO DE SISTEMAS DE TELECOMUNICAÇÕES

Definição: Transformação de Hilbert define-se a transformada de Hilbert de um dado sinal g(t)


como
1 g(τ)
Z
ĝ(t) , TH[g(t)] = VP dτ (6.1)
π t −τ
R

onde VP representa o valor principal de Cauchy2 e sempre que este integral for diferente de infinito.
A correspondente transformada inversa é dada por

1 ĝ(τ)
Z
g(t) , TH[g(t)] = − dτ (6.3)
π t −τ
R

Esta transformada goza das seguintes propriedades que apresentamos sem demonstração.

T
Corolário
1
g(t) ∗ = ĝ(t) (6.4)
πt

T
Corolário
Z
ĝ(t)⊥g(t) = ĝ(t)g(t)dt = 0 (6.5)
R

T
Corolário
TH[TH[g(t)]] = TH[ĝ(t)] = −g(t) (6.6)

T
Corolário
1
TF[ĝ(t)] = Ĝ( f ) = TF[g(t) ∗ ] = − j · sign( f ) · G( f ) (6.7)
πt
(
1 x>0
onde sign(x) = .
−1 x<0

Da equação (6.7) resultam algumas propriedades da transformada de Fourier da transformada


de Hilbert de um dado sinal que iremos apresentar.

T
2O valor principal de Cauchy é dado por
Z b t0 −ε Z b
Z 
VP g(t)dt , lim g(t)dt + g(t)dt (6.2)
a ε→0 a t0 +ε

sendo que g(t) pode ser não-limitada num ponto t0 ∈ [a, b], ou seja, limt→t0 sup|g(t)| = ∞ e mesmo que não existam os
limites laterais.
6.1. INTRODUÇÃO AO ESPAÇO DE SINAIS 265

Corolário: Propriedades da TH da TF de um sinal

Ĝ( f ) = |Ĝ( f )|e j∠Ĝ( f ) →



 |Ĝ( f )| = |G( f )|

(6.8)



 
π

 2 f <0

∠Ĝ( f ) = ∠G( f ) +




 
− π2 f >0
 

Ou seja, em resumo, podemos ver que a transformada de Fourier de um dado sinal tem,
em módulo, o mesmo valor que a transformada de Fourier da transformada de Hilbert desse sinal; a
diferença ocorre exclusivamente na fase da transformada de Fourier que aparece somada ou subtraída
de π/2 radianos, consoante a frequência f seja, respectivamente, negativa ou positiva.

O transformador de Hilbert é, pela sua definição (equação (6.1)), um SLIT de resposta im-
pulsiva h(t) = πt1 que, como facilmente se depreende, é não-causal, logo fisicamente irrealizável!

A propriedade expressa pela equação (6.5) significa que um sinal e a sua transformada de
Hilbert são, em todo o seu domínio, sinais ortogonais.

Na tabela 6.1 apresentam-se alguns sinais e as correspondentes transformações de Hilbert.

Tabela 6.1: das transformadas de Hilbert, supondo m(t) com suporte numa banda B.

g(t) ĝ(t)
1
δ (t) πt
1
πt −πδ (t)
cos(2π fc t) sen(2π fc t)
sen(2π fc t) − cos(2π fc t)
m(t) · cos(2π fc t) m(t) · sen(2π fc t)
m(t) · sen(2π fc t) −m(t) · cos(2π fc t)
sen(2π fc t) 1−cos(2π fc t)
t t
− π1 log |t−1/2|
d
(t) = rect(t) |t+1/2|

6.1.2 A PLICAÇÃO DA T RANSFORMADA DE H ILBERT À M ODULAÇÃO EM BANDA


L ATERAL Ú NICA

Vejamos como a transformada de Hilbert nos permite caracterizar a modulação em banda


lateral única (BLU ou, SSB3 ). Assim seja m(t) o sinal modulante, com suporte em | f | < B e seja a
modulação SSB,
D
1 1
mSSB (t) , m(t) · cos(2π fc t) ∓ m̂(t) · sen(2π fc t) (6.9)
2 2
3 SSB do inglês Single Side Band.
266 CAPÍTULO 6. DESEMPENHO DE SISTEMAS DE TELECOMUNICAÇÕES

Apliquemos, à equação anterior, a transformada de Fourier que resulta em (porquê?),


1 1 1 1
MSSB ( f ) = M( f ) ∗ [δ ( f − fc ) + δ ( f + fc )] ∓ M̂( f ) ∗ [ δ ( f − fc ) − δ ( f + fc )]
4 4 j j
o que, pela equação (6.7),
1
MSSB ( f ) = [M( f − fc ) + M( f + fc )+
4
−j −j
∓ M( f − fc ) · sign( f − fc ) − M( f + fc ) · sign( f + fc )] (6.10)
j j

Rearranjando os termos, teremos


1
MSSB ( f ) = {M( f − fc )[1 ± sign( f − fc )] + M( f + fc )[1 ∓ sign( f + fc )]} (6.11)
4
cuja interpretação gráfica se apresenta na figura 6.1, relembrando que
( (
1 f > fc 1 f > − fc
sign( f − fc ) ,  sign( f + fc ) , (6.12)
−1 f < fc −1 f < − fc

M( f )

− fc fc f
M ( f + fc ) M ( f − fc )

− fc fc f

−M ( f + fc )⋅ sign( f + fc ) M ( f − fc )⋅ sign( f − fc )

− fc fc f
SSB-UB

− fc fc f
SSB-LB
-

− fc fc f

Figura 6.1: Obtenção da modulação em banda lateral única superior (SSB-UB) e banda lateral inferior (SSB-
LB). Note-se que as amplitudes dos espectros não estão representadas com as proporções correspondentes.

Comparem-se os dois espectros em baixo da figura 6.1 com os das 5.1 e da figura 5.5 para
melhor se perceber o significado da modulação em banda lateral única. Uma vantagem deste tipo de
modulação é a largura de banda necessária que é precisamente igual à do sinal modulante, B.
6.2. REPRESENTAÇÃO CANÓNICA DE SINAIS 267

6.2 R EPRESENTAÇÃO C ANÓNICA DE S INAIS

Iremos trabalhar genericamente com sinais passa-banda, ou seja, sinais centrados em torno
de uma dada frequência central fc e cuja largura de banda BT é-lhe, por hipótese, muito inferior:
BT  fc .

D
Definição: Pré-Envolvente ou Sinal Analítico a pré-envolvente ou o sinal analítico g+ (t) de um
dado sinal passa-banda g(t) é
g+ (t) , g(t) + jĝ(t) (6.13)

e, por conseguinte,  T
 g(t) = Re{g+ (t)}

(6.14)

ĝ(t) = Im{g+ (t)} , TH[g(t)]

A aplicação da TF à pré-envolvente resulta em


T

G+ ( f ) = TF[g+ (t)] = G( f ) + sign( f ) · G( f ) = G( f ) · [1 + sign( f )] =



 0 f <0 (6.15)
= G(0) f =0

2G( f ) f >0

De igual modo se poderia proceder para


T
TF
g− (t) , g(t) − jĝ(t) −→ G− ( f ) = TF[g− (t)] = G( f ) · [1 − sign( f )] =


 2G( f )
 f <0 (6.16)
= G(0) f =0

0 f >0

Reescreva-se a equação (6.13)


T

g+ (t) = g(t) + jĝ(t) = g̃(t) · e j2π fc t


⇔ (6.17)
g(t) = Re{g̃(t) · e j2π fc t }

onde g̃(t) se designa por envolvente complexa. Nesta representação, é bem patente o facto de g(t) ser
D
um sinal de características passa-banda e g̃(t) um sinal de características passa-baixo, pois a equação
(6.17) pode ser entendida como um processo de modulação de amplitude, onde g̃(t) aparece como
a envolvente (sinal modulante) de uma portadora sinusoidal de frequência fc . Concentremos agora
a nossa atenção sobre a envolvente complexa e decomponhamos-la nas suas componentes real e
imaginária
D
g̃(t) = gI (t) + jgQ (t) (6.18)
268 CAPÍTULO 6. DESEMPENHO DE SISTEMAS DE TELECOMUNICAÇÕES

em que gI (t) e gQ (t) são, respectivamente, as suas componentes em fase e em quadratura.

Se utilizarmos a equação (6.18) na equação (6.18), obteremos a descrição de um sinal (pro-


cesso) passa-banda em termos das suas componentes (processos) passa-baixo em fase e em quadra-
tura:
D
g(t) = gI (t) · cos(2π fc t) − gQ (t) · sen(2π fc t) (6.19)

Na figura 6.2 apresenta-se um diagrama de blocos ilustrando uma implementação desta equação,
onde o sistema efectua a decomposição do processo passa-banda g(t) nas suas componentes em fase
e em quadratura (análise).

Filtro
X Passa-Baixo gI (t)
BT/2

2 cos(2π fct)

g(t)
π

2
−2sen(2π f c t)
Filtro
X Passa-Baixo gQ (t)
BT/2

Figura 6.2: Obtenção das componentes em fase e em quadratura de um processo passa-banda.

De uma forma complementar, um processo passa-banda pode ser obtido a partir das suas
componentes passa-baixo em fase e em quadratura, como se indica na figura 6.3 (síntese).

gI (t) X

cos(2π fct)
+ g(t)
π
-

2

−sen(2π f c t)

gQ (t) X

Figura 6.3: Obtenção de um processo passa-banda a partir das suas componentes em fase e em quadratura.

Regressemos à envolvente complexa mas, ao invés da representação cartesiana da equação


(6.18), optemos por uma representação polar:
D

g̃(t) = a(t) · e jΦ(t) (6.20)


6.2. REPRESENTAÇÃO CANÓNICA DE SINAIS 269

e utilizemos esta representação na equação (6.17)


T

g(t) = Re{g̃(t) · e j2π fc t } = Re{a(t) · e jΦ(t) · e j2π fc t } = Re{a(t) · e j(2π fc t+Φ(t) } =


(6.21)
= a(t) · cos(2π fc t + Φ(t))

onde vemos que um processo passa-banda g(t) resulta de uma modulação mista de amplitude, atra-
vés de uma amplitude a(t), e de ângulo (modulação de fase) através de Φ(t). No quadro seguinte
resumem-se as relações anteriores:
T
q
a(t) = |g̃(t)| = |g+ (t)| = g2I (t) + g2Q (t)

g (t)
Φ(t) = arctg gQI (t)
(6.22)
gI (t) = a(t) · cos(Φ(t))

gQ (t) = a(t) · sen(Φ(t))

Na figura 6.4 apresenta-se uma interpretação geométrica destas equações.

Figura 6.4: Interpretação geométrica dos sinais da equação (6.22)

6.2.1 R EPRESENTAÇÃO C ANÓNICA DE P ORTADORAS M ODULADAS

Vimos no capítulo anterior as diversas formas de modular portadoras sinusoidais: em ampli-


tude (DSB/SC, AM e SSB) e em ângulo (PM e FM). Nesta secção, na tabela 6.2 apresentaremos,
para cada tipo de modulação, as respectivas componentes em fase e quadratura, bem como as am-
plitudes e fases instantâneas, respectivamente.

6.2.2 RUÍDO PASSA -BANDA

Na entrada de um receptor ou de um sistema de recepção temos constante a presença de


ruído. Na verdade, se não fosse este ruído, comunicar à distância seria uma tarefa trivial! Por razões
270

moduladas.

Tipo de Componente Componente Amplitude Fase


Modulação em fase em quadratura Instantânea Instantânea
X(t) xI (t) xQ (t) a(t) φ (t)
(
0 se m(t) > 0
XDSB (t) = AC ·x(t) · cos(2π fc t) AC ·x(t) 0 AC ·|x(t)|
π se m(t) < 0
XAM (t) = AC ·[1 + µ · x(t)] · cos(2π fc t) AC ·[1 + µ · x(t)] 0 AC ·[1 + µ · x(t)] 0
se [1 + µ · x(t)] > 0
XSSB (t) = 12 AC ·x(t) · cos(2π fc t)+ 1 1
p
2 AC ·x(t)] ± 12 AC ·x̂(t) 2 AC · x2 (t) + x̂2 (t) arc tg ± x̂(t)
x(t)
∓ 12 AC ·x̂(t) · sen(2π fc t)
XPM (t) = AC · cos(2π fc t + φ (t))
AC · cos(φ (t)) AC · sen(φ (t)) AC kPM · x(t)
sendo φ (t) = kPM · x(t)
XFM (t) = AC · cos(2π fc t + φ (t)) R
R AC · cos(φ (t)) AC · sen(φ (t)) AC 2π f∆ · x(t)dt
sendo φ (t) = 2π f∆ · x(t)dt

de Gauss). Assim, seja W (t) o processo estocástico WSS que modela o ruído à entrada do receptor
que caracteriza a variável aleatória que modela as suas amplitudes tem uma distribuição normal ou
branco (densidade espectral de potência constante) e gaussiano (a função densidade de probabilidade
práticas, é «confortante» admitir que este ruído é aditivo (ou seja, aparece adicionado ao sinal), é
Tabela 6.2: das componentes em fase, em quadratura, das amplitudes e das fases instantâneas de portadoras
CAPÍTULO 6. DESEMPENHO DE SISTEMAS DE TELECOMUNICAÇÕES
6.2. REPRESENTAÇÃO CANÓNICA DE SINAIS 271

(figura 6.5) e do qual se assume ter média nula e densidade espectral de potência constante,

 mW = 0

(6.23)
 η
GW ( f ) =

2

Figura 6.5: Filtragem passa-banda do ruído na entrada do receptor.

d  | f −fc | 
Sendo então H( f ) = BT a função de resposta em frequência do filtro passa-banda
ideal, teremos para a função densidade espectral de potência à sua saída
T
η
GN ( f ) = |H( f )|2 GW ( f ) = · |H( f )|2 (6.24)
2
Esta equação permite-nos calcular a potência do ruído filtrado,
T

Z − fcZ+BT /2 fc +B
Z T /2
PN = GN ( f )d f = GN ( f )d f + GN ( f )d f = ηBT (6.25)
R − fc −BT /2 fc −BT /2

Este resultado é muito importante e será utilizado amiúde nos parágrafos que se seguem.

6.2.3 C OMPONENTES EM FASE E EM Q UADRATURA DO RUÍDO PASSA -BANDA

Façamos na equação (6.21) g(t) = N(t), ou seja, consideremos um processo de ruído passa-
banda; então
N(t) = AN (t) · cos(2π fc t + ΦN (t)) =
(6.26)
= NI (t) · cos(2π fc t) − NQ (t) · sen(2π fc t)
em que AN (t) é a envolvente do ruído, ΦN (t) é a sua fase e NI e NQ as suas componentes em fase e
em quadratura, respectivamente, como se indica na figura 6.6.

Figura 6.6: Caracterização de um processo passa-banda a partir das suas componentes em fase e em qua-
dratura.
272 CAPÍTULO 6. DESEMPENHO DE SISTEMAS DE TELECOMUNICAÇÕES

O diagrama de blocos da figura 6.2 vai ser utilizado para decompor o ruído N(t) nas suas
componentes em fase e quadratura e seja HPBx ( f ) a função de resposta em frequência do filtros
d f 
passa-baixo que, por hipótese se consideram ideais, isto é, HPBx ( f ) = BT .

Então, sendo GN ( f ) a densidade espectral de potência do processo à entrada do sistema de


análise, teremos, para as densidades espectrais dos processos em fase e em quadratura,
T

GNI ( f ) = GNQ ( f ) = |HPBx ( f )|2 · [GN ( f − fc ) + GN ( f + fc )] (6.27)

A densidade espectral do processo N(t) já foi obtida anteriormente, equação (6.24) e, a partir deste
resultado, é trivial obter as potências das componentes em fase e em quadratura4
T
Z l 
f
Z
PNI = PNQ = GNI ( f )d f = η · d f = ηBT (6.28)
BT
R R

As componentes em fase e quadratura do processo (de ruído) passa-banda são processos conjunta-
mente estacionários, com espectros (densidades espectrais de potência)
T
l f 
GNI ( f ) = GNQ ( f ) = η · (6.29)
BT

e, em cada instante de tempo, as suas amplitudes são conjuntamente gaussianas e independentes.


Por sua vez, em cada instante de tempo, a envolvente e a fase do ruído passa-banda são variáveis
aleatórias estatisticamente independentes e têm distribuições de Rayleigh e uniforme, respectiva-
mente,
T 2
fAN (a) = η aBT e−a /2η BT a≥0
(6.30)
1
fΦN (φ ) = 2π |φ | < π

6.3 DESEMPENHO EM BANDA DE BASE

Comecemos por explicitar os sinais ao longo de um sistema de telecomunicações, pois a


análise de desempenho passa pela determinação das suas larguras de banda, potências, etc. Assim,
os sinais de interesse estão assinalados na figura 6.7.

Figura 6.7: Sistema de Telecomunicações na presença de ruído aditivo.

Por questões de sistematização, recordemos que os processos do sinal a transmitir, da porta-


dora (quando tal fizer sentido) e do ruído vêm caracterizados por
D
4 Se atentarmos cuidadosamente ao suporte de GN ( f − fc ), veremos que se estende por dois intervalos de frequência:
6.3. DESEMPENHO EM BANDA DE BASE 273

 mX = 0

Processo WSS X (t) ∀ f ∈]
/ − B, +B] : GX = 0 (6.31)

PX = RX (0)

ou seja, este processo tem suporte numa banda de frequências de frequências de [−B, B[, é de média
nula e tem potência PX
D

1 d θ
 fΘ (θ ) = 2π ( 2π )

Processo WSS P(t) mP = 0 (6.32)
 1 2
RP (τ) = 2 AC cos(2π fc τ)

ou seja, o processo da portadora tem uma fase modelada por uma variável aleatória uniformemente
distribuída de ] − π, π], é de média nula e tem uma potência de PP = 21 AC2 .

Por outro lado, o ruído é caracterizado por


( D
mW = 0
Processo WSS W (t) (6.33)
RW (τ) = η2 δ (τ)
significando que o processo de ruído tem média nula e uma densidade espectral de potência cons-
tante.

Uma vez que, neste parágrafo, estamos analisando a comunicação em banda de base, a porta-
dora é desnecessária, pelo que o sinal à saída do transmissor é a própria mensagem (ou o resultado
da sua codificação por, eventualmente, um dos códigos de linha mencionados anteriormente), e por
conseguinte, XT X = X(t). Então, o sinal à entrada do receptor vem5

XRX = XT X +W (t) (6.34)

O filtro da figura 6.7 é, na comunicação em banda de base, um filtro passa-baixo (ideal) cuja largura
de banda deverá ser igual ao suporte do processo da mensagem (para não a distorcer) e ao mesmo
tempo, limitar em frequência o ruído do canal. Seja, então,
(
l f 1 | f | < B2T
H( f ) = ( ) = ∴ BT = 2B (6.35)
BT 0 c.c.
a função de resposta em frequência este filtro. O sinal à sua saída conterá quer a mensagem enviada,
quer uma versão filtrada do ruído de canal

GXR ( f ) = |H( f )|2 · [GXT X ( f ) + GW ( f )] = GX ( f ) + GN ( f ) (6.36)

sendo GN ( f ) a densidade espectral de potência do ruído à saída

GN ( f ) = |H( f )|2 · GW ( f ) (6.37)

A sua potência vem


T
[− B2T , B2T [∪[2 fc − B2T , 2 fc + B2T ]. Daqui resulta que o efeito do filtro passa baixo de função de resposta em frequência
HPBx ( f ) é remover a componente de alta frequência; mutatis mutandis para GN ( f + fc ). Finalmente, o integral explicitado
na equação (6.28) tem como limites [− B2T , B2T [ e, por conseguinte, se obtém o resultado apresentado.
5 Esta hipótese de trabalho corresponde a admitir, por questões de simplicidade, um canal de transmissão sem perdas.

Na realidade, haveria que afectar a potência do sinal recebido pelas perdas do canal. Assim, se, por exemplo, as perdas
do canal fossem de 10 dB, a potência do sinal recebido (na ausência de ruído) seria um décimo da potência do sinal
transmitido, ou em geral, PXRX = αPXT X sendo α = 10− log10 [perdas em dB/10] .
274 CAPÍTULO 6. DESEMPENHO DE SISTEMAS DE TELECOMUNICAÇÕES

Z Z B Z B
η
PN = GN ( f )d f = GW ( f )d f = d f = ηB (6.38)
−B −B 2
R

E, sabendo que, na ausência de ruído, o sinal à saída do filtro é o próprio X(t), teremos que a relação
sinal/ruído à saída do filtro é
T PX PX PX
SNRR = RX = = (6.39)
PN PN ηB
sendo PXRX = PX |W (t)=0 .

Como, numa comunicação em banda de base não é necessária a presença de um desmodula-


dor, teremos que XD (t) = XR (t), pelo que
D
PX
SNRD = =γ (6.40)
ηB
sendo γ um factor que servirá para a comparação do desempenho de sistemas de comunicação.

6.4 DESEMPENHO EM PCM

No seguimento do estudo do desempenho de sistemas de comunicação em banda de base,


surge o caso da comunicação PCM. Recordando os sistemas de discretização de fontes analógicas,
vimos que serão enviados para o canal de comunicação impulsos de sinalização que correspondem
à codificação de dados binários.

Figura 6.8: Sistema de Comunicações PCM na presença de ruído aditivo.

Como vimos na equação (3.21), o sinal amostrado (consideremo-lo por ora uma função amos-
tra do processo X (t)) que se obtém à saída do bloco Discretização da figura 6.8 é dado por
+∞
xa (t) = ∑ x(k Ta )δ (t − k Ta ) (6.41)
k=−∞

supondo um ritmo de amostragem uniforme Ta e adequado ao suporte B do processo X (t), ou seja,


fa = 1/Ta ≥ 2B. O sinal quantificado xq (t) obtido à saída do bloco Quantificação é o resultado
do mapeamento das amplitudes (contradomínio) de xa (t) num conjunto numerável de valores que
suporemos, sem perda de generalidade, equi-espaçados. Este sinal é, em cada instante temporal k Ta
convertido no bloco Codificação numa sequência de n bits dando origem a um vector de valores
6.4. DESEMPENHO EM PCM 275



binários X (k). Estes bits (na verdade as amplitudes correspondentes aos níveis lógicos «0» e «1»)


vão ser afectadas pelo ruído presente no canal, de sorte a que o sinal recebido Y (k) irá ser desco-
dificado mas apresentando, eventualmente, erros quando comparado a xq (t), pelo que, no final do
sistema teremos que o sinal reconstruído x̄(t) irá ser distinto de x(t). Assim, teremos

− →

Y (t) = X (t) ⊕ →

n (t) (6.42)

onde →
−n (t) representa um vector n-dimensional cujos componentes serão «0» nos instantes onde não

− →

ocorram erros nos bits do vector X (t) ou «1» conforme os valores dos bits de X (t) sejam alterados
e ⊕ representa a operação binária «ou exclusivo».

Ex
Exemplo Ilustremos a equação (6.42): suponhamos que o código de conversão era o código he-
xadecimal de 4 bit, que nos permitiria codificar os 16 níveis de quantificação e que, para um dado
instante de tempo t0 ,se enviaria pelo canal de transmissão a amostra quantificada


xq (t0 ) = 3 → X (t0 ) = [x1 (t0 ), x2 (t0 ), x3 (t0 ), x4 (t0 )] = [0, 0, 1, 1]

e que, à entrada do receptor teríamos




Y (t0 ) = [y1 (t0 ), y2 (t0 ), y3 (t0 ), y4 (t0 )] = [0, 1, 0, 1]


Então, os erros na transmissão dos 2o e 3o bits de X (t) seriam resultado de ter havido ruído sufi-
cientemente forte para produzir tal troca nos valores lógicos; neste caso, o «ruído» seria, de acordo
com a equação (6.42), dado por


n (t)|t0 = [n1 (t0 ), n2 (t0 ), n3 (t0 ), n4 (t0 )] = [0, 1, 1, 0]
V

O sinal reconstruído x̄(t) irá diferir do sinal x(t) codificado devido aos erros de quantificação
e aos erros de transmissão
x̄(t) = x(t) + eq (t) + eT X (t) (6.43)

sendo, como já oportunamente vimos, o erro de quantificação eq (t) é dado por eq (t) = x(t) − xq (t) e
depende exclusivamente do número de níveis de quantificação (supondo uma quantificação uniforme
e sem memória). Por sua vez, os erros introduzidos pelo canal de transmissão vêm dados por
N−1
eT X (t)|t=k Ta = ∆ · ∑ dni (k Ta )e · 2i (6.44)
i=0

onde ∆ representa o comprimento do intervalo de quantificação e N é o número de bits do quanti-


ficador; esta equação resulta simplesmente da conversão de uma palavra binária no seu equivalente
decimal, onde dni (k Ta )e é a componente índice i do vector →
−n (t). O desempenho de um sistema
de comunicação PCM vem, na sua globalidade, dependente da quantificação e do ruído do canal,
processos estes que são independentes. Deste facto resulta então que a relação sinal/ruído é
T
PX
SNRPCM = (6.45)
Peq + PeT X
276 CAPÍTULO 6. DESEMPENHO DE SISTEMAS DE TELECOMUNICAÇÕES

2
Já determinámos anteriormente Peq = ∆12 , pelo que só nos focaremos em PeT X . Supondo que os
erros no canal resultam de um processo estocástico caracterizado por uma variável aleatória com
distribuição uniforme, teremos que

PeT X = ReT X (0) = E{eT X (t) · eT X (t)}|t=k Ta =

N−1 N−1 N−1


= ∆2 E{[ ∑ dni (k Ta )e2i ]2 } = ∆2 ∑ ( ∑ E{ni (k Ta )nl (k Ta )}2l )2i =
i=0 i=0 l=0

N−1 N−1
= ∆2 ∑ ( ∑ E{ni (k Ta )nl (k Ta )}2l+i ) (6.46)
i=0 l=0

onde só nos resta determinar o valor esperado assinalado. Para tal, teremos que supor serem os erros
modelados por variáveis aleatórias independentes e sejam

p = Pr(receber «1» | enviado «0» )


(6.47)
1 − p = Pr(receber «0» | enviado «1» )

as probabilidades de ocorrerem erros. Então, recordando a equação (2.9) teremos

E{ni (k
Ta )nl (k Ta )} =


 12 · p + 02 · (1 − p) i=l

 (6.48)
=
 1 · 1 · p · p + 0 · 1 · (1 − p) · p+

i 6= l


 +1 · 0 · p · (1 − p) + 0 · 0 · (1 − p) · (1 − p)

Nesta equação, supondo uma probabilidade de erro de transmissão necessariamente pequena, p :


p2 ≈ 0 , permite-nos ignorar os termos em p2 , o que leva a que a equação (6.46) resulte em

PeT X = E{eT X (t) · eT X (t)}|t=k Ta =

N−1 N−1
= ∆2 E{[ ∑ dni (k Ta )e2i ]2 } = ∆2 p ∑ (4i ) =
i=0 i=0

4N − 1
= ∆2 p (6.49)
3

Finalmente, teremos para a relação sinal/ruído de um sistema PCM de N bits num canal com
probabilidade de erro p
T
PX PX
SNRPCM = = ∆2 N =
Peq + PeT X + ∆2 p 4 −1
12 3

12 PX
= · (6.50)
∆2 1 + 4p(4N − 1)
6.4. DESEMPENHO EM PCM 277

Ex
Exemplo Determinemos a relação sinal ruído (conforme a equação (6.50)) no caso de termos um
sinal sinusoidal de amplitude X quantificado uniformemente com 10 bit e uma taxa de erros de
transmissão de 0,1%.

Então, teremos

PX = 12 X 2
∆ = 2X |
2N N=10
p = 0, 001

e que resulta em SNRPCM = 375 = 25, 7 dB.


V

Na figura 6.9 apresenta-se a variação da relação sinal/ruído (em dB) com a probabilidade de
erro p, conforme a equação (6.50), para os valores de N assinalados. É interessante verificar que,
para N = 4 (quantificação de 16 níveis), a SNRPCM é essencialmente condicionada pelo erro de
quantificação (troço horizontal).

N=12

N=10

N=8

N=6

N=4

Figura 6.9: SNRPCM (dB) em função da probabilidade de erro para vários valores de N (número de bits de
quantificação).
278 CAPÍTULO 6. DESEMPENHO DE SISTEMAS DE TELECOMUNICAÇÕES

6.5 DESEMPENHO EM MODULAÇÃO DE AMPLITUDE

Recordemos a definição de um processo de modulação de amplitude, em que X (t) é carac-


terizado como anteriormente,

XAM (t) = [XDC + X (t)] · P(t) = Ac [XDC + X (t)] · cos(2π fc t + Θ) (6.51)

e que o processo da portadora é P(t) = AC · cos(2π fc t + Θ). Teremos para a potência do processo
AM,
1
PXAM = AC2 [XDC2
+ PX ] (6.52)
2
e que ocupa uma banda BT = 2B.

6.5.1 R ECEPTOR C OERENTE

Consideremos, sem perda de generalidade, uma função amostra do processo como entrada
do detector coerente (apresentado na figura 5.11 e que se detalha na figura 6.10), o qual é em tudo
idêntico ao detector da componente em fase da figura 6.2 (reparemos que ambos utilizam o mesmo
sinal sinusoidal como portadora local, ou seja, cos(2π fc t)). Seja ainda n(t) uma função amostra do
processo estocástico N(t) resultante da filtragem passa-banda do ruído de canal W (t). Assim sendo,
teremos à saída do analisador da figura 6.2 os seguintes sinais:
(
xDI (t) = AC XDC + AC x(t) + nI (t)
(6.53)
xDQ (t) = 0 + nQ (t)
onde nI (t) e nQ (t) são, respectivamente, as componentes em fase e quadratura do ruído passa-banda
N(t).

Figura 6.10: Desmodulação de amplitude por detecção coerente.

Como ao receptor coerente não interessa o termo em quadratura e ainda como a componente
contínua proveniente da adição de XDC não transporta qualquer informação, sendo removida pela in-
terposição de uma capacidade em série com a saída6 , resta-nos, da equação (6.51), a função amostra
xDI (t) = AC x(t) + nI (t) que provém do processo XD (t) = AC X (t) + NI (t). Em virtude da inde-
pendência estatística das variáveis aleatórias X(t) e N(t), o processo resultante da detecção coerente
apresenta uma potência
PD = AC2 PX + PN (6.54)
6 Ou seja, XD (t) = XDC (t)|XDC =0 .
6.5. DESEMPENHO EM MODULAÇÃO DE AMPLITUDE 279

Ora, na ausência de ruído e recordando que a potência do sinal recebido (após o filtro passa-banda)
é
1
PXR = AC2 [XDC2
+ PX ] (6.55)
2
donde se retira que
2 2
PX = 2 · PXR − XDC (6.56)
AC
Dado que PD = PXR , pois é igual à potência PXAM do sinal transmitido, e substituindo Px agora obtido
(equação (6.56)) na equação (6.54),

PD = 2PXR − AC2 XDC


2
(6.57)

Determinando a relação sinal/ruído à saída do detector coerente, teremos


T
PD 2PXR − AC2 XDC
2
SNRD = = (6.58)
PN PN
onde nos resta calcular a potência do ruído. Neste caso, lembremos que a função de resposta em
2
frequência do filtro passa banda é H( f ) = ( | f −f c|
d
BT ), pelo que a sua densidade espectral de potência
virá dada pela equação (6.24), da qual resulta finalmente que

PN = η BT = 2ηB (6.59)

uma vez que a largura de banda na modulação de amplitude é dupla do suporte da mensagem. Assim,
usando este resultado na equação (6.58), teremos para a relação sinal/ruído do detector
T
PD 2PXR − AC2 XDC
2 2PXR − AC2 XDC
2
SNRD = = = =
PN PN 2ηB
PXR AC2 XDC
2
PPort PPort
= − =γ− = γ −2 (6.60)
ηB 2ηB ηB PN
onde o termo PPort representa a potência gasta no envio da portadora. O resultado expresso na
equação (6.60) mostra que, em AM, a relação sinal/ruído à saída do detector é sempre inferior ao da
comunicação em banda de base; sendo a igualdade atingida quando não há envio da portadora, ou
seja em DSB/SC. Contudo, esta equação pode ser reescrita da seguinte forma
T
PPort 1 PPort ηB
SNRD = γ · (1 − 2 ) = γ · (1 − 2 )
PN γ PN PXR
o que, recordando que PXR = 12 AC2 [XDC
2 + P ], resulta em
X
T
PX
SNRD = γ · 2 (6.61)
XDC + PX
Se, por hipótese, considerarmos um sinal modulante sinusoidal, X(t) = X · cos(2π f1t) teremos que
a sua potência virá obviamente dada por PX = X 2 /2 e, para que não ocorra sobre-modulação, será
forçosamente XDC ≥ X e, por conseguinte,
T
1
SNRD = γ · ⇐⇒ SNRD |dB = γ|dB − 4, 8 dB
3
Na prática, e como se pretende a existência de alguma folga no valor de XDC para que não haja
sobre-modulação, é de esperar que, em AM, se tenha um desempenho cerca de 6 dB abaixo do que
seria esperado em DSB.
280 CAPÍTULO 6. DESEMPENHO DE SISTEMAS DE TELECOMUNICAÇÕES

6.5.2 D ETECTOR DE E NVOLVENTE

O detector de envolvente vai obter a envolvente do sinal, o que, no formalismo apresentado,


corresponde ao módulo da envolvente complexa, ou seja: |g̃(t)| = a(t). Sem perda de generalidade,
admita-se novamente que a fase da portadora é nula e que o canal introduz ruído aditivo, caracteri-
zado como anteriormente. Desta forma, o sinal à entrada do detector é, naturalmente, dado por

XR (t) = AC [XDC +X (t)] · cos(2π fc t) + N(t) (6.62)

Figura 6.11: Desmodulação de amplitude por detecção de envolvente.

Podemos verificar rapidamente, a partir das equações (6.21) e (6.26) e da figura 6.11, que o
detector de envolvente vai ter à sua saída o sinal
T
q
|XD (t)| = |aR (t)| = NQ2 (t) + [AC (XDC +X (t)) + NI (t)]2 (6.63)

Desenvolvamos esta equação


q
|XD (t)| = NQ2 (t) + [AC (XDC +X (t)) + NI (t)]2 =

q
= NQ2 (t) + [AC (XDC +X (t))]2 + NI2 (t) + 2NI (t) AC [XDC +X (t) = (6.64)

q
= a2N (t) + [AC (XDC +X (t))]2 + 2NI (t) AC [XDC +X (t)]

pois NQ2 (t) + NI2 (t) = a2N (t). Consideremos de seguida duas situações opostas: ruído forte e ruído
fraco. Estes casos serão detalhados em seguida, supondo que, com alta probabilidade, XDC +X (t) ≥
0, ou seja, não haja sobremodulação da portadora.

Ruído Forte

A situação de ruído forte caracteriza-se por ter uma amplitude de ruído elevada e que expli-
citaremos mais precisamente no seguimento. Reescreva-se a equação (6.64)
q
|XD (t)| = a2N (t) + 2NI (t) AC [XDC +X (t)] + [AC (XDC +X (t))]2 =
6.5. DESEMPENHO EM MODULAÇÃO DE AMPLITUDE 281
s
2NI (t) [AC (XDC +X (t))]2
= aN (t) 1 + AC [XDC +X (t)] + =
a2N (t) a2N (t)
s
2NI (t) AC [XDC +X (t)]
= aN (t) 1 + ε + ε2 ∴ ε= (6.65)
aN (t) aN (t)
D
Então, admitindo ruído forte, ou seja, sendo aN (t)  AC [XDC +X (t)] teremos obviamente
que ε = AC [XDC +X (t)]
aN (t) → 0; obtenhamos portanto |XD (t)| pela aproximação de 1a ordem7 da equação
(6.65)
T
NI (t) AC [XDC +X(t)]
|XD (t)| ≈ aN (t)[1 + ]=
aN (t) aN (t)
NI (t)
= aN (t) + AC [XDC +X(t)] =
aN (t)
= aN (t) + AC [XDC +X(t)] · cos(ΦN (t)) (6.66)

onde ΦN (t) = arc cos( aNNI (t)


(t) ) e que interpretaremos como sendo um sinal essencialmente ruidoso,
pois a (fraca) componente da mensagem surge «modulada» em amplitude pelo cosseno da fase do
ruído.

Ruído Fraco

A situação de ruído fraco caracteriza-se por ter uma amplitude de ruído reduzida face ao sinal
recebido na sua ausência e que explicitaremos mais precisamente no seguimento. Reescreva-se então
a equação (6.64)
q
|XD (t)| = a2N (t) + 2NI (t) AC [XDC +X (t)] + [AC (XDC +X (t))]2 =
s
2NI (t) a2N (t)
= AC (XDC +X (t)) 1 + + =
[AC (XDC +X (t))] [AC (XDC +X (t))]2
s
2NI (t) aN (t)
= AC (XDC +X (t)) 1 + ε + ε2 ∴ ε= (6.67)
aN (t) AC [XDC +X (t)]
D
aN (t)
Admitindo ruído fraco, AC (XDC +X (t))  aN (t) ⇒ ε = AC [XDC +X (t)] → 0, obtenhamos no-
a
vamente |XD (t)| pela sua aproximação de 1 ordem da equação (6.67)
T
NI (t) aN (t)
|XD (t)| ≈ AC (XDC +X(t)) · (1 + =
aN (t) AC [XDC +X (t)]

= AC (XDC +X(t)) + NI (t) (6.68)

que corresponde precisamente ao sinal que se obtém na saída do detector coerente, conforme a
equação (6.53).
√ √ 2
x3
7 Recordemos que a aproximação polinomial a 1 + x é 1 + x ≈ 1 + 2x − x8 + 16 + · · · e, truncando-a pelos termos

de ordem superior, teremos 1 + x ≈ 1 + 2x .
282 CAPÍTULO 6. DESEMPENHO DE SISTEMAS DE TELECOMUNICAÇÕES

Resumamos então os resultados obtidos: com ruído fraco, o detector de envolvente tem um
desempenho semelhante ao do detector coerente mas apresentando grande vantagem em termos de
simplicidade electrónica; contudo, numa situação de ruído forte, o detector de envolvente, ao invés
do detector coerente, é praticamente inútil.

6.5.3 I NVERSÃO DA FASE DA P ORTADORA EM S OBREMODULAÇÃO

Embora não se trate efectivamente de uma questão ligada à presença de ruído no canal, este
tópico é mais facilmente compreensível se atentarmos na figura 6.12 mas considerando ruído nulo
(figura 6.12.a). Esta figura pode ser interpretada como se segue: ao vector AC XDC , que tem módulo

Figura 6.12: Inversão de fase em modulação de amplitude.

constante, adiciona-se o vector AC X (t) da mensagem que, ao longo do tempo é fortemente variável
(figura 6.12.b).

Se, eventualmente, AC X (t) for negativo e, em módulo superior à componente AC XDC , a


amplitude total do sinal de AM torna-se, nesse instante, negativa (figura 6.12.c), o que se traduz por
uma rotação de 180o da portadora, como se observa na figura 6.13, onde se assinalam esses instantes
de tempo.
6.6. DESEMPENHO EM MODULAÇÃO DE BANDA LATERAL ÚNICA 283

Figura 6.13: Inversão de fase da portadora em modulação de amplitude com sobremodulação.

6.6 DESEMPENHO EM MODULAÇÃO DE BANDA LATERAL ÚNICA

Reescrevamos a equação (6.9) para o caso em que m(t) é agora um processo estocástico
X (t) estacionário em sentido lato, WSS, e com suporte em ] − B, B] e a portadora caracterizada
por ser AC cos(2π fc t + Θ) sendo Θ uma variável aleatória uniformemente distribuída de ] − π, π]

1 1
XSSB (t) = AC X (t) · cos(2π fc t) ∓ AC Xˆ (t) · sen(2π fc t) (6.69)
2 2
onde a operação − no operador ∓ corresponde à modulação SSB/UB (ou banda lateral superior)
enquanto que a operação + corresponderá à modulação em banda lateral única inferior (SSB/LB) e
Xˆ representa a Transformada de Hilbert de Xˆ .

Determinemos a autocorrelação deste processo,

RXSSB (τ) = E{XSSB (t)XSSB (t − τ)} =

1 2
= AC E{X(t)X(t − τ) cos(2π fc t + Θ) cos(2π fc (t − τ) + Θ)+
4
∓X(t)X̂(t − τ) cos(2π fc t + Θ) sen(2π fc (t − τ) + Θ)+

∓X̂(t)X(t − τ) cos(2π fc (t − τ) + Θ) sen(2π fc t + Θ)+

+ X̂(t)X̂(t − τ) sen(2π fc t + Θ) sen(2π fc (t − τ) + Θ)} (6.70)


284 CAPÍTULO 6. DESEMPENHO DE SISTEMAS DE TELECOMUNICAÇÕES

Dada a incorrelação do processo X com o processo da portadora, e dada a ortogonalidade de um


processo com a sua transformada de Hilbert8 , a equação anterior reduz-se a
T

1 1 2
RXSSB (τ) = · AC [RX (τ) cos(2π fc τ) + RX̂ (τ) cos(2π fc τ)] (6.71)
4 2

É fácil de mostrar que a autocorrelação de um processo real é igual à autocorrelação da transformada


de Hilbert desse processo9 ou seja, RX̂ (τ) = RX (τ) e, portanto,
T

1 1 2 1
PXSSB = RXSSB (0) = · AC [RX (0) + RX (0)] = · AC 2 ·PX (6.72)
4 2 4

À saída do filtro passa-banda de recepção, a potência do ruído de recepção será PN = ηBT


mas com a particularidade de ser, em SSB, BT = B pois esta modulação ocupa apenas metade da
largura de banda da modulação DSB/SC ou AM. Assim, na saída do detector coerente, a potência
da componente em fase do ruído é agora PNI = ηB.

Já a potência do sinal desmodulado na ausência de ruído é dada por 21 AC 2 ·PX , pelo que a
2
SNRD = 12 · ACηB·PX = γ; ou seja, estamos nas mesmas condições da comunicação em banda de base
ou em DSB/SC10 .

8A demonstração desta afirmação é a seguinte: Pretende-se portanto mostrar que ≺ x(t) · x̂(t) = 0; sendo ≺ x(t) ·
R
x̂(t) , x(t)x̂(t)dt.
R
Seja o seguinte teorema, onde ∗ representa o conjugado,

Z +∞ Z +∞
g(t) · g∗ (t)dt = G( f ) · G∗ ( f )d f
−∞ −∞

cuja demonstração é elementar

Z +∞ Z +∞ Z +∞  ∗ Z +∞ Z +∞
g(t) · g∗ (t)dt = g(t) · G( f )e j2π f t d f dt = G∗ ( f )g(t)e− j2π f t dtd f =
−∞ −∞ −∞ −∞ −∞

Z +∞ Z +∞ Z +∞
= G∗ ( f ) g(t)e− j2π f t dtd f = G( f )G∗ ( f )d f
−∞ −∞ −∞

x(t)x̂(t)dt = X( f )X̂ ∗ ( f )d f e, recordando que Ĝ( f ) = − j · sign( f )G( f ), logo Ĝ∗ ( f ) =


R R
Então, teremos agora que
R R
j · sign( f )G∗ ( f ) uma vez que sign( f ) ∈ R.
R +∞ R +∞ R +∞
Assim, −∞ X( f )X̂ ∗ ( f )d f = j −∞ X( f )X ∗ ( f ) · sign( f )d f = −∞ |X( f )|2 · sign( f )d f = 0 uma vez que o módulo de
uma transformnada é uma função par (|H( f )| = |H(− f )|) e que a função sign( f ) é uma função ímpar. Por conseguinte,
R
teremos que x(t)x̂(t)dt = 0, o que completa a demonstração da ortogonalidade de um sinal e a sua transformada de
R
Hilbert.
9 Recordemos que R (τ) = TF−1 [G ( f )] e, por outro lado, dado que X̂(t) = X(t) ∗ h(t) então G ( f ) = G ( f ) ·
X X X̂ X
|H( f )|2 . Ora, recordando o corolário da equação (6.7), facilmente se verifica que |H( f )|2 = 1 e, por conseguinte, GX̂ ( f ) =
GX ( f ) ⇔ RX̂ (τ) = RX (τ).
10 Como sabemos, a modulação DSB corresponde a, na modulação de amplitude, termos X
DC = 0 o que leva, na equação
(6.61) a ter-se um desempenho igual ao da comunicação em banda de base.
6.7. DESEMPENHO EM MODULAÇÃO DE FREQUÊNCIA 285

6.7 DESEMPENHO EM MODULAÇÃO DE FREQUÊNCIA

6.7.1 M ODULAÇÃO DE FREQUÊNCIA EM BANDA E STREITA

Foi mostrado anteriormente que, no caso de se ter f∆  B, sendo B o suporte do processo


que modela a mensagem, a modulação de frequência comporta-se como sendo uma modulação de
amplitude. Em consequência, não iremos tratar do desempenho desta forma de modulação, pois
acabou de ser apresentada na secção anterior.

6.7.2 M ODULAÇÃO DE FREQUÊNCIA EM BANDA L ARGA

Relembremos que uma portadora modulada em frequência é caracterizada por


Z t
XFM (t) = AC cos(2π fc t + 2π f∆ X (τ)dτ) (6.73)
−∞

onde f∆ é, como já referido, a frequência de desvio. Assim sendo, o sinal recebido XR (t) vem dado
por
1 d
XR (t) = AC cos(2π fc t + Ψ(t)) + N(t) ∴ Ψ(t) : Ψ(t) = f∆ X(t) (6.74)
2π dt
Recordemos ainda que, em FM, a largura de banda é aproximadamente BT = 2(f∆ +B), sendo B o
suporte do processo X (t) que modela a mensagem e que a potência do sinal transmitido é PXFM =
1 2
2 AC . Então, teremos para as componentes em fase e em quadratura à saída do filtro passa-banda
da figura 6.7,
XRI (t) = AC cos(Ψ(t)) + NI (t) cos(ΦN (t))
(6.75)
XRQ (t) = AC sen(Ψ(t)) + NQ (t) sen(ΦN (t))

Na figura 6.14 apresentação uma interpretação vectorial destas equações para melhor com-
preensão.

Figura 6.14: Componentes em fase e em quadratura do sinal de Frequência Modulada.

Destas componentes em fase e em quadratura resultam uma envolvente a(t) = |XR (t)|
286 CAPÍTULO 6. DESEMPENHO DE SISTEMAS DE TELECOMUNICAÇÕES

q
aR (t) = [AC cos(Ψ(t)) + aN (t) cos(ΦN (t))]2 + [AC sen(Ψ(t)) + aN (t) sen(ΦN (t))]2 (6.76)

e uma fase ΦR (t) dada por

 
AC sen(Ψ(t)) + aN (t) sen(ΦN (t))
ΦR (t) = arc tg (6.77)
AC cos(Ψ(t)) + aN (t) cos(ΦN (t))

A partir da equação (6.76) podemos ver que, no receptor, o sinal de FM tem uma amplitude
variável, o que impede que se use apenas um discriminador de frequências como desmodulador; ou
seja, há que precedê-lo de um dispositivo limitador de amplitude que produz à saída um sinal de am-
plitude constante, figura 6.15, onde XL (t) = AC cos(Ψ(t)). Desta forma, pretende-se ter na saída do
1
dispositivo limitador de frequência unicamente XD (t) = 2π · dtd ΦR (t). Esta equação, conjugada com
a equação (6.75) de imediato nos mostra haver uma dependência não-linear do sinal desmodulado
com o sinal enviado e com o ruído no receptor.

Figura 6.15: Detecção de Frequência Modulada.

Para melhor analisar a relação sinal/ruído em FM, vamos considerar duas situações (sobrepo-
sição dos processos do sinal e do ruído):

Ausência de Ruído

Neste caso, temos (equação (6.77))


)
aN (t) = 0
⇒ XD (t) = f∆ ·X(t) (6.78)
ΦR (t) = Ψ(t)

e, desta equação, retira-se de imediato que a potência do sinal recebido é


T

PD = f∆ 2 ·PX (6.79)

Ausência de Sinal Modulante

A situação é agora a oposta da anterior, pelo que

X(t) = 0 ⇒ Ψ(t) = 0
   
AC sen(0) + aN (t) sen(ΦN (t)) aN (t) sen(ΦN (t))
ΦR (t) = arc tg = arc tg =
AC cos(0) + aN (t) cos(ΦN (t)) AC +aN (t) cos(ΦN (t))
6.7. DESEMPENHO EM MODULAÇÃO DE FREQUÊNCIA 287
 
NQ (t)
= arc tg (6.80)
AC +NI (t)
O desempenho dos sistemas de comunicação baseados em portadoras moduladas em frequência
pode agora ser detalhado considerando duas situações referentes à potência do ruído.

Ruído forte

Este caso é caracterizado por se ter a amplitude AC da portadora inferior à componente em


fase do ruído, pelo que a equação (6.80) reescrever-se-á como
 
NQ (t)
ΦR (t) = arc tg = ΦN (t) (6.81)
NI (t)

Verifica-se, portanto, não haver, à saída do desmodulador, qualquer componente do sinal X(t).
Além disso, como o discriminador realiza uma derivada temporal do sinal à sua entrada, o sinal des-
modulado apresenta-se de tal forma «ruidoso» o que obriga ao uso de um circuito de cancelamento
do sinal (circuito de mute) nos receptores de FM.

Ruído Fraco

Já a situação de recepção com ruído fraco, ou seja, NI (t) ≈ NQ (t)  AC , é bastante favorável
ao uso de modulação de frequência como iremos demonstrar. Supondo novamente ausência de sinal
modulante, teremos à saída do desmodulador,
 
NQ (t) N (t)
ΦR (t) = arc tg AC +N I (t)
≈ AQC −→
(6.82)
1 d 1 1 d
XD (t) = 2π · dt ΦR (t) ≈ 2π · AC b dt NQ (t)cB

onde b(· · · )cB representa a filtragem passa-baixo do sinal numa largura de banda B (o suporte do
processo X(t)).

Obtenhamos RXD (t,t − τ), a autocorrelação do processo XD (t)

1 d d
RXD (t,t − τ) = E{XD (t)XD (t − τ)} = 2 2
E{ NQ (t) · NQ (t − τ)} =
4π AC dt dt

1 d d 1 d2
= E{ NQ (t) · NQ (t − τ)} = E{NQ (t) · NQ (t − τ)} =
4π 2 AC2 dt dt 4π 2 AC2 dt 2
1 d2
= RN (t,t − τ) (6.83)
4π 2 AC2 dt 2
E que, finalmente, pelo facto do processo de ruído ser WSS, resulta em
T

RXD (t,t − τ) = RN (τ) ⇒

RXD (t,t − τ) = RXD (τ) =


288 CAPÍTULO 6. DESEMPENHO DE SISTEMAS DE TELECOMUNICAÇÕES

1 d2
= RN (τ) (6.84)
4π 2 AC2 dt 2

A transformada de Fourier da autocorrelação é, como é sabido, a função de densidade es-


pectral de potência que, integrada no seu domínio ou suporte, dá a potência do processo. Assim,
e aplicando à equação (6.84) a propriedade da TF da derivada temporal, TF[ dtd g(t)] = j2π f · G( f )
onde G( f ) = TF[g(t)],
T
1 d2
GXD ( f ) = TF[RXD (τ)] = TF[ RN (τ)] =
4π 2 AC2 dt 2
1 1
= 2 2
· | j2π f |2 GN ( f ) = 2 · f 2 GN ( f ) =
4π AC AC
 
1 ηl f
= 2 · f2 (6.85)
AC 2 2B
onde se aplicou o resultado expresso na equação (6.35). A partir da equação (6.85), obtenhamos
então a potência do processo à saída do desmodulador11

1 l f  ηB3
Z

PNQ = · f d f = (6.86)
AC2 2 2B 3AC2
R

Finalmente, a relação sinal/ruído à saída do desmodulador é


T
 2
PXD f∆2 PX f AC2
SNRD = = ηB3 = 3 ∆ · γ ∴ γ= PX (6.87)
PNQ 2
B ηB
3AC

Este resultado mostra que, ao contrário do que seria de esperar, pois embora o aumento da largura
de banda de transmissão em FM se traduza numa potência de ruído proporcionalmente maior à saída
do filtro passa-banda, é possível obter um ganho elevado face à relação sinal/ruído na comunicação
em banda de base! Contudo, esta melhoria só é possível se a relação sinal/ruído na entrada do
desmodulador de FM for superior a um dado limiar; caso contrário, o desempenho da modulação de
frequência torna-se inferior ao da modulação de amplitude.

Pode-se mostrar que, em dB, este limiar vem dado por


T
f∆
LD = 13 + 10 log10 (1 + ) (6.88)
B
No caso do serviço de rádio-difusão em FM, em que f∆ = 75 kHz e B = 15 kHz, teremos que
LD ≈ 20, 8 dB e que se assinala nas figuras 6.16 (linha a cor magenta) e 6.19.

Se atentarmos na equação (6.85) vemos que a densidade espectral do ruído à saída do desmo-
dulador12 tem um elevado conteúdo nas altas frequências, como se mostra na figura 6.17 e, em dB,
na figura figura 6.18 em cima.
11 Recordemos que, neste caso, estamos a determinar o «sinal» à saída do desmodulador na ausência de sinal modulante.

Assim, na entrada do receptor temos a portadora (cuja frequência é fc ) e ruído branco aditivo e, como consequência, na
saída do desmodulador iremos ter o ruído resultante da desmodulação: XD (t) → NQ (t).
12 Convém recordar que esta equação foi deduzida na ausência de sinal modulante; por isso, a densidade espectral do

sinal desmodulado é a densidade espectral do ruído à saída do desmodulador.


6.7. DESEMPENHO EM MODULAÇÃO DE FREQUÊNCIA 289

Efeito da fD no desempenho
80

70
FM
60 B
5 FM
f d= SB
50 B /S
B DS
fd =2
40
dB

30

20

10
Limiar de FM
0

−10
0 10 20 30 40 50 60
dB

Figura 6.16: Desempenho da modulação de frequência face à modulação de banda lateral dupla (DSB) para
f∆ f∆
B = 2 (cor azul) e B = 5 (cor magenta).

−3
x 10
1.2

0.8

0.6

0.4

0.2

0
−2.5 −2 −1.5 −1 −0.5 0 0.5 1 1.5 2 2.5
4
x 10

Figura 6.17: Densidade Espectral de Potência do Ruído na saída do Discriminador de FM.


290 CAPÍTULO 6. DESEMPENHO DE SISTEMAS DE TELECOMUNICAÇÕES

Vemos assim que o ruído tem uma predominância de altas-frequências. Em consequência,


uma filtragem de 1a ordem passa-baixo13 no receptor, cuja função de resposta em frequência fosse
1
Hpós-enf ( f ) = (6.89)
1 + j ff1

teria a vantagem de, perceptualmente, se obter um sinal menos ruidoso. Na figura 6.18 apresentam-
se, de cima para baixo, a densidade espectral de potência do ruído à saída do desmodulador, a
resposta em frequência do filtro de pós-ênfase e da densidade espectral de potência do ruído à saída
deste filtro. Contudo, teremos, forçosamente, que compensar no modulador este efeito de filtragem

−20

−40
GN(f) [dB]

−60

−80

−100
1 2 3 4 5
10 10 10 10 10
f [Hz]
0

−10
H(f) [dB]

−20

−30

−40
1 2 3 4 5
10 10 10 10 10
f [Hz]
−60
GY(f) [dB]

−70

−80

−90
1 2 3 4 5
10 10 10 10 10
f [Hz]

Figura 6.18: Densidades espectrais de potência à saída do desmodulador (em cima) e à saída do filtro de
pós-ênfase (em baixo), bem como a resposta em frequência deste filtro (ao centro).

passa-baixo, mediante uma filtragem inversa que privilegie ou amplifique as altas frequências ou
seja, uma pré-ênfase. A esta pré-ênfase corresponde uma função de resposta em frequência

1 + j ff1
Hpré-enf ( f ) = (6.90)
1 + j ff2

Nos sistemas de rádio-difusão comercial, tem-se f11 = 75 µs e f2 > B = 15 kHz. Desta forma,
consegue-se uma melhoria de cerca de 6,7 dB face à desmodulação sem pré-ênfase↔pós-ênfase,
conforme se mostra na figura 6.19. Esta é a filtragem mencionada no final do capítulo 4 que, agora,
aparece justificada.
13 Este filtro realize uma pós-ênfase (de-emphasis na literatura anglo-saxónica), pela razão que se apresentará em se-
guida.
6.8. PROBLEMAS RESOLVIDOS 291

Desempenho
80

70 e
fas
ên
p ré-
60 com
FM FM
B
/ SS
50 SB
D AM

40
dB

30

20

10

Limiar de FM
0

−10
0 10 20 30 40 50 60
dB

Figura 6.19: Desempenho da modulação de frequência face à modulação de amplitude (AM e DSB ou SSB)
para fB∆ = 5, com e sem pré-ênfase.

6.8 PROBLEMAS RESOLVIDOS

P. 1: Determine a transformação de Hilbert de cos(2π f t).

Resolução Pela definição de transformada de Hilbert,


Z +∞ Z +∞
1 cos(2π f τ) 1 cos(2π f (t − ε))
TH[cos(2π f t)] = dτ = dε =
π −∞ t −τ π −∞ ε
Z +∞ Z +∞
1 cos(2π f ε) 1 sen(2π f ε)
= cos(2π f t) dε + sen(2π f t) dε
π −∞ ε π −∞ ε
cos(2π f ε) R +∞ cos(2π f ε)
Dado que ε é uma função ímpar, então −∞ ε dε = 0; por outro lado, sendo
Z +∞ Z +∞
sen(2π f ε) sen(2π f ε)
dε = 2 dε = π
−∞ ε 0 ε
14 teremos
TH[cos(2π f t)] = sen(2π f t) (6.91)
14 Este R +∞ sen(2π f ε) π
integral, ou melhor, 0 ε dε = 2 é o conhecido integral de Dirichlet.
292 CAPÍTULO 6. DESEMPENHO DE SISTEMAS DE TELECOMUNICAÇÕES

P. 2: Determine a transformada de Fourier da transformada de Hilbert de um sinal g(t) ou seja,


demonstre o corolário 6.1.1.

Resolução Pretende-se pois TF[TH[g(t)]] = TF[ĝ(t)] e procedamos pela definição de trans-


formada de Hilbert,
1
TH[g(t)] = ĝ(t) , ∗ g(t)
πt
Se agora, a este resultado aplicarmos a transformada de Fourier e recordando a sua proprie-
dade da convolução, então
1 1
TF[ ∗ g(t)] = TF[ ] · G( f ) (6.92)
πt πt
onde, obviamente, G( f ) = TF[g(t)]; assim, só teremos de determinar a TF[ πt1 ]
Z +∞ Z +∞
1 1 1
T F[ ]= · e− j2π f t dt = · [cos(2π f t) − j sen(2π f t)]dt =
πt −∞ πt −∞ πt
Z +∞
1
= −j · sen(2π f t)dt (6.93)
−∞ πt
uma vez que cos(α)
α é ímpar, pelo que o seu integral em todo o domínio de integração (α ∈ R
e α ∈] − ∞, +∞[) é forçosamente nulo. Assim, e dado que sen(πu)πu = sinc(u) e ainda que para
f < 0 o integral da equação (6.93) é negativo,fazendo a mudança de variável ε = 2 f t, teremos
Z +∞ Z +∞
1 sen(πε)
−j · sen(2π f t)dt = − j · sign( f )dε = − j · sign( f ) (6.94)
−∞ πt −∞ πε
R sen(πε)
uma vez que R ε dε = π. Finalmente, teremos

TF[TH[g(t)]] = − j · sign( f ) · G( f ) (6.95)

P. 3: Determine as componentes em fase e em quadratura para as modulações

(a) banda lateral dupla (DSB/SC);

(b) banda lateral única (SSB);

(c) de fase.

Resolução Recordemos como se obtêm as componentes em fase e em quadratura de um


sinal (processo) passa-banda:

• a componente em fase obtém-se por filtragem passa-baixo do produto do sinal pelo cos-
seno da portadora (na verdade, por 2 cos(·));
6.8. PROBLEMAS RESOLVIDOS 293

• a componente em quadratura obtém-se por filtragem passa-baixo do produto do sinal


pelo seno da portadora (efectivamente por −2 sen(·));

Assim, trata-se de verificar, para cada um dos casos seguintes, os resultados destes processos.

(a) banda lateral dupla (DSB/SC); ora o sinal DSB é xDSB (t) = Ac x(t) · cos(2π fc t), pelo que
o seu produto por um cosseno resulta em:

xDSB (t) · 2 cos(2π fc t) = Ac [x(t) + x(t) · cos(2π2 fc t)] (6.96)

e que, após filtragem passa-baixo, resulta

xI (t) = Ac x(t) (6.97)

Quanto à componente em quadratura, resulta da filtragem passa-baixo de xDSB (t)·2 sen(2π fc t)


que se traduz em Ac x(t) · sen(2π fc t) e que após filtragem vem nula15 ,

xQ (t) = 0 (6.98)

(b) banda lateral única (SSB); como sabemos um sinal de banda lateral única16 é dado por
1
xSSB (t) = x(t) · Ac cos(2π fc t) − x̂(t) · Ac sen(2π fc t) (6.99)
2
então, a sua componente em fase resulta, como se viu, da filtragem passa baixo de
xSSB (t) × 2 cos(2π fc t) que vem dado por,

Ac x(t) · cos(2π fc t) cos(2π fc t) − Ac x̂(t) · sen(2π fc t) cos(2π fc t) =

Ac Ac Ac
= [x(t) + x(t) · cos(2π2 fc t)] − [x(t) · sen(2π2 fc t)] → x(t) (6.100)
2 2 Filtragem 2
ou seja,
Ac
xI (t) =
x(t) (6.101)
2
De forma semelhante se pode ver de imediato que
Ac
xQ (t) = x̂(t) (6.102)
2

(c) A equação da portadora modulada em fase é

xPM (t) = Ac · cos(2π fc t + ψ(t)) ∴ ψ(t) = kPM · x(t) (6.103)

então, teremos para a componente em fase

xI (t) = [xPM (t) · 2 cos(2π fc t)] = Ac · cos(2π fc t + ψ(t)) · 2 cos(2π fc t) =

= Ac · [cos(ψ(t)) + cos(2π2 fc t + ψ(t)) = Ac · cos(ψ(t)) (6.104)


15 Porquê?
16 Exemplificamos para a Banda Lateral Superior
294 CAPÍTULO 6. DESEMPENHO DE SISTEMAS DE TELECOMUNICAÇÕES

onde  [· · · ]  representa a filtragem passa-baixo. Para a componente em quadratura


teremos,

xQ (t) = [xPM (t) · 2 sen(2π fc t)] = Ac · cos(2π fc t + ψ(t)) · 2 sen(2π fc t) =

= Ac · [sen(ψ(t)) + sen(2π2 fc t + ψ(t)) = Ac · sen(ψ(t)) (6.105)

P. 4: Determine as amplitudes e as fases instantâneas para as modulações

(a) banda lateral dupla (DSB/SC);

(b) banda lateral única (SSB);

(c) de fase.

Resolução Recordemos o que são as amplitudes e as fases instantâneas de um processo y(t)


passa-banda q
a(t) = y2I (t) + y2Q (t)
yQ (t)
(6.106)
Φ(t) = arctan yI (t)

Pelo que basta utilizar os resultados do problema anterior (referimo-nos às componentes em


fase e em quadratura) para se obterem as soluções a estas alíneas.

(a) Para a modulação em banda lateral dupla (DSB/SC):


p
aDSB (t) = (Ac x(t))2 + 0 = Ac x(t)
0 (6.107)
Φ(t) = arctan Ac x(t) =0

(b) Para a modulação em banda lateral única (SSB); consideramos aqui apenas a banda
lateral superior xSSB (t) = 12 x(t) · Ac cos(2π fc t) − x̂(t) · Ac sen(2π fc t)
q
( A2c x(t))2 + ( Aac x̂(t))2 = Ac
p
aSSB (t) = 2 x2 (t) + x̂2 (t)
(6.108)
Φ(t) = arctan x̂(t)
x(t)

(c) Para a modulação de fase, teremos


p
aDSB (t) = (Ac cos(Ψ(t))2 + (Ac sen(Ψ(t))2 = Ac
(6.109)
Φ(t) = arctan AAcc sen(Ψ(t)
cos(Ψ(t) = Ψ(t) = kPM x(t)



P. 5: Seja um dado processo passa-banda XDSB (t) = 2X (t) · cos(2π fct + π6 ). Determine as po-
tências das correspondentes componentes passa-baixo em fase e em quadratura.
6.8. PROBLEMAS RESOLVIDOS 295

Resolução Comecemos por desenvolver o cosseno da portadora,


√ π √ π π
XDSB (t) = 2X (t) cos(2π fct + ) = 2X (t)[cos(2π fct) cos( ) − sen(2π fct) sen( )] =
6 6 6

= 2X (t)[0, 866 cos(2π fct)−0, 5 sen(2π fct)] = 1, 225X (t) cos(2π fct)−0, 707X (t) sen(2π fct)]

Sendo a componente em fase XI (t) = 1, 225 · X (t) (pois é o termo que afecta o cosseno da
portadora) teremos que a sua potência é
1
PXI = 1, 2252 PX = 0, 75 · PX
2

A componente é quadratura é XQ (t) = 0, 707 · X (t) teremos que a sua potência é


1
PXI = 0, 7072 PX = 0, 25 · PX
2

P. 6: Considere o sistema de comunicação PCM em banda de base da figura 6.8 sujeito ao ruído
aditivo branco e gaussiano presente no canal. Sabendo que, para este caso se tem uma quan-
tificação linear de 10 bit, e que o ruído no canal se traduz numa probabilidade de erro de
p = 10−4 , determine a relação sinal/ruído que se obtém no receptor ao transmitir uma sinu-
sóide de amplitude X e compare-a com a que se obteria num canal ideal (ausência de ruído).

Resolução Utilizemos a equação (6.50) que, sendo N = 10 (10 bit de quantificação) se


traduz em
12 PX PX 12
SNRPCM = 2 · = 2· =
∆ 1 + 4p(4 − 1) ∆ 1 + 4p(4N − 1)
N

1 2
2X
= · 28, 542 · 10−3 = 3.741 = 35, 5 dB
( 22X10 )2

Se o canal fosse isento de ruído, teríamos forçosamente p = 0 e a relação sinal/ruído corres-


ponderia à de um sistema de quantificação uniforme,
12
SNRPCM = · PX
∆2
e que, neste exemplo se traduz em
1 2
12 2X
SNRPCM = · PX = 12 = 1.572.864 = 62 dB
∆2
( 22X10 )2 |{z}
N=10

Como se pode verificar por estes resultados, os erros resultantes das transformações de «1»
em «0» (e vice-versa) no canal resultam numa degradação na relação sinal/ruído em cerca de
26 dB.


296 CAPÍTULO 6. DESEMPENHO DE SISTEMAS DE TELECOMUNICAÇÕES

P. 7: Determine qual a máxima potência do ruído à entrada do receptor para que a relação si-
nal/ruído após a desmodulação coerente de uma portadora modulada em AM nas seguintes
condições: XDC = 12 , x(t) = 31 · sen(880πt), Ac = 2 mV, seja de 40 dB.

Resolução Ao apresentarmos a amplitude da portadora já no receptor, ultrapassamos a ques-


tão (das perdas) do canal. Assim, podemos utilizar directamente a equação (6.58). Uma re-
lação sinal ruído de 40 dB significa que a potência do ruído é 104 vezes inferior à do sinal.
Assim, reescrevendo a equação (6.58) teremos

A2c PX 1
× (2 · 10−3 )2 · 12 · ( 31 )2
PN = = 2
= 1, 1 · 10−11 W (6.110)
10−4 10−4

NOTA Afinal, qual o papel de XDC e porque não influencia o resultado? Na verdade, XDC
apenas serve para evitar a sobremodulação. No caso do detector coerente (como indicado no
enunciado), o seu valor é perfeitamente irrelevante... Mas XDC obriga a emitir-se muito mais
potência (energia, mais correctamente) mas não se altera a relação sinal/ruído pois não há
qualquer informação relevante em XDC .

P. 8: Seja XDSB (t) = 4X(t) · cos(2π fct) uma portadora modulada em banda lateral dupla pela men-
sagem X(t) e utilizada para comunicar nos 30 MHz a uma distância de 30 km. Sabe-se
que, à entrada do receptor, o ruído é caracterizado ser aditivo e ter um espectro branco com
η = 10−14 W/Hz

(a) sendo X(t) = 2 cos(2000πt), determine a menor largura de banda de transmissão ne-
cessária;

(b) mostre que a potência do ruído passa-banda na entrada do desmodulador, sabendo que
BT = 2000 é de 20 pW;

(c) considerando apenas as perdas em espaço livre Ld , determine a SNRD em DSB;


√ √
(d) sendo agora X(t) = 2 + 2 cos(2000πt), mostre que teremos uma modulação de am-
plitude;

(e) nestas condições, mostre que se tem uma perda de ≈ 4, 8 dB no desempenho face à
comunicação em banda de base ou em DSB.

Resolução
√ √
(a) A frequência do sinal modulante é 1000 Hz (pois X(t) = 2 cos(2000πt) = 2 cos(2π1000t)),
logo, BT ≥ 2 · 1000 = 2 · 103 .
6.8. PROBLEMAS RESOLVIDOS 297

(b) Sabemos que a potência do ruído (passa-banda) é PN = η · BT , pelo que

PN = 10−14 · 2 · 1000 = 2 · 10−11 = 20 pW


 2 2
(c) As perdas em espaço livre são Ld = λ
4πd , ou seja, Ld = 10
4π3·104
= 7, 04 · 10−10 uma
3·10 8
vez que para fc = 30 MHz teremos λ = 30·10 6 = 10 m. Tendo já PN = 20 pW resta-nos

obter PXR , ou seja, a potência do sinal recebido. A potência emitida, sendo em DSB, é
A2c 42
PXDSB = PX = · 1 = 8 W
2 2
uma vez que PX = 1 W. Assim, PXR = PXDSB · Ld = 8 · 7, 04 · 10−10 = 56, 3 · 10−10 e, logo,
PXR 56, 3 · 10−10
SNRD = = ≈ 262 = 24, 2 dB
PN 2 · 10−11

(d) Substitua-se X(t) na equação do sinal modulado, XDSB (t) = 4X(t) · cos(2π fct), resul-
tando em
√ √
XModulado (t) = 4X(t) · cos(2π fct) = 4[ 2 + 2 cos(2000πt)] · cos(2π fct)

que, como se observa, é um caso particular de XAM (t) = Ac [XDC + M(t)] · cos(2π fct),
correspondendo, efectivamente, a uma modulação de amplitude.
PX
(e) Sabemos que o desempenho em modulação de amplitude é dado por SNRD = γ · P 2 .
X +XDC
PX
Assim, resta-nos calcular o termo 2
PX +XDC
e convertê-lo em dB,

PX 1 1
2
= = → −4, 77 dB
PX + XDC 1+2 3
sendo este valor o decréscimo de desempenho face ao DSB.

P. 9: Suponha que se pretende comunicar em AM utilizando um receptor com detector de envol-


vente. Pretende-se determinar qual a amplitude da portadora a emitir, de modo a que a relação
sinal/ruído à saída do desmodulador seja superior a 40 dB, considerando que o processo que
modela a fonte de informação tem uma potência unitária, que a sua largura de banda é de 3

kHz, que a profundidade de modulação nunca é superior a 1/ 2, que a atenuação devida à
propagação das ondas de rádio é de 40 dB e que as antenas dos emissor e receptor têm ganhos
de 3 e de 13 dB, respectivamente; admita que η = 2 · 10−12 .

Resolução Uma vez que o enunciado se refere à profundidade de modulação, deveremos


relembrar a sua definição: m = maxX|X(t)|
DC
e considerar o seguinte desenvolvimento a partir de
uma função amostra obtida da realização de um processo de modulação de amplitude:
XAM (t) = AC [XDC +X(t)] · cos(2π fc t) =
= AC XDC [1 + X1DC X(t)] · cos(2π fc t) = (6.111)
= A[1 + m · X(t)] · cos(2π fc t)
298 CAPÍTULO 6. DESEMPENHO DE SISTEMAS DE TELECOMUNICAÇÕES

onde se vê que A representa a amplitude efectiva17 da portadora e m é, como se definiu acima,


a profundidade de modulação. Se atendermos às equações (6.55) e (6.57) que se referem à
potência do sinal recebido à entrada do desmodulador coerente,
2 = 2[ 1 A2 (X 2 + P )] − A2 X 2 =
PD = 2PXRX − AC2 XDC 2 C DC X C DC

(6.112)
AC XDC =A
m=1/ XDC
= AC2 [(XDC
2 + P )] − A2 X 2 −
X C DC −−−−−
→ A2 [1 + m2 PX ]
vemos que o termo de interesse (depois de retirada a componente contínua, veja-se a figura
6.11, por exemplo) é
PD = A2 m2 PX (6.113)
Note-se que estas equações são válidas para a desmodulação coerente mas mostrou-se que o
detector de envolvente, na condição de ruído fraco18 , é-lhe equivalente. Então, pretende-se
que
PD PD
|dB > 40 dB → > 104 (6.114)
PN PN
Assim, teremos:

PD > PN · 104 → PD > η · B · 104 = 2 · 10−12 · 4 · 103 · 104 = 8 · 10−5 (6.115)

e logo √
m=1/ 2
PD = A m PX −−−−−→ A2 > 2 · 8 · 10−5 ↔ A > 12, 65 · 10−3
2 2
(6.116)
PX =1
Contabilizemos agora as perdas no canal (atenuação) e os ganhos das antenas, −40 + 3 +
13 = 24 dB ↔ 3, 98 · 10−3 . Significa que o sinal no emissor terá de ser amplificado por
1/(3, 98·10−3 ) para poder compensar a atenuação sofrida no processo de transmissão. Assim,
a amplitude da portadora (à saída do emissor) virá, finalmente, dada por
1
Ap = A > 3, 98 · 10−3 · 12, 65 · 10−3 (6.117)
3, 98 · 10−3
A potência de emissão vem, a partir da equação (6.111),
1
PXAM = A2p [1 + m2 PX ] (6.118)
2
e que resulta em PXAM ≈ 7, 8 W.

P. 10: A fórmula de Friis19 relaciona as potências presentes aos terminais das antenas de emissão
(PT ) e de recepção (PR ), com os seus ganhos GT e GR , com a distância d entre elas e o
comprimento de onda da radiação electromagnética λ ,
λ 2
 
PR
= GT GR (6.119)
PT 4πd
17 Não confundir com a amplitude eficaz, ou melhor dizendo, com o valor eficaz que, como é sabido, resulta de √1 · A.
2
18 Uma vez que se pretende uma relação sinal/ruído de 40 dB, significa que a potência do ruído é 10−4 da potência do
sinal, ou seja, estamos efectivamente em presença de ruído fraco.
19 Convém ter em conta que a fórmula de Friis é válida para a propagação em espaço livre.
6.8. PROBLEMAS RESOLVIDOS 299

Assim, para as seguintes condições de comunicação: relação sinal/ruído no receptor de 46 dB,


largura de banda B = 3 kHz, potência da fonte de sinal PX = 1 W, frequência da portadora fc =
30 MHz, e ganhos iguais das antenas de emissão e recepção GT = GR = 1, 5 dB, determine,
sabendo que η = 2 · 10−12 ,

(a) A potência de emissão necessária para comunicar em AM com profundidade de modu-


lação 90% a uma distância de 10 km;

(b) Supondo que se dispunha da potência obtida em a), determine a que distância se conse-
guiria agora comunicar em DSB/SC com a mesma relação sinal/ruído;

(c) Idem para FM com uma frequência de desvio f∆ = 75 kHz.

Resolução

(a) Comecemos por refazer os cálculos desenvolvidos no problema anterior mas para as
novas condições. Assim, comecemos por determinar qual a potência de sinal necessária
à entrada do receptor

PD > PN · 4 · 104 → PD > η · 2B · 4 · 104 = 2 · 10−12 · 6 · 103 · 4 · 104 = 48 · 10−5 (6.120)

uma vez que 46 dB ↔ 4 · 104 . Então, e de acordo com a equação (6.113), teremos que
r r
1 PD 1 48 · 10−5
A= = = 24, 3 · 10−3 (6.121)
m PX 0, 9 1
Ora, a partir desta amplitude da portadora, teremos que a potência do sinal recebido na
entrada do receptor é
1 1
PR = A2 (1 + m2 PX ) = (24, 3 · 20−3 )2 (1 + 0, 92 ) = 534µW (6.122)
2 2
o que, entrando na fórmula de Friis (equação (6.119)), resulta em

GT =GR = 2 1,5dB
 2 λ =100 m(fc =30 MHz)
1 4πd d=104 m
PT = PR −−−−−−−−−−−−→ PT = 411W (6.123)
GT GR λ

(b) Lembremos que em DSB/SC a potência do sinal à entrada do desmodulador coerente


é, conforme a equação (6.57), fazendo XDC = 0 pois trata-se de DSB/SC, PD = AC2 PX e
como se pretende uma SNR de 46 dB, obteremos para a amplitude da portadora o valor já
obtido na alíena anterior, AC = 24, 3 · 10−3 . Esta amplitude corresponde a uma potência
na entrada do receptor de PR = 12 AC2 PX (comparemos este valor com o obtido para a
modulação de amplitude, equação (6.122)). Assim, e como temos 411 W disponíveis no
emissor, teremos que r
λ PR
d= GT GR (6.124)
2π PT
q
e, finalmente, resulta em d = 100

411
2 295·10 −6 = 26.567 m ≈ 27 km o que representa um

alcance mais do que o dobro do obtido para a modulação de amplitude.


300 CAPÍTULO 6. DESEMPENHO DE SISTEMAS DE TELECOMUNICAÇÕES

(c) No caso da modulação de frequência temos, a partir da equação (6.87), a amplitude da


portadora virá dada por

f∆ =15·103
B=3·103
f A2 SNRD =4·104
SNRD = 3( ∆ )2 · C PX −−−−−−−→ AC ≈ 3 · 10−3 (6.125)
B ηB
que é consideravelmente inferior às amplitudes necessárias quer para a AM quer para
a DSB/SC. Assim, teremos que a potência na entrada do desmodulador é PR = 21 AC2 =
4, 44µ W. Se, à semelhança do raciocínio anterior, que através da fórmula de Friis da
equação (6.119) se obteve a distância entre as antenas de transmissão e de recepção,
teríamos agora d = 219 km. Podemos ver, com este exercício, que a modulação de
frequência necessita de muito menos potência no transmissor para se ter um desempenho
semelhante ao das modulações de amplitude, desde que se esteja em situações de ruído
fraco.


Apêndice A

RELAÇÕES TRIGONOMÉTRICAS
ELEMENTARES

cos(α) = cos(−α)
(A.1)
sen(α) = − sen(−α)

cos(α + β ) = cos(α) cos(β ) − sen(α) sen(β )


cos(α − β ) = cos(α) cos(β ) + sen(α) sen(β )
(A.2)
sen(α + β ) = sen(α) cos(β ) + cos(α) sen(β )
sen(α − β ) = sen(α) cos(β ) − cos(α) sen(β )

cos( π2 + β ) = − sen(β )
cos( π2 − β ) = sen(β )
(A.3)
sen( π2 + β ) = cos(β )
sen( π2 − β ) = cos(β )

cos(π + β ) = − cos(β )
cos(π − β ) = − cos(β )
(A.4)
sen(π + β ) = − sen(β )
sen(π − β ) = sen(β )

cos(α) · cos(β ) = 12 [cos(α − β ) + cos(α + β )]


sen(α) · sen(β ) = 12 [cos(α − β ) − cos(α + β )] (A.5)
cos(α) · sen(β ) = 12 [sen(α − β ) + sen(α + β )]

cos2 (α) = 12 [1 + cos(2α)]


sen2 (α) = 12 [1 − cos(2α)] (A.6)
cos(α) · sen(α) = 12 sen(2α)

301
302 APÊNDICE A. RELAÇÕES TRIGONOMÉTRICAS ELEMENTARES

cos(2α) = 2 cos2 (α) − 1


(A.7)
sen(2α) = 2 sen(α) · cos(α)

e jα = cos(α) + j sen(α)
e jα = 1
∠e jα = α
Re{e jα } = cos(α)
Im{e jα } = sen(α) (A.8)

π
e jk 2 = ( j)k ∀k ∈ Z
e jkπ = (−1)k ∀k ∈ Z
e j2kπ = 1 ∀k ∈ Z

e jα +e− jα
cos(α) = 2
e jα −e− jα
(A.9)
sen(α) = 2j

d
cos(α) = − sen(α)

d
sen(α) = cos(α)

d 1
arc cos(α) = − √
dα 1 − α2
d 1
arc sen(α) = √
dα 1 − α2

Z
cos(α)dα = sen(α) +C (A.10)

Z
sen(α)dα = − cos(α) +C

1
Z
α
√ dα = arc sen( ) +C
2
a −α 2 a
1 1
Z
α
dα = arc tg( ) +C
a2 + α 2 a a
Apêndice B

DEMONSTRAÇÃO DO TEOREMA DE
PARSEVAL

O teorema de Parseval é de extrema importância para o processamento de sinal pois relaciona


o comportamento no tempo (mais concretamente, a energia do sinal) com o seu comportamento no
domínio da frequência (novamente: a sua energia espectral).

Comecemos então por determinar


Z ∞
x(t)x∗ (t)dt (B.1)
−∞

que, obviamente suporemos ser convergente e onde x∗ (t) representa o complexo conjugado de x(t).

Recordemos que, quer x(t) quer x∗ (t) podem ser obtidos a partir das suas transformadas de
Fourier inversas, pelo que a equação B.1 se pode reescrever como
Z ∞ Z ∞ Z +∞ Z +∞
x(t)x∗ (t)dt = X( f ) · e j2π f t d f · X ∗ ( f ) · (e j2π f t )∗ d f dt (B.2)
−∞ −∞ −∞ −∞

Esta equação necessita de ser reescrita pois na forma em que se apresenta pode induzir em erros,
Z ∞ Z ∞ Z +∞ Z +∞
x(t)x∗ (t)dt = X(ε) · e j2πεt dε · X ∗ (ν) · (e j2πνt )∗ dνdt (B.3)
−∞ −∞ −∞ −∞

Na hipótese de convergência dos integrais da B.3 é-nos lícito permutar a ordem de integração,
Z ∞ Z +∞ Z +∞ Z ∞

x(t)x (t)dt = X(ε) · e j2πεt · X ∗ (ν) · e− j2πνt dt dν dε =
−∞ −∞ −∞ −∞
Z +∞ Z +∞ Z ∞
= X(ε) · X ∗ (ν) · e− j2π(ν−ε)t dt dν dε (B.4)
−∞ −∞ −∞

Neste ponto, convém recordar algumas propriedades do impulso de Dirac:

δ (t) · f (t) = f (0) · δ (t)


Z ∞
δ (t) f (t)dt = f (0)
−∞

303
304 APÊNDICE B. DEMONSTRAÇÃO DO TEOREMA DE PARSEVAL

R∞
pois −∞ δ (t)dt = 1. Por outro lado,
Z ∞
e− j2π f t dt = δ ( f )
−∞

pois que TF−1 δ ( f ) = 1, como se pode ver facilmente.


− j2π(ν−ε)t dt
R∞
Assim, na equação B.4 podemos identificar o termo −∞ e como sendo a transfor-
mada de Fourier do impulso de Dirac,
Z ∞
e− j2π(ν−ε)t dt = δ (ν − ε)
−∞

Ora, atendendo às segunda e primeira propriedades acima indicadas (por esta ordem), teremos,
Z ∞ Z +∞ Z +∞ Z +∞
∗ ∗
x(t)x (t)dt = X(ε) · X (ν) · δ (ν − ε) dν dε = X(ε) · X ∗ (ε) dε (B.5)
−∞ −∞ −∞ −∞

e, finalmente, Z ∞ Z +∞
x(t)x∗ (t)dt = X( f ) · X ∗ ( f ) d f (B.6)
−∞ −∞

Recordando que qualquer função (real ou complexa) verifica

g(t) = |g(t)| · e∠{g(t)} ⇒ g∗ (t) = |g(t)| · e−∠{g(t)}

então: Z ∞ Z +∞
2
|x(t)| dt = |X( f )|2 d f (B.7)
−∞ −∞
o que completa a demonstração do teorema de Parseval.


Apêndice C

CONSIDERAÇÕES À VOLTA DA
FUNÇÃO DE GAUSS

C.1 INTEGRAL DE EULER - POISSON

A função de Gauss, ou distribuição normal, é de larga utilização nos mais variados domínios
da Matemática, da Física e da Engenharia. Embora seja de larga aplicação, apresenta, do ponto
de vista analítico, algumas dificuldades. Nesta secção deste apêndice não se pretende um desen-
vovilmento das características e propriedades desta função, apenas se demonstrará um importante
resultado: o integral desta função, também conhecido por integral de Euler-Poisson.

T 19 : Z ∞
− (x−µ)
2 √ T
∀x, µ, σ ∈ R : e 22σ dx = 2πσ 2 (C.1)
−∞

Demonstração Comecemos por efectuar uma mudança de variável

(x − µ)
y= √
2σ 2

da qual resulta que dx = 2σ 2 dy e, por conseguinte,
Z +∞
− (x−µ)
2 √ Z +∞ 2
e 2
2σ dx = 2σ 2 e−y dy (C.2)
−∞ −∞

Obtenha-se agora o quadrado do integral anterior (conforme Poisson):


Z +∞ 2 Z +∞ Z +∞ Z ∞ Z +∞
−y2 2 2 2 2
e dy = e−y dy e−x dx = e−y e−y dydy =
−∞ −∞ −∞ −∞ −∞
Z +∞ Z +∞
2 +x2 )
= e−(y dydy (C.3)
−∞ −∞

O integral da equação (C.3) corresponde a integrar em todo o plano R2 e, portanto, pode ser obtido
através de uma mudança de variáveis que corresponde a passar da notação cartesiana para a notação

305
306 APÊNDICE C. CONSIDERAÇÕES À VOLTA DA FUNÇÃO DE GAUSS

polar: x2 + y2 = ρ 2 , sendo que x = ρ · cos(θ ) e y = ρ · sen(θ ):


Z +∞ Z +∞ Z π Z +∞
2 +x2 ) 2
e−(y dxdy = ρe−ρ dρdθ (C.4)
−∞ −∞ −π 0

pois agora, para abranger R2 , ρ variará de 0 a +∞ e θ de −π a π; podendo-se verificar que dxdy


corresponde a uma área elementar em coordenadas cartesianas, tendo como equivalente uma área
2
em coordenadas polares ρ · dρdθ . A equação (C.4) é de fácil integração, pois basta ver que ρe−ρ =
d −ρ 2
− 12 dρ e . Assim, teremos
Z +∞
2 1  −ρ 2 +∞ 1
ρe−ρ dρ = − e =
0 2 0 2
pelo que
Z π Z +∞
1
Z π
−ρ 2
ρe dρdθ = dθ = π (C.5)
−π 0 2 −π

ou seja,
Z +∞
2
−y2
e dy =π
−∞

ou de modo equivalente,
Z +∞
2 √
e−y dy = π
−∞

o que, substituindo na equação (C.2), resulta em


Z +∞
− (x−µ)
2 √
e 2
2σ dx = 2πσ 2 (C.6)
−∞

Da equação (C.6) se retira um resultado muito conhecido,


2
1
Z ∞
− (x−µ)
√ e 2σ 2 dx = 1 (C.7)
−∞ 2πσ 2

C.2 FUNÇÕES Q(x), erf(x) e erfc(x)

Do integral de Euler-Poisson, como acabámos de ver,


2
1
Z ∞
− (x−µ)
√ e 2σ 2 dx = 1
−∞ 2πσ 2

é imediato obtermos
r
Z +∞
−x2
√ Z +∞
− ax2
2 2π
e dx = π ∴ e dx = (C.8)
−∞ −∞ a
C.2. FUNÇÕES Q(X), erf(X) E erfc(X) 307

D
Definição: Função Q(·) Defina-se Q(α) como sendo
Z +∞
1 x2
Q(α) , √ e− 2 dx (C.9)
2π α

Esta função não é mais do que a área à direita da abcissa α da primitiva da gaussiana1 de
média nula e variância unitária2 , como se representa na figura C.1 (em baixo).

0.5

0.4
Gauss(0,1)

0.3

0.2

0.1

0 x
−5 −4 −3 −2 −1 0 1 2 3 4 5

1 Q(α )
0.8
dx
x2
2

0.6

e

1

0.4

0.2

0
x
−5 −4 −3 −2 −1 0 1 2 3 4 5
α
Figura C.1: Curva da função de Gauss de média nula e variância unitária e da sua primitiva.

Atendendo ao expresso nas equações (C.8) e (C.9) é fácil de ver que

T
Corolários
Q(−∞) = 1

Q(+∞) = 0

1 (C.10)
Q(0) = 2

Q(−x) = 1 − Q(x)

X ∼ N(µ, σ 2 ) → Pr(X > α) = Q α−µ 


σ

D
1 Ou seja, tratando-se de probabildades, da função distribuição.
x 2
2 De fact, √1 e− 2 é uma Normal (gaussiana) de média µ nula e variância σx2 unitária.

308 APÊNDICE C. CONSIDERAÇÕES À VOLTA DA FUNÇÃO DE GAUSS

Definição: Função de Erro, erf(·) A função de erro, definida em x ∈ [0, +∞[ como
2
Z α
2
erf(α) , √ e−x dx (C.11)
π 0

tem como propriedades

T
Corolários
erf(0) = 0
(C.12)
erf(+∞) = 1

D
Definição: Função Complementar de Erro, erfc(·) A função complementar de erro, definida
em x ∈ [0, +∞[ como Z +∞
2 2
erfc(α) , √ e−x dx (C.13)
π α
tem como propriedades os seguintes corolários,

T
Corolários
erfc(0) = 1
(C.14)
erfc(+∞) = 0

Relações entre as funções Q(·), erf(·) e erfc(·)

T
Corolários
erf(α) = 1 − erfc(α)
 
Q(α) = 21 − 12 erf α

2

 
Q(α) = 12 erfc α

2
(C.15)


erf(α) = 1 − 2 Q( 2α)


erfc(α) = 2 Q( 2α)

C.3 TABELAS das FUNÇÕES erfc(x) e Q(x)

Embora a função de Gauss goze de importantes propriedades (diferenciável em todo o seu domínio,
n-diferenciável, etc.) e tenha uma forma analítica fechada em todo o seu domínio, o seu integral não
resulta da mesma forma, pelo que é necessário recorrer a tabelas. Assim, na tabela C.1, apresenta-se
um conjunto de valores para as funções erfc(x) e Q(x) para um domínio x ∈ [0, 5, 35].
C.3. TABELAS DAS FUNÇÕES erfc(X) E Q(X) 309

Tabela C.1: das funções erfc(x) e Q(x) x ∈ [0, 5, 35].


310 APÊNDICE C. CONSIDERAÇÕES À VOLTA DA FUNÇÃO DE GAUSS
Apêndice D

TABELA DE FUNÇÃO DE BESSEL DE


1a ESPÉCIE Jk (β )

311
312 APÊNDICE D. TABELA DE FUNÇÃO DE BESSEL DE 1a ESPÉCIE JK (β )

Tabela D.1: da função Jk (β ), β ∈ [0, 3], k = 1, 2, 3, . . . , 7.


313

Tabela D.2: da função Jk (β ), β ∈ [3, 6], k = 1, 2, 3, . . . , 7.


314 APÊNDICE D. TABELA DE FUNÇÃO DE BESSEL DE 1a ESPÉCIE JK (β )

Tabela D.3: da função Jk (β ), β ∈ [6, 9], k = 1, 2, 3, . . . , 7.


Apêndice E

UMA INTRODUÇÃO À MALHA DE


CAPTURA DE FASE

E.1 INTRODUÇÃO

A malha de captura de fase é universalmente conhecida como PLL de Phase-Locked Loop


e tem sido estudada exaustivamente sob vários pontos de vista mas, neste trabalho, privilegiaremos
uma abordagem mais no âmbito da teoria do controlo.

As aplicações das malhas de captura de fase são múltiplas, destacando-se:

• Desmodulação de FM; que tem sido uma das aplicações mais divulgadas, permitindo uma
descodificação de áudio de muito alta qualidade (ou seja, com baixa distorção harmónica),
usando circuitos integrados de baixo custo;

• Desmodulação de AM; permitindo a detecção coerente, muito útil para DSB e SSB (mesmo
recorrendo a portadora vestigial);

• Síntese indirecta de portadoras; com larga aplicação em sistemas de comunicação reconfigu-


ráveis.

Vejamos qual a estrutura básica da malha de captura, conforme se apresenta na figura E.1.
O bloco assinalado com VCO1 representa um dispositivo que produz um sinal sinusoidal cuja

p(t)
x(t) Filtro y(t)
Passa-Baixo

VCO

Figura E.1: Diagrama da malha básica de captura de fase.

315
316 APÊNDICE E. UMA INTRODUÇÃO À MALHA DE CAPTURA DE FASE

frequência instantânea depende linearmente do sinal de entrada. Nas simulações que se apresen-
tarão pressupõe-se que, mesmo na ausência de sinal de entrada, o VCO produz uma sinal de
frequência fixa.

Quanto ao filtro passa-baixo, por ora, basta-nos admitir que não compromete a estabilidade
da malha de captura de fase. Posteriormente iremos analisar como a sua função de transferência vai
condicionar o desempenho da malha.

Seja x(t) uma portadora sinusoidal de frequência fc ,

x(t) = sen(2π fc t + θc ) (E.1)

e que, à saída do modulador irá produzir um sinal

p(t) = x(t) · 2 cos(2π f0t + θ0 ) = sen(2π fc t + θc ) · 2 cos(2π f0t + θ0 ) =

= sen (2π(fc − f0 )t + θc − θ0 ) + sen (2π(fc + f0 )t + θc + θ0 ) (E.2)

Ora, se a diferença de frequências dos sinais sinusoidais anteriores for inferior à largura de banda
B f do filtro passa-baixo e ainda se fc + f0 >> B f , então o último termo de p(t) será anulado na saída
deste filtro, pelo que
∆θ
z }| {
y(t) ≈ sen(2π(fc − f0 )t + θc − θ0 ) (E.3)
| {z }
φ (t)

Este sinal de baixa frequência proporcional a sen(φ (t)), como se viu, irá comandar o dispositivo
«VCO» fazendo2 a aproximação de f0 a fc . Nestes pressupostos, teremos que φ (t) << pelo que, e
admitindo que o filtro passa-baixo tem ganho unitário,

y(t) ≈ φ (t) = 2π(fc − f0 )t + ∆θ (E.4)

e, estando o PLL síncrono com o sinal de entrada, fc = f0 e logo,

y(t) ≈ ∆θ (E.5)

ou seja, a saída3 da malha de captura de fase será proporcional à desfasagem entre os sinais de
entrada e de saída do VCO (descontando os intrínsecos π/2 existentes entre a entrada sinusoidal e
o VCO, cossinusoidal). Esta hipótese de trabalho que nos permite aproximar o seno da desfasagem
pela própria desfasagem corresponde ao conhecido modelo linear do PLL e que iremos analisar de
seguida.
1 VCO, do inglês voltage controlled oscilator, ou oscilador controlado por tensão.
2 desde que | fc − f0 | seja suficientemente pequeno.
3 A «saída» do PLL é considerada na saída do bloco adequado ao fim em vista. Efectivamente, no circuito da figura

E.1, a saída está considerada para uma desmodulação de frequência modulada (FM). Se a saída fosse obtida no bloco
multiplicação, estaríamos a desmodular uma modulação de fase (PM) e,se fosse na saída do VCO, tratar-se-ia de uma
recuperação de portadora, por exemplo.
E.2. ANÁLISE DO MODELO LINEARIZADO 317

E.2 ANÁLISE DO MODELO LINEARIZADO

Sendo, como hipótese fc = f0 e ainda que fc >> B f , então e pelas equações (E.3) e (E.4), tere-
mos o diagrama de blocos seguinte (figura E.2) onde se indicam as variáveis de interesse. Repare-se

+ H(s)
K vco
s
Y(s)

-
Figura E.2: Diagrama da malha linearizada (ver texto) de captura de fase.

que o VCO foi substituído por um bloco integrador ou seja, pela função de transferência Kvco /s. A
razão de ser desta função de transferência prende-se com o facto de ser a fase o integral da frequên-
cia instantânea (à parte um factor de 2π) e com um ganho Kvco que permite relacionar a frequência
de saída com o sinal de entrada e, como sabemos, a função de transferência do bloco integrador é
1/s.

Então, a função de transferência da cadeia fechada4 vem

H(s) · Kvco
s
Heq (s) = (E.6)
1 + H(s) · Kvco
s

e, como sabemos da teoria do Controlo, a estabilidade desta malha está intrinsecamente ligada às
raízes de 1 + H(s) · Kvco
s = 0. No entanto, podemos afirmar que a existência de um pólo na origem (na
cadeia aberta5 ) faz com que, em regime permanente, o erro de seguimento ao escalão na fase seja
nulo. Se o filtro passa-baixo não apresentar zeros na sua função de transferência então só poderá
ter, no máximo, um pólo que, de preferência, não deverá ser na origem. Na figura seguinte, figura
E.3, ilustra-se a resposta do sistema em cadeia fechada em função do pólo de H(s), mantendo o seu
ganho estático constante. Note-se que afastar o pólo do eixo imagiário melhora a rapidez da resposta
ao escalão e também diminui a sobre-elevação. O pólo em s = −100 corresponde a uma frequência
de corte do filtro passa-baixo de malha de cerca de 16 Hz.

Fixando este valor para a localização do pólo, podemos agora variar o ganho estático H(0)
para ver a sua influência na resposta transitória, conforme se ilustra na figura E.4, onde se considerou
p
H(s) = H(0) · (E.7)
s+ p

Naturalmente e como é sabido, aumentar H(0) vai ter como consequência o aumento da sobre-
elevação.

4 Repare-se que o sistema representado na figura E.2 é a de um sistema de controlo (linear) por retroacção da saída.
5O que faz este sistema ser do tipo I.
318 APÊNDICE E. UMA INTRODUÇÃO À MALHA DE CAPTURA DE FASE

Step Response
2

pólo em s= -10
pólo em s= -100
1.8
pólo em s= -1

1.6

1.4

1.2
Amplitude

0.8

0.6

0.4

0.2

0
0 0.2 0.4 0.6 0.8 1
Time (seconds)

Figura E.3: Resposta ao escalão da malha linearizada (ver texto) de captura de fase, sendo: Kvco = 100π e
p
H(s) = s+p , sendo os pólo p assinalados.

Step Response
1.8

H(0)=10
1.6

1.4
H(0)=1,0

1.2
Amplitude

0.8
H(0)=0,1
0.6

0.4

0.2

0
0 0.05 0.1 0.15 0.2
Time (seconds)

Figura E.4: Resposta ao escalão da malha linearizada (ver texto) de captura de fase, sendo: Kvco = 100π e
p
H(s) = H(0) · s+p , sendo o pólo p = −0, 01 e os ganhos estáticos H(0) estão assinalados.
E.3. ANÁLISE SIMPLIFICADA DO MODELO NÃO-LINEAR (SIMULAÇÕES) 319

E.3 ANÁLISE SIMPLIFICADA DO MODELO NÃO-LINEAR (simu-


lações)

O comportamento da malha de captura de fase é, caso não se apliquem as considerações ante-


riores e que nos permitiram simplificar o seu modelo, em geral, difícil de modelar adequadamente.
Assim, e dado que o âmbito deste trabalho não se centra no estudo desta malha, optou-se por si-
mular6 uma malha de captura de fase com um filtro passa-baixo de 1a ordem sem zeros. Assim,
inicialmente gerou-se um sinal de FM (frequência modulada) que fariava em torno de fc = 1000
Hz, desde um mínimo de 900 Hz até ao máximo de 1100 Hz através de uma rampa, conforme se
ilustra na figura E.5. Podemos ver (y(t) a cor azul) que a malha está não sincronizada (sem cap-
1

sinal modulante

0.5 saída PLL


y(t)

-0.5

-1

saída y(t)
PLL linearizado
-1.5
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1

f c −100 fc f c + 100

Figura E.5: Resposta a uma rampa na frequência da malha de captura de fase e da malha linearizada, para
0,01
Kvco = 100π, H(s) = s+0,01 e fc = 1000 Hz.

tura) desde os 900 Hz até cerca dos 990 Hz, mantendo capturada a frequência da sinusoide x(t) de
entrada desde os ≈ 990 Hz até ≈ 1050 Hz; após esta frequência, a malha perde novamente o sinal
de entrada. Repare-se como este fenómeno não é identificado (obviamente) na malha de captura
linearizada (y(t) a vermelho)! Na figura E.6 podemos ver os resultados da simulação da captura de
um sinal de FSK, onde ao nível lógico zero se faz corresponder uma frequência de 1000 Hz (ou seja,
neste caso, igual a fc ) e ao nível lógico um, uma frequência de 1020 Hz.

Na figura seguinte, figura E.7 apresenta-se o comportamento da malha de captura para uma
entrada sinusoidal de frequência linearmente variável no tempo para ilustrar o seu comportamento.
6 Efectivamente, recorremos ao Simulink R para realizar este estudo.
320 APÊNDICE E. UMA INTRODUÇÃO À MALHA DE CAPTURA DE FASE

0.3

saída PLL
0.25
y(t)

0.2

PLL linearizado
saída y(t)
0.15

0.1

0.05

-0.05
Sequência
binária “01010”

-0.1
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1

tempo [s]

Figura E.6: Resposta a uma modulação FSK por uma sequência binária «01010» da malha de captura de
0,01
fase (cor azul) e da malha linearizada (vermelho), para Kvco = 100π, H(s) = s+0,01 e fc = 1000 Hz.

Assim, começando com uma frequência de entrada (neste caso) inferior a fc (veja-se a linha
a azul), verifica-se que o PLL vai a partir dos ≈ 990 Hz começar a seguir a frequência do sinal de
entrada, mantendo-se em sincronismo de frequência até cerca dos 1025 Hz (cor azul).

Se, a frequência do sinal de entrada começar acima de fc , neste caso nos 1050 Hz, a malha não
consegue seguir a frequência da entrada. Diminiundo então esta frequência, verifica-se que a malha
a vai capturar para valores inferiores aos ≈ 1010 Hz, mantendo-se sincronizada (em frequência,
entenda-se) até cerca dos 975 Hz, conforme se ilustra na figura figura E.7 a cor vermelha.

À intersepção das curvas anteriores vai corresponder a gama de captura e à união das curvas,
a gama de seguimento, conforme se assinala na figura figura E.7.

Seguidamente iremos ver a influência da frequência de corte do filtro passa-baixo; assim, na


p
figura E.8 de cima para baixo, teremos em H(s) = s+p , p = 0, 1 (B f = 1, 6 Hz), p = 0, 01 (B f = 16
Hz) e p = 0, 001 (B f = 160 Hz). Como seria de esperar, aumentar a frequência de corte do filtro
passa-baixo leva a um aumento da gama de seguimento do PLL.

Na figura E.9 podemos observar a resposta das malhas de captura à modulação FSK pela
sequência «01010» para as várias localizações do pólo do filtro passa-baixo de 1a ordem.

Na figura E.10 ilustra-se a influência do ganho estático do filtro passa-baixo, variando de


1 (em cima) para 5, em baixo. Finalmente, nestas condições, podemos observar na figura E.11 a
descodificação da modulação FSK para os ganhos assinalados.
E.3. ANÁLISE SIMPLIFICADA DO MODELO NÃO-LINEAR (SIMULAÇÕES) 321

0.6

gama de
captura
0.4

0.2

−0.2

−0.4

−0.6
gama de
seguimento

−0.8
0 0.5 1 1.5 2 2.5 3 3.5 4
975 Hz

1000 Hz

1025 Hz

frequência

Figura E.7: Resposta a uma modulação de frequência por uma rampa no tempo da malha de captura de fase,
0,025
para Kvco = 100π, H(s) = s+0,025 e fc = 1000 Hz.
322 APÊNDICE E. UMA INTRODUÇÃO À MALHA DE CAPTURA DE FASE

3
H(0)=1
f c = 1100 p=-0,1
2

f c = 1000
1
saída PLL
y(t)

-1

saída y(t)
PLL linearizado
-2
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1

3
H(0)=1
p=-0,01
2

1
saída PLL
y(t)

-1

saída y(t)
PLL linearizado
-2
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1

3.5

2.5
H(0)=1
p=-0,001
2

1.5

saída PLL
1 y(t)

0.5

saída y(t)
PLL linearizado -0.5

-1
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1

Figura E.8: Resposta a uma modulaçãode frequência da malha de captura de fase (cor azul) e da malha
0,01
linearizada (a vermelho), para Kvco = 100π, H(s) = s+0,01 e fc = 1000 Hz.
E.3. ANÁLISE SIMPLIFICADA DO MODELO NÃO-LINEAR (SIMULAÇÕES) 323

0.4

y(t)
0.3
PLL linearizado

0.2

0.1

-0.1

y(t)
saída PLL
-0.2
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
0.3

0.25
y(t)
PLL linearizado

0.2

0.15

0.1

0.05

-0.05
y(t)
saída PLL
-0.1
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
0.5

0.4

0.3

0.2

y(t)
saída PLL
0.1

-0.1
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1

tempo [s]

Figura E.9: Resposta a uma modulação FSK por uma sequência binária «01010» da malha de captura de
p
fase (cor azul) e da malha linearizada (a vermelho), para Kvco = 100π, H(s) = s+p e fc = 1000 Hz: em cima,
p = −0, 1; ao centro, p = −0, 01 e em baixo, p = −0, 001.
324 APÊNDICE E. UMA INTRODUÇÃO À MALHA DE CAPTURA DE FASE

3
f c = 1250

H(0)=1

2
p=-0,01

f c = 1000
1

-1 saída PLL
y(t)
saída y(t)
PLL linearizado
-2
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1

3
H(0)=5
p=-0,01
2

-1 saída PLL
y(t)
saída y(t)
PLL linearizado
-2
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1

Figura E.10: Resposta a uma modulação FSK por uma sequênc1a binária «01010» da malha de captura de
0,01
fase e da malha linearizada, para Kvco = 100π, H(s) = s+0,01 e fc = 1000 Hz.
E.3. ANÁLISE SIMPLIFICADA DO MODELO NÃO-LINEAR (SIMULAÇÕES) 325

0.3

y(t)
H(0)=1
0.25 saída PLL

0.2

0.15

0.1

0.05

-0.05 y(t)
PLL linearizado
-0.1
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
0.8

H(0)=5
0.6

y(t)
0.4
saída PLL

0.2

-0.2 y(t)
PLL linearizado

-0.4

-0.6
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1

tempo [s]

Figura E.11: Resposta a uma modulação FSK por uma sequência binária «01010» da malha de captura de
0,01
fase e da malha linearizada, para Kvco = 100π, H(s) = H(0) · s+0,01 e fc = 1000 Hz, sendo os diferentes
ganhos estáticos H(0) assinalados.
326 APÊNDICE E. UMA INTRODUÇÃO À MALHA DE CAPTURA DE FASE
Apêndice F

INTRODUÇÃO AOS
SOFTWARE-DEFINED RADIO

F.1 INTRODUÇÃO

As primeiras referências a rádios digitais ocorreram em meados de 1970. Mas o conceito e a


demonstração da validade do conceito de rádio digital só viria quase 10 anos depois. A ideia subja-
cente é a de, por meio de um programa de computador, realizar as tarefas anteriormente destinadas
a circuitos electrónicos dedicados. Claro que houve que aguardar pela existência de processadores
digitais suficientemente rápidos para que este conceito tivesse plena aceitação e divulgação. Mas de
tal forma se tornou um conceito vantajoso que, actualmente, até as pen de televisão digital terrestre
são efectivamente realizadas com recurso aos SDR ou «rádios definidos em software»! Na figura F.1
apresenta-se uma imagem da interface de um receptor SDR.

Figura F.1: Exemplo de interface de operação de um receptor SDR.

As vantagens que os SDR apresentam face aos usuais receptores (analógicos) de rádio são,

327
328 APÊNDICE F. INTRODUÇÃO AOS SOFTWARE-DEFINED RADIO

resumidamente, as que se apresentam de seguida:

• Multi-banda — nas comunicações de serviços de emergência, por exemplo, são utilizadas


várias bandas de frequência. Desta forma se elimina a necessidade de ter vários receptores,
cada um alocado a cada banda específica de rádio-frequência;

• Multi-portadora — permitindo que o receptor opere simultaneamente com várias portadoras


ou canais. Estas portadoras podem estar na mesma banda de frequências ou, se o SDR operar
em multi-banda, em bandas distintas;

• Multi-modo — quando o receptor pode processar vários standards de modulação ou codifica-


ção (por exemplo, AM, FM, GMSK, etc.).

Geralmente, estes modos de operação não são necessários estarem todos presentes nos SDR,
mas é usual aparecerem mais do que um. Em conclusão, o objectivo deste apêndice é o de apresentar,
ainda que resumidamente, os SDR1 .

F.2 RECEPTORES SUPERHETERODINOS

Comecemos por recordar a arquitectura de um receptor super-heterodino, figura F.2.

Amplificador
Amplificador
Modulador de Frequência Desmodulador
de RF
Intermédia

Oscilador
Local

Figura F.2: Arquitectura de um receptor superheterodino.

O primeiro bloco do receptor, o amplificador de rádio-frequência, destina-se a duas funções


distintas: uma, a de limitar o espectro dos sinais a serem recebidos, reduzindo eventuais interferên-
cias e, a outra, a de amplificar os (normalmente) ténues sinais captados pela antena. Segue-se-lhe
um bloco designado por modulador que, como já oportunamente se viu, realiza o produto do sinal
recebido por uma sinusoide proveniente do oscilador local. Este oscilador deve cobrir uma gama
de frequências igual à do andar de entrada (deslocada do valor da frequência intermédia), ou seja,
fosc = fentrada ± fi . A frequência intermédia é fixa, podendo ser cerca de 455 kHz para comunica-
ções até à banda do VHF em AM e passando, para frequências mais elevadas, para os 10,7 MHz.
As razões do uso dos andares de FI são várias, sendo que as mais relevantes relacionadas com o
aumento de selectividade dos receptores. O bloco amplificador de frequência intermédia apresenta
1O estudo mais aprofundado destas matérias extravasa claramente o âmbito destas notas, pelo que se recomenda a
leitura de, por exemplo, (Proakis, 2000).
F.3. AMOSTRAGEM DE SINAIS DE RÁDIO-FREQUÊNCIA 329

uma característica passa-banda e é normalmente realizado com ressoadores cerâmicos (piezoeléctri-


cos) ou com filtros de cristal de quartzo para que, fora da banda de passagem, se tenha uma rejeição
muito elevada. Finalmente, o bloco desmodulador realiza o processo de recuperação da mensagem
e é específico para cada tipo de modulação utilizada na comunicação.

Uma primeira conclusão que se pode tirar deste receptor é a sua enorme complexidade elec-
trónica o que, naturalmente, condiciona a sua versatilidade. O aparecimento dos SDR veio, precisa-
mente, colmatar esta limitação.

F.3 AMOSTRAGEM DE SINAIS DE RÁDIO-FREQUÊNCIA

F.3.1 A MOSTRAGEM I DEAL DE S INAIS PASSA -BAIXO

Recordemos o teorema da amostragem, teorema 10, já apresentado no capítulo 3.

T 20 : Teorema da Amostragem Seja um processo X (t) passa-baixo com suporte em [−B, B[;
é possível amostrar este processo sem qualquer perda de informação se for utilizado um ritmo
de amostragem igual ou superior a 2 × B, ou seja, a frequência de amostragem deve obedecer a
fs ≥ 2 × B.

Mas, se o processo não tiver as características enunciadas, sabemos que ocorre uma sobrepo-
sição de zonas do espectro, fenómeno conhecido por aliasing. Este fenómeno pode, contudo, ser de
bastante utilidade como iremos ver! Continuemos a supor que o suporte de GX ( f ) é no intervalo
[−B; B] e que estamos perante uma amostragem ideal, em que uma dada função amostra do processo
de entrada é multiplicado por um pente de Diracs:

+∞
xa (t) = x(t) × ∑ δ (t − kTs ) (F.1)
k=−∞

sendo, como de depreende, Ts = 1/ fs o período de amostragem. Já no domínio da frequência,


teremos
+∞
GXa ( f ) = fs ∑ GX ( f − k fs ) (F.2)
k=−∞

onde, no somatório, se evidencia bem a repetição periódica do espectro inicial, figura F.3.

Recordemos que a frequência de amostragem fs deve verificar fs ≥ 2B para que não haja
aliasing. A frequência fs /2 é denominada frequência de Nyquist e, como se indica na figura F.3,
o intervalo de frequências ]0; fs /2] é denominado 1a zona de Nyquist. Por sua vez, os intervalos
] fs /2; fs ] e ] fs ; 3 fs /2] são denominados, respectivamente, 2a e 3a zonas de Nyquist.
330 APÊNDICE F. INTRODUÇÃO AOS SOFTWARE-DEFINED RADIO

Figura F.3: Amostragem ideal no domínio da frequência.

F.3.2 A MOSTRAGEM I DEAL DE S INAIS PASSA -BANDA

Suponha-se agora que, como se indica na figura F.4 a), o processo de entrada é um processo
passa-banda, com suporte em ]A; B]. Pelo teorema da amostragem teríamos de amostrar este sinal
a um ritmo r ≥ 2B; ora este ritmo, para muitas aplicações em telecomunicações seria demasiado
elevado para os processadores digitais disponíveis.

G (f)
X

-B -A A B
-f c fc f
a)
GX(f)
a 1ª zona de Nyquist

-3f s -2f s -f s fs /2 fs 2fs 3fs f


b)

Figura F.4: Amostragem ideal de processo passa-banda.

Efectivamente, suponhamos que nos estávamos a reportar à banda de UHF comercial de rádio-
difusão, e que pretendíamos receber uma emissão de TV cuja portadora estivesse, por exemplo, nos
480 MHz e com uma largura de banda de 6 MHz; ou seja, teríamos A = 480·106 MHz e B = 486·106
MH na figura F.4 a). Naturalmente que, se tivéssemos uma frequência de amostragem concordante
com o teorema 20, estaríamos a amostrar esse sinal a 972 MHz!

Mas, admitamos que amostrávamos X a um ritmo bastante inferior, por exemplo a 160 MHz;
F.3. AMOSTRAGEM DE SINAIS DE RÁDIO-FREQUÊNCIA 331

claramente que o espectro do sinal resultante iria apresentar aliasing, como se representa na figura
F.4 b). problema que se levanta é o de saber se esse aliasing apresenta uma vantagem ou, se pelo
contrário, se comporta como um sinal de ruído para a recepção desta transmissão.

Se observarmos atentamente a figura F.4 b) vemos que o espectro original se encontra agora
posicionado na origem, pelo que basta eliminar todas as componentes espectrais que se situem fora
da primeira zona de Nyquist. Vejamos ainda que basta ter-se fs /2 > B e, por outro lado, n · fs = A,
com n = 3. Mas, se reduzíssemos ainda mais a frequência de amostragem, por exemplo, para fs = 32
MHz, ou seja, n · fs = A com n = 15, conseguiríamos recuperar por filtragem passa-baixo (ou seja,
exactamente da mesma forma do exemplo anterior), o sinal modulante. Este fenómeno que consiste
em amostrar sinais a um ritmo inferior ao ritmo de Nyquist, denomina-se de sub-amostragem. Claro
que este processo não apresenta só vantagens e, tem, também, outros problemas. Um deles resulta
do necessidade de se utilizarem filtros passa-banda mais selectivos.

Regressemos à amostragem de X mas, agora, fazendo uso de uma frequência de amostragem


n · fs = B sendo, por exemplo, n = 3 ou seja, fs = 162 MHz. É fácil de ver que o espectro do sinal
amostrado seria o que se indica na figura F.5.

G (f)
X

-B -A A B
-f c fc f
a)
GX(f)
a 1ª zona de Nyquist

-3f s -2f s -f s fs /2 fs 2fs 3fs


f
b)

Figura F.5: Amostragem do processo passa-banda a um ritmo inferior ao de Nyquist.

Podemos verificar que, face à figura F.4, ocorreu uma inversão de frequências na 1a zona de
Nyquist. Esta inversão de frequências pode ser facilmente corrigida por software, bastando para tal
inverter a polaridade das amostras ímpares, por exemplo2 .

Normalmente não será feita a amostragem de forma a (re)posicionar o espectro pretendido


directamente na origem, conforme exposto atrás. Efectivamente, e de forma semelhante à dos re-
ceptores super-heterodinos, a amostragem é efectuada com uma frequência de amostragem de forma
posicionar o espectro pretendido numa dada zona de Nyquist (como se se tratasse de um circuito de
frequência intermédia) a que se segue um bloco (seja em sofwtare ou através de uma FPGA3 ) de
2É muito fácil de mostrar que, em tempo discreto, se multiplicarmos o sinal x(n) por (−1)n se obtém a inversão do
seu espectro.
3 FPGA de Field Programmable Gate Array ou dispositivos electrónicos programáveis; são normalmente constituí-

dos por portas e registos lógicos cujas interligações podem ser programadas externamente, consoante a arquitectura e
332 APÊNDICE F. INTRODUÇÃO AOS SOFTWARE-DEFINED RADIO

conversão e processamento do sinal.

F.4 RECEPTORES SDR

Dado que, em SDR, grande parte do tratamento de sinal é efectuado digitalmente, seria neces-
sário apresentarmos alguma teoria de processamento digital de sinais o que cai fora do âmbito deste
trabalho. Há, na literatura excelentes, obras cuja leitura se recomenda, em especial (Oppenheim
et al. , 1999).

Na figura F.6 apresenta-se um diagrama de blocos de um receptor de SDR simplificado. A


única electrónica analógica deste receptor é o andar de entrada, amplificador de RF, que liga a
antena ao conversor analógico-digital. Todo o resto do receptor é realizado por programas lógicos,
eventualmente suportados em FPGA e DSP4 .

Conversor Conversor
Amplificador Processador
Analógico- Digital-
de RF Digital de Sinal
-Digital -Analógico

MODEM

Relógio

Figura F.6: Diagrama de blocos de um receptor SDR.

O receptor da figura F.6 pode ser melhorado utlizando uma arquitectura mais complexa que
envolve um andar de conversão para uma frequência intermédia, como a que se assinala na figura
F.7 e que permite, por exemplo, utilizar uma frequência de amostragem mais reduzida.

Filtro Filtro Conversor Processador


Amplificador
Passa- Passa- Analógico- Digital de
de RF
-Banda -Banda -Digital Sinal

Oscilador Relógio

Figura F.7: Diagrama de blocos de um receptor SDR.

A conversão da frequência intermédia é efectuada no DSP através de um bloco Digital Down


Conversion (DDC5 ). É usual, neste bloco, obterem-se as componentes em fase e em quadratura do

funcionalidades desejadas.
4 DSP de Digital Signal Processor ou processadores digitais de sinais, que são microprocessadores com uma arquitec-

tura optimizada para a realização de operações aritméticas a alta velocidade.


5 Veja-se, por exemplo, (AD6636, 2005) e (Creaney & Kostarnov, 2008).
F.5. EMISSORES SDR 333

sinal (veja-se a secção 6.2). Segue-se-lhe uma decimação, operação que consiste numa redução do
ritmo de amostragem, veja-se (Oppenheim et al. , 1999) ou (Proakis, 2000), por exemplo.

F.5 EMISSORES SDR

Geralmente, a estrutura de um emissor é a inversa da do receptor. Efectivamente, a mensagem


é codificada digitalmente e irá modular digitalmente uma sub-portadora. Estas operações são todas
efectuadas digitalmente num DSP e/ou FPGA. Esta portadora modulada é convertida num sinal
analógico através de um DAC6 após o que, através de uma heterodinagem é elevada até à frequência
desejada e amplificada antes de ser emitida, figura F.8.

Processador Conversor Filtro Filtro Amplificador


Digital de Digital- Passa- Passa- de RF
Sinal -Analógico -Banda -Banda

Relógio Oscilador

Figura F.8: Diagrama de blocos de um emissor SDR.

6 DAC - Digital to Analog Converter ou conversor digital-analógico.


334 APÊNDICE F. INTRODUÇÃO AOS SOFTWARE-DEFINED RADIO
Apêndice G

INTRODUÇÃO AO ESPALHAMENTO
ESPECTRAL

G.1 INTRODUÇÃO

A motivação às técnicas de comunicação com espalhamento espectral (EE/SS) ou, como são
vulgarmente conhecidas, de spreadspectrum, reside na tentativa de resisitir ou evitar as interferên-
cias (jamming). As técnicas de EE começaram a ser desenvolvidas em meados da década de cin-
quenta do século XX, em contexto militar. As interferências intencionais nas comunicações passam,
primeiro, por detectar a transmissão em causa e, então, por enviar ou emitir um sinal interferente
especificamente projectado para esse efeito. Por conseguinte, as técnicas de EE/SS destinam-se a
dificultar estes desígnios e, de forma semelhante, tornando primeiramente o sinal transmitido difí-
cil de detectar e, em segundo lugar, tornando-o resistente ao efeito da interferência. Se bem que,
geralmente, as interferências intencionais tenham um desígnio eminentemente militar, convém ter
presente que pode haver interferência não-intencional em certos sistemas e bandas de comunicação
não reguladas, como sucede, por exemplo, na comunicação sem fios entre computadores (WIFI).

A expressão espalhamento espectral vem do facto de, nesta técnica, se ocupar uma largura
de banda muito maior do que aquela que seria necessária para transmitir esses dados (digitais).
Podemos dar a noção de que os dados se encontram «escondidos» numa banda larga. Há três formas
comummente empregues para se conseguir este intento:
D
• direct-sequence (DS/SS) ou sequenciação directa, em que a energia da emissão é dispersa
numa larga banda de frequência de forma a parecer um sinal aleatório para ao empastelador1
(jammer);

• frequency hopping (FH/SS) ou saltos na frequência, em que o emissor muda (varia) a frequên-
cia da portadora de uma trransmissão em banda (relativamente) estreita de forma a parecer
aleatória ao jammer;
1A palavra empastelamento é vulgarmente utilizada para acções intencionais de interferência nas comunicações.

335
336 APÊNDICE G. INTRODUÇÃO AO ESPALHAMENTO ESPECTRAL

• técnicas mistas de HF/SS e DS/SS.

G.2 FORMULAÇÃO DO PROBLEMA

É do conhecimento geral que a largura de banda necessária para a transmissão digital está
directamente relacionada com o ritmo de transmissão dos dados; seja Rd esse ritmo, medido em
bit/s. Sem grande rigor, poderemos dizer que a largura de banda necessária para transmitir esses
dados através de portadoras moduladas necessita de uma largura de banda de transmissão BT ≥ Rd
Hz2 . Designaremos espalhamento espectral quando se tem que a banda utilizada na transmissão
verifica BSS  Rd .

D
Definição: Eficiência Espectral diz-se do quociente de Rd por BSS , medida em bit/s/Hz,
Rd
γe , (G.1)
BSS

Claro que num sistema de EE/SS se terá, forçosamente, um valor muito baixo para a eficiência
espectral, BRSSd .

Sejam agora PSS e PJ as potências recebidas, respectivamente, do sinal de EE/SS e de empas-


telamento e, suponhamos que não há outras fontes de ruído3 (Strøm et al. , 2002). Podemos agora
formular o seguinte

Problema: como comunicar fiavelmente quando PJ  PSS ? Na verdade, já analisámos no


capítulo 6 o desempenho de sistemas de telecomunicações na presença de ruído branco gaussiano.
Este apresenta uma energia infinita pois tem uma densidade espectral de potência uniforme, ou seja,
∀ f ∈ R : GW ( f ) = η/2. Contudo, operando numa banda limitada de frequências, poderemos ter em
EE/SS uma vantagem em termos de energia (potência) face ao ruído resultante do empastelamento.

Recordemos que a dimensionalidade do espaço de sinais (matérias abordadas em 4) se rela-


ciona com a duração e a largura de banda dos sinais nesse espaço. Seja, portanto, BSS a largura de
banda de EE/SS e seja, como anteriormente, Rd = 1/Tb o ritmo de dados, onde Tb é a duração de um
bit. Assim, o tempo necessário para transmitir um pacote de P bit é
P
Tp = P × Tb = (G.2)
Rd
Então, a dimensionalidade do espaço de sinais necessário à transmissão deste volume de dados é

Np = 2 × TP × BSS (G.3)
2 Sabemos que, numa comunicação em banda de base, com uma banda de B Hz poderemos transmitir 2 × Rd bit na
unidade de tempo, ou seja, B = Rd /2. Ora, em AM, necessita-se de uma banda de transmissão dupla da largura de banda
necessária para a transmissão em banda de base, BT = 2 × B, pelo que BT = Rd Hz.
3 O ruído, seja ruído térmico ou outro, é uma forma de empastelamento no sentido em que dificulta e compromete a

recepção dos dados.


G.2. FORMULAÇÃO DO PROBLEMA 337

pelo que a dimensão correspondente média à transmissão de um bit vem


Np BSS
Nd = =2 (G.4)
P Rd

Ora, sendo em EE/SS a razão BRSSd 4 muito grande (lembremo-nos de que este quociente é o o inverso
da eficiência espectral, equação (G.1)), pode-se mostrar que a resistência ao empastelamento será
também muito grande.

Admitindo que o empastelador não tem conhecimento a priori do subconjunto de Nd utili-


zado, pode, numa primeira abordagem, optar por distribuir a potência do sinal de empastelamento
igualmente uniformemente em todas as dimensões. Desta forma, este ruído poderá ser encarado
como um sinal branco5 .

Se, à semelhança do ruído de canal, considerarmos que o empastelamento tem uma densidade
espectral de potência uniforme GJ ( f ) = 21 ηJ , então teremos para a potência do (ruído) empastela-
mento, Z ∞ l  T
f 1
PJ = ηJ d f = BSS · ηJ (G.5)
−∞ 2BSS 2

Supondo que este ruído tem uma função densidade de probabilidade gaussiana, poderemos
determinar qual a sua influência num sistema binário antipodal (por exemplo, BPSK) que resulta
numa probabilidade de erro de bit (recordemos a equação (4.78))
T
s !
Eb
Pe = Q 2 (G.6)
ηJ

onde Eb é a energia média por bit que vem dada por

Eb = Ps · Tb (G.7)

sendo Ps a potência do impulso de sinalização. É agora fácil de ver que Pe decresce com o ganho
de processamento (conforme se represnta na figuura G.1), pelo que pode ser tão reduzido quanto se
queira. Contudo, estamos a simplificar demasiado esta análise, pois não são contemplados outros
mecansimos, nomeadamento, os erros resultantes da falha de sincronismo de pacotes ou de tramas
que ocorrerão devido ao empastelamento.

4 Este quociente é conhecido por ganho de processamento, muito embora esta definição não seja a única aceite.
5 Infelizmente, esta abordagem é a forma mais benigna de empastelamento.
338 APÊNDICE G. INTRODUÇÃO AO ESPALHAMENTO ESPECTRAL

−1
10

−2
10

−3
10

−4
10

−5
10
Pe

−6
10

−7
10

−8
10

−9
10

−10
10
0 1 2 3 4 5 6 7 8 9 10
Eb / NJ (dB)

Figura G.1: Probabilidade de erro em função de Eb /ηJ .

G.3 DIRECT-SEQUENCE (DS/SS)

Há duas formas de obter o DS/SS, consistindo a primeira em tratar a expansão da largura


de banda como sendo resultado de uma codificação por repetição, seguida de uma troca aleatória.
A segunda forma consiste em se ter uma modulação BPSK com impulsos de sinalização de banda
(espectro) larga, escolhidos aleatoriamente. Ambas as formas são equivalentes no que respeita à
estrutura dos receptores e no seu desempenho.

Recordemos que num sistema BPSK é enviado o sinal


p ∞
xBPSK (t) = 2Eb cos(2π fc t) ∑ b(n) · p(t − nTb ) (G.8)
n=−∞

onde, como é usual, fc é a frequência da portadora, Eb a energia média de bit, b(n) o n-ésimo bit
de informação (b(n) ∈ {−1, 1}) e p(t) o impulso de sinalização de energia unitária; o ritmo de
transmissão é Rd = T1b .

É claro que a largura de banda de xBPSK (t) depende da forma do impulso de sinalização
bem como do ritmo de transmissão6 . Se considerarmos impulsos de sinalização rectangulares (ou
cosseno-elevado com α ≈ 0), teremos que cerca de 90% da sua energia estará contida em cerca de
2/Tb = 2 · Rd , figuras G.2 e G.3.

Se repetirmos cada pulso de N vezes, a largura de banda será BSS = 2N/Tb = 2N · Rd ; dado
que a largura de banda é amplidada de N vezes, N denomina-se o factor de espalhamento.
6 Admitindo que a sequência binária de informação é aleatória (espectro branco).
G.3. DIRECT-SEQUENCE (DS/SS) 339

−5

−10

−15
10 x log10 |P2|

−20
2R
d
−25

−30

−35

−40
−4 −3 −2 −1 0 1 2 3 4
f x Tb

Figura G.2: Espectro do impulso de sinalização rectangular.

100

90

80

70

60
% da potência

50

40

30

20

10

0
0 0.5 1 1.5 2 2.5 3
f x Tb

Figura G.3: Potência acumulada (percentagem) em função da largura de banda.

No entanto, não basta repetir cada bit N vezes para espalhar o espectro (isto é, aumentar a
largura de banda), é importante garantir que se obtém uma sequência aleatória para que o espectro
resultante seja suficientemente branco. Uma forma de obter uma sequência aleatória de dados d(m)
a partir de b(n) é através de bb( Nm )c ⊕ c(m), sendo c(m) um polinómio pseudo-aleatório e b(· · · )c
representa o arredondamento por defeito ao inteiro mais próximo. Na figura G.4 apresenta-se o
diagrama de blocos de um modulador DS/SS e correspondente receptor na figura G.5.
340 APÊNDICE G. INTRODUÇÃO AO ESPALHAMENTO ESPECTRAL

Rd N ⋅ Rd N ⋅ Rd

Modulador
Repetição x N ⊕ PAM
× xSS (t)

b(n)
c(m) AC cos(2π fct)

Figura G.4: Modulador de DS/SS baseado na repetição de N vezes (adaptado de (Strøm et al. , 2002)).

(n+1)N −1
Filtro
xSS (t) ×
adaptado ⊕ ∑ (!) Decisão b̂(n)
m=N⋅n
m
fc
AC cos(2π fct) c(m)

Figura G.5: Receptor de DS/SS para o transmissor da figura G.4 (adaptado de (Strøm et al. , 2002)).

G.4 FREQUENCY HOPPING (FH/SS)

No caso anterior, o espalhamento na frequência passa por encolher (leia-se: encurtar a du-
ração) dos impulsos. Na prática, dado que o tempo de comutação dos componentes (transístores)
electrónicos é limitado a um dado valor mínimo, a largura de banda do EE/SS fica limitada a algumas
centenas de MHz. Este facto acaba por majorar o ganho de processamento.

Uma forma de ultrapassar estas limitações é utilizar osalto em frequência (frequency hop-
D
ping). Seja então Th o intervalo de tempo em que se está a operar numa dada frequência de portadora,
ou seja; assim, o sinal emitido terá a forma

xFH (t) = Ac · x(t) cos(2π fk t + θk ) (G.9)

sendo fk a frequência da portadora no intervalo de tempo kTh ≤ t < (k + 1)Th ; é incluída a fase
adicional θk para modelar a dificuldade técnica de garantir que a fase é contínua em cada salto de
frequência.

Para que haja um espalhamento espectral eficaz, é necessário que 1/Th , o ritmo de salto em
frequência, seja elevado, o que significa que, no receptor, é difícil estimar a fase da portadora. Por
conseguinte, ficam excluídos os detectores coerentes, optando-se, normalmente, por sistemas de
detecção não-coerentes. Consideremos portanto que se está em presença de uma modulação FSK
com M níveis e que o espaçamento de frequência permite o uso de detectores não-coerentes.

Sendo Ts o tempo de símbolo, então 1/Ts é o ritmo de símbolo7 ; defina-se salto lento (slow
D
7A distinção entre tempo (ritmo) de símbolo e tempo (ritmo) de dados, prende-se com a possibilidade de se incluírem
bits extra para detecção/correcção de erros.
G.4. FREQUENCY HOPPING (FH/SS) 341

hopping) ou rápido (fast hopping) quando se tem

1 SlowHopping 1
≶ (G.10)
Th FastHopping Ts

No caso dos sistemas de salto lento, o espaçamento na frequência entre as várias alternativas
do sinal tem de ser múltiplo de 1/Ts para se poderem utilizar detectores não-coerentes. Se utili-
zarmos uma codificação sem bits extra para detecção/correcção de erros, teremos que o ritmo de
símbolo virá, no caso de não se usar codificação de erros,

log2 (M)
Rs = (G.11)
Tb

Pelo contrário, num sistema de salto rápido, cada símbolo «espalhar-se-á» por mais do que
um salto, como se representa na figura G.6 em baixo

0 1 0 0 1 1 0 1 0

a)
frequência

b) t
frequência

c) t

Figura G.6: Método de FH/SS: lento em b) com 3 bit/salto e rápido em c) com 3 saltos/bit; em a) representa-se
a sequência de dados a transmitir.

Na figura G.7 exemplifica-se a estrutura de um sistema de comunicação baseado em FH/SS


indicando-se, em cima, o emissor e, em baixo, o receptor.

O estudo mais aprofundado destas matérias extravasa claramente o âmbito destas notas, pelo que se
recomenda a leitura do trabalho de síntese de (Strøm et al. , 2002), por exemplo.
342 APÊNDICE G. INTRODUÇÃO AO ESPALHAMENTO ESPECTRAL

Sequência
Modulador Modulador
de dados

Sequência Sintetizador
de saltos de frequências
Emissor

Sequência
Desmodulador Desmodulador de dados

Sequência Sintetizador
de saltos de frequências
Receptor

Figura G.7: Diagrama de blocos de um sistema de FH/SS: emissor em cima e receptor em baixo.
Apêndice H

Historial das Revisões ao original de


Março de 2015

343
344

Tabela H.1: da relação das principais revisões e modificações ao longo do tempo.

Capítulo /
Data Apêndice Descrição
24 / 5 / 2016 5 Limiar de FM; Desempenho
26 / 5 / 2016 F Todo o apêndice F
29 / 5 / 2016 5 Toda a Secção 5.1.3
29 / 5 / 2016 4 Problema SSB
30 / 5 / 2016 5 nova secção 5.1.2
31 / 5 / 2016 5 nova secção 5.5
2 / 6 / 2016 4 Problema P.5
8 / 6 / 2016 G tudo novo
9 / 6 / 2016 G Secção G.3
12 / 6 / 2016 G Secções G.3 e G.4
19 / 6 / 2016 5 Correcção da Eq. (6.119)
26 / 7 / 2016 4 Nova Secção (4.3)
28 / 12 / 2016 4e5 Correcção erros ortografia
5 / 2 / 2017 1 Problema 3
5 / 3 / 2017 2 Variável aleatória de Poisson
7 / 3 / 2017 1 Condições de Dirichlet
7 / 3 / 2017 A Demonstração Teorema de Parseval
7 / 3 / 2017 1 Tabela de Pares de Transformadas de Fourier
8 / 3 / 2017 1 Impulso de Gauss e Janela Triangular
14 / 3 / 2017 1 Energia e Potência de Sinais
02 / 6 / 2017 4 Gráficos de 4.3
4 / 6 / 2017 3 junção do anterior apêndice C com o capítulo 3
4 / 6 / 2017 6, 4 e 5 anterior capítulo 6 passou a capítulo 4; renumeração dos capítulos
14 / 6 / 2017 Todos Substituição das fotos por originais do autor
6 / 2 / 2018 1 Janelas de análise e seus espectros
13 / 2 / 2018 Todos Inclusão de mais problemas (total de 8)
26 / 4 / 2018 3 Reorganização interna
26 / 4 / 2018 Apêndices Reorganização geral
7 / 5 / 2018 4 Actualização do 4.1, constelação QPSK
7 / 5 / 2018 3 Capacidade do Canal
17 / 6 / 2018 3, 5 e 6 Novos problemas resolvidos
21 / 6 / 2019 Apêndice PLL Malha Captura de Fase
345

Tabela H.2: das alterações em curso e a efectuar futuramente.

Capítulo /
Data Apêndice Descrição
24 / 5 / 2016 F Introdução aos SDR
24 / 5 / 2016 G Introdução ao Spread Spectrum
21 / 6 / 2019 Apêndice PLL Malha Captura de Fase
346
Bibliografia

AD6636. 2005. 150 MSPS, Wideband, Digital Downconverter (DDC) (Application Note). Analog
Devices.

Balakrishnam, Hari, Terman, Christopher, & Verghese, George. 2012. Bits, Signals, and Packets: An
Introduction to Digital Communications and Networks. Mit 2012 edn. Capítulos 5 a 8, acedidos
em 8 de Fevereiro de 2016 em http://ocw.mit.edu/courses/electrical-engineering-and-computer-
science/6-02-introduction-to-eecs-ii-digital-communication-systems-fall-2012/readings/.

Barnela, Manoj, & Rohtak, M. 2014. Digital Modulation Schemes Employed in Wireless Commu-
nication: A Literature Review. International Journal of Wired and Wireless Communications, Vol.
2, Issue 2.

Barroso, Victor Alberto Neves. 2006. Fundamentos de Telecomunicações. DEEC/IST.

Benvenuto, N., Corvaja, R., Erseghe, T., & Laurenti, N. 2007. Communication Systems. Wiley.

Cameron, Peter. 2000. Notes on Probability. Queen Mary University of London,on-line ed.

Cover, Thomas, & Thomas, Joy. 2006. Elements of Information Theory. John Wiley, 4a edição.

Creaney, Stephen, & Kostarnov, Igor. 2008. Designing Efficient Digital Up and Down Converters
for Narrowband Systems (Application Note: Virtex-5 Family). Xilinx (XAPP111).

Das, J., Millick, S. K., & Chatterjee, P. K. 1986. Principles of Digital Communications. Wiley
Eastern Limited.

Haykin, Simon. 2001. Communication Systems. John Wiley.

Hsu, Hwei. 2003. Theory and Problems of Analog and Digital Communications. Schaum’s Outline
Series, McGraw-Hill, 2a edição.

Jakobsson, Andreas. 2004. An Introduction to Stochastic Processes. Lund University.

Koskivaara, Olli. 2015. The Hilbert Transform. acedido em 26 de Julho de 2019 em


http://users.jyu.fi/ olalkosk/miscellaneous/The%20Hilbert%20Transform.pdf.

Massey, James. 1998. Applied Digital Information Theory I, Lecture Notes. ETH Zurich.

Oppenheim, Alan, Schafer, Ronald, & Buck, John. 1999. Discrete-Time Signal Processing (2nd
ed.). Prentice Hall.

347
348 BIBLIOGRAFIA

Proakis, John. 2000. Digital Communications. McGraw-Hill, 4a edição.

Shannon, Claude. 1948. A Mathematical Theory of Communication. Bell System Technical Journal,
vol. 27.

Smillie, Grahame. 2002. Analogue and Digital Communication Techniques. Newnes.

Starr, Thomas, Cioffi, John, & Silverman, Peter. 1999. Understanding Digital Subscriber Line Tech-
nology. Capítulos 1 a 6, acedidos em 21 de Maio de 2015 em http://web.stanford.edu/group/cioffi/.

Strøm, Jerik, Ottosson, Tiny, & Svensson, Arne. 2002. An Introduction to Spread Spectrum Systems.
Gøteborg, Suécia: Chamlmers University of Technology.
c António Joaquim dos Santos Romão Serralheiro

3 de Setembro de 2019

Você também pode gostar