Você está na página 1de 258

Probabilidade, Estatstica e Processos Estocsticos

Carlos Alberto Ynoguti


25 de janeiro de 2011

Agradecimentos

Ao Prof. Dr. Dayan Adionel Guimares pela criteriosa reviso do texto.

Sumrio
Lista de Figuras

vii

1 Probabilidade
1.1 Introduo. . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Teoria de Conjuntos. . . . . . . . . . . . . . . . . . . . .
1.2.1 Lei de De Morgan. . . . . . . . . . . . . . . . . .
1.2.2 Princpio da Dualidade. . . . . . . . . . . . . . .
1.3 Definies de Probabilidade. . . . . . . . . . . . . . . . .
1.3.1 Frequncia Relativa. . . . . . . . . . . . . . . . .
1.3.2 Axiomtica. . . . . . . . . . . . . . . . . . . . . .
1.3.3 Clssica. . . . . . . . . . . . . . . . . . . . . . . .
1.4 Clculo de probabilidades usando mtodos de contagem.
1.4.1 Amostragem com reposio e ordenao. . . . . .
1.4.2 Amostragem sem reposio e com ordenao. . .
1.4.3 Permutao de n objetos distintos. . . . . . . . .
1.4.4 Amostragem sem reposio e sem ordenao. . .
1.4.5 Amostragem com reposio e sem ordenao. . .
1.5 Probabilidade Conjunta. . . . . . . . . . . . . . . . . . .
1.5.1 Probabilidades Marginais. . . . . . . . . . . . . .
1.6 Probabilidade Condicional. . . . . . . . . . . . . . . . .
1.6.1 Regra de Bayes. . . . . . . . . . . . . . . . . . . .
1.7 Eventos independentes. . . . . . . . . . . . . . . . . . . .
1.8 Experimentos sequenciais e diagramas em rvore . . . .
1.9 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

1
1
2
4
5
5
5
6
7
7
8
8
9
10
11
11
12
12
13
14
16
19

2 Variveis Aleatrias
2.1 Definio. . . . . . . . . . . . . . . . . . . . . . . .
2.2 Funo distribuio cumulativa. . . . . . . . . . . .
2.3 Tipos de Variveis Aleatrias . . . . . . . . . . . .
2.3.1 Discretas . . . . . . . . . . . . . . . . . . .
2.3.2 Contnuas . . . . . . . . . . . . . . . . . . .
2.3.3 Mistas . . . . . . . . . . . . . . . . . . . . .
2.4 Funo Densidade de Probabilidade . . . . . . . . .
2.4.1 Definio . . . . . . . . . . . . . . . . . . .
2.4.2 Propriedades . . . . . . . . . . . . . . . . .
2.4.3 Caso Discreto . . . . . . . . . . . . . . . . .
2.5 Algumas variveis aleatrias discretas importantes
2.5.1 Bernoulli . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

25
25
27
30
30
31
32
33
33
34
35
36
36

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

SUMRIO

2.5.2 Binomial . . . . . . . . . . . . . . . . . . . . . . .
2.5.3 Poisson . . . . . . . . . . . . . . . . . . . . . . .
2.5.4 Geomtrica . . . . . . . . . . . . . . . . . . . . .
2.6 Algumas variveis aleatrias contnuas importantes . . .
2.6.1 Uniforme . . . . . . . . . . . . . . . . . . . . . .
2.6.2 Exponencial . . . . . . . . . . . . . . . . . . . . .
2.6.3 Rayleigh . . . . . . . . . . . . . . . . . . . . . . .
2.6.4 Gaussiana . . . . . . . . . . . . . . . . . . . . . .
2.6.5 Gama . . . . . . . . . . . . . . . . . . . . . . . .
2.6.6 m-Erlang . . . . . . . . . . . . . . . . . . . . . .
2.6.7 Chi-Quadrado (2 ) . . . . . . . . . . . . . . . . .
2.6.8 Cauchy . . . . . . . . . . . . . . . . . . . . . . .
2.6.9 Laplace . . . . . . . . . . . . . . . . . . . . . . .
2.7 Densidades Condicionais . . . . . . . . . . . . . . . . . .
2.8 Variveis Aleatrias Mltiplas . . . . . . . . . . . . . . .
2.8.1 Funo Distribuio de Probabilidade Conjunta .
2.8.2 Densidades marginais . . . . . . . . . . . . . . .
2.8.3 Caso multidimensional . . . . . . . . . . . . . . .
2.8.4 Funo distribuio de probabilidade condicional
2.8.5 Independncia Estatstica de Variveis Aleatrias
2.9 Funes de Variveis Aleatrias . . . . . . . . . . . . . .
2.9.1 Caso Unidimensional . . . . . . . . . . . . . . . .
2.9.2 Caso Multidimensional . . . . . . . . . . . . . . .
2.10 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . .

iii

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

37
37
38
38
39
40
40
41
45
46
47
47
48
49
51
51
52
53
54
56
56
56
61
64

3 Mdias Estatsticas de Variveis Aleatrias


3.1 Mdias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.1.1 Mdia de uma Varivel Aleatria . . . . . . . . . . . . . . . . .
3.1.2 Mdia de uma Funo de uma Varivel Aleatria . . . . . . . .
3.1.3 Mdias para Variveis Mltiplas . . . . . . . . . . . . . . . . .
3.1.4 Mdia da Soma de Funes . . . . . . . . . . . . . . . . . . . .
3.1.5 Mdia do Produto de Duas Variveis Aleatrias Independentes
3.1.6 Mdia Quadrtica da Soma de Duas Variveis Aleatrias . . . .
3.1.7 Mdia condicional . . . . . . . . . . . . . . . . . . . . . . . . .
3.2 Momentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2.1 N -simo momento . . . . . . . . . . . . . . . . . . . . . . . . .
3.2.2 Momentos Centrais . . . . . . . . . . . . . . . . . . . . . . . . .
3.2.3 Varincia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2.4 Caso Multidimensional . . . . . . . . . . . . . . . . . . . . . . .
3.2.5 Variveis Aleatrias Descorrelacionadas e Ortogonais . . . . . .
3.3 Funes Caractersticas . . . . . . . . . . . . . . . . . . . . . . . . . .
3.3.1 Caso multidimensional . . . . . . . . . . . . . . . . . . . . . . .
3.4 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

72
72
72
74
75
76
77
77
78
78
78
79
79
80
82
83
85
86

4 Mtodos computacionais para gerao de nmeros aleatrios


4.1 Introduo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2 Mtodo do resduo da potncia . . . . . . . . . . . . . . . . . . . . . . .
4.3 Mtodo da transformada . . . . . . . . . . . . . . . . . . . . . . . . . . .

90
90
90
92

iv

SUMRIO

4.4
4.5
4.6
4.7

O mtodo da rejeio . . . . . . . . . . . . . .
Gerao de funes de uma varivel aleatria
Gerao de misturas de variveis aleatrias .
Exerccios . . . . . . . . . . . . . . . . . . . .

5 Somas de Variveis Aleatrias e o Teorema


5.1 Introduo . . . . . . . . . . . . . . . . . . .
5.2 Mdias de somas . . . . . . . . . . . . . . .
5.3 Fdp da soma de duas v.a.s . . . . . . . . .
5.4 Funo geratriz de momentos . . . . . . . .
5.5 FGM da soma de v.a.s independentes . . .
5.6 Somas de v.a.s gaussianas independentes .
5.7 Somas aleatrias de v.a.s independentes . .
5.8 Teorema do limite central . . . . . . . . . .
5.9 Aplicaes do Teorema do Limite Central .
5.10 Exerccios . . . . . . . . . . . . . . . . . . .

.
.
.
.

do
. .
. .
. .
. .
. .
. .
. .
. .
. .
. .

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

94
97
98
98

Limite Central
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

100
100
100
103
105
109
111
112
116
118
120

6 Limitantes Superiores para a Probabilidade de Cauda


6.1 Desigualdade de Markov . . . . . . . . . . . . . . . . . .
6.2 Desigualdade de Chebyshev . . . . . . . . . . . . . . . .
6.3 Limitante de Chernoff . . . . . . . . . . . . . . . . . . .
6.4 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

125
125
126
128
129

7 A mdia amostral
7.1 Introduo . . . . . . . . . . . . . . . .
7.2 Valor esperado e varincia . . . . . . .
7.3 Mdia amostral de nmeros grandes .
7.4 Leis de Nmeros Grandes . . . . . . .
7.4.1 Lei Fraca de Nmeros Grandes
7.4.2 Lei Forte de Nmeros Grandes
7.5 Exerccios . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

132
132
132
134
135
136
137
138

8 Processos Estocsticos
8.1 Definio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.2 Tipos de procesos estocsticos . . . . . . . . . . . . . . . . . . . .
8.3 Variveis aleatrias a partir de processos estocsticos . . . . . . .
8.4 Sequncias aleatrias independentes e identicamente distribudas
8.5 Processo de Contagem . . . . . . . . . . . . . . . . . . . . . . . .
8.6 Processo de Poisson . . . . . . . . . . . . . . . . . . . . . . . . .
8.7 Processo sinal telegrfico aleatrio . . . . . . . . . . . . . . . . .
8.8 Processo movimento Browniano . . . . . . . . . . . . . . . . . . .
8.9 Mdias estatsticas de processos aleatrios . . . . . . . . . . . . .
8.9.1 Momentos . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.9.2 Funo de autocovarincia . . . . . . . . . . . . . . . . . .
8.10 Classificao dos processos estocsticos . . . . . . . . . . . . . . .
8.10.1 Processos estocsticos estacionrios e no estacionrios . .
8.10.2 Processos estacionrios no sentido amplo . . . . . . . . . .
8.10.3 Processos ergdicos . . . . . . . . . . . . . . . . . . . . . .
8.11 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

140
140
142
143
145
147
148
152
154
155
159
159
160
160
161
164
166

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

SUMRIO

9 Processamento de Sinais Aleatrios


9.1 Sistemas lineares e invariantes no tempo . .
9.2 Filtragem linear de um processo estocstico
9.3 Espectro densidade de potncia . . . . . . .
9.4 Correlaes cruzadas . . . . . . . . . . . . .
9.4.1 Funo de correlao cruzada . . . .
9.4.2 Densidade espectral cruzada . . . . .
9.4.3 Filtragem de processos estocsticos .
9.5 Processos gaussianos . . . . . . . . . . . . .
9.6 Processo rudo branco gaussiano . . . . . .
9.7 Exerccios . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

173
173
174
177
181
181
184
186
188
191
193

10 Cadeias de Markov
199
10.1 Processos de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
10.2 Cadeias de Markov de Tempo discreto . . . . . . . . . . . . . . . . . . . 202
10.2.1 Probabilidade de transio para n passos . . . . . . . . . . . . . . 203
10.2.2 Probabilidades dos estados . . . . . . . . . . . . . . . . . . . . . 204
10.2.3 Probabilidades em regime . . . . . . . . . . . . . . . . . . . . . . 206
10.3 Cadeias de Markov em tempo contnuo . . . . . . . . . . . . . . . . . . . 207
10.3.1 Tempos de ocupao de estados . . . . . . . . . . . . . . . . . . . 209
10.3.2 Taxas de transio e probabilidades de estados dependentes de
tempo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210
10.4 Probabilidades de Estados em Regime e Equaes de Balano Globais . 214
10.5 Classes de estados, propriedades de recorrncia e probabilidades limite . 218
10.5.1 Classes de estados . . . . . . . . . . . . . . . . . . . . . . . . . . 218
10.5.2 Propriedades de recorrncia . . . . . . . . . . . . . . . . . . . . . 220
10.5.3 Probabilidades limite . . . . . . . . . . . . . . . . . . . . . . . . . 223
10.5.4 Probabilidades limite para as cadeias de Markov de tempo contnuo226
10.6 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228
A Tabelas Matemticas
A.1 Identidades trigonomtricas
A.2 Coeficientes Binomiais . . .
A.3 Derivadas . . . . . . . . . .
A.4 Integrais indefinidas . . . .
A.5 Integrais definidas . . . . .

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

234
234
235
235
236
237

B Tabelas de transformadas de Fourier


238
B.1 Definio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 238
B.2 Propriedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 238
B.3 Pares de transformadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239
C Sries de Taylor
240
C.1 Srie de Taylor para funes de uma varivel . . . . . . . . . . . . . . . 240
C.2 Expanses mais utilizadas . . . . . . . . . . . . . . . . . . . . . . . . . . 240

vi

SUMRIO

D Variveis aleatrias discretas


D.1 Bernoulli . . . . . . . . . . .
D.2 Binomial . . . . . . . . . . .
D.3 Geomtrica . . . . . . . . .
D.4 Binomial negativa . . . . . .
D.5 Poisson . . . . . . . . . . .

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

242
242
242
242
243
243

E Variveis aleatrias contnuas


E.1 Uniforme . . . . . . . . . .
E.2 Exponencial . . . . . . . . .
E.3 Gaussiana (Normal) . . . .
E.4 Gama . . . . . . . . . . . .
E.5 m-Erlang . . . . . . . . . .
E.6 Chi-Quadrado (2 ) . . . . .
E.7 Rayleigh . . . . . . . . . . .
E.8 Cauchy . . . . . . . . . . .
E.9 Laplace . . . . . . . . . . .

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

244
244
244
244
245
245
245
245
246
246

F Valores da distribuio normal

247

Bibliografia

250

Lista de Figuras
1.1
1.2
1.3
1.4
2.1

Espao amostral para o arremesso de um dado. . . . . . . . . . . . . . .


Representao do a) complemento, b) unio, c) interseo de eventos, e
d) eventos disjuntos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Demonstrao da lei de De Morgan. . . . . . . . . . . . . . . . . . . . .
Espao amostral para a derivao da regra de Bayes. . . . . . . . . . . .

2
4
4
13

2.13
2.14
2.15

Uma v.a. associa um nmero x = X() a cada resultado no espao


amostral S de um experimento aleatrio. . . . . . . . . . . . . . . . . . .
Eventos equivalentes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
P [a < X b] = FX (b) FX (a) . . . . . . . . . . . . . . . . . . . . . . .
Exemplo de uma fdc de uma v.a. discreta. . . . . . . . . . . . . . . . . .
Grfico da fdc de v.a. contnua X. . . . . . . . . . . . . . . . . . . . . .
Grfico de FX (x). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Um exemplo de v.a. mista. . . . . . . . . . . . . . . . . . . . . . . . . .
A funo densidade de probabilidade especifica a probabilidade de intervalos de largura infinitesimal. . . . . . . . . . . . . . . . . . . . . . . . .
A probabilidade de um intervalo [a, b] a rea sob a fdp naquele intervalo.
Fdcs condicional e incondicional de X. . . . . . . . . . . . . . . . . . . .
a) Dependncia entre X e Y, b) fX (x), e c) fY (y). . . . . . . . . . . . .
Uma transformao da v.a. X e um exemplo das fdps correspondentes
de X e Y . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Funo de uma v.a. com duas razes. . . . . . . . . . . . . . . . . . . . .
Uma transformao quadrtica da v.a. X. . . . . . . . . . . . . . . . . .
Funo densidade de probabilidade de Rayleigh. . . . . . . . . . . . . . .

3.1
3.2

Funo densidade de probabilidade gaussiana com mdia m e varincia 2 . 73


Y = g(X). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74

4.1
4.2
4.3
4.4
4.5

Mtodo da transformada para gerar uma varivel aleatria com fdc FX (x).
Gerando uma varivel aleatria com distribuio de Bernoulli. . . . . . .
Gerando uma varivel aleatria com distribuio Binomial. . . . . . . . .
Mtodo da rejeio para gerar uma varivel aleatria com fdp fX (x). . .
Mtodo da rejeio para gerar uma varivel aleatria com distribuio
gama (0 < < 1). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

2.2
2.3
2.4
2.5
2.6
2.7
2.8
2.9
2.10
2.11
2.12

5.1
5.2

25
27
28
31
31
32
33
34
34
51
57
59
59
60
64

92
93
94
95
96

Regio de integrao para a obteno de FW (w). . . . . . . . . . . . . . 103


Regio de integrao para a obteno de FW (w). . . . . . . . . . . . . . 104

viii

LISTA DE FIGURAS

5.3

O nmero de caras em 50 arremessos de uma moeda ideal: 400 repeties


experimentais versus a fmp binomial. . . . . . . . . . . . . . . . . . . . . 117

6.1
6.2

Regio A (sombreada). . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127


Um limitante superior exponencial usado para obter a probabilidade de
cauda (limitante de Chernoff). . . . . . . . . . . . . . . . . . . . . . . . . 128

7.1

Convergncia de uma sequncia de mdias amostrais obtidas a partir


de uma sequncia de v.a.s com distribuio Gaussiana de mdia 4 e
varincia 10. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137

8.1
8.2
8.3

141
141

Um processo estocstico que representa a temperatura de uma cidade. .


Um conjunto com um nmero finito de funes amostra. . . . . . . . . .
Funes amostra de quatro tipos de processos estocsticos: X(t) um
processo contnuo no tempo e na amplitude; X(n), obtido a partir da
amostragem de X(t) em instantes de tempo inteiros n, discreto no tempo
e contnuo na amplitude; Y (t) obtida a partir da quantizaco de X(t)
nos instantes de amostragem, e um processo discreto na amplitude e
contnuo no tempo; finalmente, Y (n), um processo discreto no tempo e
na amplitude, obtido a partir da amostragem de Y (t). . . . . . . . . .
8.4 Funo amostra de um processo de contagem . . . . . . . . . . . . . . .
8.5 Funo amostra de um processo telegrfico aleatrio . . . . . . . . . . .
8.6 Forma de onda do pulso p(t). . . . . . . . . . . . . . . . . . . . . . . . .
8.7 Erro de deteo devido ao rudo. . . . . . . . . . . . . . . . . . . . . . .
8.8 Processo estocstico comprimido no tempo. . . . . . . . . . . . . . . . .
8.9 Fdp dos processos x e y. . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.10 Funes de autocorrelao para os processos X(t) e Y (t). . . . . . . . .
8.11 Processo aleatrio X(t) = A cos(c t + ). . . . . . . . . . . . . . . . . . .
8.12 Classificao dos processos estocsticos. . . . . . . . . . . . . . . . . . .
9.1
9.2

10.1
10.2
10.3
10.4

143
148
152
155
156
157
157
158
162
165

Filtro passa faixa ideal H(f ) com frequncia central f0 e largura de banda
B Hz. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179
A correlao cruzada entre a entrada e a sada de um filtro linear invariante no tempo a convoluo da resposta a impulso do filtro com a
funo de autocorrelao da entrada. A densidade espectral cruzada entre a entrada e a sada o produto do espectro densidade de potncia da
entrada com a funo de transferncia do filtro. A densidade espectral de
potncia da sada o produto da densidade espectral cruzada da entrada
e da sada e o complexo conjugado da funo de transferncia do filtro. . 188

Transies para o estado j. . . . . . . . . . . . . . . . . . . . . . . . . .


Balano global de fluxo de probabilidade. . . . . . . . . . . . . . . . . .
Diagrama de transio de estados para o sistema M/M/1. . . . . . . . .
Diagrama de taxa de transio para um processo de nascimento e morte
geral. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10.5 Instantes de recorrncia para o estado i. . . . . . . . . . . . . . . . . . .

211
215
216
217
224

Captulo 1

Probabilidade

1.1

Introduo.

Em muitos problemas fsicos de interesse, existe um elemento de incerteza, ou aleatoriedade. Independente de quanto possamos conhecer da histria passada de um dado
fenmeno, somos essencialmente incapacitados de predizer seu comportamento futuro
de forma precisa. Ex. cara ou coroa.
Foi observado que nestes casos certas mdias tendem a um valor constante medida
em que o nmero de observaes cresce. (No exemplo da cara e coroa, quais seriam
estas mdias?) Desde que as mdias geralmente exibem tal regularidade, e so portanto
razoavelmente previsveis, parece ser desejvel desenvolver um estudo sobre o clculo
destas mdias. Este o domnio da teoria matemtica da probabilidade e estatstica.
O propsito desta descrever e predizer tais mdias em termos de probabilidades de
eventos.
Algumas definies importantes:

Definio 1.1. Experimento aleatrio: um experimento chamado aleatrio se


seu resultado no pode ser predito precisamente porque as condies em que realizado
no podem ser predeterminadas com preciso suficiente.
Exemplo: arremesso de dados ou moedas.

Definio 1.2. Resultados: so os resultados particulares da execuo de um experimento.


Exemplo: cara, coroa.

Probabilidade

Definio
cificaes.
Exemplo:
resultar de
resultados.

1.2

1.3. Eventos: so conjuntos de resultados que atendem a algumas espeno caso de jogar dados, o evento nmero mpar em um arremesso pode
qualquer um de 3 resultados 1,3,5. Desta forma este um evento de 3
Portanto, eventos so agrupamentos de resultados em classes.

Teoria de Conjuntos.

Definio 1.4. Espao amostral: o espao amostral S definido como uma coleo
de todos os resultados possveis de um experimento aleatrio. Cada resultado um
elemento ou amostra deste espao e pode ser convenientemente representado por um
ponto no espao amostral.

Exemplo 1.1. No caso do dado, o espao amostral consiste de 6 elementos 1 , 2 , 3 ,


4 , 5 , 6 , onde os i representam o resultado i pontos. O evento, por outro lado,
um subconjunto de S.
O evento nmero mpar em um arremesso, denotado por Ao , um subconjunto de
S (ou um conjunto com os elementos 1 , 3 e 5 ). Similarmente, o evento nmero par
em um arremesso, denotado por Ae outro subconjunto de S (ou um conjunto com os
elementos 2 , 4 e 6 ). O evento nmero menor ou igual a 4 em uma jogada, denotado
por B formado pelos elementos 1 , 2 , 3 e 4 .
Na Figura 1.1 abaixo, tem-se uma representao grfica destes eventos em um diagrama de Venn.
S
B

Ao

Ae

Figura 1.1: Espao amostral para o arremesso de um dado.

Probabilidade

O operador para o
complemento tambem
pode ser representado
por uma barra.

Definio 1.5. O complemento de um evento A, denotado por Ac , o evento que


contm todos os pontos de S que no esto em A.

No exemplo acima, quais so os eventos complementares de Ao , Ae , e B ?.

Definio 1.6. Um evento que no contm elementos chamado de evento nulo,


e denotado por .

Observe que o evento nulo o complemento do espao amostral S : = S c .

Importante!!!!
Definio 1.7. A unio de eventos A e B, denotada por AB, aquele que contm
todos os pontos em A e B.

Verifique no exemplo anterior quais so os eventos Ao Ae , Ao B, Ae B). Observe


que A B = B A.

Definio 1.8. A interseo dos eventos A e B, denotada por A B ou simplesmente AB, o evento que contm pontos comuns a A e a B. Este evento tambm
conhecido como evento conjunto AB.

Observe que AB = BA. Na figura 1.2 abaixo, tem-se estes conceitos mostrados
graficamente em diagramas de Venn.

Definio 1.9. Se os eventos A e B so tais que AB = ento A e B so ditos


eventos disjuntos ou mutuamente exclusivos.

Isto quer dizer que A e B no podem ocorrer simultaneamente. (A e Ac so mutuamente exclusivos).


Estes conceitos so mostrados de forma grfica na Figura 1.2.

Probabilidade

ts
S

Ac

A
A

b)

a)

B
d)

c)

Figura 1.2: Representao do a) complemento, b) unio, c) interseo de eventos, e d)


eventos disjuntos.

1.2.1

Lei de De Morgan.

Teorema 1.1. Se A e B so eventos em um espao amostral ento:


(1.1)

A+B =AB
Equivalentemente, podemos escrever:

(1.2)

AB = A + B

Demonstrao. A lei de De Morgan pode ser facilmente demonstrada por meio de diagramas de Venn:

A+B

AB

Figura 1.3: Demonstrao da lei de De Morgan.

Observao
A aplicao repetida da equao (1.1) leva ao seguinte: se em uma identidade de conjuntos substituimos todos os conjuntos pelos seus complementos, todas as unies por
interseces, e todas as interseces por unies, a identidade preservada.
Exemplo 1.2. Seja a identidade

Probabilidade

(1.3)

A(B + C) = AB + AC
Usando (1.1) segue que
A(B + C) = A + B + C = A + B C
Similarmente
AB + AC = AB AC = (A + B)(A + C)

e desde que os dois lados de (1.3) so iguais, seus complementos tambm o so. Portanto
A + B + C = (A + B)(A + C)

(1.4)

Estas identidades podem ser facilmente conferidas por meio de diagramas de Venn.

1.2.2

Princpio da Dualidade.

Sabemos que S = e = S. Alm disso, se em uma identidade como (1.3) todas as


barras forem removidas, a identidade preservada. Isto leva seguinte verso da lei de
De Morgan:

Proposio 1.1. Se em uma identidade de conjuntos substitumos todas as unies


por interseces, todas as interseces por unies, e os conjuntos S e pelos conjuntos
e S respectivamente, a identidade preservada.

Aplicando o teorema acima s identidades


A(B + C) = AB + AC

S =A+S

obtemos as identidades
A + BC = (A + B)(A + C)

1.3
1.3.1

= A

Definies de Probabilidade.
Frequncia Relativa.

Embora o resultado de um experimento aleatrio seja imprevisvel, existe uma regularidade estatstica sobre este, e a definio por freqncia relativa baseia-se nesta regularidade.

Probabilidade

Definio 1.10. A probabilidade P (A) de um evento A dada pelo limite


nA
n
onde nA o nmero de ocorrncias de A e n o nmero de tentativas.
P (A) = lim

(1.5)

Observaes importantes
1. Segue da definio que 0 P (A) 1.
2. Se A e B so dois eventos mutuamente exclusivos
P (A + B) = P (A) + P (B) = lim

nA + nB
n

(1.6)

3. Se A1 , A2 , ..., AN no forem mutuamente exclusivos ento:


P (A1 + A2 + ... + AN ) < P (A1 ) + P (A2 ) + . . . + P (AN )

1.3.2

(1.7)

Axiomtica.

Definio 1.11. A aproximao axiomtica para a probabilidade baseada nos trs


postulados seguintes e nada mais:
1. A probabilidade P (A) de um evento A um nmero positivo associado a este
evento
P (A) 0
(1.8)
2. A probabilidade do espao amostral igual a 1
(1.9)

P (S) = 1
3. Se os eventos A e B so mutuamente exclusivos, ento
P (A + B) = P (A) + P (B)

P(A+B)=P(A)+P(B)-P(AB)

(1.10)

Propriedades:
P () = 0
P (Ac ) = 1 P (A)
P (A + B) = P (A) + P (B) P (AB) P (A) + P (B)

evento impossvel
Ac complemento de A
probabilidade da unio

Exemplo 1.3. Determinar a probabilidade de obteno de uma cara e duas coroas em


3 arremessos de uma moeda ideal.

Probabilidade

Soluo. Neste caso, os resultados possveis so:


1)
2)
3)
4)

ca,
ca,
ca,
ca,

ca,
ca,
co,
co,

ca
co
ca
co

5)
6)
7)
8)

co,
co,
co,
co,

ca,
ca,
co,
co,

ca
co
ca
co

So possveis 8 resultados mutuamente exclusivos P (Ai ) = 1/8


P (1ca, 2co) = P (A4 ) + P (A6 ) + P (A7 ) = 3/8.

1.3.3

Clssica.

Definio 1.12. A probabilidade P (A) de um evento A determinada a priori sem


experimentao real, e dada pela expresso
P (A) =

nA
n

(1.11)

onde:
n: nmero de resultados possveis,
nA : nmero de resultados favorveis ao evento A.

Verso melhorada da definio clssica

Definio 1.13. A probabilidade de um evento igual razo entre seus resultados favorveis e o nmero total de resultados, desde que todos os resultados sejam
equiprovveis.

Exemplo 1.4. Arremesso de um dado P (mpar) = 3/6 = 1/2.

Fim da Aula 1

1.4

Clculo de probabilidades usando mtodos de contagem.

Em muitos experimentos com espaos amostrais finitos, os resultados podem ser assumidos como sendo equiprovveis. A probabilidade de um evento ento a razo entre
o nmero de resultados no evento de interesse e o nmero total de resultados no espao
amostral. O clculo das probabilidades se reduz a contar o nmero de resultados de um
evento.

Este eh o caso de um dado ou de um baralho

Probabilidade

Suponha que um teste de mltipla escolha tem k questes e para a questo i o


estudante precisa selecionar uma entre ni respostas possveis. Qual o nmero total de
modos de responder a todo o teste?
A resposta questo i pode ser vista como a especificao da i-sima componente de
uma k-upla, de modo que a questo acima equivalente a: quantas k-uplas ordenadas
distintas (x1 , . . . , xk ) so possveis se xi um elemento de um conjunto com ni elementos
distintos?
O nmero de k-uplas ordenadas distintas (x1 , . . . , xk ) com componentes xi , de um
conjunto com ni elementos distintos dado por
nmero de k-uplas ordenadas distintas = n1 n2 . . . nk

(1.12)

Muitos problemas de contagem podem ser colocados como problemas de amostragem onde selecionamos bolas em urnas ou objetos em populaes. Iremos agora usar
a Equao 1.12 para desenvolver frmulas combinatoriais para vrios tipos de amostragem.

1.4.1

Amostragem com reposio e ordenao.

Suponha que escolhemos k objetos de um conjunto A que tem n objetos distintos, com
reposio. Iremos nos referir ao conjunto A como a populao. O experimento produz
uma k-upla ordenada (x1 , . . . , xk ), onde xi A, i = 1, 2, . . . , k. A Equao 1.12, com
n1 = n2 = . . . = nk = n implica que
nmero de k -uplas ordenadas distintas = nk

Seja um LED que pode assumir 4 cores

(1.13)

diferentes. Quantas sequencias diferentes de


cores pode existir com 3 LEDs ?

Exemplo 1.5. Uma urna contm cinco bolas numeradas. Suponha que selecionamos
duas bolas da urna com reposio. Quantos pares ordenados distintos so possveis?
Qual a probabilidade de retirar duas vezes a mesma bola?
Soluo. A Equao 1.13 diz que o nmero de pares ordenados 52 = 25. Na Tabela
abaixo temos os pares possveis. Cinco dos resultados possveis so de bolas com o
mesmo nmero. Se supomos que todos os resultados possveis so equiprovveis, ento
a probabilidade de retirar a mesma bola duas vezes 5/25 = 0, 2.
(1,1)
(2,1)
(3,1)
(4,1)
(5,1)

1.4.2

(1,2)
(2,2)
(3,2)
(4,2)
(5,2)

(1,3)
(2,3)
(3,3)
(4,3)
(5,3)

(1,4)
(2,4)
(3,4)
(4,4)
(5,4)

(1,5)
(2,5)
(3,5)
(4,5)
(5,5)

Note que a ordem da sequencia


importa, ou seja, a diferenca na
ordem faz com que a sequencia
seja diferente!

Amostragem sem reposio e com ordenao.

O problema agora consiste em escolher k objetos em sucesso, sem reposio, de uma


populao A de n objetos distintos. Claramente, k n. O nmero de resultados
possveis na primeira retirada n1 = n, e o nmero de resultados possveis na segunda

Probabilidade

retirada n2 = n 1, e assim por diante, at nk = n (k 1) na retirada final. Desta


forma, a Equao 1.12 fornece
nmero de k-uplas ordenadas distintas = n(n 1) . . . (n k + 1)

(1.14)

Exemplo 1.6. Uma urna contm cinco bolas numeradas. Suponha que selecionamos
duas bolas da urna em sucesso, e sem reposio. Quantos pares ordenados distintos
so possveis? Qual a probabilidade de que a primeira bola tenha um nmero maior
que a segunda?
Soluo. A Equao 1.14 mostra que o nmero de pares ordenados possveis 5(4) =
20. Estes so mostrados na Tabela abaixo. Dez pares ordenados nesta tabela tm o
primeiro nmero maior que o segundo, de forma que a probabilidade deste evento
10/20 = 0,5.
(1,2)
(2,1)
(3,1)
(4,1)
(5,1)

1.4.3

(1,3)
(2,3)

(3,2)
(4,2)
(5,2)

(4,3)
(5,3)

(1,4)
(2,4)
(3,4)

(1,5)
(2,5)
(3,5)
(4,5)

(5,4)

Permutao de n objetos distintos.

Considere uma amostragem sem reposio com k = n. Isto equivale a retirar objetos de
uma urna at que ela esteja vazia. Ento o nmero de seqncias possveis de n objetos
distintos igual ao nmero de n-uplas da amostragem sem reposio com k = n. Da
Equao 1.14, temos
nmero de permutaes de n objetos = n(n 1) . . . (2)(1) = n!

(1.15)

Para n grande, a frmula de Stirling bastante til:


n!

2 nn+ 2 en

(1.16)

Exemplo 1.7. Encontre o nmero de permutaes de trs objetos distintos 1,2,3.


Soluo. A Equao 1.15 fornece 3! = 6. As seis permutaes so
123 312 231 132 213 321

10

1.4.4

Probabilidade

Amostragem sem reposio e sem ordenao.

Suponha que pegamos k objetos de um conjunto de n objetos distintos sem reposio e


armazenamos o resultado sem nos importarmos com a ordem. Chamamos o subconjunto
resultante de k objetos selecionados de uma combinao de tamanho k".
Da Equao 1.15, existem k! sequncias nas quais os objetos selecionados podem ter
sido selecionados. Ento se Ckn denota o nmero de combinaes de tamanho k de um
conjunto de tamanho n, ento Ckn k! o nmero total de amostras ordenadas distintas
de k objetos, a qual dada pela Equao 1.14. Ento
Ckn k! = n(n 1) . . . (n k + 1)

(1.17)

e o nmero de combinaes diferentes de tamanho k de um conjunto de tamanho n,


k n,
 
n
n!
n(n 1) . . . (n k + 1)
n
=

(1.18)
Ck =
k
k!
k!(n k)!

A expresso nk chamada de coeficiente binomial.
Note que escolher k objetos de um conjunto de n equivalente a escolher os (n k)
objetos que no foram selecionados. Segue ento que
  

n
n
=
(1.19)
k
nk

Exemplo 1.8. Encontre o nmero de modos de selecionar dois objetos de A = {1, 2, 3,


4, 5} sem se importar com a ordem.
Soluo. A Equao 1.18 fornece
 
5
5!
= 10
=
2!3!
2
Abaixo temos a listagem destes 10 pares.
(1,2)

(1,3)
(2,3)

(1.20)

(1,4)
(2,4)
(3,4)

(1,5)
(2,5)
(3,5)
Note que (i,k) e (k,i) sao o mesmo evento! (4,5)
Exemplo 1.9. Encontre o nmero de permutaes distintas de k bolas brancas e (nk)
bolas pretas.
Soluo. Este problema equivalente ao seguinte problema de amostragem: coloque n
etiquetas numeradas de 1 a n em uma urna, onde cada etiqueta representa uma posio
no arranjo das bolas; pegue uma combinao de k etiquetas e coloque as k bolas brancas
nas posies correspondentes.
Cada combinao de tamanho k leva a um arranjo diferente (permutao) de k bolas
brancas e (n k) bolas pretas.
Ento o nmero de permutaes distintas de k bolas brancas e (n k) bolas pretas
Ckn .

Probabilidade

11

Este exemplo mostra que a amostragem sem reposio e sem ordenao equivalente
a particionar o conjunto de n objetos distintos em dois conjuntos: B, contendo os k
itens que foram retirados da urna, e B c , contendo os (n k) deixados na urna.
Suponha que particionemos um conjunto de n objetos distintos em F subconjuntos
B1 , B2 , . . . , BF , onde ao subconjunto Bj so associados kj elementos e k1 +k2 +. . .+kF =
n.
Neste caso, o nmero de combinaes distintas dado por
n!
k1 !k2 ! . . . kF !

(1.21)

A Equao 1.21 chamada de coeficiente multinomial. O coeficiente binomial o


caso F = 2 dos coeficientes multinomiais.

1.4.5

Amostragem com reposio e sem ordenao.

Suponha que tomemos k objetos de um conjunto de n objetos distintos com reposio


e armazenamos os resultados sem nos importarmos com a ordem. Isto pode ser feito
preenchendo-se um formulrio com n colunas, uma para cada objeto distinto. Cada
vez que um objeto selecionado, um x colocado na coluna correspondente. Por
exemplo, se selecionamos 5 objetos de 4 objetos distintos, um formulrio destes poderia
ter a seguinte forma:
Objeto 1
xx

Objeto 2

Objeto 3
x

Objeto 4
xx

Note que este formulrio pode ser resumido pela sequncia xx / / x / xx, onde o
smbolo / usado para separar as entradas para as diferentes colunas. Desta forma os
(n -1) /s indicam as linhas entre as colunas, e onde nada aparece entre /s consecutivos
se o objeto correspondente no foi selecionado.
Cada arranjo diferente de 5 xs e 3 /s leva a um formulrio distinto.
Se identificarmos os xs com bolas brancas e os /s com bolas pretas, ento este
problema
foi considerado no Exemplo 1.9, e o nmero de arranjos diferentes dado por
8
3 .
No caso geral o formulrio ir envolver k xs e (n 1) /s. Ento o nmero de modos
diferentes de escolher k objetos de um conjunto de n objetos distintos com reposio e
sem ordenao dado por

 

n1+k
n1+k
=
(1.22)
k
n1

1.5

Probabilidade Conjunta.

Ao invs de lidar com um experimento, consideremos agora dois experimentos e seus


respectivos resultados. Por exemplo, os dois experimentos podem ser dois arremessos
consecutivos de um nico dado ou um nico arremesso de dois dados. Em ambos os
casos, o espao amostral consiste de 36 duplas (i, j), onde i, j = 1, 2, 3, 4, 5, 6. Se os
dados so ideais, a cada ponto do espao amostral associada uma probabilidade 1/36.
Podemos agora considerar eventos conjuntos tais como {i par, j = 3}, e determinar

12

Probabilidade

as probabilidades associadas a tais eventos a partir do conhecimento das probabilidades


dos pontos amostrais.

Definio 1.14. Se os resultados possveis de um experimento so Ai , i = 1, 2, ..., n,


e os resultados possveis de um segundo experimento so Bj , j = 1, 2, ..., m, ento os
resultados possveis do experimento combinado so dados pelo conjunto (Ai , Bj ), i =
1, 2, ..., n, j = 1, 2, ..., m. A cada resultado conjunto (Ai , Bj ) associa-se uma probabilidade conjunta P (Ai , Bj ) que satisfaz a condio
0 P (Ai , Bj ) 1

(1.23)

Exemplo 1.10. Retirar duas cartas em sucesso (com ou sem reposio) de um baralho.
Soluo. Vamos considerar os seguintes eventos
Evento A:
retirar um s na primeira tentativa
Evento B:
retirar um s na segunda tentativa
AB o evento de retirar dois ases.
Calcule esta probabilidade, considerando com reposicao e sem reposicao.

1.5.1

Probabilidades Marginais.

Assumindo que os resultados Bj , j = 1, 2, ..., m so mutuamente exclusivos, segue que


m
X
j=1

P (Ai , Bj ) = P (Ai )

(1.24)

Demonstre isso usando o diagrama de Venn!

Similarmente, se os resultados Ai , i = 1, 2, ..., n so mutuamente exclusivos ento


n
X

P (Ai , Bj ) = P (Bj )

(1.25)

i=1

Alm disso, se todos os resultados dos dois experimentos so mutuamente exclusivos


temos
m
n X
X
P (Ai , Bj ) = 1
(1.26)
i=1 j=1

P [Ai ] e P [Bj ] so chamadas de probabilidades marginais. fcil ver que a


generalizao do tratamento acima para mais de dois experimentos direta.

1.6

Probabilidade Condicional.

Considere um experimento combinado no qual um evento conjunto ocorre com probabilidade P (A, B). Suponha que o evento B ocorreu e queremos determinar a probabilidade
de ocorrncia do evento A. Esta probabilidade chamada de probabilidade condicional
e denota-se por P (A|B). Probabilidade de A ocorrer dado que B ocorreu.
Exemplo: encontre a probabilidade de receber o bit "0" dado que o bit "1" foi transmitido
no BSC abaixo

Probabilidade

13

Exemplo 1.11. No exemplo anterior, se a primeira carta no recolocada no baralho,


fica evidente que a retirada de um s na segunda tentativa influenciada pelo resultado
da primeira.

1.6.1

Regra de Bayes.

Teorema 1.2. Teorema de Bayes. Seja um experimento fornecendo dois resultados A e B. Ento,
P (AB) = P (A|B)P (B) = P (B|A)P (A)

(1.27)

Demonstrao. Sejam as seguintes grandezas:


N : nmero total de tentativas;
nB : nmero de resultados favorveis ao evento B;
nAB : nmero de resultados favorveis ao evento A dentro das nB tentativas.
Estas grandezas so mostradas em um diagrama de Venn na Figura 1.4.
...........................
............
........
.......
......
......
.....
.....
....
...
...
.
.
...
...
.
...
..
...
.
...
.............................
B
.
.
..
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.......
..
..... ..
.
.
.
.
.
.
..
.
.
......
..
.....
.
.
.
.
...
.
.
....
...
...
.
.
.
.
..
...
..
..
.
.
.
.
.
.
...
...
.
.
...
.
.
.
.
...
...
.
.
.
.
....
...
...
.
AB
...
..
..
...
...
..
...
...
....
..
...
.....
....
....
.
.
......
.
...
....
.
.......
.....
...
.........
... ......
...
......................................
...
.
...
..
.
.
...
.
...
...
....
....
....
.....
......
.....
.
.......
.
.
.
.
...
..........
..................................

Figura 1.4: Espao amostral para a derivao da regra de Bayes.


Observe que nAB o nmero de tentativas que so favorveis ao evento AB. Assim
 n  n 
nAB
AB
B
P (AB) = lim
(1.28)
= lim
N N
N N
nB

Do diagrama acima, podemos extrair as seguintes expresses:


nB
N N

(1.29)

nAB
N nB

(1.30)

P (B) = lim

P (A|B) = lim

14

Probabilidade

Aqui estamos implicitamente usando o fato que nB medida que N


. Observe que nAB o nmero de tentativas favorveis ao evento A dentro das nB
tentativas favorveis ao evento B. Isto representa a probabilidade condicional P (A|B).
Combinando (1.28), (1.29) e (1.30), temos:
P (A|B) =

P (AB)
P (B)

(1.31)

E por um desenvolvimento similar, pode-se demonstrar que


P (B|A) =

P (AB)
P (A)

(1.32)

Combinando 1.31 e 1.32, chegamos Regra de Bayes


P (AB) = P (A|B)P (B) = P (B|A)P (A)

(1.33)

1) Qual eh a probabilidade de A ocorrer dado que B ocorreu, sendo A e B eventos disjuntos?


2) Qual eh a condicao para que P(A/B)=P(B/A)?

Extenso para mais eventos


Uma generalizao bastante til da regra de Bayes a seguinte: considere os eventos
Ai , i = 1, 2, . . . , n, mutuamente exclusivos tais que
n
[

Ai = S

(1.34)

i=1

e um evento arbitrrio B com probabilidade no nula. Ento, a regra de Bayes pode


ser reescrita como
P (Ai |B) =

P (B|Ai )P (Ai )
P (Ai , B)
= n
X
P (B)
P (B|Aj )P (Aj )

(1.35)

j=1 de se ter o bit "1" na saida, assumindo


No canal BSC apresentado acima, qual eh a probabilidade
que a entrada eh equiprovavel?

1.7

Eventos independentes.

Definio 1.15. Um evento A dito independente de B se


P (A|B) = P (A)

(1.36)

Teorema 1.3. Se A e B so eventos independentes ento


P (AB) = P (A)P (B)

(1.37)

Dois eventos sao ditos independentes quando a ocorrencia de um


nao afeta a probabilidade de ocorrencia do outro.

Probabilidade

15

Demonstrao. Pela Regra de Bayes, temos que


P (AB) = P (A|B)P (B)
Mas como A e B so independentes,
P (A|B) = P (A)
Substituindo este resultado na Equao acima, chegamos a
P (AB) = P (A)P (B)

Exemplo 1.12. Suponha que uma moeda jogada trs vezes. Se assumimos que as
jogadas so independentes e a probabilidade de caras p, encontre a probabilidade dos
eventos nenhuma coroa, uma coroa, duas coroas e trs coroas.
Soluo. A probabilidade para as sequncias de caras e coroas dada por
P [{CCC}]
P [{CCK}]
P [{CKC}]
P [{KCC}]
P [{KKC}]
P [{KCK}]
P [{CKK}]
P [{KKK}]

=
=
=
=
=
=
=
=

P [{C}]P [{C}]P [{C}]


P [{C}]P [{C}]P [{K}]
P [{C}]P [{K}]P [{C}]
P [{K}]P [{C}]P [{C}]
P [{K}]P [{K}]P [{C}]
P [{K}]P [{C}]P [{K}]
P [{C}]P [{K}]P [{K}]
P [{K}]P [{K}]P [{K}]

=
=
=
=
=
=
=
=

p3
p2 (1 p)
p2 (1 p)
p2 (1 p)
p(1 p)2
p(1 p)2
p(1 p)2
(1 p)3

onde usamos o fato de que as jogadas so independentes. Seja k o nmero de caras em


trs tentativas. Ento
P [k
P [k
P [k
P [k

= 0]
= 1]
= 2]
= 3]

=
=
=
=

P [KKK] = (1 p)3
P [KKC, KCK, CKK] = 3p(1 p)2
P [CCK, CKC, KCC] = 3p2 (1 p)
P [CCC] = p3

Observaes
A definio de independncia estatstica pode ser estendida a trs ou mais eventos. Para
que trs eventos A1 , A2 e A3 sejam estatisticamente independentes, precisam satisfazer
as seguintes condies
P (A1 , A2 )
P (A1 , A3 )
P (A2 , A3 )
P (A1 , A2 , A3 )

=
=
=
=

P (A1 )P (A2 )
P (A1 )P (A3 )
P (A2 )P (A3 )
P (A1 )P (A2 )P (A3 )

(1.38)

Para o caso geral, os eventos Ai , i = 1, 2, . . . , n so estatisticamente independentes se as


probabilidades dos eventos conjuntos tomados 2, 3, . . . , n eventos de cada vez possam
ser fatoradas no produto das probabilidades dos eventos individuais.

16

1.8

Probabilidade

Experimentos sequenciais e diagramas em rvore

Muitos experimentos consistem de uma sequncia de subexperimentos. O procedimento


adotado para cada subexperimento pode depender dos resultados dos subexperimentos
anteriores. Podemos usar um diagrama em rvore para representar a natureza sequencial
dos subexperimentos. Seguir o procedimento e anotar as observaes do experimento
equivalente a seguir a sequncia de ramificaes da raiz para as folhas da rvore. Cada
folha corresponde a um resultado do experimento.
natural modelar probabilidades condicionais em termos de experimentos sequenciais e ilustr-las atravs de diagramas em rvores. Na raiz da rvore, a probabilidade de
um evento particular descrito pelo nosso conhecimento a priori. Se os resultados possveis do primeiro resultado so descritos pelos eventos B1 , , Bm , ento {B1 , , Bm }
um espao de eventos. A partir da raiz, desenhamos ramos para cada evento Bi . Seguir
um ramo a partir da raiz corresponde a observar os resultados do primeiro subexperimento. Associamos a cada ramo as probabilidades a priori P [B1 ], , B[Bm ]. Para
cada evento Bi , temos probabilidades condicionais descrevendo o resultado do segundo
subexperimento. Ento para cada um dos ramos do primeiro conjunto, desenhamos
um novo ramo e associamos a ele esta probabilidade condicional. Se seguirmos uma
sequncia de ramos da raiz a uma determinada folha, especificamos o resultado de um
dado subexperimento. Desta forma, as folhas representam os resultados do experimento
completo. A probabilidade de cada resultado o produto das probabilidades dos ramos
entre a raiz da rvore e a folha que correspondente ao resultado. Em geral, associamos
s folhas os resultados e as probabilidades correspondentes.
Isto uma descrio complicada para um procedimento extremamente simples, como
veremos nos exemplos a seguir.

Exemplo 1.13. Uma companhia tem trs mquinas B1 , B2 e B3 que fabricam resistores
de 1k. Observou-se que 80% dos resistores produzidos por B1 tm tolerncia de 50 do
valor nominal. A mquina B2 produz 90% dos resistores com tolerncia de 50 do valor
nominal. A porcentagem para a mquina B3 de 60%. A cada hora, a mquina B1
produz 3000 resistores, B2 produz 4000 resistores, e B3 produz 3000 resistores. Todos os
resistores so misturados em um recipiente comum e empacotados para envio. Desenhe
um diagrama em rvore para este experimento. Qual a probabilidade de escolher um
resistor da mquina B2 com tolerncia maior que 50?

Soluo. Seja A o evento o resistor selecionado aceitvel (tem tolerncia de 50),


e N o complemento de A: o resistor selecionado no aceitvel. O procedimento de
testar um resistor pode ser decomposto em dois passos: primeiro, identificamos qual
mquina (B1 , B2 ou B3 ) produziu o resistor; depois, verificamos se o resistor aceitvel
ou no. Estes dois passos correspondem seguinte rvore:

Probabilidade

17

......
......
......
.....
.....
.
.
.
.
.....
......
......
......
.....
.
.
.
.
....
......
......
......
......
.
.
.
.
..
......
.....
...............................................................................................
.....
......
......
......
......
.....
.....
.....
.....
.....
......
......
.....
.....
.....
.....
.....
......
......
.....
.

B1

0, 3

0, 4

B2

0, 3

B3

...........
................
................
................
................
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.. .............
................
.................
................
................
.........

0, 8

B1 A

0, 24

0, 2

B1 N

0, 06

.....
................
................
................
................
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...................
................
................
................
................
...........

0, 9

B2 A

0, 36

0, 1

B2 N

0, 04

0, 6

B3 A

0, 18

0, 4

B3 N

0, 12

.
................
................
................
................
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
......................
................
................
................
................
...........

Para usar a rvore para encontrar a probabilidade do evento B2 N , um resistor no


aceitvel da mquina B2 , comeamos da esquerda e verificamos que a probabilidade de
alcanar B2 P [B2 ] = 0, 4. Andamos ento para a direita em direo ao n B2 N e
multiplicamos P [B2 ] por P [N |B2 ] = 0, 1, e obtemos P [B2 N ] = 0, 4 0, 1 = 0, 04.

Podemos observar neste exemplo uma propriedade geral de todos os diagramas em


rvore que representam experimentos sequenciais: a soma das probabilidades dos ramos
que deixam um determinado n sempre 1. Isto uma consequncia da lei da probabilidade total e da propriedade da probabilidade condicional, vistas anteriormente.
Exemplo 1.14. Suponha que os engenheiros de trfego tenham coordenado a temporizao de dois faris para encorajar uma sequncia de faris verdes. Em particular, a
temporizao foi projetada de modo que, com probabilidade 0,8 um motorista encontre o
segundo farol com a mesma cor do primeiro. Assumindo que o primeiro farol seja verde
ou vermelho com a mesma probabilidade, qual a probabilidade P [G2 ] de que o segundo
farol seja verde? Calcule P [G1 |R2 ], a probabilidade condicional de que o primeiro farol
seja verde, dado que o segundo vermelho.
Soluo. Neste caso, a rvore que descreve o problema :

0, 5

.......
.........
........
.........
.........
.
.
.
.
.
.
.
.
.
.........
........
.........
.........
................
.........
.........
.........
.........
.........
.........
.........
.........
.........
......

0, 5

G1

R1

....
................
................
.................
...............
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
....................
.................
................
.................
................
.........

0, 8

G2

G1 G2

0, 4

0, 2

R2

G1 R2

0, 1

0, 2

G2

R1 G2

0, 1

0, 8

R2

R1 R2

0, 4

..............
.................
................
................
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
........................
................
................
................
................
...........

A probabilidade do segundo farol ser verde


P [G2 ] = P [G1 G2 ] + P [R1 G2 ] = 0, 4 + 0, 1 = 0, 5

18

Probabilidade

O evento W de ter que esperar por pelo menos um farol dado por
W = {R1 G2 G1 R2 R1 R2 }
e desta forma, a probabilidade de esperar por pelo menos um farol dada por
P [W ] = P [R1 G2 ] + P [G1 R2 ] + P [R1 R2 ] = 0, 1 + 0, 1 + 0, 4 = 0, 6
Para encontrar P [G1 |R2 ], precisamos de P [R2 ]. Notando que R2 = {G1 R2 R1 R2 },
temos:
P [R2 ] = P [G1 R2 ] + P [R1 R2 ] = 0, 1 + 0, 4 = 0, 5
Desde que P [G1 R2 ] = 0, 1, a probabilidade condicional de observar o primeiro farol
verde dado que o segundo vermelho dada por:
P [G1 |R2 ] =

0, 1
P [G1 R2 ]
=
= 0, 2
P [R2 ]
0, 5

(1.39)

Exemplo 1.15. Considere o jogo do Trs. Voc embaralha um baralho de trs cartas:
s, 2 e 3. Se o s vale um ponto, voc retira cartas do baralho at que a soma seja 3 ou
mais. Voc ganha se o total for 3. Calcule P [W ], a probabilidade de vencer o jogo.
Soluo. Seja Ci o evento C a i-sima carta retirada. Por exemplo, 32 o evento
de tirar um 3 na segunda rodada. A rvore para este experimento ento:
.....
......
.......
.......
......
.
.
.
.
.
.
.
......
......
.......
.......
......
.
.
.
.
.
.......
.......
......
...................................................................................................
.......
.......
......
......
.......
.......
......
......
.......
.......
......
......
.......
.......
.....

A1

1/3

1/3

21

1/2

22

A1 22

1/6

1/2

.......
................
................
................
................
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.................
................
................
.................
................
..........

32

A1 32

1/6

1/2.......................................... A2

21 A2

1/6

1/2

21 32

1/6

.
................
................
.............................
................
................
.................
................
.........

32

1/3

31

31

1/3

Voc vence se A1 22 , 21 A2 ou 31 ocorrerem. Desta forma, a probabilidade de vencer


dada por
P [W ] = P [A1 22 ] + P [21 A2 ] + P [31 ] =

2
11 11 1
+
+ =
32 32 3
3

Exemplo 1.16. Suponha que voc tem duas moedas, uma viciada e outra no, mas voc
no sabe qual qual. A moeda 1 viciada (tem probabilidade 3/4 de dar cara). Suponha
que voc pegue uma moeda de forma aleatria e a arremesse. Seja Ci o evento a moeda
i foi selecionada. Vamos denotar por H (cara) e T (coroa) os possveis resultados de
um arremesso. Dado que o resultado de um arremesso uma cara, calcule P [C1 |H],
a probabilidade de voc ter selecionado a moeda viciada. Dado que o resultado uma
coroa, calcule P [C1 |T ], a probabilidade de ter selecionado a moeda viciada.

Probabilidade

19

Soluo. Primeiro, contrumos a rvore que descreve o problema:

........
........
........
.........
........
.
.
.
.
.
.
.
...
.........
........
........
.........
...............
.........
.........
.........
.........
.........
.........
.........
.........
.........
......

1/2

1/2

C1

C2

...
...............
................
................
................
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.....................
................
.................
................
................
..........

3/4

C1 H

3/8

1/4

C1 T

1/8

1/2

C2 H

1/4

1/2

C2 T

1/4

.........
.................
................
................
................
............................
................
................
................
................
...........

Para encontrar as probabilidades condicionais, temos:


P [C1 |H] =

P [C1 H]
3/8
3
P [C1 H]
=
=
=
P [H]
P [C1 H] + P [C2 H]
3/8 + 1/4
5

Similarmente,
P [C1 |T ] =

P [C1 T ]
P [C1 T ]
1/8
1
=
=
=
P [T ]
P [C1 T ] + P [C2 T ]
1/8 + 1/4
3

Como espervamos, mais provvel termos selecionado a moeda 1 quando o primeiro


arremesso resultou em cara, e mais provvel termos selecionado a moeda 2 quando o
primeiro arremesso resultou em coroa.

Fim da Aula 2

1.9

Exerccios

1. Quatro moedas ideais so arremessadas simultaneamente.


(a) Quantos resultados so possveis?
(b) Associe probabilidades adequadas para a obteno de quatro coroas, uma
cara, duas caras, trs caras e quatro caras neste experimento.
Resp:
(a) 16
(b) P [4
P [1
P [2
P [3
P [4

coroas] = 1/16
cara] = 1/4
caras] = 3/8
caras] = 1/4
caras] = 1/16

2. Trs dados no viciados so jogados. Calcule as probabilidades dos eventos de se


obter uma soma de 8, 9 e 10 pontos.
Resp: P [8] = 21/216

P [9] = 25/216

P [10] = 27/216

20

Probabilidade

3. Uma certa cidade tem 8 faris aleatoriamente localizados, quatro dos quais ficam
verdes por meio minuto na direo leste-oeste e meio minuto na direo nortesul, trs permanecem verdes por 1/4 de minuto na direo leste-oeste e 3/4 de
minuto na direo norte-sul, e o ltimo permanece verde 3/4 de minuto na direo
leste-oeste e 1/4 de minuto na direo norte-sul.
Assuma que todos os faris so independentes, isto , no existe nenhum tipo de
sincronizao entre eles.
Um automvel est viajando de forma aleatria atravs da cidade. Encontre a
probabilidade de o automvel encontrar um sinal verde na direo leste-oeste.
Faa o mesmo para a direo norte-sul.
Qual a probabilidade de um automvel viajando aleatoriamente pela cidade
encontre um sinal verde?
Resp:
P [verde na direo L-O] = 7/16
P [verde na direo N-S] = 9/16
P [verde] = 1/2
4. Uma urna contm 3 bolas vermelhas e 2 brancas. Duas bolas so retiradas em
sucesso, a primeira bola sendo recolocada antes da retirada da segunda.
(a) Quantos resultados so possveis?
(b) Associe probabilidades a cada um destes resultados.
Resp:
(a) 4
(b) P [1a.V, 2a.V] = 9/25
P [1a.V, 2a.B] = 6/25
P [1a.B, 2a.V] = 6/25
P [1a.B, 2a.B] = 4/25
5. Repita o problema anterior se a primeira bola no for recolocada antes da segunda
retirada.
(a) 4
(b) P [1a.V, 2a.V] = 3/10
P [1a.V,2a.B] = 3/10
P [1a.B, 2a.V] = 3/10
P [1a.B, 2a.B] = 1/10
6. No problema anterior, se sabemos que a primeira retirada foi de uma bola branca,
qual a probabilidade de a segunda retirada ser tambm de uma bola branca ?
Resp: 1/4

Probabilidade

21

7. No problema 5), se sabemos que a segunda bola vermelha, qual a probabilidade


de a primeira tambm ter sido vermelha? Qual a probabilidade da primeira bola
ter sido branca?
Resp: a) 1/2

b) 1/2

8. Uma urna contm 3 bolas vermelhas, 5 bolas brancas e 8 bolas pretas. Outra urna
contm 6 bolas vermelhas, 7 bolas brancas e 4 bolas pretas. Uma bola retirada
de cada urna. Encontre a probabilidade de obter duas bolas da mesma cor.
Resp: 85/272
9. A caixa I contm 3 bolas vermelhas e 5 bolas brancas, e a caixa II, 4 vermelhas
e 2 brancas. Extrai-se ao acaso uma bola da primeira caixa e coloca-se na segunda, sem observar a cor. Extrai-se ento uma bola da segunda caixa. Qual a
probabilidade da mesma ser branca?
Resp: 21/56
10. Em certo colgio, 25 % dos estudantes foram reprovados em matemtica, 15 %
em qumica e 10 % em matemtica e qumica ao mesmo tempo. Um estudante
selecionado aleatoriamente.
a) Se ele foi reprovado em qumica, qual a probabilidade de ele ter sido reprovado em matemtica?
b) Se ele foi reprovado em matemtica, qual a probabilidade de ele ter sido
reprovado em qumica?
c) Qual a probabilidade de ele ter sido reprovado em matemtica ou qumica?
Resp: a) 2/3

b) 2/5

c) 0,30

11. A rede comutada mostrada na figura abaixo opera se e somente se existe pelo
menos um caminho fechado de comutadores entre a entrada e a sada. Assumindo
que os comutadores falhem de forma independente e que a probabilidade de falha
de cada comutador so aquelas dadas na figura, calcule a probabilidade de esta
rede funcionar.

0,2

.......................................................................................
........................................................................................
...
....
..
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
..
.
...
......................................................................
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.............................
..
....
....
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
..
.......................................................................................
........................................................................................

0,4

0,4

0,3

Resp: 0,865

0,1

...........................................

22

Probabilidade

12. Uma urna contm duas bolas pretas e trs bolas brancas. Duas bolas so selecionadas aleatoriamente da urna sem reposio, e a sequncia de cores anotada.
Encontre a probabilidade de retirar duas bolas pretas.
Resp: 1/10
13. Lana-se uma moeda viciada de modo que P [cara] = 2/3 e P [coroa] = 1/3. Se
aparecer cara, ento seleciona-se aleatoriamente um nmero dentre os de 1 a 9;
se aparecer coroa, seleciona-se aleatoriamente um nmero dentre os de 1 a 5.
Encontre a probabilidade p de um nmero par ser selecionado.
Resp: p = 58/135
14. Dois dgitos so selecionaodos aleatoriamente de 1 a 9, sem reposio. Se a soma
par, encontre a probabilidade p de ambos os nmeros serem mpares.
Resp: p = 5/8
15. Telefones celulares realizam handoffs medida em que se movem de uma clula para outra. Suponha que durante uma chamada, os telefones realizam zero
handoffs (H0 ), um handoff (H1 ), ou dois handoffs (H2 ). Adicionalmente, cada
chamada pode ser longa (L) ou breve (B).
Sabendo que P [L, H0 ] = 0.1, P [B, H1 ] = 0.1, P [H2 ] = 0.3, P [B] = 0.6 e P [H0 ] =
0.5, calcule:
(a) A probabilidade de no ocorrer nenhum handoff durante uma chamada.
(b) A probabilidade de uma chamada ser breve.
(c) A probabilidade de uma chamada ser longa ou existirem pelo menos dois
handoffs.
Resp: a) 0.5

b) 0.6

c) 0.5

16. Trs mquinas A, B e C produzem 50%, 30% e 20% respectivamente, do total de


peas de uma fbrica. As porcentagens de produo de peas defeituosas destas
mquinas so 3%, 4% e 5%, respectivamente.
(a) Se uma pea selecionada aleatoriamente, ache a probabilidade dela ser
defeituosa.
(b) Suponha que uma pea, selecionada aleatoriamente, seja considerada defeituosa. Encontre a probabilidade dela ter sido produzida pela mquina A.
Resp: a) 0,037

b) 15/37

17. No sistema de comunicao ternrio mostrado na figura abaixo, um 3 enviado


trs vezes mais frequentemente que um 1, e um 2 enviado duas vezes mais
frequentemte que um 1. Um 1 observado. Qual a probabilidade de um 1 ter
sido enviado?

Probabilidade

X =1

23

..
..
............................................................................................................................................................................................................................................................................................................................................................................
....................
....... ....
....... .............
............ .......
..
.......
............ .............
.
.
.
.
.
.
.
....... .......................
.
.
.
.
....
............
.......
.......
............
............
.......
.......
............
............
.......
.......
............
............
.......
.......
............
............
.......
.......
............
.
.
.
.
.
.
............
.
.
.
.
.
.
.
.......
.
.
.
.
....
............
....
.......
............ .......................
.......
.......
.......
.......
...........................
.......
.......
............
............
.......
.......
............
............
............................
......................
. ...
....... .........
....... ........................
.......
............
............
.......
............
.......
............
.......
............
.......
............
.......
............
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
............
.
.
.
.
.
.
.
.......
...
.
........
.
............
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...
....
..
.....
................................................................................................................................................................................................................................................................................................................................................................................................
.
.... .............
.
.
.
.
.
.
.
.
.
.......
.......... ....
............
.....
.
.
.
............
.
.
.
.
.
............
.
.
.
.
.
.
.
.......
........
.
.....
............
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.......
............
....
........
.
.
.
.
.
.
.
.
.
.
............
.
.
.
.
.
.
.
.
.
.
.
.......
.
............
....
....... ........................
............ ............
. ..
..........
................
....... ........................
............ .............
............
............
.......
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
......... ...........
.......
.......
.......
..... ...
.......
.......
............ ........................
.......
.......
............
............
.......
.......
............
............
.......
............
.
.......
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
............
.......
........
.....
.
.
.
.
.
.
.
.
.
.
.
.
.......
.
.
.
.
.
.
.
.
.
.
.
.
............
........
......
.
.....
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
............
.
.... ...................
.
.
............ .............
.
.
.
.
............ .......
........................
.
.
.
.
......... .....
.
.
... .....
...........................................................................................................................................................................................................................................................................................................................................................................
....
....

/2

Y =1

/2

X =2

/2
1 /2
/2

Y =2

/2

X =3
Resp:

1
1 + + 1, 5

/2

1 /2

Y =3

18. Para a comunicao entre os terminais A e B so necessrios enlaces que so


representados nas figuras abaixo por arcos. Sendo p a probabilidade de que um
enlace esteja ocupado, determine a probabilidade de que no exista caminho livre
para comunicao em cada uma das seguintes configuraes:
A

a)

..
..
..
..
...... ................................................................................................................................................. ................................................................................................................................................. .................................................................................................................................................. .....
.....
....
....
....

b)

....
... ....
...............................................................
...................
...................
..................
..................
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...................
....
...................
...................
..................
...................
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...................
.
.
............
.
.
.
.
..................
.
.
.
.
.
.
.
.
.
.
.
.
.
...................
...........
.
.
.
.
.
.
.
.
.
.
.
.
.
................... .........
.
.
.
.
.
.
.
.
.
..... .....................................
........................
..................
....
...................
...................
..................
.
.
..................
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...................
............
.
.
.
.
.
.
.
.
.
...................
.
.
.
.
.
.
.
.
.
..........
...................
...................
...................
..................
...................
...................
...................
.................. ........ ...................................
....... ......
.....

Resp: a) 3(1 p)p2 + 3(1 p)2 p + p3

b) 2p(1 p) + p2

2

19. Durante a recepo de mensagens codificadas, consistindo de pulsos de formas A


e B, estabeleceu-se que de cada 10 combinaes equiprovveis, trs so do tipo
AAB, cinco so do tipo AB, e duas so do tipo ABB. Qual a probabilidade de
que um pulso escolhido aleatoriamente seja da forma A?
Resp: 31/60
20. Sabendo que a probabilidade de um homem viver mais de dez anos 1/4, a
probabilidade de sua esposa viver mais de dez anos 1/3, encontre a probabilidade
dos seguintes eventos
(a) ambos estarem vivos depois de dez anos,
(b) ao menos um estar vivo depois de dez anos,
(c) nenhum deles estar vivo depois de dez anos,
(d) somente a esposa estar viva depois de dez anos.

24

Probabilidade

Dica: considere os eventos


A: o homem est vivo daqui a 10 anos.
B: sua esposa est viva daqui a 1o anos.
Resp: a) 1/12

b) 1/2

c) 1/2

d) 1/4

21. A urna 1 contm 5 bolas brancas e 7 bolas pretas. A urna 2 contm 3 bolas brancas
e 12 bolas pretas. Uma moeda ideal arremessada. Se o resultado cara, ento
seleciona-se uma bola da urna 1, enquanto que se o resultado coroa, seleciona-se
uma bola da urna 2. Suponha que uma bola branca tenha sido selecionada. Qual
a probabilidade do resultado do arremesso da moeda ter sido coroa?
Resp:P [co|B] = 12/37
22. Sejam os seguintes eventos:
A: uma famlia tem crianas de ambos os sexos.

B: uma famlia tem no mximo um menino.

(a) Mostre que A e B so independentes, se uma famlia tem 3 crianas.


(b) Mostre que A e B so dependentes, se uma famlia tem 2 crianas.

Captulo 2

Variveis Aleatrias
2.1

Definio.

O resultado de um experimento aleatrio pode ser um nmero real (como no caso do


arremesso de dados) ou pode ser no numrico, mas descrito por palavras (por exemplo
cara e coroa).
Entretanto estamos geralmente interessados no no resultado, mas em alguma medida ou atributo numrico deste. Por exemplo, se jogamos uma moeda n vezes, podemos
estar interessados no nmero total de caras e no na ordem especfica na qual ocorreram
as caras e as coroas.
Assim, podemos definir uma funo que associa um valor numrico ao resultado do
experimento aleatrio. Desde que os resultados so aleatrios, os resultados das medidas
tambm o sero. Desta forma faz sentido falar em probabilidades dos valores numricos
resultantes.
O conceito de varivel aleatria formaliza esta noo:

Definio 2.1. Uma varivel aleatria X uma funo que associa um nmero real
X() a cada resultado no espao amostral de um experimento aleatrio.

Lembre-se que uma funo simplesmente uma regra que associa um valor numrico
a cada elemento de um conjunto, como mostrado graficamente na Figura 2.1.
S

X() = x

reta real

Sx um conjunto de valores ou uma faixa


O espao amostral passa a se
de valores pertencentes ao eixo dos numeros reais!

Figura 2.1: Uma v.a. associa um nmero x = X() a cada resultado no espao
amostral S de um experimento aleatrio.

26

Variveis Aleatrias

A especificao de uma medida de um experimento aleatrio define uma funo no


espao amostral, e portanto uma v.a. O espao amostral S o domnio da v.a., e o
conjunto SX de todos os valores tomados por X a faixa da v.a. Ento SX um
subconjunto do conjunto de todos os nmeros reais.
Podemos ver X() como uma funo que mapeia os pontos amostrais 1 , 2 , . . . , m
em nmeros reais x1 , x2 , . . . , xn . Assim, X uma varivel aleatria que assume
valores x1 , x2 , . . . , xn . Observe que m no necessariamente igual a n. Mais de um
ponto amostral pode ser mapeado em um mesmo valor de x.
Exemplo 2.1. Especifique o espao amostral de um experimento que consiste em jogar
uma moeda 3 vezes.
Soluo. O espao amostral para este experimento
S = {CCC, CCK, CKC, CKK, KCC, KCK, KKC, KKK},
onde C corresponde a cara"e K corresponde a coroa".
Seja X o nmero de caras em trs jogadas da moeda. X associa a cada resultado
em S um nmero do conjunto SX = 0, 1, 2, 3. A tabela abaixo lista os oito resultados
de S e os valores de X correspondentes.

X()

CCC
3

CCK
2

CKC
2

KCC
2

CKK
1

KCK
1

KKC
1

KKK
0

X ento uma v.a. que toma valores no conjunto SX = 0, 1, 2, 3.

A funo ou regra que associa valores a cada resultado fixa ou determinstica, como,
por exemplo, na regra nmero de caras em 3 jogadas de uma moeda. A aleatoriedade
nos valores observados deve-se aleatoriedade dos argumentos da funo X, ou seja os
resultados i do experimento.
Em outras palavras, a aleatoriedade dos valores observados de X induzida pelo
experimento aleatrio, e devemos portanto ser capazes de calcular as probabilidades dos
valores observados em termos das probabilidades dos resultados do experimento.
Exemplo 2.2. O evento {X = k} = {k caras em 3 jogadas de uma moeda} ocorre
quando o resultado do experimento contm k caras. Calcule as probabilidades dos eventos
{X = k}, k = 0, 1, 2, 3.
Soluo. A probabilidade do evento {X = k} dada pela soma das probabilidades dos
resultados correspondentes ou eventos elementares. Seja p a probabilidades de caras e
(1 p) a probabilidade de coroas. Desta forma, temos
p0
p1
p2
p3

=
=
=
=

P [X
P [X
P [X
P [X

= 0]
= 1]
= 2]
= 3]

=
=
=
=

P [{KKK}] = (1 p)3
P [{CKK}]P [{KCK}]P [{KKC}] = 3(1 p)2 p
P [{CCK}]P [{CKC}]P [{KCC}] = 3(1 p)p2
P [{CCC}] = p3

Note que as jogadas das moedas sao independentes, ou seja P(AB)=P(A)P(B

Variveis Aleatrias

27

O exemplo acima ilustra a seguinte tcnica geral para encontrar as probabilidades


de eventos envolvendo a v.a. X: seja SX o conjunto de valores que podem ser assumidos
por X, e B algum subconjunto de SX .
SX pode ser visto como um novo espao amostral, e B como um evento neste espao.
Seja A o conjunto de resultados em S que levam a valores X() em B, como
mostrado na Figura 2.2, isto
A = { : X() em B}
ento o evento B em SX ocorre sempre que o evento A em S ocorre. Desta forma, a
probabilidade do evento B dada por
P [A] = P [B] = P [ : X() em B]
Referimo-nos aos eventos A e B como eventos equivalentes.
S

reta real

Figura 2.2: Eventos equivalentes.

2.2

Funo distribuio cumulativa.

Definio 2.2. A funo distribuio cumulativa (fdc) de uma v.a. X definida


como a probabilidade do evento {X x}:

FX (x) = P [X x],

<x<

(2.1)

isto , a probabilidade da v.a. X tomar um valor no intervalo (, x].

Em termos do espao amostral, a fdc a probabilidade do evento { : X() x}. O


evento {X x} e sua probabilidade variam medida que x varia; em outras palavras,
FX (x) uma funo da varivel x.
A fdc simplesmente uma maneira conveniente de especificar a probabilidade de
todos os intervalos semi-infinitos da reta real, e seus complementos, unies e intersees.

28

Variveis Aleatrias

Propriedades
Os axiomas de probabilidade e seus corolrios implicam que a fdc tem as seguintes
propriedades:
1. 0 FX (x) 1
2. lim FX (x) = 1
x

3.

lim FX (x) = 0

4. FX (x) uma funo no decrescente de x, isto , se a < b, ento FX (a) FX (b).


5. A probabilidade de eventos que correspondem a intervalos da forma (a < X b)
podem ser expressas em termos da fdc
(2.2)

P [a < X b] = FX (b) FX (a)


Demonstrao.
P [a < X b] = P [X b] P [X a] = FX (b) FX (a)
Isto pode ser facilmente visto na Figura abaixo

P [X b]

......................................................................................................................................................................................................................................................................................................................................................................
.
..
.
.
..
...
..
...
.
...
.
.
.........................................................................................................................................................................................................................................................................................................................................................................
..
..
..
...
.
..
..
...
.
..
....................................................................................
....................................................................................................................................................................................................................................................................

P [X a]

v
f

P [a < X b]

Figura 2.3: P [a < X b] = FX (b) FX (a)

6. A probabilidade que uma v.a. X toma em um ponto especfico, digamos b, dada


pela magnitude do salto da fdc no ponto b. Segue que se a fdc contnua em um
ponto b, ento o evento tem probabilidade zero.
Demonstrao. Desejamos calcular P [X = b]. Seja a = b ,
(2.2), podemos escrever

> 0. Usando

P [a < X b] = P [b < X b] = FX (b) FX (b )

(2.3)

medida que 0, o lado esquerdo de (2.3) aproxima P [X = b], e ento


P [X = b] = FX (b) FX (b )

(2.4)

Variveis Aleatrias

29

S
7. Seja o intervalo {a X b} = {X = a} {a < X b}. Ento

P [a X b] = P [X = a] + P [a < X b]
= FX (a) FX (a ) + FX (b) FX (a)
= FX (b) FX (a )

(2.5)

8. Se a fdc contnua nos limites de um intervalo, ento os limites tm probabilidade zero, e portanto podem ser includos ou excludos do intervalo sem afetar a
probabilidade. Em outras palavras, se a fdc contnua nos pontos x = a e x = b,
ento
(2.6)

P [a < X < b] = P [a X < b] = P [a < X b] = P [a X b]


Exemplo 2.3. A fdc de uma varivel aleatria X dada por

0
x<0

1 2

4 (x + 1) 0 x < 1
FX (x) =

1
1

x+
1x<2

4
2

1
x2

Encontre a probabilidade dos eventos:


a) {X < 1}

b) {X = 1}

c) {X = 0}

d) {|x 1| > 1/2}

e) {x 0}

Soluo. A primeira coisa a fazer analisar como esta funo se comporta: das equaes acima, podemos ver que esta uma funo nula para x < 0; para 0 x < 1 assume
a forma de uma parbola, e no intervalo 1 x < 2 o de uma reta; finalmente, assume
um valor constante igual a 1 para x > 2. Abaixo temos um grfico desta funo.
fX (x)
1
0.75
0.5
0.25

6
....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... .........................................................................................................
..
...... .
......
......
.....
.......
.
.
.
.
.
.......
..
......
.
.
.
.
.
..
.
......
....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ........
..
....
..
..
..
..
....
....
....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....
..
.... ....
.
.
..
....
.
.....
.
.
.
.
.
....
.
...
.
.
.
.
.
.
.......
..
..
........
.
.
.
.
.
.
.
.
.
.
..
.
....... ....... ....... ....... ....... ....... ....... .................
....
....
....
..
..
..
..
..
..
..
..
.
.
....
.
...........................................................................................

-1
0
1
2
3
A partir da anlise do grfico, fica fcil resolver o problema:

a) A probabilidade do evento {X < 1} dado pelo valor da fdc no ponto imediatamente anterior a X = 1. Portanto, P [X < 1] = 1/2.

30

Variveis Aleatrias

b) A probabilidade do evento {X = 1} dada pelo valor do salto da fdc em X = 1.


Portanto, P [X = 1] = 1/4.
c) Pelas mesmas razes do item b), P [X = 0 = 1/4].
d) O evento {|x 1| > 1/2} pode ser visto como um crculo de raio 1/2 com centro
em X = 1.
Desta forma, P [|x1| > 1/2] = 1P [1/2 < X 3/2] = 1[FX (3/2)FX (1/2)] =
7/16
e) P [X 0] = FX (0) = 1/4

2.3
2.3.1

Tipos de Variveis Aleatrias


Discretas

Variveis aleatrias discretas tomam valores de um conjunto finito SX = {x0 , x1 , . . . ,


xn }. Aparecem geralmente em aplicaes que envolvem contagem, de modo que geralmente temos SX = {0, 1, . . . }.
Definio 2.3. A funo massa de probabilidade (fmp) de X o conjunto de
probabilidades pX (xk ) = P [X = xk ] dos elementos em SX .
Alguns livros consideram a fmp como uma fdp.

Definio 2.4. A fdc de uma v.a. discreta pode ser escrita como uma soma ponderada de funes degrau unitrio
FX (x) =

X
k

pX (xk )u(x xk )

(2.7)

onde pX (xk ) = P [X = xk ] fornece a magnitude dos saltos na fdc.

Exemplo 2.4. Seja a v.a. X definida como nmero de caras em trs arremessos de
uma moeda ideal. Determine a fdc de X.
Soluo. Do Exemplo 2.1 sabemos que X toma apenas os valores 0, 1, 2 e 3. Do
Exemplo 2.2, se fizermos p = 0.5 as probabilidades para cada um destes resultados so
1/8, 3/8, 3/8 e 1/8, respectivamente, de modo que FX (x) simplesmente a soma das
probabilidades dos resultados de 0,1,2,3 que so menores ou iguais a x. A fdc resultante
tem portanto descontinuidades nos pontos 0,1,2 e 3. A fdc de X definida desta maneira
pode ser vista na Figura 2.4.

Variveis Aleatrias

31

FX (x)
1

7/8
1/2
1/8
0

Figura 2.4: Exemplo de uma fdc de uma v.a. discreta.

2.3.2

Contnuas

So as v.a.s cujas fdcs FX (x) so contnuas em todos os pontos e, as quais, adicionalmente, so suficientemente suaves de modo que podem ser escritas como uma integral
de alguma funo f (x) no negativa.
Z
f (t)dt
(2.8)
FX (x) =

Para v.a.s contnuas, a fdc contnua em todos os pontos, de modo que a propriedade 6 implica que P [X = x] = 0, x.

Exemplo 2.5. O tempo de transmisso X de mensagens em um sistema de comunicao obedece a lei de probabilidade exponencial com parmetro , isto P [X > x] =
ex , x > 0. Encontre a fdc de X. Calcule P [T < X 2T ], T = 1/.
Soluo. Por definio, a fdc de X dada por FX (x) = P [X x] = 1 P [X > x].
Desta forma, temos
(
0,
x0
FX (x) =
x
1e
, x>0
Na Figura 2.5 tem-se um desenho da fdc de X.
FX (x)
1

Figura 2.5: Grfico da fdc de v.a. contnua X.


Da propriedade 5 temos que

32

Variveis Aleatrias

P [T < X 2T ] = FX (2T ) FX (T ) = 1 e2 (1 e1 ) = e1 e2 0.233


Note que FX (x) contnua para todo x. Note tambm que sua derivada existe para
todos os pontos, exceto em x = 0.
Na Figura 2.6 tem-se o grfico de FX (x).

FX (x)

Figura 2.6: Grfico de FX (x).

2.3.3

Mistas

So v.a.s cujas fdcs tm saltos em um nmero finito de pontos x0 , x1 , . . . , xn mas que


tambm aumentam de forma contnua por pelo menos um intervalo de valores de x. A
fdc destas variveis tem a forma
FX (x) = pF1 (x) + (1 p)F2 (x)

(2.9)

onde
0<p<1
F1 (x) a fdc de uma v.a. discreta.
F2 (x) a fdc de uma v.a. contnua.

Exemplo 2.6. O tempo de espera X de um usurio em um sistema de filas zero se


ele encontra o sistema livre, e com um tempo de espera exponencialmente distribudo
se encontra o sistema ocupado. As probabilidades de ele encontrar o sistema livre ou
ocupado so p e (1 p), respectivamente. Encontre a fdc de X.
Soluo.
FX (x) = P [X x] = P [X x|livre]p + P [X x|ocupado](1 p)

Variveis Aleatrias

33

Note que P [X x|livre] = 1 quando x 0 e 0 caso contrrio. Desta forma


(
0,
x<0
FX (x) =
x
p + (1 p)(1 e
), x 0

O grfico da fdc mostrado na Figura 2.7. Note que FX (x) pode ser expressa como
a soma de uma funo degrau com amplitude p e uma funo contnua de x.
FX (x)
1

Figura 2.7: Um exemplo de v.a. mista.

2.4
2.4.1

Funo Densidade de Probabilidade


Definio

Definio 2.5. A funo densidade de probabilidade (fdp) de uma v.a. X, se existir,


definida como a derivada de FX (x):
fX (x) =

dFX (x)
dx

(2.10)

A fdp representa a densidade de probabilidade no ponto x no seguinte sentido:


a probabilidade de que X esteja em um intervalo pequeno na vizinhana de x, isto
{x < X x + h} ,
FX (x + h) FX (x)
h
h
Se a fdc tem uma derivada em x, ento medida que h 0
P [{x < X x + h}] = FX (x + h) FX (x) =

P [{x < X x + h}] fX (x)h

(2.11)

(2.12)

Ento fX (x) representa a densidade de probabilidade no ponto x no sentido de


que a probabilidade de que X esteja em um pequeno intervalo na vizinhana de x
aproximadamente fX (x)h, conforme mostrado na Figura 2.8.

34

Variveis Aleatrias

fX (x)

fX (x)dx

x x + dx

A probabilidade de X estar contido em uma dada faixa de valores eh igual a area


sobre a curva de fX(x), para a faixa de valores de interesse.

Figura 2.8: A funo densidade de probabilidade especifica a probabilidade de intervalos


de largura infinitesimal.

2.4.2

Propriedades

1. A derivada da fdc, quando existir, positiva desde que a fdc uma funo no
decrescente de x, ento
(2.13)

fX (x) 0

2. Seja fX (x) uma funo no negativa, a qual chamaremos de funo densidade de


probabilidade, e que especifica as probabilidades de eventos da forma X cai em
um pequeno intervalo de largura dx ao redor do ponto x. As probabilidades de
eventos envolvendo X so ento expressas em termos da fdp adicionando probabilidades de intervalos de largura dx. medida que as larguras dos intervalos
se aproximam de zero, obtemos uma integral em termos da fdp. Por exemplo, a
probabilidade de um intervalo [a, b] dada por
P [a x b] =

(2.14)

fX (x)dx
a

A probabilidade de um intervalo portanto a rea sob fX (x) naquele intervalo


(ver Figura 2.9). A probabilidade de qualquer evento que consiste na unio de
intervalos disjuntos pode ser encontrada adicionando-se as integrais da fdp sobre
cada um dos intervalos.
fX (x)

...................
..... ...........................
....
.
.....................................
...
...
....................................
.
.
..
..........................................
.
.
..
..............................................
...
.....................................................
...
..........................................................
...
...
................................................................
.
.
..
.....................................................................
.
.
..
................................................................. ......
.
.
.
..
................................................................. ........
.
.
.
.
......
....
.................................................................
.
.
.
.
.........
.
....
.
.
.
.................................................................
.....................
.
.
.
.
.
.
.
.
.
.
.
........................
..................................
.

Figura 2.9: A probabilidade de um intervalo [a, b] a rea sob a fdp naquele intervalo.
3. A fdc de X pode ser obtida integrando-se a fdp
FX (x) =

fX (t)dt

(2.15)

Variveis Aleatrias

35

4. Fazendo x + na equao (2.15), obtemos a condio de normalizao para


as fdps
Z

fX (t)dt = 1

(2.16)

5. Uma fdp vlida pode ser formada a partir de qualquer funo g(x) no negativa
e contnua por partes que tenha uma integral finita
Z

g(x)dx = c <

(2.17)

Fazendo fX (x) = g(x)/c obtemos uma funo que satisfaz a condio de normalizao. Note que a fdp precisa ser definida para todos os valores reais de x; se X
no toma valores em alguma regio da reta real, simplesmente fazemos fX (x) = 0
na regio.

2.4.3

Caso Discreto

A derivada da fdc no existe em pontos onde ela no contnua. Ento a noo de


fdp definida na equao (2.10) no se aplica a v.a.s discretas nos pontos em que a fdc
no contnua. Podemos generalizar a definio da funo densidade de probabilidade
notando a relao entre as funes degrau unitrio e delta de Dirac.

Definio 2.6. A funo degrau unitrio u(x) definida como


(
0, x < 0
u(x) =
1, x 0

(2.18)

Definio 2.7. A funo delta de Dirac (x) definida em termos da funo


degrau unitrio pela seguinte equao
Z +
(t)dt
(2.19)
u(x) =

Na seo 2.3.1 vimos que a fdc de uma v.a. discreta pode ser escrita como uma
soma ponderada de funes degrau unitrio
FX (x) =

X
k

pX (xk )u(x xk )

(2.20)

onde a funo massa de probabilidade dada por pX (x) = P [X = x].


Para generalizar a definio da fdp de modo que a Equao (2.15) valha tambm para
v.a.s discretas, podemos notar o seguinte: a integral de uma funo delta localizada

36

Variveis Aleatrias

em x = b, isto (x b), ir gerar uma funo degrau que comea em x = b, isto ,


u(x b).
Definio 2.8. Usando a equao (2.15), podemos definir a fdp de uma v.a. discreta
como
pX (x) =

X
k

(2.21)

P [X = xk ](x xk )

Desta forma, a definio generalizada da funo densidade de probabilidade coloca


uma funo delta de peso P [X = xk ] nos pontos xk onde a fdc no contnua.

2.5

Algumas variveis aleatrias discretas importantes

As variveis aleatrias discretas aparecem em geral em aplicaes que envolvem contagens. As distribuies discretas mais comuns so:

2.5.1

Bernoulli

Usos mais frequentes


A distribuio de Bernoulli o valor da funo indicadora IA para algum evento A; X =
1 se A ocorre, e X = 0 caso contrrio. Para estes testes, assume-se que a probabilidade
de A ocorrer p.
Domnio: SX = {0, 1}
Funo massa de probabilidade

pX (x) =

pX (x) 6
1 p = q, X = 0
p,
X=1

(p = q = 0.5)

0.5

0p1

Funo distribuio cumulativa

x<0

0,
FX (x) = 1 p, 0 x < 1

1,
x1

FX (x)
6
1 ....... ....... ....... ....... ........................................................
.
....
..
.
.......................................................
..
..
...
.
...
.
......................................................

1p

Variveis Aleatrias

2.5.2

37

Binomial

Usos mais frequentes


X o nmero de sucessos em n experimentos de Bernoulli e, portanto, a soma de
n variveis aleatrias independentes e identicamente distribudas, com distribuio de
Bernoulli com probabilidade de sucesso igual a p.
Domnio: SX = {0, 1, . . . , n}
Funo massa de probabilidade
pX (x)
 
n x
pX (x) =
p (1 p)nx
x

(n = 10, p = 0.5)

x = 0, 1, . . . , n

0 1 2 3 4 5 6 7 8 9 10 x
Funo distribuio cumulativa
FX (x)
6
1 ....... .......

....... ....... ....... ....... ....... ....... ....... ....... ...................................................


...................
...
...
.
.
..
..
...................
...
...
...
..
..
..
....
....
...................
...
...
...
..
..
...
.
.
.
.
.
.
..
..
..
..
.
..
....................
..
..
..
..
..
...
...
...
...
...
...
...
.
.
.
.
.
.
.................
..
..
..
..
..
..
..
......................
.
.
.
.
.
.
..
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
................................

X n
FX (x) =
px (1 p)nx u(x xk )
x
k

1 2 3 4 5 6 7 8 9 10 x

2.5.3

Poisson

Usos mais frequentes


Em muitas aplicaes, estamos interessados em contar o nmero de ocorrncias de um
evento em um certo intervalo de tempo ou em uma determinada regio do espao. A
varivel aleatria de Poisson conta o nmero de eventos que ocorrem em uma unidade
de tempo quando o tempo entre os eventos exponencialmente distribudo com mdia
1/.
A distribuio de Poisson pode ser derivada da distribuio binomial fazendo-se
n e p 0.
Domnio: SX = {0, 1, 2, . . . }
Funo massa de probabilidade
x
pX (x) =
e
x!
x = 0, 1, . . .

e >0

pX (x)
0.2

( = 4)
-

0 1 2 3 4 5 6 7 8 9 10 x

38

Variveis Aleatrias

Funo distribuio cumulativa


FX (x)
6
1 ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ..............................................................................................................................................................
FX (x) =

X
k e
k=0

k!

u(x k)

2.5.4

...
...
.
..
..
...
..
....
.
...
..
....
.

...
.......................
...
....
...
..........................
.
.
.
.
..
..
.
.
....
.
.
.
......................
...
...
...
...
.
.
.
.
..........................
.
.
.
....
....
....
....
..
.......................
..
..
...
...
...
...
.............................................
.
.
.
.
.

...
...
.
..
..
...
..
....
.
...
..
....
.

...
...
.
..
..
...
..
....
.
...
..
....
.

...
...
.
..
..
...
..
....
.
...
..
....
.

9 10 x

Geomtrica

Usos mais frequentes


X o nmero de falhas antes do primeiro sucesso em uma sequncia de testes de
Bernoulli independentes, cada uma com probabilidade de sucesso igual a p. a nica
varivel aleatria discreta sem memria.
Domnio SX = {0, 1, 2, . . . }
Funo massa de probabilidade
pX (x)
6
0.5
pX (x) = p (1 p)x

(p = 0, 5)

x = 0, 1, 2, . . .
-

0 1 2 3 4 5 6 7 8 9 10 x
Funo distribuio cumulativa
FX (x)
6
1 ....... ....... ....... ....... ...........................................................................................................................................................................................................
FX (x) =

X
k=0

p (1 p)k u(x k)

.....................
..
...................
..
.
...
..
..
....
....
...................
..
..
..
..
...
....
....
....
....
....
....
.
.
.
..
..
....
.
.
.
.
..................

0.5

..
...
..
...
..
..
..
...
..
..
..
...
..

..
...
..
...
..
..
..
...
..
..
..
...
..

..
...
..
...
..
..
..
...
..
..
..
...
..

..
...
..
...
..
..
..
...
..
..
..
...
..

..
...
..
...
..
..
..
...
..
..
..
...
..

..
...
..
...
..
..
..
...
..
..
..
...
..

..
...
..
...
..
..
..
...
..
..
..
...
..

1 2 3 4 5 6 7 8 9 10 x

2.6

Algumas variveis aleatrias contnuas importantes

Estamos sempre limitados a medidas de preciso finita, de modo que toda varivel aleatria encontrada na prtica uma varivel aleatria discreta. Entretanto, existem
vrias razes pelas quais interessante utilizar modelos que utilizem variveis aleatrias
contnuas. Primeiro, em geral, variveis aleatrias contnuas so em geral mais fceis de
lidar analiticamente. Segundo, as formas limite de muitas variveis aleatrias discretas

Variveis Aleatrias

39

geram variveis aleatrias contnuas. Finalmente, existem algumas famlias de variveis aleatrias contnuas que podem ser utilizadas para modelar uma grade variedade
de situaes pelo ajuste de alguns poucos parmetros.

2.6.1

Uniforme

Usos mais frequentes


A varivel aleatria uniforme aparece em situaes onde todos os valores em um intervalo
da reta real so equiprovveis. Esta distribuio bastante usada em modelamentos de
rudo de quantizao.
Domnio: SX = [a, b]
Funo densidade de probabilidade
fX (x)

1
fX (x) = b a
0

1
ba

axb

caso contrrio

....... ....... ....... ....... ...............................................................................................


...
.....
...
..
.....
...
....
...
...
...
...
...
...
...
...
.....
...
...
...
...
...
....
...
...
...
....
.....................................................
.

Funo distribuio cumulativa


Neste caso, temos 3 situaes possveis:
1. x < a

FX (x) =

xa
1
dy =
ba
ba

1
ba
dy =
=1
ba
ba

0 dy = 0

2. a x b
3. x > b

FX (x) =

FX (x) =

Portanto, temos:
FX (x)

FX (x) =

x a

ba

x<a
axb
x>b

....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ............................................
.... .
..... ...
.....
.....
..
.....
.
.
.
.
..
......
.....
.
.
.
...
.
...
.
.
.
.
.
.
.
......
..
.....
.
.
.
..
.
....
.
.
.
.
....
.
.
.
...
.
....
.
.
.
.
.
.....
..
......
.
.
.
.
..
.
.....................................................

40

2.6.2

Variveis Aleatrias

Exponencial

Usos mais frequentes


A varivel aleatria exponencial modela o tempo de durao de eventos que ocorrem
segundo a distribuio de Poisson. a nica varivel aleatria contnua sem memria.
Domnio: SX = [0, )

Funo densidade de probabilidade


fX (x)
1.0
(
ex
fX (x) =
0

x0e>0
caso contrrio

0.8
0.6
0.4
0.2

6
...
...
...
...
...
...
...
...
...
...
...
...
......
..
......
....... .....
....... ....
....... ...
............
.............
.........
..................
....... ............
........ ...............
..
..........
............. ...........................................
.
...................
...............................................................................
...................

= 1.0

= 0.5

Funo distribuio cumulativa

FX (x) =

x
ey
dy =
= 1(ex e0 )
0
FX (x)
1.0

FX (x) =

1 ex
0

0.8
x 0, > 0
caso contrrio

0.6
0.4
0.2

= 1.0

....................................................
......................
..............
......
..........
...................
........
...............
.
.
.
.
.
.
.
.............
...........
.......
.........
.....
.
.
.
.
.
.
.
.
.
.
.
.
.....
........
....
.......
....
.......
....
.......
......
...
.
.
.
.
.
.
.
..
......
...
......
...
.....
.....
...
....
...
.
.
.
.
.
... .....
... .....
... ....
.. .....
.
.......
......
....
...

= 0.5

2.6.3

Rayleigh

Usos mais frequentes


Modelamento de desvanecimento.
Domnio: SX = [0, )

Variveis Aleatrias

41

Funo densidade de probabilidade


fX (x)

fX (x) =

x x22

2 e 2

=1

...............
.... . ......
...
... ...
...
..
.
...
.....
...
...
...
....
...
.
.
.
...
...
....
...
.
.
.
..... ............................................................
....
.
.........
.
.
.
..
.
.
.
.
........
.....
.
.
........
.
.. .....
.
....
.
........
...... ..
.. .....
..
........
..... .
.
.
.
.........
.
.
....
.
....
..
.........
.....
... ........
....
....
...........
......
......
... ......
.......
..........
........
..
..
..........................................................
...
..
..

x > 0, > 0

=2

caso contrrio

Funo distribuio cumulativa


Z x
y y22
FX (x) =
Fazendo u = y 2 /2, temos que du = ydy.
e 2 dy
2

0

u x2 /2
Z x2 /2
2
1 u2
1 e 2
x2
du =
2
=
1

e
e
FX (x) =

2
2 12
0
0

FX (x)

1
(
x2
1 e 22
FX (x) =
0

x 0, > 0
caso contrrio

....... ....... ....... ....... .............................................................................................................................................


....
...........
.....
.........
....
.......
...
......
...
......
.
.
.
.
.
.
.
..
...
....
...
....
...
...
...
..
.
.
.
..
...
...
...
...
...
...
...
..
.
.
.
.
...
...
...
..
...
..
...
...
...
.
.
..
..
...
..
.. ...
.. ....
... ........
.
.
. ..
..............

=1

=2

2.6.4

Gaussiana

Usos mais frequentes


Curvas em forma de sino aparecem em vrias aplicaes de teoria de probabilidade. Os
modelos de probabilidade nestas aplicaes so menbros da famlia de v.a.s Gaussianas.
De fato, sob uma grande faixa de condies X pode ser usada para aproximar a soma
de um grande nmero de variveis aleatrias independentes. Pelo fato de ocorrerem
to frequentemente na prtica, as v.a.s Gaussianas so tambm chamadas de v.a.s
normais.
Tambm, sob uma grande variedade de condies, a varivel aleatria gaussiana
pode ser utilizada para aproximar a soma de um grande nmero de variveis aleatrias
independentes. (Veja o Teorema do Limite Central no Captulo 5)
Seguindo a conveno de vrios textos na rea, usaremos a notao X N (, 2 )
para nos referirmos a uma v.a. X com distribuio Gaussiana de mdia e varincia
2 . Nesta notao, o N quer dizer (obviamente) normal.
Domnio: SX = (, )

42

Variveis Aleatrias

Funo densidade de probabilidade


fX (x)

............
... .....
...
...
...
....
...
..
...
..
.
...
....
...
.
.
.
.
.
.
.
.
.
.
.
.
.
...
.
.
......
....
...
.
...
.
.
. ...
..
...
.
.
.
.
...
.. .....
...
.
.
...
.
...
.
.
.
.
.
...
...
.
..
.
.
.
.
.
...
...
..
...
.
.
...
.
...
.
.
.
.
...
.
.
.
...
...
...
..
.
.
.
...
.
.
...
.
.
.
.
...
...
.
..
.
.
.
.
.
...
...
.
..
.
.
.
.
.
...
...
.
..
.
.
.
...
.
.
....
.
..
.
...
.
.
.
.
.
...
.
...
.
.
.
.
.
.
.
..... ......
.
...
.
.
.
.
.
.
.
.
.
.
.
.
.
........ .......
...
.....
.
.
.
.
.
.
.
.........................
.
.
.
.
.
.
.
. ................................
.................................................................................................

0.5

fX (x) =

1
2

( = 1, = 0.5)

(x )2

2 2
e

( = 0, = 1)

-4

-3

-2

-1

4 x

O grfico de fX (x) tem formato de sino, com centro em x = . reflete a largura


do sino: se pequeno, o sino estreito, com um pico agudo e alto. Por outro lado, se
grande,
o sino largo, e o pico baixo e menos pontudo. A altura do pico dada
por 1/( 2)
Funo distribuio cumulativa
FX (x) 6
1

1
FX (x) =
2

(y)2
2 2

dy

....... ....... ....... ....... .............................................................................


........ .....
....... ..........
......
....
......
....
...
.
.
.
.
.
...
....
..
...
.
.
.
.
...
...
...
...
...
...
...
..
...
.
.
.
...
...
...
...
...
...
..
...
.
.
.
.
...
...
..
...
...
...
...
...
....
.
.
.
.
.
.
.
..
...
....
......
......
.......
........
..........
..................................................................................................................

( = 1, = 0.5)

( = 0, = 1)

-4

-3

-2

-1

4 x

Observaes
impossvel expressar a integral de uma fdp Gaussiana entre limites finitos de
forma analtica. Desta forma, a nica soluo calcular estes valores de forma
numrica. Nas Tabelas do Apndice F tem-se os valores da fdc de uma varivel
aleatria Gaussiana N (0, 1) para valores de -4 a 0.
Observe que como a varivel aleatria gaussiana N (0, 1) simtrica em relao
origem, estas tabelas tambm fornecem os valores da fdc no intervalo 0 a 4.
Para valores fora deste intervalo, as probabilidades so muito baixas.
Para aprender como usar esta tabela, vamos introduzir a seguinte propriedade das
variveis aleatrias Gaussianas:

Teorema 2.1. Se X uma varivel aleatria Gaussiana com parmetros e ,


ento Y = aX + b uma varivel aleatria Gaussiana com parmetros a + b e a.

Este teorema diz que qualquer transformao linear de uma varivel aleatria Gaussiana produz outra varivel aleatria Gaussiana. Este teorema nos permite relacionar

Variveis Aleatrias

43

as propriedades de uma varivel aleatria Gaussiana arbitrria com as propriedades de


uma varivel aleatria Gaussiana especfica.

Definio 2.9. Varivel aleatria normal padro. A varivel aleatria normal


padro Z a varivel aleatria Gaussiana com parmetros = 0 e = 1.

As tabelas definidas contm valores de FZ (z). Introduzimos a notao especial (z)


para esta funo.

Definio 2.10. Fdc normal padro. A fdc da varivel normal padro Z


Z z
2
1
(z) =
eu /2 du
2
Dada a tabela de valores de (z), usamos o seguinte teorema para encontrar as
probabilidades de uma varivel aleatria Gaussiana com parmetros e

Teorema 2.2. Se X uma varivel aleatria Gaussiana com parmetros e , a


fdc de X


x
FX (x) =

E a probabilidade de X estar no intervalo (a, b]






a
b

P [a < X b] =

Usando este teorema, transformamos os valores de uma varivel aleatria Gaussiana,


X, para valores equivalentes da varivel aleatria normal padro, Z. Para um valor
particular x da varivel aleatria X, o valor correspondente para a varivel aleatria Z

z=

(2.22)

Note que z adimensional. Ele representa x como um nmero de desvios padres


em relao ao valor esperado de X.
Exemplo 2.7. Suponha que a sua pontuao em um teste seja x = 46, uma amostra de
uma varivel aleatria Gaussiana com valor esperado 61 e desvio padro 10. Expresse
este resultado como uma amostra da varivel aleatria normal padro Z.
Soluo. Pela Equao (2.22),

44

Variveis Aleatrias

z=

46 61
= 1.5
10

Assim, esta pontuao corresponde a 1.5 desvios padres menos que o valor esperado.

Para encontrar as probabilidades das variveis aleatrias Gaussianas, usamos os


valores de (z) apresentados nas tabelas. Note que estas foram calculadas apenas para
valores negativos de x. Para valores positivos, devemos usar a seguinte propriedade:

Teorema 2.3. Para a varivel aleatria normal padro,


(z) = 1 (z)

Exemplo 2.8. Se X uma varivel aleatria Gaussiana com = 61 e = 10, calcule


P [X 46]
Soluo. Aplicando o Teorema 2.2 e o resultado do Exemplo 2.7, temos
P [X 46] = FX (46) = (1.5) = 0, 067
Isto sugere que, se seu resultado est 1,5 desvios padres abaixo da mdia, voc est
na regio dos 6,7% piores, dentro da populao das pessoas que fizeram o teste.

A funo distribuio cumulativa complementar Q(x).


Uma outra maneira de se calcular as probabilidades de eventos de variveis aleatrias
envolvendo distribuies gaussianas atravs do uso da funo distribuio cumulativa
complementar, definida como
Z
2
1

ey /2 dy
(2.23)
Q(x) =
2 x
Observe que a funo Q(x) corresponde ao valor da probabilidade do evento P [X >
x], sendo portanto o complemento da fdc FX (x), de modo que vale a identidade
Q(x) + FX (x) = 1

(2.24)

Desta simetria, pode-se concluir facilmente que a tabela de valores da funo Q(x)
pode ser obtida diretamente da tabela de valores de (x). Surge ento a pergunta: por
que estudar a funo Q(x) se j temos a funo (x)? Para responder a esta questo, vamos dar uma olhada em outra funo, denominada funo erro complementar,
definida como

Variveis Aleatrias

45

2
erf c(x) =

ey dy

(2.25)

Esta funo tem uma expanso em sries da forma


#
"
2 X (1)i x(2i+1)
erf c(x) = 1
(2i + 1)i!

(2.26)

i=0

Comparando as Equaes (2.23) e (2.25), podemos estabelecer as seguintes relaes

erf c(x) = 2Q(x 2)

1
Q(x) = erf c
2

(2.27)

Para x grande o suficiente (assintoticamente), podemos usar a seguinte representao


da funo Q(x):
2

ex /2
Q(x) =
x 2

13 135
1

+
1 2 +
x
x4
x6

(2.28)

Na prtica, as seguintes aproximaes so utilizadas


1
2
Q(x) ex /2 , x 1
x 2


2
0.7
1
1 2 ex /2 , x > 2
Q(x)
x
x 2

2.6.5

(2.29)

(2.30)

Gama

Usos mais frequentes


A distribuio gama no tem muitas aplicaes prticas, mas tem um interesse terico
bastante grande, pois serve de base para a derivao de outras distribuies, estas sim
de grande interesse prtico.
Domnio: SX = [0, )
Funo densidade de probabilidade
fX (x)

..
.

..
..
6
..
.

..
..
..
..
..
..
..
..
..
...
... ....
... ... ......
... ... ...
... ...
...
... ..
..
...
... ..
...
.....
...
....
...
....
...
......
...
......
...
...
... ...
...
... ....
...
... ...
...
... ...
...
... ....
...
. ...
...
...
...
...
...
...
...
...
...
...
...
...
...
.....
......
...
.......
......
...
.........
................................................................................................................

1.0

= 3, = 0.5

0.8
fX (x) =

(x)1 ex
()

0.6

= 3, = 3

0.4
0.2
0

46

Variveis Aleatrias

Funo distribuio cumulativa


FX (x)
1
FX (x) =

x
0

(y)1 ey
dy
()

6 = 3, = 0.5
.....................................................................................................................
...............
..........
......
.......
....
...
......
.
.....
.
..
.
.
.
....
...
...
...
...
...
...
..
....
.
...
..
...
...
...
...
..
....
.
...
..
...
...
...
...
..
....
.
..
...
...
...
... ....
.... ....
..........

= 3, = 3

2.6.6

m-Erlang

Usos mais frequentes


A varivel aleatria m-Erlang obtida pela soma de m variveis aleatrias independentes
com distribuio exponencial de parmetro .
Observao: um caso especial da distribuio Gama, fazendo-se com que o parmetro = m seja um nmero inteiro positivo.
Domnio: SX = [0, )
Funo densidade de probabilidade
fX (x)

..
.

..
..
6
..
.

..
..
..
..
..
..
..
..
..
..
...
... ..........
... ... ....
... ..
..
...
... ...
..
.. ...
...
....
...
....
..
...
...
.....
...
.......
...
... ....
...
...
... ...
...
.... ...
...
.. ...
...
... ...
...
... ....
...
..
...
...
...
...
...
...
...
...
...
...
....
....
...
......
...
.......
.......
......
..........
...............................................................................................................

1.0

m = 3, = 0.5

0.8
fX (x) =

ex (x)m1
,x > 0
(m 1)!

0.6

m = 3, = 3

0.4
0.2
0

.........................................................................................................................................
.
........
.......
.....
......
...
.
.....
....
...
....
..
.
.
.
..
...
...
...
...
...
...
..
.
....
..
...
...
...
...
...
..
....
.
..
...
...
...
...
...
..
.
.....
.
...
... ....
... ...
............

Funo distribuio cumulativa


FX (x)
1

FX (x) =

x
0

ey (y)m1
dy
(m 1)!

6 m = 3, = 0.5

m = 3, = 3

Variveis Aleatrias

2.6.7

47

Chi-Quadrado (2 )

Usos mais frequentes


A soma de k variveis aleatrias gaussianas independentes de mdia zero e varincia
unitria, ao quadrado, uma varivel aleatria com distribuio 2 com k graus de
liberdade.
Observao: um caso especial da distribuio Gama, fazendo-se = k/2, k inteiro
positivo, e = 1/2.
Domnio: SX = [0, )

Funo densidade de probabilidade


fX (x)
0.5
0.4
x(k2)/2 ex/2
fX (x) = k/2
2 (k/2)

0.3
0.2
0.1

6
.....
....
....
......
........
.
.. ...
.. ...
... ...
.... ....
... ...
... ....
.. ....
...
...
...
...
...
..
...
.
...
...
..
...
...
....
..............................
.
..... .....................
.............
............
........
...
...............
...........
............
..
....... .......................
.................................................................................................................................................
..............................

k=2

k = 10

10

15

20

Funo distribuio cumulativa


FX (x)
1

FX (x) =

x
0

y (k2)/2 ey/2
dy
2k/2 (k/2)

6
........................................................................................................
.............
......
.......
..........
......
.......
.....
.
......
.
.
..
......
.
.
.
.
.
.
.
.
.
.
......
...
.....
...
....
....
...
....
.
..
.
.
.
...
...
....
...
....
...
...
...
.
.
....
..
..
...
...
....
....
...
...
.
....
.
..
..
....
...
....
.....
...
.....
.
.
.
.
.
....
.
..........................

k=2

2.6.8

k = 10

10

15

20

Cauchy

Usos mais frequentes


A distribuio de Cauchy no tem aplicao prtica, mas tem um grande interesse
terico pelas suas peculiaridades.
Domnio: SX = [, )

48

Variveis Aleatrias

Funo densidade de probabilidade


fX (x)
0.6
fX (x) =

/
, > 0
+ 2

0.4

x2

0.2

6
.
....
.. ..
.. ..
.. ...
... ...
. .
.. ..
.. ..
.. ....
..
...
...
...
..
..
..
.. ......... ..
....... .........
......
......
...
.
.
.....
...
......
.......
.
.
.......
.....
.
........
.
.
........
.... ......
.
.
.
.
.
...... ........
.............
.
.
.
.
.
...........................
.
.
.
.
......... ......
..........................................................................
...........................................................................

= 0.5

=1

-6

-4

-2

6 x

Funo distribuio cumulativa

/
du
+ u2


 u x
a 1
arctan
=
a
a

FX (x) =

FX (x)
1

1
FX (x) =

 x 
1
+ arctan
2

0.5

.................................
...................................................
.
..........
....... ....................
.
.....
.... ...........
.
... .....
... .....
... ...
.... ....
.. ..
......
......
........
...
...
......
.....
.
......
... ...
.. ..
.. ....
.
.
.. ..
... ..
.... ...
..... ..
..... ......
.
.
.
.
.
.
.
..
..........
......
............... ....................
...........................
.....
.........................................

=1

-6

2.6.9

= 0.5

-4

-2

6 x

Laplace

Usos mais frequentes


A distribuio de Laplace tambm conhecida como distribuio exponencial dupla.
a distribuio das diferenas entre duas variveis aleatrias iid com distribuio exponencial.
Domnio: SX = [, )

Variveis Aleatrias

49

Funo densidade de probabilidade


fX (x)
0.5
0.4

fX (x) = e|x| , > 0


2

0.3
0.2
0.1

6
.....
.......
.......
............
.. ...
... .. ...
... .. ....
.... .. ....
.. ... ..
..
...
.. . ...
.. ... ....
.......
.
.
.
.
... . ..... ... . .....
.
. . . .
...
...
... .. ........
...
...
....
...
...
... .... ...... ...
...
....
.
.
.
.
.
.
.
.
...
.
.....
.
...
.
.
.
...
.
.
.
.
.
.
.
...
...
..........
.
.
.
.
.
.
.
.
.
.
.
........ ........
...
.....
.
.
.
.
.
.
.
.
.
.
..................
.
.
.
.
.
... ..
.......
.
...................
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
..
....................................
.......................................................................................................
..
..

= 1, = 2

= 0.5, = 0

-8 -6 -4 -2

8x

Funo distribuio cumulativa


Por causa da presena do mdulo na expresso da fdp, precisamos derivar a fdc em duas
etapas:
Primeira etapa: x
Z x
|y|
e
dy
Fazendo z = y , temos que dz = dy, e ento
FX (x) =
2
x
Z x
ey
1
z
e
dz =
= e(x)
FX (x) =

2
2
2

Segunda etapa: x >


Z
Z x
|y|
|y|
FX (x) =
e
dy +
e
dy
Fazendo z = y , dz = dy, e ento:
2

2

x
Z x
Z
z
ey
ey
1 1 (x)
z
e
dz +
e
dz =
+
FX (x) =

= 22e
2
2
2

FX (x)

FX (x) =

2.7

1 (x)

e
,

1
x

1 1 e(x) , x >
2 2

...........................
........................................
...........
............
...... ...
..... .....
.
.
.
.
.
..... ....
...
..
...
...
...
..
...
.
..
.
..
.
.
.
..
...
...
...
..
..
..
..
.
.
.
.
..
...
...
...
...
..
....
..
...
.
.
.
.
.
....
...
......
...
.......
....
.........
.....
......
..............
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...................................................................

= 1, = 2

= 0, 5, = 0

-8 -6 -4 -2

8x

Densidades Condicionais

Se temos informao adicional sobre o experimento sob anlise, ento nossas espectativas
podem (ou no) ser alteradas. Por exemplo, ao fazermos apostas em um hipdromo,
se sabemos que um cavalo est machucado ou doente, mesmo que seja um campeo,
diminuimos nossa confiana nele.
Nesta seo iremos mostrar como determinar a influncia de uma informao adicional na fdc de uma varivel aleatria. Isto bastante fcil se lembrarmos que a fdc
na verdade uma probabilidade:

50

Variveis Aleatrias

Definio 2.11. Funo de distribuio condicional. A funo de distribuio


condicional FX (x|B) de uma varivel aleatria X dado o evento B definida como
FX (x|B) = P [X x|B] =

P [X x, B]
P [B]

Propriedades
A funo distribuio condicional FX (x|B) tem as mesmas propriedades de uma fdc
comum. Dentre elas, podemos destacar:
1. FX (|B) = 0
2. FX (|B) = 1
3. P [a < X b|B] = FX (b|B) FX (a|B)

Definio 2.12. Se X uma varivel aleatria discreta, ento a funo massa de


probabilidade condicional dada por
pX (xk |B) = P [X = xk |B] =

P [X = xk , B]
P [B]

Se X uma varivel aleatria contnua, ento a funo densidade de probabilidade


condicional dada por
fX (x|B) =

dFX (x|B)
dx

Exemplo 2.9. Seja B = {X 10}. Determine FX (x|B).

Soluo. Para resolver este problema, vamos analis-lo em duas partes:


1. para x 10, o evento {X 10} um subconjunto do evento {X x}. Desta
forma,P [X 10, X x] = P [X 10], e ento podemos escrever
FX (x|B) =

P [X 10]
P [X 10, X x]
=
=1
P [X 10]
P [X 10]

2. para x 10, o evento {X x} um subconjunto do evento {X 10}. Desta


forma,P [X 10, X x] = P [X x], e ento podemos escrever
FX (x|B) =

P [X x]
P [X 10, X x]
=
P [X 10]
P [X 10]

Na Figura abaixo temos uma verso grfica deste resultado.

Variveis Aleatrias
FX (x)
1

51

6
....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ......................................................................................................................
.
......... .
........
....
........
........
.
........
.
.
.
.
.
.
.....
.
.
.
.
.
.
....
....
.
.
.
.
.
.
.
X
..................
.......
....
..................
.......
.
.
.
.
.
.
.................
.
................
.......
............................
......
.
.
.
.
.
.
.
.
.
....
..
............. .
......
............
......
....
...........
......
...........
.
......
...........
.
.....
.
.
.
.
.
.
.
.
.
.
.
.
...
.......
.
.
.
.
X
.
.
.
.
.
.
.
....
.
.
......
....
.
.
.
.
.
.
.
.
.
.
.
.
.
..
......
.........
....
.....
........
.
.
.
.
.
.
.
.
.
.
.
.
..
...
.....
........
.......
.....
....
.......
.....
........
.....
.......
.....
.
.
.
.
.
.
....
.
.
... ...........
.
.
.
.
..
..
.... .......
... ...........
.
....
.
............
.
.
.. ...
....
..........
.....
.

F (x|B)

F (x)

10

12

14

Figura 2.10: Fdcs condicional e incondicional de X.

2.8

Variveis Aleatrias Mltiplas

Quando lidamos com experimentos combinados ou tentativas repetidas de um mesmo


experimento, encontramos v.a.s mltiplas e suas fdcs e fdps. Variveis aleatrias
mltiplas so basicamente funes multidimensionais definidas em um espao amostral
de um experimento combinado.

2.8.1

Funo Distribuio de Probabilidade Conjunta

Sejam duas v.a.s X1 e X2 , cada uma delas podendo ser contnua, discreta ou mista.

Definio 2.13. A funo distribuio cumulativa conjunta (fdc conjunta) para as


duas v.a.s pode ser definida como

FX1 X2 (x1 , x2 ) = P [X1 x1 , X2 x2 ] =

x1

x2

fX1 X2 (u1 , u2 )du1 du2

(2.31)

onde fX1 X2 (x1 , x2 ) a funo densidade de probabilidade conjunta (fdp conjunta). Esta
ltima pode ser expressa na forma

fX1 X2 (x1 , x2 ) =

2
FX X (x1 , x2 )
x1 x2 1 2

(2.32)

52

Variveis Aleatrias

2.8.2

Densidades marginais

Teorema 2.4. Quando a fdp conjunta fX1 X2 (x1 , x2 ) integrada sobre uma das variveis, obtemos a fdp da outra varivel, isto
Z +
fX1 X2 (x1 , x2 )dx1 = fX2 (x2 )

fX1 X2 (x1 , x2 )dx2 = fX1 (x1 )

As fdps fX1 (x1 ) e fX2 (x2 ) obtidas a partir da integrao de uma das variveis so
chamadas de fdps marginais.

Corolrio 2.5. Se fX1 X2 (x1 , x2 ) integrada sobre ambas as variveis, obtemos


Z + Z +
fX1 X2 (x1 , x2 )dx1 dx2 = F (, ) = 1
(2.33)

Corolrio 2.6. F (, ) = F (, x2 ) = F (x1 , ) = 0


No caso de v.a.s discretas, substitumos as integrais por somatrios.

Teorema 2.7. Para as v.a.s discretas X e Y , temos:

pX (xi ) = P [X = xi ] = P [X = xi , Y = y1 ou X = xi , Y = y2 ou . . . ]

X
pXY (xi , yj )
=
j=

pY (yj ) = P [Y = yj ] = P [Y = yj , X = x1 ou Y = yj , X = x2 ou . . . ]

X
pXY (xi , yj )
=
i=

E a expresso correspondente Equao 2.33 para o caso discreto

Variveis Aleatrias

Teorema 2.8.

53

i= j=

(2.34)

pXY (xi , yj ) = F (, ) = 1

Exemplo 2.10. Duas linhas de produo fabricam um certo tipo de pea. Suponha que
a capacidade (em qualquer dia) seja 5 peas na linha I e 3 peas na linha II. Admita que
o nmero de peas realmente produzidas em qualquer linha seja uma v.a. e que (X, Y )
represente a v.a. bidimensional que fornece o nmero de peas produzidas pela linha
I e a linha II, respectivamente. A Tabela 2.1 fornece a distribuio de probabilidade
conjunta de (X, Y ). Calcule as probabilidades marginais.
Tabela 2.1: Exemplo de probabilidades conjunta e marginal.
Y X
0
1
2
3
Soma

0
0
0,01
0,01
0,01
0,03

1
0,01
0,02
0,03
0,02
0,08

2
0,03
0,04
0,05
0,04
0,16

3
0,05
0,05
0,05
0,06
0,21

4
0,07
0,06
0,05
0,06
0,24

5
0,09
0,08
0,06
0,05
0,28

Soma
0,25
0,26
0,25
0,24
1

Soluo. Na Tabela 2.1, cada casa representa


pXY (xi , yj ) = P [X = xi , Y = yj ]
A ltima linha e a ltima coluna fornecem os totais marginais, isto , a soma das
6 colunas e 4 linhas da tabela. As probabilidades que aparecem nas margens, linha e
coluna, representam a distribuio de probabilidade de Y e de X, respectivamente. Por
exemplo, P [Y = 1] = 0.26, P [X = 3] = 0.21, etc.
Em virtude da forma de apresentao da Tabela 2.1 aludiremos, de modo muito usual
distribuio marginal de X ou distribuio marginal de Y , sempre que tivermos uma
v.a. bidimensional (X, Y ), quer discreta, quer contnua.

2.8.3

Caso multidimensional

A generalizao das expresses acima para v.a.s multidimensionais direta. Suponha


que Xi , i = 1, 2, . . . , n so v.a.s com uma fdc conjunta definida por
FX1 X2 ...Xn (x1 , x2 , . . . , xn ) = P [X1 x1 , X2 x2 , . . . , Xn xn ]
Z x1 Z x2
Z xn
fX1 X2 ...Xn (u1 , u2 , . . . , un )du1 du2 . . . dun
=

onde fX1 X2 ...Xn (x1 , x2 , . . . , xn ) a fdp conjunta.

(2.35)

54

Variveis Aleatrias

Tomando as derivadas parciais de FX1 X2 ...Xn (x1 , x2 , . . . , xn ) dadas por (2.35), obtemos
fX1 X2 ...Xn (x1 , x2 , . . . , xn ) =

n
FX X ...X (x1 , x2 , . . . , xn )
x1 x2 xn 1 2 n

(2.36)

Um nmero qualquer de variveis de fX1 X2 ...Xn (x1 , x2 , . . . , xn ) pode ser eliminado


integrando-se sobre estas variveis. Por exemplo, integrando-se sobre x2 e x3 leva a
Z

+ Z +

fX1 X2 X3 X4 ...Xn (x1 , x2 , x3 , x4 , . . . , xn )dx2 dx3 = fX1 X4 ...Xn (x1 , x4 , . . . , xn )


(2.37)

Segue tambm que


FX1 X2 ...Xn (x1 , , , x4 , . . . , xn ) = FX1 X4 ...Xn (x1 , x4 , . . . , xn )
FX1 X2 ...Xn (x1 , , , x4 , . . . , xn ) = 0.

2.8.4

Funo distribuio de probabilidade condicional

Teorema 2.9. Sejam duas v.a.s X1 e X2 com fdp conjunta fX1 X2 (x1 , x2 ). A fdc
FX1 (x1 ) condicionada por
x2 x2 < X2 x2

onde x2 algum incremento positivo, dada por

FX1 (x1 |x2 ) =

x1

fX1 X2 (u1 , x2 )du1


fX2 (x2 )

Demonstrao. Sejam X1 e X2 duas v.a.s com fdp conjunta fX1 X2 (x1 , x2 ). Queremos
determinar P [X1 x1 ] condicionada por
x2 x2 < X2 x2

onde x2 algum incremento positivo. Em outras palavras, desejamos calcular a probabilidade do evento (X1 x1 |x2 x2 < X2 x2 ). Usando as relaes estabelecidas
anteriormente para a probabilidade condicional de um evento, a probabilidade do evento
(X1 x1 |x2 x2 < X2 x2 ) pode ser expressa como
P [X1 x1 , x2 x2 < X2 x2 ]
P [x2 x2 < X2 x2 ]
Z x1 Z x2
fX1 X2 (u1 , u2 )du1 du2
x2 x2
=
Z x2
fX2 (u2 )du2

P [X1 x1 |x2 x2 < X2 x2 ] =

x2 x2

(2.38)

Variveis Aleatrias

55

Vamos agora utilizar um resultado da teoria do clculo diferencial e integral para


continuarmos com a nossa prova:

Teorema 2.10. Teorema do Valor Mdio: se f for uma funo contnua em [a, b]
e diferencivel em (a, b), ento existe c (a, b) tal que f (b) f (a) = f (c)(b a).
De acordo com o Teorema do Valor Mdio enunciado acima, existem pontos c e
c (x2 x2 , x2 ) tais que
Z

x1

x2
x2 x2
Z x2

fX1 X2 (u1 , u2 )du1 du2


=

x2 x2

x1

fX1 X2 (u1 , c)x2 du1


fX2 (c )x2

fX2 (u2 )du2

(2.39)

Fazendo agora x2 0, temos que c e c aproximam-se de x2 , e desta forma,


podemos reescrever (2.39) como
Z

x1

fX1 X2 (u1 , c)x2 du1


=

fX2 (c )x2

x1

fX1 X2 (u1 , x2 )du1


fX2 (x2 )

(2.40)

que a fdc condicional da v.a. X1 dada a v.a. X2 , ou seja

FX1 (x1 |x2 ) =

x1

fX1 X2 (u1 , x2 )du1


fX2 (x2 )

(2.41)

Corolrio 2.11. FX1 (|x2 ) = 0 e FX1 (+|x2 ) = 1.

Teorema 2.12.
fX1 (x1 |x2 ) =

fX1 X2 (x1 , x2 )
fX2 (x2 )

(2.42)

Demonstrao. Este corolrio demonstrado diretamente derivando (2.40) em relao


a x1 , obtemos a fdp fX1 X2 (x1 |x2 ) correspondente na forma
Alternativamente, podemos expressar a fdp conjunta fX1 X2 (x1 , x2 ) em termos das
fdps condicionais
fX1 X2 (x1 , x2 ) = fX1 (x1 |x2 )fX2 (x2 ) = fX2 (x2 |x1 )fX1 (x1 )

(2.43)

56

Variveis Aleatrias

A extenso das relaes dadas acima para o caso multidimensional direta:


fX1 Xn (x1 , . . . , xn ) = fX1 Xk (x1 , . . . , xk |xk+1 , . . . , xn )fXk+1 Xn (xk+1 , . . . , xn ) (2.44)
onde k qualquer inteiro na faixa 1 < k < n. A fdc condicional conjunta correspondente
fdp fX1 Xk (x1 , . . . , xk |xk+1 , . . . , xn ) dada por
FX1 Xk (x1 , . . . , xk |xk+1 , . . . , xn )
Z xk
Z x1

fX1 Xk (u1 , . . . , uk |xk+1 , . . . , xn )du1 duk

=
fXk+1 Xn (xk+1 , . . . , xn )

(2.45)

Esta fdc condicional satisfaz as propriedades previamente estabelecidas para estas


funes tais como
FX1 X2 Xk (, x2 , . . . , xk |xk+1 , . . . , xn ) = FX2 Xk (x2 , . . . , xk |xk+1 , . . . , xn )

FX1 X2 Xk (, x2 , . . . , xk |xk+1 , . . . , xn ) = 0

2.8.5

Independncia Estatstica de Variveis Aleatrias

J definimos a independncia estatstica para dois ou mais eventos de uma espao amostral S. Este conceito pode ser estendido para variveis aleatrias definidas em um espao
amostral gerado por um experimento combinado ou por vrias tentativas de um nico
experimento. Se os experimentos gerarem resultados mutuamente exclusivos, a probabilidade de um resultado em um experimento independente de um resultado em
qualquer outro experimento. Isto , a probabilidade conjunta dos resultados pode ser
fatorada no produto das probabilidades correspondentes a cada resultado. Consequentemente, as variveis aleatrias correspondentes aos resultados nestes experimentos so
independentes no sentido de que sua fdp conjunta pode ser fatorada no produto das
fdps marginais.

Definio 2.14. As v.a.s multidimensionais so estatisticamente independentes se


e somente se
FX1 X2 Xn (x1 , x2 , . . . , xn ) = FX1 (x1 )FX2 (x2 ) FXn (xn )

(2.46)

fX1 X2 Xn (x1 , x2 , . . . , xn ) = fX1 (x1 )fX2 (x2 ) fXn (xn )

(2.47)

ou alternativamente

2.9
2.9.1

Funes de Variveis Aleatrias


Caso Unidimensional

Um problema que surge frequentemente em aplicaes de probabilidade o seguinte:


dada uma v.a. X, caracterizada por sua fdp fX (x), calcular a fdp da v.a. Y = g(X),

Variveis Aleatrias

57

onde g(X) alguma funo de X. Chamemos a fdp desejada de fY (y).

Teorema 2.13. Sejam duas v.a.s X e Y , com Y = g(X). Nestas condies, a fdp
de Y dada por

fX (x)
fY (y) =
|g (X)| x=g1 (y)

Demonstrao. Inicialmente, vamos analisar os grficos da Figura 2.11.


fX (x)

fY (y)

Y = g(X)

b)

a)

c)

Figura 2.11: a) Dependncia entre X e Y, b) fX (x), e c) fY (y).


Se X sofre uma variao X 0, e a variao correspondente em Y dada por
Y , ento bvio que a probabilidade de observar X no intervalo [x, x+x] a mesma
de observar Y no intervalo [y, y +y]. Mas estas probabilidades so dadas por fX (x)x
e fY (y)y, respectivamente. Portanto
lim fX (x)x = fY (y)y

x0

(2.48)

Propriamente falando a equao acima deveria ser expressa como


lim fX (x)|x| = fY (y)|y|

x0

(2.49)

pois as probabilidades so iguais s magnitudes das reas sob X e Y , respectivamente. Desta forma
f (x)
fX (x)
= X
fY (y) =

|g (X)|
dY
dX

(2.50)

Observe que fY (y) uma funo de y. Desta forma, no lado direito da equao
acima, a varivel x deve ser expressa em termos de y. Assumindo que y = g(x) tem
uma inversa x = g 1 (y), temos

fX (x)
fY (y) =
(2.51)
|g (X)| x=g1 (y)

58

Variveis Aleatrias

Exemplo 2.11. A funo densidade de probabilidade de uma varivel aleatria X


dada por
2
x
, 3 < x < 6
fX (x) = 81
0,
caso contrrio
1
Calcule a funo densidade de probabilidade da varivel aleatria U = (12 x).
3

Soluo. Neste caso, g(x) = 1/3(12 x). Assim, a derivada e a inversa de g(x) so
dadas por:
1
1
(0 1) =
g 1 (U ) = 12 3U
3
3
Aplicando o Teorema 2.13, temos:

X 2


x2
(4 U )2
81

=
fU (u) =
=
27 g1 (U )
3
1
3 1
g (U )
g (x) =

Ainda, para X variando no intervalo (3, 6), U varia no intervalo (2, 5), e a soluo
final ento dada por:

(4 u)2
, 2<u<5
fU (u) =
3
0,
caso contrrio
Exemplo 2.12. Considere a v.a. Y definida como Y = aX + b, a > 0. Se X tem fdp
dada por fX (x), encontre a fdp de Y em termos da fdp de X.
Soluo. Na Figura 2.12a) tem-se o mapeamento de X contra Y . Notamos que este
mapeamento linear e monotnico. Sejam FX (x) e FY (y) as fdcs para X e Y , respectivamente. Ento
 Z yb


a
yb
yb
=
fX (x)dx = FX
FY (y) = P [Y y] = P [aX + b y] = P X
a
a

Derivando a equao acima em relao a y, obtemos a relao entre as respectivas


fdps


1
yb
fY (y) = fX
a
a
Ou seja, se a fdp de X da forma da Figura 2.12b), a fdp de Y ser aquela mostrada
na Figura 2.12c).
Uma outra forma de resolver este problema aplicando diretamente o Teorema 2.13.
Neste caso, temos:

Variveis Aleatrias

59

Y = aX + b, a > 0

fX (x)

fY (y)
1
a

-1

ba

b)

a)

b+a

c)

Figura 2.12: Uma transformao da v.a. X e um exemplo das fdps correspondentes de


X e Y.




fX (x)
fX (x)
1
yb
fY (y) =
=
= fX
g (x) x=g1 (y)
a x=(yb)/a
a
a
At agora assumiu-se implicitamente que existe uma correspondncia biunvoca entre X e Y ou seja, existe apenas um valor de X para um dado Y , e vice-versa. Se, por
outro lado, para um dado valor de Y existir mais de um valor de X, as equaes acima
devem ser modificadas. O seguinte corolrio trata deste caso:

Corolrio 2.14. Quando a equao Y = g(X) tem duas razes, x1 e x2 , a fdp fY (y)
dada por


fX (x1 )
fX (x2 )
fY (y) =
+
|g1 (x1 )| x1 =g1 (y) |g2 (x2 )| x2 =g1 (y)
1

Demonstrao. Considere a relao Y = g(X) mostrada na Figura 2.13.


y

g2 (x2 )

g1 (x1 )
y

x1
x1

x2
x2

Figura 2.13: Funo de uma v.a. com duas razes.


Nesta Figura, para um dado valor de Y existem dois valores correspondentes para
X. Ento a equao Y = g(X) tem duas razes, x1 e x2 . Vamos quebrar esta funo
em duas outras, cada qual com uma nica raiz: Y = g1 (X1 ) e Y = g2 (X2 ).
Note que agora temos uma correspondncia unvoca entre X e Y em cada uma
destas funes. Ento x1 e x2 so funes de y com uma nica raiz. Chamemos as

60

Variveis Aleatrias

relaes inversas de x1 = g11 (y) e x2 = g21 (y).


Da Figura 2.13 temos que Y est no intervalo (y, y +y) quando x1 est no intervalo
(x1 , x1 + x1 ) ou quando x2 est no intervalo (x2 , x2 + x2 ). Os dois ltimos eventos
so mutuamente exclusivos, pois X pode assumir o valor x1 ou o valor x2 mas no
ambos. Desta forma, temos
fY (y)|y| = lim (fX (x1 )|x1 | + fX (x2 )|x2 |)
x1 0
x2 0



fX (x2 )
fX (x1 )
+
fY (y) =
|g1 (x1 )| x1 =g1 (y) |g2 (x2 )| x2 =g1 (y)

(2.52)

(2.53)

Se existirem n valores de X para um dado valor de Y , podemos estender este resultado para o seguinte corolrio:

Corolrio 2.15. Quando a equao Y = g(X) tem n razes, x1 , . . . , xn , a fdp fY (y)


dada por


fX (xn )
fX (x1 )
+ +
fY (y) =
|g1 (x1 )| x1 =g1 (y)
|gn (xn )| xn =gn1 (y)
1

onde x1 , x2 , . . . , xn so os valores de X quando Y = y.

Exemplo 2.13. Considere a v.a. Y definida como Y = aX 2 + b, a > 0. Se X tem fdp


dada por fX (x), encontre a fdp de Y em termos da fdp de X.
Soluo. Na Figura 2.14 temos o mapeamento de Y em relao a X.

Figura 2.14: Uma transformao quadrtica da v.a. X.


Para determinar a fdc de Y , observamos que
FY (y) = P [Y y] = P [aX 2 + b y] = P [|X|
e ento

yb
]
a

Variveis Aleatrias

61

FY (y) = FX

yb
a

FX

yb
a

Derivando a equao acima em relao a y, obtemos a fdp de Y em termos da fdp de X


 q


q
yb
yb
fX
fX
a
a
q
q
+
fY (y) =
2a yb
2a yb
a
a

Utilizando agora o Corolrio


2.9.1, temos:
a equao g(X) = aX 2 + b = y tem duas
q
q
yb
yb
solues reais x1 =
a e x2 =
a , e portanto, fY (y) consiste de dois termos
correspondentes a estas duas solues


yb
a

yb
a

q

yb
a

f X x2 =
fX
f X x1 =






q
fY (y) =
q
q
+
=
yb
yb

g x2 =

g x1 =
2a yb
a
a
a
X
X

2.9.2

 q

yb
fX
a
q
+
2a yb
a

Caso Multidimensional

Teorema 2.16. Considere duas v.a.s X e Y e sua fdp conjunta fXY (x, y). Sejam
U e V outras duas v.a.s relacionadas a X e Y por U = U (X, Y ) e V = V (X, Y ).
Suponha que tanto U como V assumem valores nicos para valores particulares de X
e Y , e vice-versa. Ento
fU V (u, v) =

fXY (x, y)


u, v
J
x, y

Demonstrao. Considere duas v.a.s X e Y e sua fdp conjunta fXY (x, y). Sejam U e
V outras duas v.a.s relacionadas a X e Y por U = U (X, Y ) e V = V (X, Y ). Suponha
que tanto U como V assumem valores nicos para valores particulares de X e Y , e viceversa. Similarmente ao caso unidimensional, para obter fU V (u, v) a partir de fXY (x, y),
observe que
fU V (u, v)|dudv| = fXY (x, y)|dxdy|

(2.54)

Portanto
fXY (x, y)

fU V (u, v) =

dudv
dxdy

(2.55)

A relao entre os dois elementos de rea nos dois sistemas de coordenadas pode ser
expressa em termos do Jacobiano como

62

Variveis Aleatrias

dudv = J

u, v
x, y

(2.56)

dxdy

onde J o Jacobiano da transformao, dado pelo determinante

Portanto


u

 x
u, v

J
=
v
x, y


x
fU V (u, v) =


u

y


v

y

(2.57)

fXY (x, y)


u, v
J
x, y

(2.58)

Note que para que o Jacobiano exista as derivadas parciais de u e v em relao a x


e a y devem tambm existir.

Teorema 2.17. Se X e Y so funes de mltiplos valores, isto , se


(x1 , y1 ), (x2 , y2 ), . . . , (xn , yn ) so as solues das equaes U = U (X, Y ) e V =
V (X, Y ) ento
f (x2 , y2 )
fXY (x1 , y1 )
 + XY
 + +

fU V (u, v) = 


u, v
u, v
J
J

x1 , y 1
x2 , y 2

f (xn , yn )
XY



u, v
J

xn , y n

(2.59)

O resultado acima pode ser estendido a qualquer nmero de variveis. Suponha


que temos n v.a.s X1 , X2 , . . . , Xn com uma fdp conjunta fX1 X2 Xn (x1 , x2 , . . . , xn ).
Desejamos encontrar a fdp conjunta fY1 Y2 Yn (y1 , y2 , . . . , yn ) de n v.a.s relacionadas
com X1 , X2 , . . . , Xn por
Yi = Yi (X1 , X2 , . . . , Xn ), i = 1, 2, . . . , n
Xj = Xj (Y1 , Y2 , . . . , Yn ), j = 1, 2, . . . , n
Assume-se que todas essas funes sejam de valor nico e com derivadas parciais
contnuas em todos os pontos. Assim, temos

fY1 Y2 Yn (y1 , y2 , . . . , yn )|dy1 , dy2 , . . . , dyn | =

fX1 X2 Xn (x1 , x2 , . . . , xn )|dx1 , dx2 , . . . , dxn | (2.60)

Portanto

Variveis Aleatrias

63

fY1 Y2 Yn (y1 , y2 , . . . , yn ) =

fX1 X2 Xn (x1 , x2 , . . . , xn )


dy1 , dy2 , . . . , dyn


dx1 , dx2 , . . . , dxn

A razo dos elementos de rea dada pelo Jacobiano da transformao J




y1 , y2 , . . . , yn
dx1 , dx2 , . . . , dxn
dy1 , dy2 , . . . , dyn = J
x1 , x2 , . . . , xn

(2.61)


y1 ,...,yn
x1 ,...,xn

(2.62)

onde

Portanto









y1 , y2 , . . . , yn
J
=
x1 , x2 , . . . , xn




y1
x1
y2
x1
..
.
yn
x1

fY1 Y2 Yn (y1 , y2 , . . . , yn ) =
Pode-se mostrar que
J

y1 , y2 , . . . , yn
x1 , x2 , . . . , xn

y1
x2
y2
x2
..
.
yn
x2

y1
xn
y2
xn
..
.
yn
xn

...
...
..

...

fX1 X2 Xn (x1 , x2 , . . . , xn )


y1 , y2 , . . . , yn
J
x1 , x2 , . . . , xn

=
J

1

x1 , x2 , . . . , xn
y1 , y2 , . . . , yn

(2.63)

(2.64)

(2.65)

Se Y1 , Y2 , . . . , Yn so funes de mltiplos valores de X1 , X2 , . . . , Xn , uma equao


similar a (2.59) deve ser utilizada. (Qual ?)
Exemplo 2.14. Para ilustrar o exemplo de transformao de uma fdp de segunda ordem, considere o caso do arremesso de um dardo. Assuma que ambas as variveis X e Y
que descrevem as coordenadas de um ponto onde o dardo atinge o alvo so independentes
e tem fdps normais (gaussianas)
fX (x) =

x2

1
2 2

e 22

fY (y) =

1
2 2

y 2

e 22

Encontre a fdp fR (r, ) onde R a distncia do ponto origem e o ngulo do


ponto em relao ao eixo x. As relaes entre as variveis so as seguintes:
 
p
Y
2
2
e = arctg
R = X +Y
X

Soluo.

R,
X, Y

R
X

R
Y

64

Variveis Aleatrias

Assim, a fdp fR (r, ) pode ser escrita como


r r22
r x2 +y2 2
fXY (x, y)
2
=
e
e 2
fR (r, ) =   =
r,
2 2
2 2
J x,y

A varivel no aparece na equao acima. Isto quer dizer que as variveis R e


so independentes e f () precisa ser uma constante. Desde queR varia no intervalo
2
[0, 2], evidente que f () uma constante de modo a termos 0 f ()d = 1.
Portanto
 

1
r r22
fR (r, ) =
= fR (r)f ()
e 2
2
2
onde

f () =

1
2 ,

0,

0 < < 2
caso contrrio

r r22
e 2
2
fR (r) conhecida como funo densidade de Rayleigh.
fR (r) =

fR (r)

6
............
..... .. .......
... .. .......
...
...
..
...
.
...
...
.
...
...
...
...
.
.
..
..
...
.
.
...
..
.
...
.
..
...
.
.
..
...
....
...
.
.
.
...
...
....
...
.
...
.
...
...
....
...
.
.
...
.
....
..
....
....
.
.
.
.
....
.....
....
......
...
...
......
.
.
.......
.
.........
..
....
...............
...................................
..
..

Figura 2.15: Funo densidade de probabilidade de Rayleigh.

2.10

Exerccios

1. A funo densidade de probabilidade da amplitude de um certo sinal (em volts)


dada por
fX (x) = xex u(x)
(a) Qual a probabilidade da amplitude do sinal ser maior que 1 volt?
(b) Qual a probabilidade de observar a amplitude do sinal na faixa de 1 a 2
volts?
Resp: a) 2e1

b) 2e1 3e2

Variveis Aleatrias

65

2. A funo densidade de probabilidade conjunta fXY (x, y) de duas v.a.s contnuas


X e Y dada por
fXY (x, y) = xye

x2 +y 2
2

u(x)u(y)

(a) Encontre as seguintes funes densidade de probabilidade: fX (x), fY (y),


fXY (x|Y = y), fXY (y|X = x).
(b) As v.a.s X e Y so independentes?
Resp:
(a) fX (x) = xe
fY (y) = ye

x2
2

y2
2

fXY (x|Y = y) = xe
fXY (y|X = x) = ye

x2
2
y2
2

(b) sim
3. A funo densidade de probabilidade conjunta fXY (x, y) de duas v.a.s contnuas
X e Y dada por
fXY (x, y) = ke(x

2 +2xy+2y 2 )

(a) Determine o valor da constante k.


(b) Determine as funes densidade de probabilidade fX (x), fY (y), fXY (x|Y =
y), e fXY (y|X = x).
(c) Estas duas v.a.s so independentes?
(a) k = 1/
x2
1
(b) fX (x) = e 2
2
1 y2
fY (y) = e

1
2
2
fXY (x|Y = y) = e(x +2xy+y )

r
2 ( x2 +2xy+2y2 )
e 2
fXY (y|X = x) =

(c) no

4. O sinal de entrada X e o sinal de sada Y de um retificador de meia onda so


relacionados por
(
X 2, X > 0
Y =
0,
X0
A funo densidade de probabilidade do sinal de entrada dada por

66

Variveis Aleatrias

fX (x) =

x2
1
e 22
2

Encontre fY (y).

y
1
e 22 , y > 0
Resp: fY (y) = 2 2y

0,
caso contrrio

5. Repita o problema anterior para um retificador de onda completa.


Dica: para um retificador de onda completa, os sinais de entrada e sada esto
relacionados por Y = X 2 .

y
1
e 22 , y > 0
Resp: fY (y) = 2y

0,
caso contrrio

6. Suponha que trs usurios de telefone tenham uma linha em comum. Qual a probabilidade de mais de um deles utilizar a linha ao mesmo tempo? Admita que,
em mdia, um usurio utilize o aparelho durante 5 minutos por hora.
Resp: 425/21600 0, 0197
7. Se 20% dos bits transmitidos por um transmissor acusam defeito, determine a
probabilidade de que, em 4 bits transmitidos ao acaso:
(a) Um seja errado
(b) Nenhum esteja errado
(c) Ao menos dois estejam errados
Resp: a) 0,4096

b) 0,4096

c) 0,1808

8. Se os defeitos de um tecido seguem uma lei de Poisson com mdia de defeito a cada
500 m, qual a probabilidade de que o intervalo entre dois defeitos consecutivos
seja:
(a) no mnimo 1250 m
(b) entre 1000 m e 1250 m
(c) menor que 1000 m
Resp: a) e5/2 0, 082

b) e2 e5/2 0, 053

c) 1 e2 0, 865

9. Sabe-se que a mdia de carros com um pneu furado durante a travessia de um


determinado tnel de 0,06 casos/ms. Calcular a probabilidade de pelo menos
2 carros terem um pneu furado ao passar pelo tnel durante um ms de trfego
normal, sabendo-se que a distribuio de Poisson.
Resp: 0,0017
10. Suponha que a varivel aleatria X tem uma distribuio de chi-quadrado, com
10 graus de liberdade. Se pedirmos para determinar dois nmeros a e b, tais que
P (a < x < b) = 0, 85, por exemplo, deveremos compreender que existem muitos

Variveis Aleatrias

67

pares dessa espcie. Determine dois diferentes conjuntos de valores (a, b) que satisfaam condio acima. Suponha que, em aditamento ao acima, se exija que
P (X < a) = P (X > b).
Resp: a = 4, 45 e b = 16, 97
11. A fdp de uma varivel aleatria X fX (x). Uma varivel aleatria Y definida
como Y = aX + b, a < 0. Determine a fdp de Y em termos da fdp de X.


yb
1
, a<0
Resp: fY (y) = fX
a
a
12. Verifique quais das funes abaixo podem ser consideradas fdcs. Justifique sua
resposta.



0 x<0
1 e2x x 0
2x x 0
2
a) y =
x 0 x < 1 b) y =
c) y =
0
x<0
0
x<0

1 x1
Resp: Apenas o item c) no pode ser fdc.

13. A fdc conjunta de duas variveis aleatrias X e Y dada por


FXY (x, y) =

(1 ex) (1 ey) x 0, y 0
0
caso contrrio

(a) Encontre as fdcs marginais.


(b) Encontre as probabilidades dos eventos
i) A = {X 1, Y 1}
ii) B = {X > x, Y > y}, x > 0, y > 0

Dica: use a lei de De Morgan


Resp:
(
1 ex ,
(a) FX (x) =
0,
(
1 ey ,
FY (y) =
0,
(b)

x0
caso contrrio
y0
caso contrrio

i. P [X 1, Y 1] = (1 e )(1 e )
ii. P [X > x, Y > y] = ex ey

14. Uma varivel aleatria X tem funo densidade de probabilidade dada por
fX (x) =

c
, <X <
x2 + 1

(a) Determine o valor da constante c.


(b) Calcule a probabilidade do evento [1/3 X 2 1].

(c) Determine a funo distribuio de probabilidade de X.

68

Variveis Aleatrias

Resp:
(a) c = 1/
(b) P [1/3 X 2 1] = 1/6
1 1
(c) FX (x) = + arctg(x)
2
15. Seja a varivel aleatria X com funo densidade de probabilidade dada por
(
6x(1 x), 0 < x < 1
fX (x) =
0,
caso contrrio
Determine uma funo Y = h(X) que tenha a funo densidade de probabilidade
(
12y 3 (1 y 2 ), 0 < y < 1
fY (y) =
0,
caso contrrio
Dica: Admita que a funo incgnita h seja tal que os intervalos X x e Y y
se correspondam biunvoca e continuamente, de forma que P [X x] = P [Y y],
ou seja FX (x) = FY (y).

Resp: Y = X
16. Assuma que duas variveis aleatrias X e Y tm funo densidade de probabilidade conjunta dada por


1 2
1
2
exp (x + y )
fXY (x, y) =
2
2
Sejam duas outras variveis aleatrias U e W definidas da seguinte maneira:

U = 3X + 5Y

W = X + 2Y

Detemine a funo densidade de probabilidade conjunta de U e W .


1 1 (5U 2 26U W +34W 2 )
e 2
Resp: FU W (u, w) =
2
17. Seja uma v.a. com fdp dada por
fX (x) = ke|x| , > 0, < x <
onde k uma constante.
(a) Calcule o valor de k.
(b) Encontre a funo distribuio cumulativa de X.
(c) Calcule P [1 X 2] usando a fdp, para = 1.

(d) Calcule P [1 X 2] usando a fdc, para = 1.


Resp:

Variveis Aleatrias

(a) k =
(b)
(c)
(d)
(e)

69

1 ex ,
x<0
FX (x) = 2 1

1 ex , x 0
2
2
E[X] = 0, Var[X] = 2

1 1
(e e2 ) 0, 1163
2
1 1
(e e2 ) 0, 1163
2

18. A probabilidade de uma chamada telefnica no durar mais do que t minutos


geralmente descrita por uma f dc exponencial

FT (t) =

1 et/3 t 0
0
caso contrrio

Qual a f dp da durao em minutos de uma conversa telefnica? Qual a


probabilidade de uma conversao durar entre 2 e 4 minutos?
Resp:

1 et/3 , t 0
(a) fT (t) = 3
0,
caso contrrio

(b) P [2 t 4] = e2/3 e4/3 0, 25


19. Expresse os valores extremos das f dcs conjuntas FXY (x, y) por nmeros ou em
termos das f dcs FX (x) e FY (y).
(a) FXY (, 2)
(c) FXY (, y)
Resp: a) 0

b) 1

c) FY (y)

(b) FXY (, )
(d) FXY (, )
d) 0

20. Considere as variveis aleatrias X e Y com f dp conjunta


(
4xy
fXY (x, y) =
0

0 x 1, 0 y 1
caso contrrio

X e Y so independentes?
Resp: sim
21. Sejam X e Y duas v.a.s com fdp conjunta dada por
(
A(x + y), 0 x 1, 0 y 1
fXY (x, y) =
0,
caso contrrio

70

Variveis Aleatrias

(a) Calcule o valor de A.


(b) Calcule as fdps marginais.
(c) X e Y so independentes?
Resp:
(a) A = 1
(b) fX (x) = x + 1/2
fY (y) = y + 1/2
(c) no
22. Que distribuio de probabilidade voc pode utilizar para modelar as seguintes
situaes?
(a) Nmero de toques entre erros de digitao, dado que cada toque tem uma
certa probabilidade de estar com erro;
(b) Nmero de toques com erro dentre m toques, dado que cada toque tem uma
certa probabilidade de estar com erro;
(c) Tempo entre chegadas sucessivas, dado que as chegadas so sem memria;
(d) Tempo de servio de um dispositivo que consiste de m servidores sem memria, em srie.
Resp: (a) Geomtrica (b) Binomial (c) Exponencial (d) m-Erlang
23. Uma fonte binria gera dgitos 0 e 1 de forma aleatria com probabilidades 0,6 e
0,4, respectivamente.
(a) Qual a probabilidade de que ocorram dois 1s e trs 0s em uma sequncia
de cinco dgitos?
(b) Qual a probabilidade de ocorrerem pelo menos trs 1s em uma sequncia de
cinco dgitos?
Resp: (a) 0,3456 (b) 0,31744
24. Seja Y = eX . Encontre a fdp de Y se X = N (, 2 ).

(ln(y))2
1
e 22
y>0
Resp: fY (y) =
2y

0
caso contrrio

25. A funo densidade de probabilidade conjunta de duas variveis aleatrias X e Y


dada por
fXY (x, y) = A sen(x + y),
Determine:
(a) A constante A.

0 x /2, 0 y /2

Variveis Aleatrias

71

(b) A funo distribuio de probabilidade conjunta FXY (x, y)


(c) As funes distribuies de probabilidade marginais FX (x) e FY (y).

(d) A probabilidade do evento X .


6
4
Resp:
(a)
(b)
(c)
(d)

A = 0, 5
FXY (x, y) = 0, 5 [sen(x) + sen(y) sen(x + y)]
FX (x) = 0, 5 [1 cos(x) + sen(x)]
FY (y) = 0, 5 [1 cos(y) + sen(y)]
0,18

26. Uma companhia area sabe que 5% das pessoas que fazem reservas em um determinado vo no comparecem para o embarque. Consequentemente, sua poltica
vender 52 passagens para um vo que pode transportar at 50 passageiros. Qual
a probabilidade de haver assentos disponveis para todos os passageiros que comparecerem ao embarque?
Resp: 0,7405
27. Suponha que um sinal x(t) alimenta um dispositiva cuja sada seja y(t). Se X tem
distribuio uniforme no intervalo (0, 2) e y = ln(x), calcule fY (y) e FY (y). Faa
os esboos das curvas pertinentes, indicando valores em alguns pontos notveis
(onde a funo corta os eixos ou muda abruptamente).
Resp:
y
e ,
fY (y) = 2
0,
y
e ,
FY (y) = 2
1,

< y < ln(2)


y ln(2)
< y < ln(2)
y ln(2)

28. Sabe-se que a distncia (em metros) do ponto de aterrissagem de um paraquedista


em relao ao centro da rea alvo opde ser modelada como uma varivel aleatria
contnua X com distribuio de Rayleigh de parmetro 2 = 100.
(a) Encontre a probabilidade de o paraquedista aterrisar dentro de um raio de
10m do centro da rea alvo.
(b) Encontre o raio r tal que a probabilidade do evento {X > r} seja e1 .
Resp:
(a)
(b)
29. Uma fonte gera um sinal de rudo com distribuio gaussiana de mdia zero e
potncia 2 W. Encontre a probabilidade de a amplitude do sinal exceder 5 volts.

Resp: Q(5/ 2) 2, 0563 104


30. Repita o problema anterior, se a potncia for de 1 W.
Resp: Q(5) 2, 89 107

Captulo 3

Mdias Estatsticas de Variveis


Aleatrias
3.1

Mdias

O conceito de mdias assume uma posio extremamente importante em processos aleatrios. Como mencionado anteriormente, os processos aleatrios so caracterizados pela
regularidade estatstica. Usando o termo regularidade estatstica indicamos que o
processo no pode ser predito especificamente, mas pode ser predito em uma base mdia. Por exemplo, no experimento de jogar moedas no possvel prever o resultado de
uma jogada particular, mas em mdia, podemos confiar que metade das jogadas iro
ser caras, e a outra metade, coroas, dado que esta mdia seja feita sobre um nmero
suficientemente grande de jogadas.

3.1.1

Mdia de uma Varivel Aleatria

Considere uma v.a. X que pode assumir n valores x1 , x2 , . . . , xn . Suponha que o experimento (representado por X) foi repetido N vezes (N ) e sejam m1 , m2 , . . . , mn
o nmero de tentativas favorveis aos resultados x1 , x2 , . . . , xn , respectivamente. Ento
o valor mdio de X dado por

E[X] =

m1
m2
mn
1
(m1 x1 + m2 x2 + + mn xn ) =
x1 +
x2 + +
xn
N
N
N
N

(3.1)

No limite quando N , a razo mi /N tende a fX (xi ) de acordo com a definio


por frequncia relativa de probabilidade. Portanto

E[X] =

n
X

xi pX (xi )

i=1

O valor mdio tambm chamado de valor esperado da v.a. X.

(3.2)

Mdias Estatsticas de Variveis Aleatrias

73

Definio 3.1. A mdia ou valor esperado de uma v.a. discreta dado por
n
X

E[X] =

(3.3)

xi pX (xi )

i=1

Se X uma v.a. contnua, o valor mdio dado por


Z +
xfX (x)dx
E[X] =

(3.4)

Exemplo 3.1. Uma fdp gaussiana geral dada por


fX (x) =

(xm)2
1
e 22
2

Encontre o valor mdio de X.


Soluo. Na Figura 3.1 tem-se um esboo de fX (x). Para esta distribuio, temos
1
E[X] =
2

(xm)2
2 2

xe

dx

Fazendo X = Y + m, podemos reescrever a equao acima como

E[X] =

1
2

(y + m)e

y2
2 2

dy =

1
2

Z

ye

y2
2 2

dy + m

y2
2 2

dy

O integrando da primeira integral uma funo mpar de y, e por isso, o resultado


zero. O da segunda integral uma funo par de y, de modo que podemos reescrever
a equao acima como
1
2m
E[X] =
2
fX (x)

1
2 2

+
0

y2

e 22 dy =

1
1
2m
2 2 = m
2
2

....... ....... ....... ....... ....... ....... ....... ....... ......................


.
..
.... ... ........
..
....
....
...
...
...
...
.
.
.
.
...
..
...
.
...
.
.
...
.
..
..
.
...
.
.
.
.
...
...
.
...
.
.
.
.
...
.
.
..
.
...
.
.
...
..
.
.
.
...
..
...
.
.
...
.
..
...
.
.
...
..
.
.
.
.
...
.
..
.
.
....
.
.
..
....
.
.
.
.
.....
.
...
.
.
.
.
......
.
.
...
.
.......
.
.
.
.
.
..........
....
.
.
.
.
.
.
.
.
.
.................
.
.
.
...............
..

Figura 3.1: Funo densidade de probabilidade gaussiana com mdia m e varincia 2 .

74

Mdias Estatsticas de Variveis Aleatrias

3.1.2

Mdia de uma Funo de uma Varivel Aleatria

Frequentemente desejamos encontrar a mdia de uma funo de uma v.a. ao invs da


mdia da prpria v.a. Como um exemplo simples disso, analisemos o caso de um sinal
de rudo cuja amplitude representada por uma v.a. X. Na prtica estamos mais
interessados no valor quadrtico mdio do sinal do que no valor mdio deste.
De forma geral, desejamos obter a expresso do valor mdio de uma v.a. Y a qual
por sua vez uma funo da v.a. X
(3.5)

Y = g(X)

Teorema 3.1. Sejam duas v.a.s X e Y relacionadas por Y = g(X). Ento o valor
mdio de Y dado por
Z +
Z +
g(X)fX (x)dx
(3.6)
yfY (y)dy =
E[Y ] =

Demonstrao. Considere o grfico da Figura 3.2, onde aparece um esboo da curva de


X contra Y = g(X)
Y
y + dy
dy

x1
dx1

x2
dx2

x3

X
dx3

Figura 3.2: Y = g(X).


Da figura, podemos ver que y = g(x1 ) = g(x2 ) = g(x3 ), ento podemos escrever
fY (y)dy = fX (x1 )dx1 + fX (x2 )dx2 + fX (x3 )dx3

(3.7)

Multiplicando ambos os lados da equao por y, obtemos


yfY (y)dy = g(x1 )fX (x1 )dx1 + g(x2 )fX (x2 )dx2 + g(x3 )fX (x3 )dx3

(3.8)

Ento para cada diferencial em (3.8) correspondem um ou mais diferenciais em (3.6).


medida que dy cobre o eixo y, os dxs correspondentes so no sobrepostos e cobrem
todo o eixo x. Desta forma, as integrais em (3.8) e (3.6) so iguais, e a prova est
completa.

Mdias Estatsticas de Variveis Aleatrias

75

Teorema 3.2. Se X uma v.a. discreta, (3.6) pode ser reescrita como
E[Y ] =

g(xi )P [X = xi ] =

g(xi )pX (xi )

(3.9)

Exemplo 3.2. Encontrar o valor quadrtico mdio da distribuio gaussiana do Exemplo 3.1.
Soluo. Temos que Y = g(X) = X 2 . Ento
Z +
(xm)2
1
E[Y ] =
x2 e 22 dx
2

Fazendo u = x m, reescrevemos a equao acima como


Z +
u2
1
(u + m)2 e 22 du
E[Y ] =
2
Resolvendo as trs integrais acima, chega-se a (resolver)
E[Y ] = E[X 2 ] = 2 + m2

3.1.3

Mdias para Variveis Mltiplas

Seja Z uma v.a. que funo de duas v.a.s X e Y


Z = g(X, Y )

(3.10)

Ento
E[Z] =

zfZ (z)dz

(3.11)

Podemos calcular E[Z] a partir de (3.11) e do conhecimento da densidade conjunta


fXY (x, y). Entretanto, podemos determinar E[Z] diretamente a partir da densidade
conjunta fXY (x, y) usando o seguinte teorema

Teorema 3.3. Sejam duas v.a.s X e Y com fdp conjunta fXY (x, y), e a v.a. Z
definida por Z = g(X, Y ). Ento o valor mdio de Z dado por
Z + Z +
g(X, Y )fXY (x, y)dxdy
(3.12)
E[Z] =

Demonstrao. A prova desta relao similar da equao (3.9). Se a varivel Z est


no intervalo [z, z +z], ento as variveis X e Y esto na regio limitada por [x, x+x]
e [y, y + y]. A rea desta regio obviamente xy. Segue tambm que

76

Mdias Estatsticas de Variveis Aleatrias

fZ (z)z = fXY (x, y)xy

(3.13)

Integrando ambos os lados de (3.13), chegamos equao (3.12).

Teorema 3.4. Para v.a.s discretas, (3.12) pode ser reescrita como
E[Z] =

XX
i

g(xi , yj )pXY (xi , yj )

(3.14)

Podemos estender facilmente a equao (3.12) para o caso de uma funo de n v.a.s:

Corolrio 3.5. Seja Z uma v.a. que funo de n v.a.s X1 , . . . , Xn :


Z = g(X1 , . . . , Xn )
Ento a mdia de Z dada por
Z + Z +
g(X1 , . . . , Xn )fX1 ,...,Xn (x1 , . . . , xn )dx1 . . . dxn

E[Z] =

(3.15)

Se algumas das v.a.s so discretas, a equao (3.15) ainda vlida desde que a
distribuio discreta considerada um caso limite da distribuio contnua atravs do
uso da funo impulso.

3.1.4

Mdia da Soma de Funes

Teorema 3.6. Se g1 (X, Y ), . . . , gn (X, Y ) so funes de X e Y ento


E[g1 (X, Y ) + + gn (X, Y )] = E[g1 (X, Y )] + + E[gn (X, Y )]

(3.16)

A prova trivial e segue diretamente da definio das mdias. Ento a mdia da


soma igual soma das mdias. Alguns exemplos simples disto so
E[X + Y ] = E[X] + E[Y ]

(3.17)

E[X 2 + Y 2 ] = E[X 2 ] + E[Y 2 ]

(3.18)

Estes resultados podem ser estendidos a funes de qualquer nmero de v.a.s.

Mdias Estatsticas de Variveis Aleatrias

3.1.5

77

Mdia do Produto de Duas Variveis Aleatrias Independentes

Teorema 3.7. Para v.a.s independentes a mdia do produto igual ao produto das
mdias individuais.

Demonstrao. Se Z = XY
E[Z] =

+ Z +

xyfXY (x, y) dxdy

(3.19)

Se X e Y so independentes fXY (x, y) = fX (x)fY (y), e desta forma podemos escrever


Z +
Z +
yfY (y) dy = E[X]E[Y ]
(3.20)
xfX (x) dx
E[Z] =

Ento, se X e Y so v.a.s independentes

(3.21)

E[XY ] = E[X]E[Y ]

Este resultado pode ser estendido a qualquer nmero de variveis. Na verdade, a


equao (3.21) um caso especial de um resultado mais geral:

Teorema 3.8. Se X e Y so independentes, ento para Z = g1 (X) g2 (Y ) temos que


E[Z] = E[g1 (X)]E[g2 (Y )]

(3.22)

E[g1 (X)g2 (Y )] = E[g1 (X)]E[g2 (Y )]

(3.23)

Em outras palavras

3.1.6

Mdia Quadrtica da Soma de Duas Variveis Aleatrias

O valor quadrtico mdio de Z = X + Y dado por

E[Z 2 ]

= E[(X + Y

)2 ]

+ Z +

+2

+ Z +

x fXY (x, y) dxdy +

+ Z +

+ Z +

(x + y)2 fXY (x, y) dxdy

xyfXY (x, y) dxdy

y 2 fXY (x, y) dxdy

(3.24)

78

Mdias Estatsticas de Variveis Aleatrias

Se as v.a.s X e Y so independentes, ento


Z

+ Z +

x fXY (x, y) dxdy =

x fX (x) dx

Z +

fY (y) dy =

x2 fX (x) dx = E[X 2 ]

Similarmente
Z

+ Z +

y fXY (x, y) dxdy =

fX (x) dx

y 2 fY (y) dy =

y 2 fY (y) dy = E[Y 2 ]

E usando (3.21), podemos escrever


Z + Z +
xyfXY (x, y) dxdy = E[XY ] = E[X]E[Y ]

Portanto, para as v.a.s independentes X e Y temos

E[(X + Y )2 ] = E[X 2 ] + E[Y 2 ] + 2E[X]E[Y ]

(3.25)

Se E[X] ou E[Y ] ou ambos forem zero, ento temos


E[(X + Y )2 ] = E[X 2 ] + E[Y 2 ]

3.1.7

(3.26)

Mdia condicional

Definio 3.2. A mdia condicional (ou valor esperado condicional) de uma


v.a. X dado que outra v.a. Y = y denotada por E[X|Y = y] e definida como
Z +
xfX (x|Y = y) dx
(3.27)
E[X|Y = y] =

Isto segue da definio bsica da mdia.

3.2
3.2.1

Momentos
N-simo momento

Definio 3.3. O n-simo momento de uma v.a. X definido como o valor


esperado da n-sima potncia de X.
Z +
n
xn fX (x) dx
(3.28)
E[X ] =

Mdias Estatsticas de Variveis Aleatrias

3.2.2

79

Momentos Centrais

Definio 3.4. O n-simo momento central da v.a. X seu momento ao redor


de seu valor mdio E[X], e dado por
Z +
n
(x E[X])n fX (x) dx
(3.29)
E[(X E[X]) ] =

3.2.3

Varincia

Definio 3.5. O segundo momento central sobre a mdia chamado de varincia


2 .
e denotado por X


2
X
= E (X E[X])2

(3.30)

Das expresses da seo 3.1.4, segue que


2
X
= E[X 2 ] 2E[X]E[X] + E[E 2 [X]] = E[X 2 ] 2E 2 [X] + E 2 [X] = E[X 2 ] E 2 [X]
(3.31)
Ento a varincia de uma v.a. igual sua mdia quadrtica menos o quadrado de
sua mdia.

2 de uma varivel aleatria X com distribuio


Exemplo 3.3. Encontre a varincia X
gaussiana.

Soluo. No Exemplo 3.1 vimos que E[X] = m, e no Exemplo 3.2, foi mostrado que
E[X 2 ] = 2 + m2 .
2 = 2 + m2 m2 = 2 .
Desta forma, pela equao (3.31) temos que X

A varincia tem uma grande importncia principalmente na anlise de sinais, pois


est intimamente ligada potncia dos mesmos (na verdade, ela corresponde potncia
de um sinal de mdia nula). Nos teoremas a seguir so derivadas algumas propriedades
importantes da varincia.

Teorema 3.9. Se X sempre toma o valor a, ento Var[A] = 0.

Demonstrao. Desde que X sempre toma o valor a, P [X = a] = 1. Neste caso,


E[X] = a, e Var[X] = (a a)2 P [X = a] = 0.

80

Mdias Estatsticas de Variveis Aleatrias

Este teorema diz que a varincia de X zero quando X determinstica.

Teorema 3.10. Se Y = X + b, ento Var[Y ] = Var[X].

Demonstrao. Dada a varivel aleatria X, E[Y ] = E[X]+b, e desta forma, a varincia


de Y dada por


Var[Y ] = E ((X + b) (E[X] + b))2


= E (X E[X])2 = Var[X]
Ou seja, o deslocamento da varivel aleatria X de uma constante no muda a sua
varincia.

Teorema 3.11. Se Y = aX, ento Var[Y ] = a2 Var[X].

Demonstrao. Desde que E[Y ] = aE[X], temos






Var[Y ] = E (aX aE[X])2 = E a2 (X E[X])2 = a2 Var[X].

3.2.4

Caso Multidimensional

Definio 3.6. Sejam duas v.a.s X1 e X2 com fdp conjunta fX1 X2 (x1 , x2 ). O momento conjunto definido como
i Z + Z +
h
k n
xk1 xn2 fX1 X2 (x1 , x2 ) dx1 dx2
(3.32)
E X1 X2 =

Definio 3.7. Sejam duas v.a.s X1 e X2 com fdp conjunta fX1 X2 (x1 , x2 ). O momento central conjunto definido como
i Z
h
E (X1 m1 )k (X2 m2 )n =
onde mi = E[Xi ].

+ Z +

(x1 m1 )k (x2 m2 )n fX1 X2 (x1 , x2 ) dx1 dx2

(3.33)

Mdias Estatsticas de Variveis Aleatrias

81

Uma propriedade bastante til quando lidamos com distribuies bidimensionais


a desigualdade de Cauchy-Schwarz, que apresentada a seguir

Teorema 3.12. Desigualdade de Cauchy-Schwarz. Sejam X e Y duas variveis


aleatrias. Ento
   
[E(XY )]2 E X 2 E Y 2

(3.34)



Demonstrao. Considere a expresso E (X Y )2 para duas variveis aleatrias X
e Y quaisquer, e uma varivel real . Esta expresso, quando vista como um quadrado
em , sempre no negativa, isto :

Expandindo o quadrado, temos



E (X Y )2 0

E[X 2 ] 2E[XY ] + 2 E[Y 2 ] 0

Vamos escolher agora o valor de de modo que o lado esquerdo da equao acima seja
mnimo:
=

E[XY ]
E[Y 2 ]

o que resulta na desigualdade


E[X 2 ]

   
[E(X, Y )]2
0 [E(XY )]2 E X 2 E Y 2
2
E [Y ]

De particular importncia para ns so os momentos conjuntos e momentos centrais


conjuntos correspondentes a k = n = 1. Estes momentos conjuntos so chamados de
correlao e covarincia das v.a.s X1 e X2 , respectivamente, e sero estudados com
mais detalhes adiante.
Para v.a.s multidimensionais podemos definir momentos conjuntos de qualquer ordem. Entretanto, os momentos que so mais teis em aplicaes prticas so as correlaes e covarincias entre pares de v.a.s. Suponha que Xi , i = 1, 2, . . . , n so v.a.s com
fdp conjunta fX1 X2 Xn (x1 , x2 , . . . , xn ). Seja fXi Xj (xi , xj ) a fdp conjunta das v.a.s Xi
e Xj .

Definio 3.8. A correlao entre duas variveis aleatrias Xi e Xj dada pelo


momento conjunto
Z + Z +
ij = E[Xi Xj ] =
xi xj fXi Xj (xi , xj ) dxi dxj
(3.35)

82

Mdias Estatsticas de Variveis Aleatrias

Definio 3.9. A covarincia de duas variveis aleatrias Xi e Xj , cujas mdias


so, respectivamente, mi e mj , dada por
Kij

= E[(Xi mi )(Xj mj )]
=

+ Z +

(xi mi )(xj mj )fXi Xj (xi , xj ) dxi dxj

+ Z +

xi xj fXi Xj (xi , xj ) dxi dxj mi mj

(3.36)

= E[Xi Xj ] mi mj
As matrizes n x n com elementos ij e ij so chamadas respectivamente de matriz
de correlao e matriz de covarincia das v.a.s Xi , i = 1, 2, . . . , n.

3.2.5

Variveis Aleatrias Descorrelacionadas e Ortogonais

Definio 3.10. Duas v.a.s Xi e Xj so ditas descorrelacionadas se


E[Xi Xj ] = E[Xi ]E[Xj ] = mi mj

Neste caso, a covarincia Kij = 0. Note que quando Xi e Xj so estatisticamente


independentes, tambm so descorrelacionadas. Entretanto, se Xi e Xj so descorrelacionadas, no so necessariamente estatisticamente independentes.

Definio 3.11. Duas v.a.s Xi e Xj so ditas ortogonais se E[Xi Xj ] = 0.

Esta condio acontece quando Xi e Xj so descorrelacionadas e uma ou ambas as


v.a.s tem mdia zero.

Mdias Estatsticas de Variveis Aleatrias

3.3

83

Funes Caractersticas

Definio 3.12. A funo caracterstica de uma v.a. X definida como a mdia


estatstica
Z +
jX
ejx fX (x) dx
(3.37)
(j) E[e
]=
onde a varivel real e j =

1 a constante imaginria.

(j) pode ser vista como a transformada de Fourier da fdp fX (x). Assim, a
transformada inversa de Fourier dada por
1
fX (x) =
2

(j)ejx d

(3.38)

Uma propriedade til da funo caracterstica sua relao com os momentos da


v.a. O seguinte teorema relaciona estas duas grandezas:

Teorema 3.13. Sejam uma varivel aleatria X e sua correspondente funo caracterstica (j). Ento

n

n
n d (j)
(3.39)
E[X ] = (j)
d n =0

Demonstrao. A derivada primeira de (j) em relao a leva a


d(j)
=j
d

xejx fX (x) dx

(3.40)

Avaliando a expresso acima em = 0, obtemos o primeiro momento (mdia)


E[X] = mX


d(j)
= j
d =0

(3.41)

O processo de diferenciao pode ser repetido, de modo que a n-sima derivada de


(j) avaliada em = 0 leva ao n-simo momento

dn (j)
E[X ] = (j)
d n =0
n

(3.42)

Ento os momentos de uma v.a. podem ser determinados a partir da funo caracterstica. Por outro lado suponha que a funo caracterstica possa ser expandida em
uma srie de Taylor sobre o ponto = 0, isto

84

Mdias Estatsticas de Variveis Aleatrias

(j) =


 n
X
d (j)
d n

n=0

=0

n
n!

(3.43)

Usando a relao em (3.42) para eliminar a derivada em (3.43), obtemos uma expresso para a funo caracterstica em termos de seus momentos na forma
(j) =

E[X n ]

n=0

(j)n
n!

(3.44)

A funo caracterstica fornece um meio simples de determinar a fdp da soma de


v.a.s estatisticamente independentes:

Teorema 3.14. Seja Xi , i = 1, 2, . . . , xn um conjunto de n v.a.s estatisticamente


independentes e seja
Y =

n
X

Xi

n
Y

Xi (j)

i=1

Ento a funo caracterstica de Y dada por


Y (j) =

i=1

Demonstrao. O problema consiste em determinar a fdp de Y . Iremos fazer isto encontrando primeiro a sua funo caracterstica a ento calculando a transformada inversa
de Fourier.


Y (j) = E ejY
"

= E exp j

=E

n
X

Xi

i=1

" n
Y
i=1

jXi

!#

(3.45)

#


Desde que as v.a.s so estatisticamente independentes,


fX1 X2 Xn (x1 , x2 , . . . , xn ) = fX1 (x1 )fX2 (x2 ) fXn (xn )
e desta forma a integral mltipla da equao acima pode ser fatorada em n integrais
simples, cada uma correspondendo funo caracterstica de um dos Xi . Portanto
Y (j) =

n
Y
i=1

Xi (j)

(3.46)

Mdias Estatsticas de Variveis Aleatrias

85

Corolrio 3.15. Se alm de independentes, as v.a.s Xi forem identicamente distribudas, as Xi (j) so idnticas, e a expresso acima reduz-se a
Y (j) = [Xi (j)]n

(3.47)

Observaes:
A fdp de Y pode ser determinada a partir da transformada inversa de Fourier de
Y (j), dada pela equao (3.38).
Desde que a funo caracterstica da soma de n v.a.s estatisticamente independentes igual ao produto das funes caractersticas das v.a.s individuais
Xi , i = 1, 2, . . . , n, segue que no domnio da transformada, a fdp de Y a convoluo das fdps de Xi . Geralmente a convoluo mais difcil de calcular do que
o mtodo da funo caracterstica descrito acima para determinar a fdp de Y .

3.3.1

Caso multidimensional

Para lidar com v.a.s n-dimensionais, conveniente definir uma transformada de Fourier
n-dimensional da fdp conjunta.

Definio 3.13. Se Xi , i = 1, 2, . . . , n so v.a.s com fdp fX1 X2 Xn (x1 , x2 , . . . , xn ),


a funo caracterstica n-dimensional definida como
"

(j1 , j2 , . . . , jn ) = E exp j

exp j

n
X

n
X
i=1

i Xi

i=1

i Xi

!#

fX1 X2 Xn (x1 , x2 , . . . , xn ) dx1 dx2 . . . dxn


(3.48)

De especial interesse a funo caracterstica bi-dimensional


(j1 , j2 ) =

+ Z +

ej(1 X1 +2 X2 ) fX1 X2 (x1 , x2 ) dx1 dx2

(3.49)

Observe que as derivadas parciais de (j1 , j2 ) em relao a 1 e a 2 podem ser


utilizadas para gerar os momentos conjuntos. Por exemplo, fcil mostrar que

2 (j1 , j2 )
E[X1 , X2 ] =

1 2
1 =2 =0

(3.50)

86

Mdias Estatsticas de Variveis Aleatrias

3.4

Exerccios

1. Se FX () a transformada de Fourier de uma funo densidade de probabilidade


fX (x) e mn representa o n-simo momento da v.a. X,
Z

mn =

xn fX (x) dx

Ento mostre que


(a)


dn FX ()
mn = (j)
d n =0
n

(b) se FX () expandida em srie de Taylor, ento

FX () = m0 jm1

 n

m3 3
m2 2
(j)n mn
+j
+ =
2!
3!
n!
n=0

2. Use os resultados do problema anterior para determinar o valor mdio e o valor


quadrtico mdio de
(a) um sinal gaussiano;
(b) um sinal com fX (x) = xex u(x)
Dica: encontre FX () e expanda em sries de potncias como no problema anterior. O segundo e terceiro coeficientes representam os valores mdios e quadrtico
mdio, respectivamente.
Resp:
E[X 2 ] = 2 + m2

(a) E[X] = m
(b) E[X] = 2

E[X 2 ] = 6

3. Seja X uma v.a. com mdia e desvio padro > 0, e seja X a v.a. padronizada
correspondente de X, isto X = (X )/. Mostre que E[X ] = 0 e Var[X ] =
1. (Logo X = 1).
4. Encontre o n-simo momento de X, se X uma v.a. uniformemente distribuda
no intervalo [a, b].
Resp: E[X n ] =

bn+1 an+1
(b a)(n + 1)

5. Encontre a mdia e a varincia de uma v.a. gaussiana aplicando o teorema dos


momentos sobre a funo caracterstica.
6. Dado que
Z
xfx (x)dx
m=

E[X 2 ] =

2 = E[X 2 ] m2
Mostre que X

x2 fx (x)dx

2
X
=

(x m)2 fx (x)dx

Mdias Estatsticas de Variveis Aleatrias

87

7. Encontre a funo caracterstica de uma varivel aleatria X com distribuio de


Cauchy, cuja funo densidade de probabilidade dada por
fX (x) =

a
,
(x2 + a2 )

< x <

Resp: (j) = ea
8. Seja Y = a cos(t + ) onde a, , e t so constantes, e uma varivel aleatria
com distribuio uniforme no intervalo (0, 2). A varivel aleatria Y resulta na
amostragem da amplitude de uma senide com fase aleatria . Encontre E[Y] e
E[Y 2 ].
Resp: E[Y ] = 0

E[Y 2 ] =

a2
2

9. Mostre que o primeiro e segundo momentos de uma varivel aleatria com distribuio 2n so respectivamente n e (n2 + 2n), aplicando o teorema dos momentos
sobre a funo caracterstica.
A fdp de uma distribuio 2n dada pela expresso
fY (y) =

y
n
1
y ( 2 1) e 2 ,
n
2 ( 2 )
n
2

y0

onde (p) a funo gama, definida por


(p) =

tp1 et dt,

p>0

(p + 1) = p (p)
Dica: faa u = y/2
10. Determine os momentos de uma varivel aleatria X com distribuio N (0, 1).
(
0
n = 1, 3, 5, 7, . . .
Resp: E[X n ] =
1 3 5 (n 1) n = 2, 4, 6, 8, . . .
11. Dada uma varivel aleatria discreta que assume dois valores 0 e 1 com probabilidades p e q, respectivamente, prove que 2 0, 25. Encontre o valor para o
qual 2 = 0, 25.
Resp: q = 0, 5
12. Sabe-se que para uma varivel aleatria X positiva, o segundo e o quarto momentos so dados por 2 2 e 8 4 , respectivamente. Se Y = X 2 , determine a mdia e
a varincia de Y .
Resp: E[Y ] = 2 2

Var[Y ] = 4 4 .

13. Se uma varivel aleatria X tem fmp dada por

88

Mdias Estatsticas de Variveis Aleatrias

0, 5
pX (xk ) = 0, 5

x = 1
x = +1
caso contrrio

mostre que a funo caracterstica de X dada por cos().


14. Demonstre a consistncia da definio da funo caracterstica. Faa as suposies
necessrias para a demonstrao.
Dica: unicidade das transformadas, funo impulso, e propriedade de deslocamento no domnio do tempo
15. Seja a mdia de uma varivel aleatria X. Mostre que se
Z

fX (x) dx =

fX (x) dx

ento FX () = 1/2.
16. Seja (X, Y ) uma v.a. bidimensional com fdp conjunta
fXY (x, y) =

x2 + y 2 (x2 +y2 )/2


e
, < x < , < y <
4

Mostre que X e Y so descorrelacionadas mas no independentes.


17. Seja X uma varivel aleatria N (0, 2 ).
(a) Calcule fX (x|X > 0)
(b) Calcule E[X|X > 0]
(c) Calcule V ar[X|X > 0]
Resp:
(a) fX (x|X > 0) =
r

x2
1
2
e 22
2

x<0
x0



2
2
0, 363 2
(c) 1

(b)

18. Suponha que a fmp conjunta de uma varivel aleatria bidimensional (X, Y ) seja
dada por
(
1/3
pXY (x, y) =
0

(0, 1), (1, 0), (2, 1)


caso contrrio

Mdias Estatsticas de Variveis Aleatrias

(a) Encontre as fmps marginais.


(b) X e Y so independentes?
(c) X e Y so descorrelacionadas?
Resp:
(a) pX (x) =

1/3 x = 0, 1, 2
0
caso contrrio

1/3
pY (y) = 2/3

(b) no
(c) sim

x=0
x=1
caso contrrio

89

Captulo 4

Mtodos computacionais para


gerao de nmeros aleatrios
4.1

Introduo

Em simulaes de sistemas reais s vezes nos deparamos com a necessidade de gerar


nmeros aleatrios segundo alguma distribuio para testar nossas idias. Por exemplo,
se queremos simular um canal de comunicao ruidoso, devemos gerar nmeros aleatrios segundo uma distribuio gaussiana de mdia zero e varincia igual potncia do
rudo de canal. Por outro lado, se queremos simular o trfego de dados em um determinado servio, devemos gerar nmeros com distribuio exponencial para o tempo entre
chegadas de clientes.
Neste captulo sero apresentados alguns algoritmos computacionais para a gerao
de nmeros de forma aleatria, segundo uma dada distribuio. Inicialmente ser apresentado o algoritmo para a gerao de nmeros com distribuio uniforme entre 0 e 1,
que ir servir de base para os demais algoritmos.

4.2

Mtodo do resduo da potncia

O primeiro problema a ser abordado quando queremos gerar nmeros aleatrios no


intervalo [0, 1] que existem infinitos pontos dentro deste intervalo, mas o computador
s pode representar nmeros com preciso finita. Precisamos nos contentar ento em
gerar nmeros de forma equiprovvel dentro de um conjunto limitado, por exemplo
{0, 1, . . . , M 1} ou {1, 2, . . . , M }. Dividindo estes nmeros por M , obtemos nmeros no
intervalo unitrio. Podemos gerar distribuies bastante densas se fizermos M bastante
grande.
O prximo passo consiste em encontrar um mecanismo para gerar nmeros de forma
aleatria. A forma preferida para gerar nmeros aleatria atravs do computador
atravs de frmulas recursivas que possam ser implementadas de forma fcil e rpida.
No mtodo do resduo da potncia utiliza-se a seguinte frmula:
Zk = Zk1

mod M

(4.1)

onde um inteiro entre 0 e M , e M um nmero primo (p) ou uma potncia inteira


de um nmero primo (pm ).

Mtodos computacionais para gerao de nmeros aleatrios

91

Exemplo 4.1. Encontre as sequncias geradas pela Equao (4.1) para:


1. M = 11, = 7, Z0 = 1
2. M = 11, = 3, Z0 = 1
3. M = 22 , = 7, Z0 = 1
Soluo. Usando (4.1), temos:
1. Para M = 11, = 7 e Z0 = 1, temos:
71
=7
11
7 Z1
77
49
Z2 = resto de
= resto de
= resto de
=5
11
11
11

Z1 = resto de

e assim por diante. A sequncia resultante :


1, 7, 5, 2, 3, 10, 4, 6, 9, 8, 1, 7, 5, 2, 3, 10, 4, 6, 9, 8, 1, 7, 5, 2, 3, 10, 4, 6, 9, 8, . . .
Note que a sequncia passa por todos os inteiros de 1 a 10, e ento passa a se
repetir indefinidamente.
2. Para este caso, a sequncia gerada :
1, 3, 9, 5, 4, 1, 3, 9, 5, 4, 1, 3, 9, 5, 4, . . .
Esta sequncia no passa por todos os inteiros de 1 a 0 antes de comear a se
repetir.
3. Para o ltimo caso, a sequncia gerada :
1, 2, 0, 0, 0, . . .

Do Exemplo acima, podemos notar que a escolha de influi diretamente na sequncia gerada: se divisor de M , ento a sequncia gerada pela Equao (4.1) ir
eventualmente ser toda nula; caso contrrio, a sequncia ser peridica com perodo
mximo M 1. Para que a sequncia tenha o mximo comprimento possvel, deve
ser uma raiz primitiva de M , um conceito cujo estudo est fora do escopo deste texto.
Uma coisa a ser notada sobre este algoritmo que as sequncias produzidas pela
Equao (4.1) no so realmente aleatrias, mas sim peridicas. Por esta razo, as
sequncias produzidas por (4.1) so chamadas de pseudo-aleatrias.
Se fizermos M grande o suficiente, ento os nmeros gerados no iro se repetir
durante uma dada simulao, e a sequncia gerada tem a aparncia de uma sequncia
aleatria.

92

Mtodos computacionais para gerao de nmeros aleatrios

Vrios estudos foram feitos para determinar bons valores para M e . Uma combinao que bastante usada :
Zi = 75 Zi1

mod (231 1)

(4.2)

ou seja, = 75 = 16807 e M = 231 1. Esta combinao gera sequncias pseudoaleatrias de comprimento M 1 = 231 1 1 = 2147483646 elementos, o que mais
que suficiente para a maioria das aplicaes.
A escolha de Z0 determina o ponto em que a sequncia ir se iniciar, e por isso, este
parmetro conhecido como a semente do gerador aleatrio.
Nas sees a seguir, iremos descrever algoritmos para gerar sequncias de nmeros
aleatrios com outras distribuies de probabilidade a partir das sequncias geradas
nesta seo.

4.3

Mtodo da transformada

Suponha que U seja uniformemente distribuda no intervalo [0, 1]. Seja FX (x) a fdc
de uma varivel aleatria que estamos interessados em gerar. Vamos definir a varivel
aleatria Z = FX1 (U ); isto , primeiro selecionamos U e depois encontramos Z, como
indicado na Figura 4.1. A fdc da varivel Z encontrada desta maneira dada por:
FZ (z) = P [Z x] = P [FX1 (U ) x] = P [U FX (x)]
Mas se U uniformemente distribuda em [0, 1] e 0 h 1, ento P [U h] = h.
Ento:
P [Z x] = FX (x)
e Z = FX1 (U ) tem a fdc desejada.
1.0

.......................................................................................................................................................................................................................................................................................................................
...
...
...
.
.........
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
..........
.
.
X
.
.
.
.
.....
.
.
.
.
.
.......
.
.
.
.
.
...
.
.
.
.
.
..
...
..........
..........
.
...
.
.
.
.
.
.
.
...
.....
.
.
.
.
.
.
.
...
......
.
.
.
.
.
.
....
.
.
.
.
.....
.
.
.....
.
.
...
.
.
.
.....
.
...
.
.
.
.
....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... .................
....
.... .
.
...
.
.
.
....
...
.
.
.
.
.
.
...
...
.
.
.
.
.
.
....
.
.
.
.....
.
.
...
.
.
.
.
...
.
.
.
...
.
...
.
.
...
.
.
....
.
.
..
.
.
.
...
.
.
..
.
...
.
.
.
..
.
.
...
.
.
.
.
...
...
.
.
...
...
.
.
.
.
..
..
.
.
.
.....
..
.
...
.
.
..
.
.
...
.
.
.
..
.
....
.
..
.
.
...
.
.
..
..
.
...
.
.
..
...
.
.
...
..
...
.
.
.
.
...
.
.
..
.
.
.....
.
.
..
...
...
.
.
1
..
...
.
..
..
.
....
.
X
.
..
...
.
..
..
...
.
.
.
..
...

F (x)

0.8
0.6
0.4
0.2

Z=F

(U )

0
Figura 4.1: Mtodo da transformada para gerar uma varivel aleatria com fdc FX (x).

Mtodos computacionais para gerao de nmeros aleatrios

93

Mtodo da transformada para gerar X


1. Gere U com distribuio uniforme no intervalo [0, 1].
2. Faa X = FX1 (U )

Exemplo 4.2. Determine X para gerar uma sequncia de nmeros aleatrios com
distribuio exponencial de parmetro a partir de uma sequncia de nmeros aleatrios
uniformemente distribudos no intervalo [0, 1].
Soluo. Precisamos inverter a expresso u = FX (x) = 1 ex . Com isto, obtemos
1
X = ln(1 U )

Note que podemos usar a expresso mais simples X = ln(U )/, desde que (1 U )
tambm uniformemente distribuda no intervalo [0, 1].

Exemplo 4.3. Para gerar uma varivel aleatria com distribuio de Bernoulli de
probabilidade de sucesso p, notamos da Figura 4.2 que
(
0, U p
X=
1, U > p
Em outras palavras, particionamos o intervalo [0, 1] em dois segmentos de comprimentos p e 1 p, respectivamente. A sada X determinada pelo intervalo em que U
cair.
1.0
0.8

.....................................................................................................................................................................................................................................................................................................................................................................
...
...
....
...
.
...
...
....
...
...
....
....
.
...
.....
....
...
...
....
...
.
...
....
....
...
...
...
...
.
...
.
...
....
...
...
...
...
...
.
...
.
...
....
...
..................
...
...
.
.....
...
.
...
....
...
...
...
....
.
...
.
...
....
...
.....
...
...
.
...
.
....
....
...
...
...
.
.

X=1

0.6
U
0.4
0.2

?
6

X=0

-0.5

0.5

1.5

X
Figura 4.2: Gerando uma varivel aleatria com distribuio de Bernoulli.

94

Mtodos computacionais para gerao de nmeros aleatrios

Exemplo 4.4. Gere uma varivel aleatria com distribuio binomial de parmetros
n = 5 e p = 1/2.
Soluo. Para gerar uma varivel aleatria com distribuio binomial de parmetros
n = 5 e p = 1/2, poderamos simplesmente gerar cinco variveis aleatrias com distribuio de Bernoulli e assumir Y como sendo o nmero total de sucessos.
Alternativamente, podemos usar diretamente o mtodo da transformada, como mostrado na Figura 4.3. O intervalo unitrio agora particionado em seis elementos. A
eficincia do algoritmo de partio depende da ordem na qual fazemos a busca. Por
exemplo, se fazemos a busca nos segmentos em ordem (de 0 a 5), sero necessrias em
mdia 3.5 comparaes para cada nmero gerado. Se fizermos a busca nos segmentos
em ordem decrescente de probabilidade, ento o nmero mdio de comparaes cai para
2.38.
1.0

............................................................................................................................................................................................................................................................................................................................................................................................................................................
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
..

X=5

X=4

0.8
0.6
U
0.4
0.2

X =3

X=2

X =0

X =1

X
Figura 4.3: Gerando uma varivel aleatria com distribuio Binomial.

Claramente qualquer varivel aleatria finita discreta pode ser gerada dividindose o intervalo unitrio em subintervalos com comprimentos determinadospela fmp. O
prximo mtodo baseado na fdp ao invs da fdc de Z.

4.4

O mtodo da rejeio

Iremos considerar uma verso simplificada deste algoritmo para explicar porque ele
funciona. Depois o algoritmo ser reapresentado em sua forma geral.
Suponha que estamos interessados em gerar uma varivel aleatria Z com fdp fX (x),
como mostrado na Figura 4.4. Em particular, assumimos que:
a fdp no nula somente no intervalo [0, a];
a fdp assume valores no intervalo [0, b].

Mtodos computacionais para gerao de nmeros aleatrios


b

95

...............................................................................................................................................................................................................................................................................................
...
...................
.....
.....
......
.....
...
...
...
...
.
...
.
...
..
.
.
....
.
...
..
.
...
.
.
...
.
.
...
.
...
...
...
.
.
...
...
..
.
...
...
X
..
.
.
...
..
.
.....
.
...
..
...
.
.
...
.
.
...
.
...
...
.
.
....
...
..
...
.
.
...
..
...
.
.
...
.
...
.
.
...
..
...
.
.
.
.
.........
...
..
.
.
.
.
.
..................
..
.
.
.
.
.....
....................
..
.
.
...
.
.
................. .....
..
.
.
.
...
.
.
..
................ .....
.
.
.
.
....
.
.....
..
.................
.
.
.
.
.
.
...
.
.
.
......
................
....
.
.
.
.
...
.
.
.
.
.
.
.......
................
.....
.
.
.
...
.
.
.
.
.
.
.
.
.
.
.
.
.
...............
................
.......
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
....
.....

Rejeitar

f (x)

Aceitar

x x + dx

Figura 4.4: Mtodo da rejeio para gerar uma varivel aleatria com fdp fX (x).
O mtodo da rejeio neste caso funciona da seguinte maneira:
1. Gere X1 com distribuio uniforme no intervalo [0, a].
2. Gere Y com distribuio uniforme no intervalo [0, b].
3. Se Y fX (X1 ), ento Z = X1 ; seno, rejeite X1 e retorne ao passo 1.
Note que este algoritmo ir realizar um nmero aleatrio de passos antes de produzir
a sada Z.
Iremos mostrar agora que a sada Z tem a fdp desejada: os passos 1 e 2 selecionam
aleatoriamente um ponto em um retngulo de largura a e altura b. A probabilidade
de selecionar um ponto em qualquer regio simplesmente a rea da regio dividida
pela rea total do retngulo, ab. Ento a probabilidade de aceitar X1 a rea da
regio abaixo de fX (x) dividida por ab. Mas a rea sob qualquer fdp 1, de modo
que conclumos que a probabilidade de sucesso 1/(ab). Considere agora a seguinte
probabilidade:
P [{x < X1 x + dx}, {X1 ser aceito }]
P [X1 ser aceito ]
fX (x) dx/(ab)
rea sombreada/(ab)
=
=
1/(ab)
1/(ab)
= fX (x)dx

P [{x < X1 x + dx|X1 ser aceito }] =

Ento, X1 , quando aceito, tem a fdp desejada, e portanto Z tem a fdp desejada.
O algoritmo acima pode apresentar dois problemas: primeiro, se a diferena entre
o retngulo e a fdp a ser gerada for muito grande, ento o nmero de X1 s que devem
ser gerados antes da aceitao pode ser excessivamente alto; segundo, este mtodo no
pode ser utilizado se fX (x) no limitada, ou se seu contradomnio no limitado.
A verso geral deste algoritmo resolve estes dois problemas: suponha que queremos
gerar X com fdp fX (x). Seja W uma varivel aleatria com fdp FW (x) que fcil de
gerar, e tal que para alguma constante K > 1,
KfW (x) fX (x), x

ou seja, a regio sob KfW (x) contm fX (x), como mostrado na Figura 4.5.

96

Mtodos computacionais para gerao de nmeros aleatrios


1.0

0.8

0.6

0.4

0.2

.........................................................................................................................................................................................................................................................................................................................................................................
...
. ...
.
... ....
.....
...
..
...
...
...
...
...
...
....
..
...
...
...
...
...
...
..
...
...
...
...
..
...
..
.
...
.
.....
...
..
...
.
...
...
...
...
...
....
...
...
...
...
..
...
...
....
...
...
....
..
...
....
...
.
.
...
....
..
.....
.....
.....
...
...
.
.
...
...
..
...
...
...
...
...
..
....
..
.
...
.
...
.
...
.
.
..
...
...
..
...
.
.....
...
.
...
W
...
....
...
..
X
...
....
...
...
...
..
....
...
...
...
...
..
...
...
...
.... ....
. ..
.....
.......
...
.......
...
.
.
.
..............
. ........
....
....... .........
...
.........................
...
...
....... ..................
....... ..................
...
....... . ...................
...
...... .....
....................
.. ....... .. ...........................
....
..... ....... ....... .....................................
....... ....... ....... ................................................................................................
....... ....... ....... ....... .....

Rejeitar

Kf (x)

f (x)

Aceitar

Figura 4.5: Mtodo da rejeio para gerar uma varivel aleatria com distribuio gama
(0 < < 1).

Mtodo da rejeio para gerar X


1. Gere X1 com fdp fW (x). Defina B(X1 ) = KfW (X1 ).
2. Gere Y com distribuio uniforme no intervalo [0, B(X1 )].
3. Se Y fX (X1 ), ento X = X1 ; seno, rejeite X1 e retorne ao passo 1.

Exemplo 4.5. Mostre uma maneira de gerar uma varivel aleatria com distribuio
gama de parmetros 0 < < 1 e = 1, usando o mtodo da rejeio.
Soluo. Uma funo KfW (x) que cobre fX (x)

fX (x) =

1
x

, 0x1

()

x1 ex
KfW (x) =

()

ex

,
()

A fdp fW (x) que corresponde funo no lado direito

ex1

, 0x1

+e
fW (x) =

ex

e
, x>1
+e
A fdc de W

x>1

Mtodos computacionais para gerao de nmeros aleatrios

FW (x) =

ex

+ e

97

0x1

ex

1 e
, x>1
+e
W pode ser gerada facilmente usando o mtodo da transformao com



( + e)u 1/

,
u e/( + e)

e
1
(u) =
FW




(1 u)

, u > e/( + e)
ln ( + e)
e

Podemos usar o mtodo da transformada para gerar esta fW (x), e ento o mtodo
da rejeio para gerar qualquer varivel aleatria com distribuio gama de parmetros
0 < < 1 e = 1. Finalmente, note que se fizermos W = X, ento W ter
distribuio gama com parmetros e .

4.5

Gerao de funes de uma varivel aleatria

Se tivermos um mtodo simples para gerar uma varivel aleatria X, podemos gerar
facilmente qualquer varivel aleatria que seja definida por Y = g(x) ou mesmo Z =
h(X1 , X2 , . . . , Xn ), onde X1 , X2 , . . . , Xn so n sadas do gerador de nmeros aleatrios.
Exemplo 4.6. Mtodo Box & Muller. Pode-se mostrar que se U1 e U2 so variveis
aleatrias independentes e uniformemente distribudas no intervalo unitrio, ento
q
2 +
X = cos(2U2 ) 2 ln(U1 )X
X
e

q
Y = sen(2U2 ) 2 ln(U1 )Y2 + Y

2 e 2 , respectivaso variveis aleatrias gaussianas de mdias X e Y varincias X


Y
mente. Este resultado pode ento ser utilizado para produzir duas variveis aleatrias
gaussianas a partir de duas variveis aleatrias com distribuio uniforme.

Exemplo 4.7. Seja X1 , X2 , . . . , Xm uma sequncia de variveis aleatrias iid com distribuio exponencial de parmetro . Iremos mostrar no Captulo 5 que a varivel
aleatria
Y = X1 + X2 + + Xm

tem uma distribuio m-Erlang com parmetro . Podemos ento gerar uma varivel
aleatria m-Erlang gerando primeiro m variveis aleatrias com distribuio exponencial de parmetro atravs do mtodo da transformada, e tomando a soma destas.

98

Mtodos computacionais para gerao de nmeros aleatrios

Desde que a varivel aleatria m-Erlang um caso especial da varivel aleatria


gama, para m grande pode ser prefervel usar o mtodo da rejeio descrito anteriormente.

4.6

Gerao de misturas de variveis aleatrias

s vezes uma varivel aleatria consiste de uma mistura de vrias variveis aleatrias.
Para gerar este tipo de varivel aleatria podemos primeiramente selecionar uma distribuio de acordo com alguma fmp, e ento gerar uma amostra da varivel aleatria
selecionada. Este procedimento pode ser facilmente simulado, como mostrado da seguir:
Exemplo 4.8. Uma varivel aleatria exponencial de dois estgios tem fdp
fX (x) = paeax + (1 p)bebx

Fica claro da expresso acima que X consiste da mistura de duas variveis aleatrias
exponenciais com parmetros a e b, respectivamente.
X pode ser gerada da seguinte maneira:
Realize um teste de Bernoulli com probabilidade de sucesso p.
Se o resultado for um sucesso, use o mtodo da transformada para gerar uma
varivel aleatria exponencial de parmetro a.
Se o resultado for um fracasso, use o mtodo da transformada para gerar uma
varivel aleatria exponencial de parmetro b.

4.7

Exerccios

1. Escreva um programa de computador para implementar um gerador de nmeros


aleatrios segundo a Equao (4.2).
(a) Para checar seu programa, encontre Z1000 ; com semente Z0 = 1, ele deve ser
522329230.
(b) Gere 10000 nmeros aleatrios no intervalo unitrio e plote o histograma. O
resultado o esperado? Justifique sua resposta.
2. Suponha que estamos interessados em utilizar arremessos de uma moeda ideal para
simular um experimento aleatrio no qual existem seis resultados equiprovveis,
S = {0, 1, 2, 3, 4, 5}. O seguinte algoritmo proposto:
1) Jogue uma moeda ideal trs vezes e obtenha um nmero binrio, associando
cara com o zero e coroa com o 1.
2) Se o resultado dos arremessos do passo 1) for a representao binria de um
nmero em S, gere o nmero; caso contrrio, retorne ao passo 1).

Mtodos computacionais para gerao de nmeros aleatrios

99

Este algoritmo uma verso simplificada do mtodo da rejeio.


(a) Encontre a probabilidade de um nmero ser gerado no passo 2).
(b) Mostre que os nmeros gerados no passo 2) so equiprovveis.
(c) Generalize o algoritmo acima para mostrar como o arremesso de moedas
pode ser usado para simular qualquer experimento aleatrio com urnas.
3. Encontre a transformao necessria para gerar uma varivel aleatria com distribuio de Laplace.
4. Uma varivel aleatria mista Y tem fdp dada por
fY (x) = p(x) + (1 p)fX (x)
onde X uma varivel aleatria com distribuio de Laplace, e p um nmero
entre 0 e 1. Encontre a transformao necessria para gerar Y .
5. Especifique o mtodo de transformao necessrio para gerar uma varivel aleatria com distribuio de parmetro ( pequeno). Calcule o nmero mdio de
comparaes necessrio na busca.

Captulo 5

Somas de Variveis Aleatrias e o


Teorema do Limite Central
5.1

Introduo

Uma grande variedade de questes pode ser respondida estudando-se uma v.a. Wn ,
definida como a soma de n v.a.s
Wn = X1 + X2 + + Xn

(5.1)

Pelo fato de Wn ser uma funo de n v.a.s, poderamos utilizar as distribuies


conjuntas de X1 , X2 , . . . , Xn para derivar o modelo de probabilidade completo de Wn
na forma de uma fdp ou de uma fmp. Entretanto, em muitas aplicaes prticas, a
natureza da anlise das propriedades das v.a.s nos permite aplicar tcnicas que so
mais simples do que analizar um modelo de probabilidade n-dimensional.

5.2

Mdias de somas

Teorema 5.1. Para qualquer conjunto de v.a.s X1 , X2 , . . . , Xn , o valor esperado de


Wn = X1 + X2 + + Xn
E[Wn ] = E[X1 ] + E[X2 ] + + E[Xn ]
Demonstrao. Vamos mostrar inicialmente que E[W2 ] = E[X1 ] + E[X2 ].
Sejam g1 (X1 , X2 ) = X1 , g2 (X1 , X2 ) = X2 e g(X1 , X2 ) = g1 (X1 , X2 ) + g2 (X1 , X2 ).
Usando a propriedade da mdia de uma funo de duas variveis aleatrias, podemos
escrever (para o caso contnuo)

E[g(X1 , X2 )] =

Z
Z

+ Z +

g(X1 , X2 )fX1 X2 (X1 , X2 ) dx1 dx2

+ Z +

[g1 (X1 , X2 ) + g2 (X1 , X2 )]fX1 X2 (X1 , X2 ) dx1 dx2

Somas de Variveis Aleatrias e o Teorema do Limite Central

+ Z +

g1 (X1 , X2 )fX1 X2 (X1 , X2 ) dx1 dx2

+ Z +

g2 (X1 , X2 )fX1 X2 (X1 , X2 ) dx1 dx2

101

= E[g1 (X1 , X2 )] + E[g2 (X1 , X2 )]


Portanto mostramos que E[W2 ] = E[X1 + X2 ] = E[X1 ] + E[X2 ].
Assumimos agora
E[Wn1 ] = E[X1 ] + E[X2 ] + + E[Xn1 ]
Note que Wn = Wn1 + Xn . Desde que Wn uma soma de duas v.a.s Wn1 e Xn ,
E[Wn ] = E[Wn1 ] + E[Xn ] = E[X1 ] + E[X2 ] + + E[Xn ]

Ou seja, a esperana da soma igual soma das esperanas quer as v.a.s sejam
independentes ou no. Para a varincia de Wn , temos

Teorema 5.2. A varincia de Wn = X1 + X2 + + Xn


Var[Wn ] =

n
X

Var[Xi ] + 2

i=1

n1
X

n
X

Cov[Xi , Xj ]

i=1 j=i+1

Demonstrao. Da definio de varincia, podemos escrever


i
h
Var[Wn ] = E (Wn E[Wn ])2

PnPor convenincia, chamemos i = E[Xi ]. Desde que Wn =


i=1 i ,

Pn

i=1 Xi

e E[Wn ] =

!2
n
n
n
X
X
X
(Xj j )
(Xi i ) = E (Xi i )
Var[Wn ] = E

i=1

i=1

j=1

Separando os termos para os quais i = j, temos

Var[Wn ] =

n
X
i=1

n
X
i=1

X
(Xi i )(Xj j )
E (Xi i )2 +

Var[Xi ] +

j6=i

n X
X

Cov[Xi , Xj ]

i=1 j6=i

Por ltimo, notamos que Cov[Xi , Xj ] = Cov[Xj , Xi ], e desta forma

102

Somas de Variveis Aleatrias e o Teorema do Limite Central

n X
X

Cov[Xi , Xj ] = 2

i=1 j6=i

n X
n
X

Cov[Xi , Xj ]

i=1 j=i+1

Quando X1 , X2 , . . . , Xn so mutuamente independentes, os termos Cov[Xi , Xj ] = 0


se j 6= i (veja Definio 3.9), e temos o seguinte resultado
Teorema 5.3. Quando X1 , X2 , . . . , Xn so mutuamente independentes, a varincia
de Wn = X1 + X2 + + Xn a soma das varincias
Var[Wn ] = Var[X1 ] + Var[X2 ] + + Var[Xn ]

Exemplo 5.1. A entrada de um filtro digital uma sequncia aleatria Xn = X0 , X1 ,


X2 , . . .
O valor esperado de Xn a funo X (n) = 0, n. A funo de covarincia de Xn
CX [Xn , Xk ] = CX [n k] = 0, 8|nk| . A sada do filtro uma sequncia aleatria Yn ,
relacionada a Xn por
Yn = Xn + Xn1 + Xn2 , para todo n inteiro
Qual a varincia de Yn ?
Soluo. Aplicando o teorema 5.2 obtemos para cada i,

Var[Yi ] = Var[Xi ] + Var[Xi1 ] + Var[Xi2 ] + 2 Cov[Xi , Xi1 ]


+ 2 Cov[Xi , Xi2 ] + 2 Cov[Xi1 , Xi2 ]
Desde que Var[Xj ] = CX [0] e Cov[Xi , Xj ] = CX [i j],
Var[Yi ] = 3CX [0] + 4CX [1] + 2CX [2] = 3 0, 80 + 4 0, 81 + 2 0, 82 = 7, 48

A mesma estratgia pode ser utilizada para encontrar as propriedades de filtros


digitais mais complexos com relao entre entrada e sada dada pela forma geral

Yn =

N
1
X
i=0

ai Xni

Somas de Variveis Aleatrias e o Teorema do Limite Central

5.3

103

Fdp da soma de duas v.a.s

Antes de analisar o modelo de probabilidade da soma de n v.a.s, instrutivo analisar


a soma W = X + Y de duas v.a.s contnuas.
Teorema 5.4. A fdp de W=X+Y
Z
Z +
fXY (x, w x) dx =
fW (w) =

fXY (w y, y) dy

Demonstrao. Para a prova deste teorema, vamos encontrar a fdp de W usando um


procedimento em dois passos: primeiro encontramos a fdc FW (w) integrando a fdp conjunta fXY (x, y) sobre a regio X +Y w mostrada na Figura 5.1, e depois encontramos
a fdp fW (w) derivando a expresso de FW (w).

Y
w

X +Y w
X

Figura 5.1: Regio de integrao para a obteno de FW (w).

FW (w) = P [X + Y w] =

+ Z wx

fXY (x, y) dy dx

Tomando as derivadas da fdc para encontrar a fdp, temos


dFW (w)
=
fW (w) =
dw

+ 

d
dw

Z

wx

fXY (x, y) dy



dx =

fXY (x, w x) dx

Atravs de um desenvolvimento similar,podemos mostrar tambm que


fW (w) =

fXY (w y, y) dy

104

Somas de Variveis Aleatrias e o Teorema do Limite Central

Exemplo 5.2. Encontre a fdp de W = X + Y se X e Y tm fdp conjunta


(
2 0 y 1, 0 x 1, x + y 1
fXY (x, y) =
0 caso contrrio
Soluo. A fdp de W = X + Y pode ser encontrada usando-se o teorema 5.4. Note que
X e Y so dependentes e que os valores possveis de X, Y ocorrem na regio triangular
sombreada da Figura 5.2.
y
1

y =wx

Figura 5.2: Regio de integrao para a obteno de FW (w).


Portanto 0 X + Y 1. Assim, fW (w) = 0 para w < 0 ou w > 1. Para 0 w 1,
aplicando o teorema 5.4, chega-se a
Z w
fW (w) =
2 dx = 2w
(0 w 1)
0

A expresso completa para a fdp de W ento dada por


(
2w 0 w 1
fW (w) =
0
caso contrrio

Quando X e Y so independentes, a fdp conjunta de X e Y pode ser escrita como o


produto das fdps marginais fXY (x, y) = fX (x)fY (y). Neste caso, podemos reescrever
o teorema 5.4 como

Teorema 5.5. Quando X e Y so v.a.s independentes, a fdp de W = X + Y


Z +
Z +
fX (x)fY (w x) dx
fX (w y)fY (y) dy =
fW (w) =

Somas de Variveis Aleatrias e o Teorema do Limite Central

105

Neste teorema combinamos duas funes de uma varivel fX () e fY () para produzir


uma terceira funo fW (). A combinao no teorema 5.5, chamada de convoluo,
e denotada por fW () = fX () fY (). De maneira geral, melhor usar mtodos de
transformao para calcular a convoluo de duas funes. Na linguagem de teoria de
probabilidade, a transformada de uma fdp ou de uma fmp uma funo geratriz de
momentos.

5.4

Funo geratriz de momentos

A fdp da soma das v.a.s independentes X1 , X2 , . . . , Xn uma sequncia de convolues


envolvendo as fdps fX1 (x), fX2 (x), e assim por diante. Na teoria de sistemas lineares,
uma convoluo no domnio do tempo corresponde a uma multiplicao no domnio da
frequncia com as funes no tempo e na frequncia relacionadas pela transformada de
Fourier. Na teoria de probabilidade podemos, de forma similar, usar mtodos de transformadas para substituir a convoluo de fdps por multiplicaes de transformadas.

Definio 5.1. Funo geratriz de momentos (FGM): Para uma v.a. X, a


funo geratriz de momentos (FGM) dada por


X (s) = E esX
Esta definio se aplica tanto a v.a.s contnuas como discretas. O que muda de um
caso para outro a forma de clculo da esperana. Quando X uma v.a. contnua
X (s) =

esx fX (x) dx

(5.2)

Esta equao indica que a FGM de uma v.a. contnua similar transformada de
Laplace de uma funo temporal. Para uma v.a. discreta Y a FGM torna-se
Y (s) =

esyi pY (yi )

(5.3)

yi SY

Na forma integral da Equao (5.2), a FGM lembra a transformada de Laplace que


geralmente utilizada na teoria de sistemas lineares. A principal diferena que a FGM
definida para valores reais de s.
Para uma dada v.a. X, existe uma faixa de valores possveis de s para os quais
X (s) existe. O conjunto de valores de s para os quais X (s) existe chamada de
regio de convergncia. Por exemplo, se X uma v.a. no negativa, a regio de
convergncia inclui todo s 0. Para qualquer v.a. X, X (s) sempre existe para s = 0.
Iremos usar a FGM avaliando suas derivadas em s = 0. medida que a regio de
convergncia inclui um intervalo no vazio (, ) em torno da origem s = 0, podemos
avaliar as derivadas da FGM em s = 0.
A exemplo da fmp de uma v.a. discreta e da fdp de uma v.a. contnua, a FGM
um modelo de probabilidade completo para uma v.a. Usando mtodos de transformada
inversa, possvel calcular a fmp ou a fdp a partir da FGM.

106

Somas de Variveis Aleatrias e o Teorema do Limite Central

Exemplo 5.3. Se X = a, uma constante, ento fX (x) = (x a), e


X (s) =

esx (x a) dx = esa

Exemplo 5.4. Quando X tem uma fdp uniforme,


(
1 0X 1
fX (x) =
0 caso contrrio
a FGM de X
X (s) =

esx dx =

es 1
s

Exemplo 5.5. Seja a v.a. X com fdp exponencial


(
ex x 0
fX (x) =
0
caso contrrio
a FGM de X
X (s) =

esx ex dx =

Exemplo 5.6. Seja X uma v.a. de Bernoulli com

1 p x = 0
fX (x) = p
x=1

0
caso contrrio
a FGM de X

X (s) = E[esx ] = (1 p)e0 + pes = 1 p + pes

Exemplo 5.7. Seja X com fmp geomtrica


(
(1 p)x1 p
fX (x) =
0

x = 1, 2, . . .
caso contrrio

a FGM de X
X (s) =

X
x=1

esx (1 p)x1 p = pes

X
((1 p)es )x1 =
x=1

pes
1 (1 p)es

Somas de Variveis Aleatrias e o Teorema do Limite Central

Exemplo 5.8. Seja X com fmp de Poisson


(
x e /x!
pX (x) =
0

107

x = 0, 1, 2, . . .
caso contrrio

a FGM de X
X (s) =

X
x=0

esx x e /x! = e

X
s
(es )x /x! = e(e 1)
x=0

A funo geratriz de momentos tem algumas propriedades:

Teorema 5.6. Para qualquer v.a. X, a FGM satisfaz


X (s)|s=0 = 1
Demonstrao.



 
X (s)|s=0 = E esX s=0 = E e0 = 1

Este teorema bastante til para verificar se uma funo pode ser uma FGM vlida.

Teorema 5.7. A FGM de Y = aX + b satisfaz


Y (s) = esb X (as)
Demonstrao.
Y (s) = E[es(aX+b) ] = esb E[e(as)X ] = esb X (as)

Como seu nome sugere, a funo X (s) especialmente til para encontrar os momentos de X.

Teorema 5.8. Uma v.a. com FGM X (s) tem n-simo momento

dn X (s)
n
E[X ] =
dsn s=0

108

Somas de Variveis Aleatrias e o Teorema do Limite Central

Demonstrao. A derivada primeira de X (s)


d
dX (s)
=
ds
ds

Z

esx fX (x) dx

xesx fX (x) dx

Avaliando esta derivada em s = 0, conclumos a prova para n = 1



Z +
dX (s)
xfX (x) dx = E[X]
=
ds s=0

Similarmente, a n-sima derivada de X (s) dada por


dn X (s)
=
dsn

xn esx fX (x) dx

Avaliando a expresso acima em s = 0 completamos a prova do teorema.


Uma vantagem da FGM que geralmente mais fcil encontrar a FGM de X e
tomar as derivadas para encontrar os momentos de X do que encontr-los diretamente.

Exemplo 5.9. Encontre o n-simo momento de uma v.a. com fdp exponencial

fX (x) =

ex
0

x0
caso contrrio

Soluo. Podemos escrever o primeiro momento como





1

dX (s)

=
=
E[X] =


2
ds
( s) s=0
s=0

o segundo momento como



d2 X (s)
2
2
E[X ] =
=
= 2


2
3
ds
( s) s=0
s=0
2

e o terceiro momento como


d3 X (s)
E[X ] =
ds3
3

s=0


6
6
=
=
( s)4 s=0 3

Por induo, podemos afirmar que o n-simo momento de X dado por





n!
n!
dn X (s)

=
= n
E[X ] =


n
n+1
ds
(

s)

s=0
s=0
n

Somas de Variveis Aleatrias e o Teorema do Limite Central

5.5

109

FGM da soma de v.a.s independentes

FGMs so particularmente teis para analisar a soma de v.a.s independentes. Se


W = X + Y onde X e Y so v.a.s com transformadas X (s) e Y (s) respectivamente,
a transformada de W






W (s) = E esW = E es(X+Y ) = E esX esY

(5.4)




  
W (s) = E esX esY = E esX E esY = X (s)Y (s)

(5.5)

E[g1 (X1 )g2 (X2 ) gn (Xn )] = E[g1 (X1 )]E[g2 (X2 )] E[gn (Xn )]

(5.6)

Geralmente a expresso acima difcil de calcular. Entretanto, quando X e Y


so independentes, podemos
escrever
a esperana do produto esX esY como o produto



das esperanas E esX E esY . Neste caso, encontrar W (s) fica fcil se conhecermos
X (s) e Y (s).

Quando as n v.a.s X1 , X2 , . . . , Xn so independentes, a esperana do produto


g1 (X1 ) g2 (X2 ) gn (Xn ) pode ser escrita como o produto das esperanas

Esta expresso leva ao seguinte teorema

Teorema 5.9. Para uma sequncia X1 , X2 , . . . , Xn de n v.a.s independentes, a FGM


de W = X1 + X2 + + Xn
W (s) = X1 (s)X2 (s) Xn (s)
Demonstrao. Da definio de FGM
i
h


W (s) = E es(X1 +X2 ++Xn ) = E esX1 esX2 esXn

Usando a Equao (5.5) com gi (Xi ) = esXi , a esperana do produto




 


E[W ] = E esX1 E esX2 E esXn = X1 (s)X2 (s) Xn (s)
Quando X1 , X2 , . . . , Xn so independentes e identicamente distribudas, Xi (s) =
X (s) para todo i, e o teorema 5.9 tem um corolrio simples

Corolrio 5.10. Para as v.a.s X1 , X2 , . . . , Xn independentes e identicamente distribudas cada qual com FGM X (s), a FGM de W = X1 + X2 + + Xn
W (s) = [X (s)]n

110

Somas de Variveis Aleatrias e o Teorema do Limite Central

Vimos anteriormente que a fdp fW (w) obtida atravs da convoluo das fdps
individuais fXi (xi ). A FGM W (s) simplesmente a multiplicao das FGMs individuais Xi (s). Geralmente, o clculo destas convolues um processo complexo e
tedioso, e a alternativa seria transformar fX (x) em X (s), e ento usar o Corolrio
5.10 para obter W (s), e finalmente calcular a transformada inversa, obtendo-se assim
fW (w).

Exemplo 5.10. Seja K1 , K2 , . . . , Kn um conjunto de n v.a.s independentes com distribuio de Poisson, tais que E[Ki ] = i . Encontre a FGM de W = K1 + K2 + + Kn .

Soluo. Do Exemplo 5.8 sabemos que Ki tem FGM Ki (s) = ei (e


5.10,
W (s) = e1 (e

s 1)

e2 (e

s 1)

en (e

s 1)

= e(1 +2 ++n )(e

s 1)

s 1)

. Pelo Corolrio

= e(T )(e

s 1)

onde T = 1 + 2 + + n . Examinando o Exemplo 5.8, observamos que W (s) a


FGM de uma v.a. com distribuio de Poisson com mdia T . Portanto
(
/w! w = 0, 1, . . . , n
w
Te
fW (w) =
0
caso contrrio
O modelo de probabilidade da soma de n v.a.s identicamente distribudas com
distribuio de Poisson tem a mesma forma do modelo de probabilidade de cada v.a.
individual. Esta propriedade vlida tambm para v.a.s identicamente distribudas
com distribuio gaussiana. Para v.a.s com outras distribuies esta propriedade no
mais vlida.

Exemplo 5.11. Encontre a FGM de uma v.a. Binomial K com fmp


( 
n k
(nk) k = 0, 1, . . . , n
k p (1 p)
pK (k) =
0
caso contrrio
Soluo. Calcular a FGM de K diretamente como E[esK ] bastante complicado. Ao
invs disso, lembremos que podemos representar K como K = X1 + X2 + + Xn onde
cada Xi uma v.a. de Bernoulli independente. Desta forma, do Exemplo 5.6
K (s) = (X (s))n = (1 p + pes )n

Exemplo 5.12. Uma v.a. Erlang-n Tn tem fdp


( n n1 t
t
e
t0
(n1)!
fTn (t) =
0
caso contrrio
Encontre a FGM de Tn

Somas de Variveis Aleatrias e o Teorema do Limite Central

111

Soluo. A FGM de Tn pode ser calculada diretamente como

Tn (s) =

st

n tn1 et

(n 1)!

dt =

n Z

|0

( s)n tn1 e(s)t


dt
(n 1)!
{z
}
1

A integral (1) igual a 1 pois a integral de um fdp Erlang sobre todos os valores
possveis. Ento

n

Tn (s) =
s

No Exemplo 5.5 observamos que X (s) = /(s) a FGM de uma v.a. exponencial
X com mdia 1/. Portanto, a soma de n v.a.s exponenciais identicamente distribudas,
cada uma com mdia 1/ tem FGM (/ s)n , que exatamente a FGM de uma v.a.
Erlang de ordem n.
Isto mostra que uma v.a. Erlang a soma de v.a.s exponenciais identicamente
distribudas.

5.6

Somas de v.a.s gaussianas independentes

Seja X1 , X2 , . . . , Xn um conjunto de v.a.s gaussianas independentes. Podemos usar a


FGM de cada v.a. na soma para derivar algumas propriedades interessantes de Wn =
X1 + X2 + + Xn . Quando n = 1, W = X1 apenas uma v.a. gaussiana. Para
encontrar sua FGM, encontramos inicialmente a FGM de uma v.a. N (0, 1).

Teorema 5.11. A FGM de uma v.a. gaussiana Z com mdia nula e varincia
unitria
Z (s) = es

2 /2

Demonstrao. A FGM de Z pode ser escrita como


Z (s) =

1
esz fZ (z) dz =
2

esz ez

2 /2

dz

Esta integral pode ser resolvida completando-se o quadrado no expoente


1
Z (s) =
2

21 (z 2 2sz+s2 ) s2 /2

s2 /2

dz = e

2
|

e 2 (zs) dz

{z
}
1

O teorema se sustenta pois no lado direito temos uma integral de uma fdp gaussiana
com mdia s e varincia 1.

112

Somas de Variveis Aleatrias e o Teorema do Limite Central

Teorema 5.12. A FGM de uma v.a. gaussiana com mdia e varincia 2


X (s) = es+

2 s2 /2

Demonstrao. Uma v.a. gaussiana X com mdia e varincia 2 pode ser expressa
em termos da v.a. Z N (0, 1) como
X = Z +
Consequentemente, do Teorema 5.7, a FGM de X
X (s) = es Z (s) = es+

2 s2 /2

Agora podemos apresentar o resultado principal desta seo.

Teorema 5.13. A soma de n v.a.s gaussianas independentes Wn = X1 + X2 + +


Xn tem uma distribuio gaussiana com mdia e varincia dadas por
E[Wn ] = E[X1 ] + E[X2 ] + + E[Xn ]
Var[Wn ] = Var[X1 ] + Var[X2 ] + + Var[Xn ]
Demonstrao. Por convenincia, seja i = E[Xi ] e i2 = Var[Xi ]. Desde que os Xi so
independentes, sabemos que
W (s) = X1 (s)X2 (s) Xn (s)
2 2 /2

= es1 +1 s

2 2 /2

es2 +2 s

2 2 /2

esn +n s
2

= es(1 +2 ++n )+(1 +2 ++n )s

2 /2

Da equao acima, pode-se ver que W (s) a FGM de uma v.a. gaussiana com
mdia 1 + 2 + + n e varincia 12 + 22 + + n2 .

5.7

Somas aleatrias de v.a.s independentes

Muitos problemas prticos podem ser analisados pela soma de v.a.s identicamente distribudas, mas cujo nmero de termos na soma tambm uma v.a. Referimo-nos
v.a. resultante R como uma soma aleatria de v.a.s independentes e identicamente
distribudas. Ento, dada uma v.a. N e uma sequncia de v.a.s X1 , X2 , . . . , XN identicamente distribudas, seja
R = X1 + X2 + + XN

(5.7)

Somas de Variveis Aleatrias e o Teorema do Limite Central

113

Os dois exemplos a seguir descrevem processos estocsticos nos quais as observaes


so somas aleatrias de v.a.s.
Exemplo 5.13. Em um terminal de nibus, conte o mmero de pessoas que chegam
nos nibus durante uma hora.
Soluo. Se o nmero de pessoas no i-simo nibus Ki e o nmero de nibus que
chegam N , ento o nmero de pessoas chegando durante uma hora
R = K1 + K2 + + KN
Em geral, o nmero N de nibus que chegam ir ser uma v.a., e desta forma, R
uma somas aleatria de v.a.s.

Exemplo 5.14. Conte o nmero N de pacotes de dados transmitidos atravs de um


link de comunicaes em um minuto.
Soluo. Suponha que cada pacote corretamente decodificado com probabilidade p,
independentemente do resultado da decodificao de qualquer outro pacote. O nmero
de pacotes decodificados corretamente em um minuto de transmisso
R = X1 + X2 + + XN
onde Xi 1 se o i-simo pacote decodificado corretamente, e 0, caso contrrio. Pelo
fato de o nmero de pacotes transmitido N ser aleatrio, R no a v.a. binomial usual.

No exemplo acima, podemos utilizar os mtodos utilizados para v.a.s mltiplas


para encontrar a fmp conjunta fN R (n, r). Entretanto no somos capazes de encontrar
uma expresso simples em forma fechada para a fmp fR (r). Por outro lado, vamos
demonstrar nesta seo que possvel expressar o modelo de probabilidade de R como
uma frmula para a FGM R (s).
Embora nos exemplos acima tenhamos considerado apenas casos nos quais os Xi so
v.a.s discretas, ser mais instrutivo enfatizar o caso em que os Xi so v.a.s contnuas.
Sejam as v.a.s
Wn = X1 + X2 + + Xn

(5.8)

R = X1 + X2 + + XN

(5.9)

importante sabermos distinguir a v.a. Wn da v.a. R. Especificamente, Wn a


soma de um nmero determinstico particular n dos Xi e no uma soma aleatria de
v.a.s. Portanto, a fdp de Wn a fdp condicional de R dado que N = n. Em geral,
encontrar a fdp ou a fmp de R bastante difcil. Entretanto, encontrar a FGM de R
surpreendentemente fcil, como podemos ver no teorema a seguir

114

Somas de Variveis Aleatrias e o Teorema do Limite Central

Teorema 5.14. A soma aleatria de v.a.s independentes e identicamente distribudas R = X1 + X2 + + XN tem FGM dada por
R (s) = N (ln(X (s)))
 
Demonstrao. Para encontrar R (s) = E esR , iremos usar
 iteraes de esperanas,
encontrando primeiro a esperana condicional E esR |N = n , e ento tomando a esperana sobre N
R (s) =

n=0

sR

E e |N = n pN (n) =

n=0

h
i
E es(X1 +X2 ++XN ) |N = n pN (n)

Pelo fato de os Xi serem independentes de N ,


i
h
i
h


E es(X1 +X2 ++XN ) |N = n = E es(X1 +X2 ++Xn ) = E esWn = Wn (s)

Do teorema 5.10, sabemos que Wn (s) = [X (s)]n , o que implica em


R (s) =

[X (s)]n pN (n)

n=0


n
= e[ln(X (s))]n . Isto
Observamos que podemos escrever [X (s)]n = eln(X (s))
implica
R (s) =

e[ln(X (s))]n pN (n)

n=0

Reconhecendo que esta soma tem a mesma forma daquela da Equao (5.3), obtemos
R (s) = N (ln(X (s)))

Exemplo 5.15. O nmero N de pginas em uma transmisso de fax tem fmp geomtrica com mdia 1/q = 4. O nmero K de bits em uma pgina de fax tambm tem
distribuio geomtrica com mdia 1/p = 105 bits, independentemente de qualquer outra
pgina e do nmero de pginas. Encontre a FGM de B, o nmero total de bits em uma
transmisso de fax.
Soluo. Quando a i-sima pgina tem Ki bits, o nmero total de bits a soma
aleatria

Ento

B = K1 + K2 + + KN

Somas de Variveis Aleatrias e o Teorema do Limite Central

115

B (s) = N (ln(K (s)))


Do exemplo 5.7
N (s) =

qes
1 (1 q)es

K (s) =

pes
1 (1 p)es

Para calcular B (s), substitumos ln(K (s)) para toda ocorrncia de s em N (s).
Equivalentemente, podemos substituir K (s) para toda ocorrncia de es em N (s). Esta
substituio leva a


pes
q
pqes
1 (1 p)es


B (s) =
=
pes
1 (1 pq)es
1 (1 q)
1 (1 p)es
Podemos ver que B tem FGM de uma v.a. geomtrica com mdia 1/(pq) = 400000
bits.

Usando o teorema 5.14, podemos tomar as derivadas de N (ln(X (s))) para encontrar expresses simples para a mdia e varincia de R

Teorema 5.15. A soma aleatria das v.a.s independentes e identicamente distribudas R = X1 + X2 + + XN tem mdia e varincia dadas por
Var[R] = E[N ] Var[X] + Var[N ](E[X])2

E[R] = E[N ]E[X]

Demonstrao. Pela regra da cadeia das derivadas,


R (s) = N (ln(X (s)))

X (s)
X (s)

Desde que X (0) = 1, avaliando em s = 0, temos


E[R] = R (0) = N (0)

X (0)
= E[N ]E[X]
X (0)

Para a derivada segunda de X (s) temos


R (s)

N (ln(X (s)))

X (s)
X (s)

2

+ N (ln(X (s)))

X (s)X (s) [X (s)]2


[X (s)]2

Novamente, avaliando em s = 0, temos


E[R2 ] = E[N 2 ]2X + E[N ] E[X 2 ] 2X

Subtraindo (E[R])2 = (N X )2 de ambos os lados da equao acima completamos


a prova.

116

Somas de Variveis Aleatrias e o Teorema do Limite Central

Observe que Var[R] contm dois termos: o primeiro termo N Var[X] resulta da
aleatoriedade de X, enquanto que o segundo termo Var[N ]2X uma consequncia da
aleatoriedade de N . Para visualizar isto, considere estes dois casos
Suponha que N determinstico, de modo que N = n todas as vezes. Neste caso,
N = n e Var[N ] = 0. A soma aleatria R uma soma determinstica ordinria
R = X1 + X2 + + Xn e Var[R] = n Var[X].
Suponha que N aleatria, mas cada Xi uma constante determinstica x. Neste
exemplo, X = x e Var[X] = 0. alm disso, a soma aleatria torna-se R = N x e
Var[R] = x2 Var[N ].
importante enfatizar que os teoremas 5.14 e 5.15 exigem que N seja independente
da sequncia aleatria X1 , X2 , . . . , Xn , isto , o nmero de termos na soma aleatria
no pode depender dos valores dos termos da soma.

Exemplo 5.16. Seja X1 , X2 , . . . uma sequncia de v.a.s gaussianas independentes e


identicamente distribudas com mdia 100 e varincia 100. Se K uma v.a. de Poisson
com mdia 1, encontre a mdia e a varincia de R = X1 + X2 + + XK .
Soluo. A distribuio de R ou mesmo a FGM de R so difceis de se obter. Entretanto, o Teorema 5.15 torna o clculo dos momentos bastante fcil. Sabemos que uma
v.a. de Poisson com mdia 1 tambm tem varincia 1. Ento
E[R] = E[X]E[K] = 100
Var[R] = E[K] Var[X] + Var[K](E[X])2 = 100 + (100)2 = 10100
Pode-se ver que a maior parte da varincia devida aleatoriedade de K. Isto
acontece porque muito provvel que K assuma os valores 0 e 1, e estas duas escolhas
mudam de forma dramtica a soma.

5.8

Teorema do limite central

Em um grande nmero de situaes prticas, histogramas de medidas seguem aproximadamente uma curva em forma de sino. Um histograma um grfico de barras
que divide o conjunto de medidas possveis em intervalos iguais e mostra o nmero de
medidas em cada intervalo.
Quando o tamanho de cada intervalo pequeno e o nmero de medidas grande,
a forma da histograma assemelha-se bastante forma da fdp da v.a. que descreve as
medidas. Por exemplo, o primeiro grfico da Figura 5.3 um histograma derivado a
partir de 400 repeties de um experimento. Em cada experimento algum joga uma
moeda 50 vezes e observa o nmero de coroas. O histograma segue aproximadamente
uma curva em forma de sino. O segundo grfico na Figura 5.3 mostra as probabilidades
binomiais exatas do nmero de caras em 50 jogadas.

Somas de Variveis Aleatrias e o Teorema do Limite Central

117

Figura 5.3: O nmero de caras em 50 arremessos de uma moeda ideal: 400 repeties
experimentais versus a fmp binomial.

Lembremos que a fdp em forma de sino corresponde de uma v.a. gaussiana. O


teorema do limite central explica porque muitos fenmenos produzem dados que podem
ser modelados como v.a.s gaussianas na prtica.
Iremos usar o teorema do limite central para estimar as probabilidades associadas
com a soma de v.a.s independentes e identicamente distribudas Wn = X1 + X2 + +
Xn . Entretanto, medida que n , E[Wn ] = nX e Var[Wn ] = n Var[X] tendem
a infinito, o que faz com que seja muito difcil fazer uma afirmao matemtica sobre
a convergncia da fdc FWn (w). Portanto o teorema do limite central ser escrito em
termos da v.a. normalizada

Zn =

n
X
i=1

Xi nX
q

2
nX

Dizemos que a soma Zn est normalizada pois para todo n

E[Zn ] = 0

Var[Zn ] = 1

118

Somas de Variveis Aleatrias e o Teorema do Limite Central

Teorema 5.16. Teorema do limite central. Dada uma sequncia X1 , X2 , . . . de


v.a.s independentes e identicamente distribudas
com valor esperado X e varincia
q
Pn
2
2
X , a fdc de Zn = ( i=1 Xi nX ) / nX satisfaz
lim FZn (z) = (z)

onde (z) a fdc de uma v.a. N (0, 1).

A prova deste teorema bastante complexa, e est fora do escopo deste texto. Alm
do Teorema 5.16 existem outros teoremas do limite central, cada um deles com sua
prpria restrio sobre a natureza da sequncia Wn de v.a.s.
Um aspecto singular do Teorema do Limite Central o fato de no haver restries
sobre a natureza das v.a.s Xi na soma. Elas podem ser contnuas, discretas ou mistas.
Em todos os casos a fdc de sua soma assemelha-se mais e mais da fdc Gaussiana
medida que o nmero de termos na soma cresce. Algumas verses do Teorema do
Limite Central aplicam-se a somas de sequncias Xi que no so nem independentes e
identicamente distribudas.
Para usar o teorema do limite central, observe que podemos expressar a soma de
v.a.s identicamente distribudas Wn = X1 + X2 + + Xn como
q
2 Z + n
(5.10)
Wn = nX
n
X
A fdc de Wn pode ser expressa em termos da fdc de Zn como

n
X
FWn (w) q
2
nX

(5.11)

Para n grande, o teorema do limite central diz que FZn (z) (z). Esta aproximao
a base para a maneira prtica de se utilizar o teorema do limite central.

Corolrio 5.17. Aproximao do teorema do limite central: Seja Wn = X1 +


X2 + + Xn uma soma de v.a.s independentes e identicamente distribudas com
2 . A fdc de W pode ser aproximada por
E[X] = X e Var[X] = X
n

w nX
FWn (w) q
2
nX
Frequentemente chamamos a Definio 5.17 uma aproximao Gaussiana para Wn .

5.9

Aplicaes do Teorema do Limite Central

O Teorema do Limite Central torna possvel fazer clculos rpidos e precisos que de
outra maneira seriam bastante complexos e demorados. Nestes, a v.a. de interesse

Somas de Variveis Aleatrias e o Teorema do Limite Central

119

uma soma de outras v.a.s, e calculamos as probabilidades dos eventos referindo-nos


v.a. Gaussiana correspondente.

Exemplo 5.17. Um disco digital compacto (CD) contm amostras digitalizadas de uma
forma de onda acstica.
Em um CD player com um conversor D/A de 1 bit, cada amostra digital representada com uma preciso de 0, 5 mV.
Para minimizar o erro de reproduo, a forma de onda sobreamostrada tomandose oito medidas independentes para cada amostra. O valor final da amostra da forma
de onda obtido calculando a mdia (mdia amostral) de oito medidas.
Qual a probabilidade de o erro na amostra da forma de onda ser maior que 0.05
mV?
Soluo. As medidas X1 , . . . , X8 tm distribuio uniforme na faixa (V 0, 5 mV) <
X < (V + 0, 5 mV), onde V o valor exato da amostra da forma de onda. O CD player
produz a sada U = W8 /8 onde
W8 =

8
X

Xi

i=1

Para encontrar P [|U V | > 0.05] exatamente, precisaramos encontrar o modelo


de probabilidade exato para W8 , ou calculando oito convolues da fdp uniforme de
Xi ou ainda, usando a funo geratriz de momentos. De qualquer forma, o processo
extremamente complexo.
Alternativamente, podemos usar o Teorema do Limite Central para modelar W8
como uma v.a. Gaussiana com = 8X = 8mV e varincia Var[W8 ] = 8/12.
Portanto, U uma v.a. Gaussiana com E[U ] = E[W8 ]/8 = V e Var[W8 ]/64 = 1/96.
Finalmente, o erro U V na amostra da forma de onda de sada Gaussiano com
valor esperado zero e varincia 1/96. Segue ento que
i
h

p
P [|U V | > 0, 05] = 2 1 0, 05/ 1/96 = 0, 62
Exemplo 5.18. Um modem transmite um milho de bits. Cada bit 0 ou 1 com
probabilidades iguais. Estime a probabilidade de pelo menos 502000 uns.
Soluo. Seja W o nmero de uns em um milho de bits. Note que E[W ] = 500000 e
Var[W ] = 106 /4 = 250000, de modo que W = 500. Pela aproximao do Teorema do
Limite Central,

P [W 502000] = 1 P [W < 502000] 1

502000 500000
500

= 1 (4)

Verificando os valores da funo () em tabelas matemticas, temos que


1 (4) = Q(4) = 3, 17 105

120

Somas de Variveis Aleatrias e o Teorema do Limite Central

5.10

Exerccios

1. Seja Wn a soma de n arremessos independentes de um dado de quatro faces.


Encontre a mdia e a varincia de Wn .
Resp: E[Wn ] = 2, 5n

Var[Wn ] = 1, 25n

2. Sejam X e Y duas v.a.s exponenciais independentes com mdias E[X] = 1/3 e


E[Y ] = 1/2. Encontre a fdp de W = X + Y .
Resp: fW (w) = 6(e2w e3w )
3. A v.a. K tem fmp dada por
(
0.2,
fK (k) =
0,

k = 0, 1, 2, 3, 4
caso contrrio

Encontre a FGM K (s) de K. Use-a para encontrar os quatro primeiros momentos


de K.
Resp: K (s) = 0, 2(1 + es + e2s + e3s + e4s )
E[K] = 2

E[K 2 ] = 6

E[K 3 ] = 20

E[K 4 ] = 70, 8

4. Seja K1 , K2 , . . . uma sequncia de v.a.s independentes e identicamente distribudas, cada uma delas com distribuio dada por
(
1/n, k = 1, 2, . . . , n
fK (k) =
0,
caso contrrio
Encontre a FGM de J = K1 + K2 + + Km
ems (1 ens )m
Resp: J (s) = m
n (1 es )m
5. Seja X1 , X2 , . . . , Xn uma sequncia de v.a.s gaussianas independentes de mdia
zero e varincia tal que Var[Xi ] = i. Encontre a fdp de
W = X1 + 2 X2 + + n Xn
Resp: fW (w) = q

1
2
2W

ew

2 /2 2
W

6. Seja X1 , X2 , . . . uma sequncia de v.a.s independentes e identicamente distribudas com fdp exponencial
(
ex , x 0
fX (x) =
0,
caso contrrio
Seja N uma v.a. geomtrica com mdia 1/p. Qual a FGM de R = X1 + X2 +
+ XN ? Adicionalmente, encontre a fdp de R.

Resp:

Somas de Variveis Aleatrias e o Teorema do Limite Central

p
R (s) =
ps

fR (r) =

121

p epr , r 0
0,
caso contrrio

7. A v.a. X milissegundos o tempo total de acesso (tempo de espera + tempo


de leitura) para obter um bloco de informao de um disco de computador. X
uniformemente distribuda no intervalo de 0 a 12 milissegundos. Antes de realizar
uma determinada tarefa, o computador precisa acessar 12 blocos de informao
diferentes do disco. (Os tempos de acesso para blocos diferentes so independentes
um do outro). O tempo total de acesso para todas as informaes uma v.a. A
milissegundos.
(a) Calcule E[X], o valor esperado para o tempo de acesso.
(b) Calcule Var[X], a varincia do tempo de acesso.
(c) Calcule E[A], o valor esperado do tempo total de acesso.
(d) Calcule A , o desvio padro do tempo total de acesso.
(e) Use o Teorema do Limite Central para estimar P [A > 75 ms], a probabilidade
do tempo total de acesso exceder 75 ms.
(f) Use o Teorema do Limite Central para estimar P [A < 48 ms], a probabilidade
do tempo total de acesso ser menor que 48 ms.
Resp: a) E[X] = 6ms
e) P [A > 75] 0, 4013

b) Var[X] = 12
c) E[A] = 72ms
f) P [A < 48] 0, 0227

d) Var[A] = 144

8. Seja X1 , X2 , . . . uma sequncia de v.a.s independentes e identicamente distribudas com fdp uniforme entre 0 e 1, e seja N uma v.a. geomtrica com mdia
1/p.
a) Qual a FGM de R = X1 + X2 + + XN ?

b) Calcule a mdia e a varincia de R.


Resp:
p(es 1)
s (1 p)(es 1)
1
3 2p
(b) E[R] =
Var[R] =
2p
12p2
(a) R (s) =

9. Seja X uma v.a. N (0, 1). Encontre a mdia e a varincia de Y = 2X + 1 usando


a funo geratriz de momentos.
Resp: E[Y ] = 1 e Var[Y ] = 4
10. Seja a funo geratriz de momentos de uma v.a. discreta dada por
X (s) = 0.25es + 0.35e3s + 0.40e5s
Encontre P [X = 0], P [X = 1], P [X = 2], P [X = 3], P [X = 4] e P [X = 5].
P
Dica: lembre que, para o caso discreto, X (s) = i esxi fX (xi ), e que fX (x0 ) =
P [X = x0 ].

122

Somas de Variveis Aleatrias e o Teorema do Limite Central

Resp: P [X = 0] = 0
P [X = 1] = 0, 25
P [X = 4] = 0
P [X = 5] = 0, 40

P [X = 2] = 0

P [X = 3] = 0, 35

11. Seja K1 , K2 , . . . uma sequncia de v.a.s iid com distribuio de Bernoulli, com
fmp dada por

1 p k = 0
pK (k) = p
k=1

0
caso contrrio

Seja M = K1 + K2 + . . . + Kn .
(a) Encontre a FGM K (s)
(b) Encontre a FGM M (s)

(c) Use M (s) para calcular E[M ] e V ar[M ].


Resp:
(a) K (s) = 1 p + pes

(b) M (s) = (1 p + pes )n

(c) E[M ] = np e V ar[M ] = np(1 p).

12. Suponha que durante o i-simo dia de dezembro, a energia Xi armazenada por um
coletor solar bem modelada por uma v.a. gaussiana com mdia (32 i)/4 kWh
e desvio padro de 10 kWh. Assumindo que a energia armazenada a cada dia
independente de qualquer outro dia, qual a fdp de Y , a energia total armazenada
nos 31 dias de dezembro?
Resp: Gaussiana de mdia 124 e varincia 3100
13. O k-simo momento de uma v.a. discreta dado por
E[X k ] = 0.8, k = 1, 2, . . .
(a) Encontre a funo geratriz de momentos de X.
(b) Encontre P [X = 0] e P [X = 1].
Resp:
(a) X (s) = 0, 2 + 0, 8es
(b) P [X = 0] = 0, 2 e P [X = 1] = 0, 8.
14. Seja X uma varivel aleatria com distribuio N (0, 1). Usando a funo geratriz
de momentos, determine E[X n ] para n = 1, 2, 3.
Resp: E[X] = 0, E[X 2 ] = 1 e E[X 3 ] = 0.

Somas de Variveis Aleatrias e o Teorema do Limite Central

123

15. As chamadas telefnicas podem ser classificadas como sendo de voz (V ), se algum
est falando, ou de dados (D), se corresponder a uma transmisso de modem
ou fax. Baseado em uma grande quantidade de observaes realizadas por uma
companhia telefnica, temos o seguinte modelo de probabilidade: P [V ] = 0.8 e
P [D] = 0.2. As chamadas de voz e de dados ocorrem independentemente umas
das outras. Seja a varivel aleatria Kn definida como o nmero de chamadas de
dados em uma coleo de n chamadas telefnicas.
(a) Calcule E[K100 ], o nmero esperado de chamadas de dados em um conjunto
de 100 chamadas.
(b) Calcule K100 , o desvio padro do nmero de chamadas de dados em um
conjunto de 100 chamadas.
(c) Use o Teorema do Limite Central para estimar P [K100 18], ou seja, a
probabilidade de pelo menos 18 chamadas de dados em um conjunto de 100
chamadas telefnicas.
(d) Use o Teorema do Limite Central para estimar P [16 K100 24], ou seja, a
probabilidade de existirem entre 16 e 24 chamadas de dados em um conjunto
de 100 chamadas telefnicas.
Dica: Q(x) = 1 Q(x).

Resp: (a) 20

(b) 4

(c) 0,6915

(d) 0,6826

16. Sejam X1 , X2 , . . . , Xn n variveis aleatrias iid com distribuio de Cauchy


fX (x) =

(x 21

a
, < x <
+ a 12 )

Seja a varivel aleatria Yn dada por


n

Yn =

1
1X
(X1 + Xn ) =
Xi
n
n
i=1

(a) Encontre a funo caracterstica de Yn .


(b) Encontre a fdp de Yn .
(c) O Teorema do Limite Central se aplica neste caso? Justifique sua resposta.
Resp: (a) X (j) = ea||

(b) FYn (yn ) =

a
(yn2 + a2 )

(c) no

17. Sejam X e Y duas variveis aleatrias independentes com distribuio uniforme


no intervalo (0, 1). Encontre e esboce a fdp de Z = X + Y .
Dica: faa a anlise para o intervalo (0 < z < 1) e depois para o intervalo
(1 < z < 2).

0<z<1
z
Resp: fZ (z) = 2 z 1 < z < 2

0
caso contrrio

124

Somas de Variveis Aleatrias e o Teorema do Limite Central

18. Seja K a soma de 20 variveis aleatrias iid com distribuio de Bernoulli com
probabilidade p = 0, 4 de produzir um resultado igual a 1. Usando o Teorema
do Limite Central, estime P [K = 8], e compare com o valor exato para esta
probabilidade.
Dica: Considere P [7, 5 < Zn < 8, 5] como aproximao para P [K = 8]. (Por
qua ?)
Resp: P [K = 8] 0, 1811.
19. O nmero N de servios submetidos a um computador em uma hora uma varivel
aleatria geomtrica com parmetro p, e os tempos de execuo destes trabalhos
so variveis aleatrias independentes com distribuio exponencial de mdia 1/.
Encontre a fdp da soma dos tempos de execuo dos trabalhos submetidos em uma
hora.
(
p ep r 0
Resp: fR (r) =
0
caso contrrio
20. As resistncias dos resistores r1 , r2 , r3 e r4 so variveis aleatrias independentes, cada uma delas uniformemente distribuda no intervalo (450,550). Usando o
Teorema do Limite Central, calcule P [1900 r1 + r2 + r3 + r4 2100].
Resp: 0,9164

Captulo 6

Limitantes Superiores para a


Probabilidade de Cauda
Neste captulo, iremos desenvolver desigualdades para probabilidades que podem ser
muito difceis de calcular exatamente. Geralmente, o desempenho de um sistema
determinado pela probabilidade de um evento indesejvel. Por exemplo, a medida
principal de um sistema de comunicao digital a probabilidade de um erro de bit.
Para um alarme de incndio, a probabilidade de um falso alarme no pode ser muito
grande; caso contrrio o alarme pode ser ignorado quando houver um incndio real.
Quando o clculo exato muito difcil de realizar, um limitante superior oferece um
meio de garantir que a probabilidade do evento indesejvel no ser muito alta.

6.1

Desigualdade de Markov

Teorema 6.1. Desigualdade de Markov. Para uma varivel aleatria X no


negativa e uma constante c > 0,
E[X]
c

P [X c]

Demonstrao. Desde que X no negativo, fX (x) = 0 para x < 0 e


E[X] =

xfX (x) dx +

xfX (x) dx

xfX (x) dx c

fX (x) dx = cP [X c]

importante lembrar que a desigualdade de Markov vlida somente para variveis


aleatrias no negativas. Como veremos no exemplo a seguir, geralmente o limitante
fornecido pela desigualdade de Markov bastante fraco.

126

Limitantes Superiores para a Probabilidade de Cauda

Exemplo 6.1. Seja X a altura (em ps) de um adulto selecionado aleatoriamente. Se


o valor mdio da altura E[X] = 5, 5, estime a probabilidade de um adulto ter pelo
menos 11 ps usando a desigualdade de Markov.
Soluo. A desigualdade de Markov afirma que a probabilidade de um adulto ter pelo
menos 11 ps satisfaz
P [X 11]

5, 5
= 0, 5
11

Dizemos que a desigualdade de Markov folgada porque a probabilidade de uma


pessoa ter uma altura maior que 11 ps praticamente zero, enquanto que a desigualdade afirma meramente que ela menor ou igual a 0,5. Embora esta desigualdade seja
extremamente folgada para muitas variveis aleatrias, ela apertada (de fato, uma
equao) com relao a algumas variveis aleatrias.

Exemplo 6.2. Suponha que uma v.a. Y tome o valor c > 0 com probabilidade p e o
valor 0 caso contrrio. Neste caso, E[Y ] = pc e utilizando a desigualdade de Markov,
temos
P [Y c] E[Y ]/c = p
Desde que P [Y c] = p, observamos que a desigualdade de Markov de fato uma
igualdade neste caso.

6.2

Desigualdade de Chebyshev

Teorema 6.2. Desigualdade de Chebyshev. Seja X uma v.a. com mdia mx e


2 finitas. Para todo nmero positivo
varincia X
P [|X mx | ]

2
X
2

Demonstrao. P [|X mx | ] a probabilidade da v.a. X ter um valor na regio


A {x : |X mx | }, mostrada na Figura 6.1.

Limitantes Superiores para a Probabilidade de Cauda


fX (x)

..................
....
......
....
....
...
...
.
.
...
..
.
...
.
..
...
.
.
...
..
.
.
...
..
.
...
.
..
...
.
.
...
....
.
.
....
.......
.
.
................
................
.
.
.
........................
........................
.
.
.
............................
.
.......................
..............................................................
.............................................................
.
.
.
.
........................................
.
.
.
.
.
.
.
..
.
.
.
.
.
.
.
.
.
.
.................
.
.
.
.
....................

127

Figura 6.1: Regio A (sombreada).


Usando a expresso da varincia, podemos escrever
Z
Z +
2
2
(x mx ) fX (x) dx (x mx )2 fX (x) dx
X =

Mas da definio da regio A, temos |X mx | |X mx |2 2 , x A.


Assim
Z
Z
2
2
(x mx ) fX (x) dx
fX (x) dx
A
A
Z
fX (x) dx = P [|X mx | ] e ento podemos escrever
Mas
A

2
X
2 P [|X mx | ] P [|X mx | ]

2
X
2

Diferentemente da desigualdade de Markov, a desigualdade de Chebyshev vlida


para todas as v.as. Enquanto a desigualdade de Markov necessita apenas do valor
esperado de uma v.a., a desigualdade de Chebyshev necessita tambm da varincia. Por
usar mais informaes sobre a v.a., a desigualdade de Chebyshev geralmente fornece um
limitante mais apertado do que a desigualdade de Markov.
Exemplo 6.3. Se a altura X de um adulto escolhido aleatoriamente tem valor esperado
E[X] = 5, 5 ps, e desvio padro X = 1 ps, use a desigualdade de Chebyshev para
encontrar um limitante superior para P [X 11].
Soluo. Desde que a altura X no negativa, a probabilidade do evento X 11 pode
ser escrita como
P [X 11] = P [X X 11 X ] = P [|X X | 5, 5]

Usamos agora a desigualdade de Chebyshev para obter


P [X 11] = P [|X X | 5, 5]

V ar[X]
1
=
= 0, 033
2
(5, 5)
(5, 5)2

Embora este limitante seja melhor que o obtido pela desigualdade de Markov,
tambm bastante folgado. De fato, P [X 11] na prtica muitas ordens de magnitude
menor que 0,033.

128

6.3

Limitantes Superiores para a Probabilidade de Cauda

Limitante de Chernoff

O limitante de Chebyshev dado acima envolve a rea das duas caudas da fdp. Em
algumas aplicaes estamos interessados somente na rea de uma das caudas (, )
ou (, ). Neste caso, podemos obter uma estimativa bastante justa, utilizando um
limitante exponencial.

Teorema 6.3. Limitante de Chernoff. Para uma v.a. X e uma constante c


arbitrrias,
P [X c] min esc X (s)
s0

Demonstrao. Em termos da funo degrau unitrio, observamos que


P [X c] =

fX (x)dx =

u(x c)fX (x)dx

Para todo s 0, u(x c) es(xc) , pois es(xc) representa uma famlia de curvas
que passa pelo ponto c, como mostrado na Figura 6.2. Isto implica em

P [X c]

s(xc)

sc

fX (x)dx = e

esx fX (x)dx = esc X (s)

Este limitante vlido para qualquer s 0. O limitante superior mais apertado


obtido selecionando-se o valor de s que minimiza esc X (s).

es(xc)

u(x c)
c

Figura 6.2: Um limitante superior exponencial usado para obter a probabilidade de


cauda (limitante de Chernoff).

O limitante de Chernoff pode ser aplicado a qualquer v.a. Entretanto, para valores
pequenos de c, esc X (x) ir ser minimizada por um valor negativo de s. Neste caso, o

Limitantes Superiores para a Probabilidade de Cauda

129

valor de s no negativo que minimiza esta expresso s = 0, o que fornece a resposta


trivial: P [X c] 1
Exemplo 6.4. Se a altura X de um adulto escolhido aleatoriamente uma v.a. gaussiana com valor esperado E[X] = 5, 5 ps e desvio padro X = 1 ps, use o limitante
de Chernoff para encontrar um limitante superior para P [X 11]
Soluo. Desde que X N (5, 5, 1), a FGM de X
X (s) = e(11s+s

2 )/2

Ento o limitante de Chernoff


P [X 11] min e11s e(11s+s
s0

2 )/2

= min e(s

2 11s)/2

s0

Para encontrar s que minimiza a expresso acima, suficiente encontrar s que minimize h(s) = s2 11s. Tomando a derivada de h(s) em relao a s e igualando a
zero
dh(s)
= 2s 11 = 0 s = 5, 5
ds
Substituindo este valor de s ao limitante de Chernoff, chegamos a

2
2

P [X 11] e(s 11s)/2
= e(5,5) /2 = 2, 7 107
s=5,5

6.4

Exerccios

1. Em uma estao de metr, existem usurios suficientes para completar exatamente


trs trens. Os trens chegam estao segundo um processo de Poisson de taxa
= 0.5 trens/minuto.
Seja X igual ao tempo em minutos requerido para servir os passageiros em espera.
Encontre limitantes superiores para P [X 30 minutos] usando as desigualdades
de Markov, Chebyshev e Chernoff.
Dicas: i) o tempo entre chegadas pode ser modelado por uma varivel aleatria
com distribuio exponencial; ii) a soma de m variveis aleatrias com distribuio
exponencial uma varivel aleatria com distribuio m-Erlang.
Resp:
1
1
Chebyshev : P [X 30] =
5
48
4
Chernoff : P [X 30] = 7, 68 10

Markov : P [X 30] =

2. A mdia e a varincia do tempo de resposta de um sistema de computador multiusurio so 15 segundos e 4 segundos, respectivamente. Estime a probabilidade
de o tempo de resposta ser superior a 4 segundos da mdia, usando a desigualdade
de Chebyshev.
Resp: 0,25

130

Limitantes Superiores para a Probabilidade de Cauda

3. Dada uma v.a. X com fdp gaussiana de mdia zero e varincia 2 , estime a
probabilidade dos eventos (2 X +2), (3 X +3) e (4 X
+4) usando:
(a) a funo Q(x);
(b) a desigualdade de Chebyshev;
(c) a desigualdade de Chernoff.
Resp:
(a) Usando a funo Q(x):
P [2 X 2] = 0, 9545
P [3 X 3] = 0, 9973
P [4 X 4] = 0, 9999

(b) Usando a desigualdade de Chebyshev:


P [2 X 2] = 0, 75
P [3 X 3] = 0, 89
P [4 X 4] = 0, 9375
(c) Usando a desigualdade de Chernoff:
P [2 X 2] = 0, 7293
P [3 X 3] = 0, 9778
P [4 X 4] = 0, 9993

4. Use o limitante de Chernoff para mostrar que uma v.a. Z com distribuio N(0,1)
satisfaz
P [Z c] ec

2 /2

Para c = 1, 2, 3, 4, verifique a diferena entre o limitante e o valor real da probabilidade.


Resp: Na tabela abaixo tem-se os valores aproximados pelo limitante de Chernoff,
e os valores exatos, dados pela funo Q(x).

P [Z
P [Z
P [Z
P [Z
P [Z

1]
2]
3]
4]
5]

Chernoff
0, 6065
0, 1353
0, 0111
0, 0003
3, 7267 106

Q(x)
0, 1587
0, 0228
1, 35 103
3, 17 105
3, 0 107

5. Para uma varivel aleatria arbitrria X, use a desigualdade de Chebyshev para


estimar a probabilidade de X assumir um valor maior que k desvios padres da
mdia.
Resp: 1/k2 .
6. Use o limitante de Chernoff para encontrar um limitante superior para P [X c]
quando X uma varivel aleatria N (, 2 .
Resp: P [X c] e

(c)2
2 2

Limitantes Superiores para a Probabilidade de Cauda

131

7. Para uma varivel aleatria arbitrria X, use a desigualdade de Chebyshev, calcule


a probabilidade de X assumir valores maiores que k desvios padres de seu valor
esperado E[x]. Compare os valores obtidos com os valores exatos quando X uma
varivel aleatria com distribuio N (0, 1). Faa para 1, 2, 3 e 4 desvios padres.
Resp: 1/k2 .
8. Seja X uma varivel aleatria com mdia 10 e varincia 15. O que podemos dizer
sobre P [5 < X < 15]?
Resp: P [|X 10| 5] 2/5

Captulo 7

A mdia amostral
7.1

Introduo

Vimos no Captulo 1 que a frequncia relativa a razo entre o nmero de vezes que
um evento ocorre e o nmero de vezes que um experimento realizado. Se realizamos
um experimento repetidas vezes, esperamos que a frequncia relativa de cada evento
convirja para uma constante medida em que o nmero de repeties cresce.
Neste captulo vamos definir a mdia amostral de uma v.a. e mostrar que muitas
quantidades interessantes, incluindo a frequncia relativa, podem ser expressas em termos da mdia amostral. Em sees posteriores, iremos mostrar matematicamente como
a mdia amostral converge para uma constante medida que o nmero de repeties
de um experimento cresce.
Este captulo, portanto, fornece a base matemtica para a afirmativa de que embora
o resultado de um nico experimento aleatrio seja imprevisvel, padres de comportamento previsveis emergem quando coletamos mais e mais dados.

7.2

Valor esperado e varincia

Para definir a mdia amostral, consideremos tentativas repetidas e independentes de um


experimento aleatrio. Cada tentativa resulta em uma observao da v.a. X. Depois
de n tentativas, temos valores amostrais de n v.a.s X1 , X2 , . . . , Xn todas com a mesma
fdp de X. A mdia amostral a mdia aritmtica das observaes.

Definio 7.1. Mdia Amostral: Para as v.a.s X1 , X2 , . . . , Xn independentes


e identicamente distribudas com fdp fX (x), a mdia amostral de X a varivel
aleatria
n

Mn (X) =

1X
X1 + X2 + + Xn
Xi
=
n
n
i=1

A primeira coisa a ser notada que Mn (X) uma funo das v.a.s X1 , X2 , . . . , Xn
e portanto tambm uma v.a. importante distinguir a mdia amostral Mn (X) do
valor esperado E[X] da v.a. X. Enquanto Mn (X) uma v.a., E[X] um nmero.

A mdia amostral

133

A mdia amostral e o valor esperado de X esto intimamente relacionados. Desta


forma o propsito maior deste captulo explorar o fato de que medida que n cresce
sem limite, Mn (X) aproxima E[X].
Dependendo da definio da v.a. X, podemos usar a mdia amostral para descrever
vrios aspectos de um experimento. Por exemplo, se queremos explorar P [A], a probabilidade de um evento arbitrrio A, podemos definir uma v.a. indicadora XA tal que
XA = 1 se o evento A ocorre, e XA = 0 caso contrrio. Neste caso, XA uma v.a.
de Bernoulli com probabilidade de sucesso P [A] de modo que E[XA ] = P [A]. Desde
que as propriedades gerais do valor esperado de uma v.a. aplicam-se a E[XA ], podemos
ver que as tcnicas para estimar valores esperados iro tambm nos permitir estimar as
probabilidades de eventos arbitrrios.
O valor esperado e a varincia de Mn (X) revelam as propriedades mais importantes
da mdia amostral:

Teorema 7.1. A mdia amostral Mn (X) tem valor esperado e varincia dados por
E[Mn (X)] = E[X]
Var[Mn (X)] =

Var[X]
n

Demonstrao. Usando a Definio 7.1, o Teorema 5.1 e o fato de que E[Xi ] = E[X]
para todo i,
E[Mn (X)] =

1
1
(E[X1 ] + E[X2 ] + + E[Xn ]) = (E[X] + + E[X]) = E[X]
{z
}
n
n|
n vezes

Para a varincia, temos o seguinte:

Var[Mn (X)] = E[Mn2 (X)] E 2 [Mn (X)] = E[Mn2 (X)] E 2 [X]


n
n
1 XX
= 2
E[Xi Xj ] E 2 [X]
n
i=1 j=1

n
n
n
1 X
1 XX
2
E[Xi Xj ] E 2 [X]
= 2
E[Xi ] + 2
n
n
i=1
i=j

=
=

i=1 j=1
i6=j


1 2
1
X + E 2 [X] + 2 n(n 1)E 2 [X] E 2 [X]
n
n

2
X
n

Quando Mn (X) vista como uma estimativa para a mdia mx , nota-se que seu
valor esperado igual a mx e sua varincia decresce inversamente com o nmero n de

134

A mdia amostral

2 tende a zero. Uma estimativa de um


amostras. medida que n , a varincia X
parmetro (neste caso a mdia mx ) que satisfaz a condio de que seu valor esperado
converge para o valor real do parmetro e a varincia converge para zero medida que
n dita uma estimativa consistente.

7.3

Mdia amostral de nmeros grandes

Quando aplicamos a desigualdade de Chebyshev a Y = Mn (X), obtemos informaes


importantes sobre as amostras independentes de uma v.a.

Teorema 7.2. Para qualquer constante c, a mdia amostral Mn (X) satisfaz


(a) P [|Mn (X) X | c]

Var[X]
=
nc2

(b) P [|Mn (X) X | < c] 1

Var[X]
=1
nc2

Demonstrao. Seja Y = Mn (X). O Teorema 7.1 diz que


E[Y ] = E[Mn (X)] = X

Var[Y ] = Var[Mn (X)] = Var[X]/n

Aplicando a desigualdade de Chebyshev a Y = Mn (X), conseguimos provar o item


a). O item b) apenas uma reafirmao do item a), desde que
P [|Mn (X) X | c] = 1 P [|Mn (X) X | < c]

Observaes
O Teorema 7.2(b) contm duas desigualdades. Uma desigualdade,
|Mn (X) X | < c
define um evento. Este evento diz que a mdia amostral est c unidades do valor
esperado. O comprimento do intervalo que define este evento, 2c unidades, chamado
de intervalo de confiana.
A outra desigualdade afirma que a probabilidade da mdia amostral estar no intervalo de confiana pelo menos 1. Chamaremos a quantidade 1 = 1 Var[X]/(nc2 )
de coeficiente de segurana. Se pequeno, podemos ter grande confiana de que
Mn (X) est no intervalo (X c, X + c)
No Teorema 7.2(a) observamos que para qualquer nmero c positivo, independente
de quo pequeno seja, podemos fazer to pequeno quanto desejarmos escolhendo n
grande o suficiente.
Em uma aplicao prtica, c indica a preciso desejada de uma estimativa para X ,
1 indica a cofiana que temos de ter alcanado esta preciso, e n nos diz quantas
amostras foram necessrias para alcanar o valor desejado de 1 .

A mdia amostral

135

Alternativamente, dados Var[X], n e , o Teroma 7.2(b) nos diz o tamanho c do


intervalo de confiana.

Exemplo 7.1. O Teorema 7.2(b) d origem a declaraes que ouvimos no noticirio,


tais como:
Baseada em uma amostra de 1103 eleitores, a porcentagem de pessoas que apoiam o
candidato Jos da Silva de 58 % com preciso de mais ou menos 3 pontos percentuais.
Comente estes fatos.
Soluo. O experimento consiste em observar um eleitor escolhido aleatoriamente e
determinar se o mesmo apia ou no o candidato Jos da Silva.
Vamos associar o valor X = 1 se o eleitor apoiar o candidato Jos da Silva, e X = 0
caso contrrio.
Portanto, X uma v.a. com distribuio de Bernoulli com valor esperado E[X] = p
e varincia p (1 p), onde p = pX (1). Para c = 0, 03, o Teorema 7.2(b) diz
P [|Mn (X) p| < 0, 03] 1

p (1 p)
=1
n(0, 03)2

Desta forma o coeficiente de confiana para a estimativa de p dado por


1 =1

p (1 p)
n(0, 03)2

Devemos sempre ter em mente que temos grande confiana em nosso resultado
quando pequeno. Entretanto, dede que no sabemos o valor real de p, gostaramos
de ter confiana em nossos resultados independentemente do valor de p.
Analisando a funo x (1 x) para x entre 0 e 1, verifica-se que a mesma tem
um mximo igual a 1/4 em x = 1/2. Ento para todos os valores de p entre 0 e 1,
Var[X] = p (1 p) 0, 25. Desta forma, podemos concluir que
11

0, 25
277, 778
=1
2
n(0, 03)
n

Ento para n = 1103 amostras, 1 0, 75. Isto nos diz que nossa estimativa de p
est dentro de 3 pontos percentuais de p com probabilidade de pelo menos 1 = 0, 75.

7.4

Leis de Nmeros Grandes

Alm da Desigualdade de Chebyshev e do Teorema 7.2(a), os quais descrevem as propriedades estatsticas de colees de dados, temos as leis de nmeros grandes, que se
referem a limites quando estas colees crescem sem limite.

136

7.4.1

A mdia amostral

Lei Fraca de Nmeros Grandes

Teorema 7.3. Lei Fraca de Nmeros Grandes. Se Var[X] < , ento para
qualquer constante c > 0, a mdia amostral Mn (X) satisfaz
(a) lim P [|Mn (X) X | c] = 0
n

(b) lim P [|Mn (X) X | < c] = 1


n

Demonstrao. A prova deste teorema segue diretamente dos resultados do Teorema


7.2 desde que
P [|Mn (X) X | c] = 1 P [|Mn (X) X | < c]

A lei fraca de nmeros grandes afirma que, para um valor suficientemente grande e
f ixo de n, a probabilidade da mdia amostral usando n amostras estar perto da mdia
real alta.
Como podemos ver no exemplo seguinte, a lei fraca de nmeros grandes tambm
valida a interpretao de frequncia relativa de probabilidades.

Exemplo 7.2. Suponha que realizemos n tentativas independentes de um experimento.


Vamos definir a v.a. indicadora para o evento A como
(
1,
Xi =
0,

se A ocorre na tentativa i
caso contrrio

X1 , X2 , . . . uma sequncia aleatria de Bernoulli com probabilidade de sucesso


P [A]. Ento E[Xi ] = P [A] e Var[Xi ] = P [A](1 P [A]).
A frequncia relativa de A em n tentativas
Rn = Mn (X) =

X1 + X2 + + Xn
n

Desde que E[Rn ] = E[Xi ] = P [A], o Teorema 7.3(a) diz que


lim P [|Rn P [A]| c] = 0

Portanto, medida que n , Rn P [A], que a verso matemtica da afirmao de que medida que o nmero de observaes cresce sem limite, a frequncia
relativa de qualquer evento aproxima a probabilidade do evento.

A mdia amostral

7.4.2

137

Lei Forte de Nmeros Grandes

Suponha que realizemos uma srie de medidas independentes da mesma v.a. Seja
X1 , X2 , . . . a sequncia resultante de v.a.s identicamente distribudas com mdia .
Considere agora uma sequncia de mdias amostrais que resulta das medidas acima:
M1 , M2 , . . . , onde Mj a mdia amostral usando as amostras X1 at Xj . Por causa da
regularidade estatstica do experimento, espera-se que esta sequncia de mdias amostrais convirja para , isto , esperamos que com probabilidade alta, cada sequncia
particular de mdias amostrais aproxime-se de e permanea l, como mostrado na
Figura 7.1. Formalmente, podemos escrever este resultado da seguinte maneira:
Teorema 7.4. Seja X1 , X2 , . . . uma sequncia de v.a.s independentes e identicamente distribudas com mdia E[X] = e varincia finitas. Ento
h
i
P lim Mn (X) = = 1
n

Este resultado similar quele obtido no Teorema 7.3, mas na verdade faz uma
afirmao dramaticamente diferente: afirma que com probabilidade 1, toda sequncia
de clculos de mdias amostrais ir eventualmente aproximar-se e permanecer perto de
E[X] = . Este o tipo de convergncia que esperamos observar em situaes reais
onde haja regularidade estatstica.

Figura 7.1: Convergncia de uma sequncia de mdias amostrais obtidas a partir de


uma sequncia de v.a.s com distribuio Gaussiana de mdia 4 e varincia 10.

138

7.5

A mdia amostral

Exerccios

1. Suponha que o nmero de emisses de partculas de uma massa radioativa em t segundos uma v.a. com distribuio de Poisson com mdia t. Use a desigualdade
de Chebyshev para obter um limitante para P [|N (t)/t | > ].
Resp: P [|N (t)/t | ] /2 t

2. Suponha que 10 % dos eleitores esto a favor de certa lei. Um grande nmero n
de eleitores consultado e obtm-se uma estimativa por frequncia relativa fA (n)
da proporo acima. Use o Teorema 7.2 para determinar quantos eleitores devem
ser consultados de modo a termos uma probabilidade de pelo menos 0,95 de fA (n)
diferir de 0,10 em menos de 0,02.
Resp: n = 4500
3. Um dado ideal arremessado 100 vezes. Use o Teorema 7.2 e encontre um limitante para a probabilidade de o nmero total de pontos estar entre 300 e 400.
Resp: P [|Mn (x) 350| 50] = 0, 9994
4. Seja Xi uma sequncia de v.a.s Gaussianas independentes de mdia zero e varincia unitria. Compare o limitante dado pela Teorema 7.2 com o valor exato
para n = 10 e n = 100.
Resp: Para c = 4, temos:
(a) Valor exato: P [|Mn (x) < 4] = 1 2Q(4) 0, 9999367

(b) n = 10: P [|Mn (x) < 4] 0, 99375

(c) n = 100: P [|Mn (x) < 4] 0, 999375

5. (Para ser feito no MATLAB) Gere sequncias de nmeros aleatrios com diversas
distribuies, variando a mdia (e a varincia, quando for o caso) e calcule as
sequncias de mdias amostrais. Com isto podemos comprovar na prtica a lei
forte de nmeros grandes.
6. Deseja-se medir uma tenso constante mas desconhecida. Cada medida Xj na
verdade a soma da tenso desejada v com a tenso do rudo Nj de mdia zero e
desvio padro de 1 V
Xj = v + Nj
Assuma que as tenses do rudo so v.a.s independentes. Quantas medidas sero
necessrias de modo que a probabilidade de Mn (X) esteja a = 1V da mdia
verdadeira seja pelo menos 0,99?
Resp: n 100
7. Seja X uma varivel aleatria com funo densidade de probabilidade fX (x), e
seja X1 , X2 , . . . , Xn um conjunto de variveis aleatrias independentes, cada qual
com funo densidade de probabilidade fX (x). O conjunto de variveis aleatrias
X1 , X2 , . . . , Xn chamado de uma amostra aleatria de tamanho n de X. A mdia
amostral definida como

A mdia amostral

139

Xn =

1X
1
Xi
(X1 + + Xn ) =
n
n
i=1

Seja X1 , X2 , . . . , Xn uma amostra aleatria de X com mdia e varincia 2 .


Quantas amostras de X devemos tomar para que a probabilidade da mdia amostral desviar da mdia real por mais que /10 seja de pelo menos 0, 95?
Resp: n 2000

Captulo 8

Processos Estocsticos
8.1

Definio

A noo de processo estocstico uma extenso do conceito de v.a. Considere, por


exemplo, a temperatura X de uma certa cidade ao meio dia. A temperatura X uma
v.a. e toma valores diferentes a cada dia. Para obter as estatsticas completas de X,
precisamos armazenar valores de temperatura durante vrios dias (um grande nmero
de tentativas). A partir destes dados podemos determinar fX (x), a fdp da v.a. X.
Mas a temperatura tambm funo do tempo. uma da tarde, por exemplo, a
temperatura pode ter uma distribuio totalmente diferente daquela obtida para o meio
dia. Ento a v.a. X uma funo do tempo, e pode ser expressa como X(t).

Definio 8.1. Uma v.a. que uma funo do tempo chamada de um processo
estocstico (ou processo aleatrio).

Para especificar uma v.a. X, repetimos um experimento vrias vezes e a partir dos
resultados, determinamos a sua fdp fX (x). Similarmente, para especificar um processo
estocstico X(t), fazemos a mesma coisa para cada valor de t.
Continuando com nosso exemplo, precisamos armazenar temperaturas dirias para
cada valor de t (cada hora do dia). Isto pode ser feito armazenando-se temperaturas a
cada instante do dia. Este procedimento fornece uma forma de onda X(t; i ) onde i
indica o dia em que foi feita a medida. Precisamos repetir este procedimento todos os
dias por um grande nmero de dias.
A coleo de todas as formas de onda possveis conhecida como o conjunto do
processo estocstico X(t), e uma forma de onda nesta coleo uma funo amostra
(ao invs de um ponto amostral) do processo estocstico. As amplitudes das funes
amostra em algum instante t = t1 so os valores que a v.a. X(t1 ) assume em vrias
tentativas. Na Figura 8.1 tem-se o conceito que acabamos de definir em forma grfica.
Podemos ver um processo estocstico de outra forma. No caso de uma v.a., o resultado de cada tentativa de um experimento aleatrio um nmero. Para um processo
estocstico o resultado de cada tentativa uma forma de onda (uma funo amostra)
que uma funo de t. O nmero de formas de onda em um conjunto pode ser finito
ou infinito. No caso do processo estocstico X(t) (a temperatura de uma cidade), o

Processos Estocsticos

141

X(t1 ) = x1

X(t2 ) = x2

X(t, 1 )

t
X(t, 2 )

t
X(t, 3 )

t
X(t, 4 )

t1

t2

Figura 8.1: Um processo estocstico que representa a temperatura de uma cidade.


conjunto tem infinitas formas de onda. Por outro lado, se considerarmos a sada de
um gerador de sinais binrios (sobre um perodo de 0 a 10T ) existem no mximo 210
formas de onda neste conjunto (Figura 8.2).

X(t, 1 )
t

X(t, 2 )
t

X(t, 3 )
t

X(t, 4 )
t

Figura 8.2: Um conjunto com um nmero finito de funes amostra.


Um ponto que precisa ser esclarecido que as formas de onda (funes amostra) no
so aleatrias, mas determinsticas. A aleatoriedade neste caso associada no com a
forma de onda mas com a incerteza de qual delas vai ocorrer em uma dada tentativa.

142

Processos Estocsticos

Isto completamente anlogo ao caso de uma v.a. Por exemplo, no experimento de jogar
uma moeda quatro vezes em sucesso, existem 16 resultados possveis, todos conhecidos.
A aleatoriedade nesta situao est associada no aos resultados mas com a incerteza
de qual deles ir ocorrer em uma dada tentativa.

8.2

Tipos de procesos estocsticos

Os processos estocsticos podem ser classificados em termos dos valores que podem
assumir assim como dos instantes de tempo em que podem sofrer mudanas. Segundo
esta tica, podem ser classificados em processos de valor discreto e valor contnuo, e
processos de tempo discreto e tempo contnuo.

Definio 8.2. Processos de valor contnuo e de valor discreto: X(t) um


processo de valores discretos se o conjunto de todos os valores possveis de X(t) para
todos os instantes de tempo t um conjunto contvel SX ; caso contrrio, X(t) um
processo de valores contnuos.

Definio 8.3. Processos de tempo contnuo e tempo discreto. O processo


estocstico X(t) de tempo discreto se X(t) definido apenas para um conjunto de
instantes de tempo tn = nT , onde T uma constante e n um inteiro; caso contrrio,
X(t) um processo de tempo contnuo

Estes conceitos so ilustrados na Figura 8.3. Nesta, podemos identificar que para o
processo X(t), existem quatro possibilidades bsicas:
amplitude discreta, tempo discreto
amplitude discreta, tempo contnuo
amplitude contnua, tempo discreto
amplitude contnua, tempo contnuo
Para um processo de tempo discreto, a funo amostra completamente descrita
pela sequncia ordenada de variveis aleatrias Xn = X(nT ).

Definio 8.4. Sequncia aleatria. Uma sequncia aleatria uma sequncia


ordenada de variveis aleatrias X0 , X1 , . . .

Processos Estocsticos

143

X(t)

X(n)

Y (t)

Y (n)

Figura 8.3: Funes amostra de quatro tipos de processos estocsticos: X(t) um


processo contnuo no tempo e na amplitude; X(n), obtido a partir da amostragem de
X(t) em instantes de tempo inteiros n, discreto no tempo e contnuo na amplitude;
Y (t) obtida a partir da quantizaco de X(t) nos instantes de amostragem, e um
processo discreto na amplitude e contnuo no tempo; finalmente, Y (n), um processo
discreto no tempo e na amplitude, obtido a partir da amostragem de Y (t).
Alm de caracterizar os processos estocsticos em relao sua natureza temporal
e das amplitudes, podemos classific-los quanto ao seu tempo de durao:

Definio 8.5. Processos de durao finita, semi-infinita e infinita.


a) X(t) um processo de durao finita t2 t1 se para todo s, x(t, s) = 0 para
t < t1 e t > t2 > t1 .
b) X(t) um processo de durao semi-infinita se para todo s, x(t, s) = 0, para
t < t1 .
c) caso contrrio, X(t) um processo de durao infinita.

8.3

Variveis aleatrias a partir de processos estocsticos

Suponha que estamos observando um processo estocstico em um instante de tempo


particular t1 . Neste caso, cada vez que realizamos um experimento, observamos uma
funo amostra x(t, s) e esta funo amostra especifica o valor de x(t1 , s). Cada vez que
realizamos o experimento, temos um novo s e observamos um novo x(t1 , s). Portanto,

144

Processos Estocsticos

cada x(t1 , s) uma amostra de uma varivel aleatria. Aqui usada a notao X(t1 )
para esta varivel aleatria. Como qualquer outra varivel aleatria, tem ou uma fdp
fX(t1 ) (x) ou uma fmp pX(t1 ) (x). Note que a notao X(t) pode se referir tanto a um
processo estocstico como a uma varivel aleatria, correspondente ao valor do processo
estocstico no instante t. Nas sees subsequentes, ir ficar claro a partir do contexto
se estamos nos referindo ao processo inteiro ou uma varivel aleatria.

Exemplo 8.1. Seja X(t) = R| cos(2f t)| um sinal cossenoidal retificado com amplitude
aleatria R com fdp exponencial

fR (r) =

Qual a fdp de fX(t1 ) (x)?

1 r/10

,
10 e

0,

r0
caso contrrio

Soluo. Desde que X(t) 0 para todo t, P [X(t) x] = 0 para x < 0. Quando x 0
e cos(2f t) 6= 0,

P [X(t) x] = P [R x/| cos(2f t)|] =

x/| cos(2f t)|


0

fR (r) dr = 1 ex/10| cos(2f t)|

Quando cos(2f t) 6= 0, a cdf completa de X(t)

FX(t) (x) =

0,

x<0

1 ex/10| cos(2f t)| , x 0

Quando cos(2f t) 6= 0, a fdp completa de X(t)


dFX(t)
fX(t) (x) =
dx

0,
(x)

x<0

1
ex/10| cos(2f t)| , x 0
10| cos(2f t)|

Quando | cos(2f t)| = 0, o que corresponde a t = /2 + k, X(t) = 0 independente


de quo grande R possa ser. Neste caso, fX(t) (x) = (x). Neste exemplo, existe uma
varivel aleatria diferente para cada valor de t.

Quando X(t) um processo de tempo discreto, toda informao sobre o mesmo est
contida no valor da constante T na Definio 8.3 e a sequncia de variveis aleatrias,
X(nT ), n = . . . , 2, 1, 0, 1, 2, . . .

Processos Estocsticos

145

Exemplo 8.2. Suponha que nos instantes de tempo T = 0, 1, 2, . . . , jogamos um dado


e anotamos o resultado NT , onde 1 NT 6. Definimos um processo estocstico
X(t) tal que para T T < T + 1, X(t) = NT . Neste caso, o experimento consiste em
uma sequncia infinita de jogadas, e uma funo amostra apenas uma forma de onda
correspondente sequncia particular dos resultados observados.
Seja Xn = X(nT ). Qual a fmp de X3 ?
Soluo. a varivel aleatria X3 o valor da jogada do dado no instante 3. Neste caso,
pX3 (x) =

1/6,
0,

x = 1, 2, . . . , 6
caso contrrio

Vimos no Captulo 2 que a fdp fX (x) um modelo probabilstico completo para a


varivel aleatria X. Similarmente, para um par de variveis aleatrias X1 , X2 , precisamos da fdp conjunta fX1 ,X2 (x1 , x2 ). Vimos tambm que as fdps marginais fX1 (x1 ) e
fX2 (x2 ) no so suficientes para descrever este par de variveis aleatrias.
Para processos estocsticos, a situao similar. Se amostramos um processo em
k instantes de tempo t1 , . . . , tk , obtemos k variveis aleatrias X(t1 ), . . . , X(tk ).
possvel ver esta coleo de variveis aleatrias como um vetor k-dimensional [X(t1 ),
X(t2 ) . . . , X(tk )], chamado de vetor aleatrio.

8.4

Sequncias aleatrias independentes e identicamente


distribudas

Definio 8.6. Sequncias iid.


Uma sequncia aleatria independente e
identicamente distribuda (iid) uma sequncia aleatria Xn para a qual
. . . , X2 , X1 , X0 , X1 , X2 , . . . so variveis aleatrias iid.

Uma sequncia aleatria ocorre quando realizamos tentativas independentes de um


experimento a uma taxa constante. Uma sequncia aleatria pode assumir tanto valores discretos quanto contnuos. No caso discreto, cada varivel aleatria Xi tem fmp
pXi (x) = pX (x), enquanto que no caso contnuo, cada Xi tem fdp fXi (x) = fX (x).
Exemplo 8.3. Em uma linha de produo de resistores de 1000, a resistncia real de
cada resistor uma varivel aleatria R com distribuio uniforme entre 950 e 1050.
Assuma que os valores das resistncias dos diferentes resistores so independentes. A
companhia tem uma encomenda de resistores de 1% de tolerncia (resistncias entre
990 e 1010). Um testador automtico toma um resistor por segundo e mede sua resistncia exata. Seja Rn igual ao nmero de resistores com tolerncia de 1% encontrados
durante o minuto n. Assim, a varivel aleatria Rn tem fmp binomial

146

Processos Estocsticos

pRn (r) =

60 r
r p (1

0,

p)60r ,

r = 0, 1, . . . , 60
caso contrrio

Desde que cada resistor um resistor de tolerncia 1% independentemente de todos


os outros resistores, o nmero de resistores com tolerncia de 1% encontrados a cada
minuto independente do nmero encontrado em outros minutos. Ento, R1 , R2 , . . .
uma sequncia aleatria iid.
Para uma sequncia aleatria, a distribuio conjunta de um vetor amostra X1 , X2 ,
. . . , Xn fcil de escrever desde que o produto das fdps ou fmps indivivuais.

Teorema 8.1. Seja Xn uma sequncia aleatria iid. Para um processo de valor
discreto, o vetor amostra Xn1 , . . . , Xnk tem fmp conjunta
pXn1 ,...,Xnk (x1 , . . . , xk ) = pX (x1 )pX (x2 ) pX (xk ) =

k
Y

pX (xi )

k
Y

fX (xi )

i=1

Se o processo assume valores contnuos, ento a fdp conjunta de Xn1 , . . . , Xnk dada
por
fXn1 ,...,Xnk (x1 , . . . , xk ) = fX (x1 )fX (x2 ) fX (xk ) =

i=1

De todas as sequncias iid, talvez a mais simples seja a sequncia aleatria de Bernoulli.

Definio 8.7. Um processo de Bernoulli Xn com probabilidade de sucesso p uma


sequncia aleatria na qual cada Xn uma varivel aleatria com distribuio de
Bernoulli tal que P [Xn = 1] = p = 1 P [Xn = 0].

Exemplo 8.4. Para o processo do resistor do Exemplo 8.3, seja Yn = 1 se no i-simo


segundo encontramos um resistor de 1%, caso contrrio Yn = 0. A sequncia aleatria
Yn um processo de Bernoulli.

Exemplo 8.5. Para um processo de Bernoulli Xn com probabilidade de sucesso p,


encontre a fmp conjunta de X1 , . . . , Xn .
Soluo. Para uma nica amostra Xi , podemos escrever a fmp de Bernoulli da seguinte
maneira

Processos Estocsticos

147

(
pxi (1 p)1xi , xi {0, 1}
pXi (xi ) =
0,
caso contrrio
Quando xi {0, 1} para i = 0, . . . , n, a fmp conjunta pode ser escrita como
pX1 ,...,Xn (x1 , . . . , xn ) =

n
Y
i=1

pxi (1 p)1xi = pk (1 p)nk

onde k = x1 + + xn . A expresso completa para a fmp conjunta


(
px1 ++xn (1 p)n(x1 ++xn ) , xi {0, 1}, i = 1, 2, . . . , n
pX1 ,...,Xn (x1 , . . . , xn ) =
0,
caso contrrio

8.5

Processo de Contagem

Um processo de contagem N (t) comea no instante t = 0 e conta a ocorrncia de eventos.


Estes eventos so em geral chamados de chegadas desde que os processos de contagem
so mais usados para modelar a chegada de clientes a um determinado servidor.
Desde que iniciamos em t = 0, n(t, s) = 0 para todo t 0. Ainda, o nmero de
chegadas at um instante t > 0 qualquer um nmero inteiro que no decresce com o
tempo.

Definio 8.8. Processo de contagem. Um processo estocstico N (t) um processo de contagem se para cada funo amostra, n(t, s) = 0 para t 0 e n(t, s)
assume valores inteiros e no decrescentes com o tempo.

Podemos imaginar N (t) como o nmero de clientes que chega a um sistema no


intervalo (0, t]. Uma funo amostra tpica de um processo de contagem mostrada
na Figura 8.4. Os saltos na funo amostra de um processo de contagem marcam as
chegadas e o nmero de chegadas no intervalo (t0 , t1 ] simplesmente N (t1 ) N (t0 ).
Podemos usar um processo de Bernoulli X1 , X2 , . . . para derivar um processo de
contagem simples. Considere um intervalo de tempo de tamanho de modo que exista
uma chegada na intervalo (n, (n + 1)] se e somente se Xn = 1. Para uma constante
arbitrria > 0, podemos escolher pequeno o suficiente para assegurar que < 1.
Neste caso, escolhemos a probabilidade de sucesso de Xn como sendo . Isto implica
que o nmero de chegadas Nm no instante T = m tem fmp binomial
( 
m
n
mn , n = 0, 1, . . . , m
n (T /m) (1 T /m)
PNm (n) =
(8.1)
0,
caso contrrio
Pode-se mostrar que medida que m , ou equivalentemente medida que
0 a fmp de Nm aproxima-se da fmp de uma v.a. com distribuio de Poisson
N (T ) com fmp

148

Processos Estocsticos
N (t)
5
4
3
2
1

6
....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ...........................................
...
...
...
..
....
.
....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ...............................................................................................................
...
..
....
...
....
..
....
....
..
.
....... ....... ....... ....... ....... ....... ....... ....... ....... ...........................................................................................................................................
...
...
....
...
....
....
....
..
.
.
..
....
....
....
.
.
....... ....... ....... ....... ....... ..........................................................
...
....
...
....
.
.
..
.
..
....
....
....
....
...
....
....
....
....
.
.
.
.
....... ....... ....... ......................................
....
....
....
....
....
...
....
....
....
....
....
.
.
.
...
.
..
....
....
....
....
....

S1

S2

S3

.
.
.
X1.................
..........
.............
...............
................................................
X3 ...X4
.
. X2 ..

.
..........
.

S4

-

.
...............................................................................................
.

S5

.
.............................................
.
5

Figura 8.4: Funo amostra de um processo de contagem

PN (t) (n) =

(T )n eT /n!, n = 0, 1, 2, . . .
0,
caso contrrio

Podemos generalizar este argumento e dizer que para qualquer intervalo (t0 , t1 ], o
nmero de chegadas poderia ter uma fmp de Poisson com parmetro T onde T = t1 t0 .
Alm disso, o nmero de chegadas em (t0 , t1 ] depende das tentativas independentes de
Bernoulli correspondentes quele intervalo. Ento o nmero de chegadas em intevalos
no sobrepostos ir ser independente. No limite medida que 0, obtemos um
processo de contagem no qual o nmero de chegadas em qualquer intervalo uma
varivel aleatria com distribuio de Poisson independente das chegadas em qualquer
outro intervalo no sobreposto. Chamamos este processo limite de um processo de
Poisson. Na prxima seo iremos examinar o processo de Poisson com mais detalhes.

8.6

Processo de Poisson

Considere uma situao na qual os eventos ocorrem em instantes de tempo aleatrios a


uma taxa mdia de eventos por segundo. Por exemplo, um evento poderia representar
a chegada de um cliente a uma estao de servio ou a falha de um componente em
algum sistema. Seja N (t) o nmero de ocorrncias destes eventos no intervalo de tempo
[0, t]. N (t) ento um processo estocstico contnuo no tempo, no descrescente e que
assume apenas valores inteiros, como mostrado na Figura 8.4.
Suponha agora que o intervalo [0, t] seja dividido em n subintervalos de durao
infinitesimal = t/n. Assuma tambm que as seguintes condies sejam tambm
observadas:
1. A probabilidade da ocorrncia de mais de um evento em um destes subintervalos
desprezvel comparada probabilidade de observar zero ou um eventos.

Processos Estocsticos

149

2. A ocorrncia de um evento em um dado subintervalo independe dos resultados


observados nos outros subintervalos.
A primeira suposio implica que o resultado em cada subintervalo pode ser visto
como o resultado de um teste de Bernoulli. A segunda suposio implica que estes testes
de Bernoulli so independentes. Ento, estas duas suposies juntas implicam que o
processo de contagem N (t) pode ser aproximado pelo processo de contagem binomial,
que conta o nmero de sucessos em n testes de Bernoulli.
Se a probabilidade de ocorrncia de um evento em cada subintervalo p, ento o
nmero esperado de eventos no intervalo [0, t] np. Desde que os eventos ocorrem a
uma taxa de eventos por segundo, o nmero mdio de eventos no intervalo [0, t]
tambm t. Ento devemos ter
t = np
Se fizermos agora n (isto , 0), e p 0 enquanto mantemos t = np fixo,
ento a distribuio binomial tende a uma distribuio de Poisson com parmetro t.
Podemos concluir ento que o nmero de ocorrncias N (t) de eventos no intervalo [0, t]
tem uma distribuio de Poisson de mdia t:
P [N (t) = k] =

(t)k t
e , k = 0, 1, 2, . . .
k!

(8.2)

Por esta razo, N (t) conhecido como processo de Poisson. Formalmente, podemos
definir um processo de Poisson como:

Definio 8.9. Processo de Poisson. Um processo de contagem N (t) um processo de Poisson de taxa se
O nmero de chegadas em qualquer intervalo (t0 , t1 ], N (t1 ) N (t0 ), uma
varivel aleatria com distribuio de Poisson com valor esperado (t1 t0 ).

Para qualquer par de intervalos no sobrepostos, (t0 , t1 ] e (t0 , t1 ], o nmero de

chegadas em cada intervalo, N (t1 ) N (t0 ) e N (t1 ) N (t0 ) respectivamente,


so variveis aleatrias independentes.

Chamamos de taxa do processo pois o nmero esperado de chegadas por unidade


de tempo E[N (t)]/t = . Pela definio da varivel aleatria de Poisson, M =
N (t1 ) N (t0 ) tem fmp

m
[(t1 t0 )] (t1 t0 )
e
, m = 0, 1, . . .
PM (m) =
m!
0,
caso contrrio

(8.3)

Para um conjunto de instantes de tempo t1 < t2 < < tk , podemos usar a propriedade de que o nmero de chegadas em intervalos no sobrepostos so independentes
para escrever a fmp conjunta de N (t1 ), . . . , N (tk ) como um produto de probabilidades.

150

Processos Estocsticos

Teorema 8.2. Para um processo de Poisson N (t) de taxa , a fmp conjunta de


N (t1 ), . . . , N (tk ), t1 < t2 < < tk , dada por

n n
n n
n

k k1 ek
1 1 e1 2 2 1 e2
k
,
pN (t1 ),...,N (tk ) (n1 , . . . , nk ) =
n1 !
(n2 n1 )!
(nk nk1 )!

0,

0 n1 nk
caso contrrio

onde i = (ti ti1 ).

Demonstrao. Seja M1 = N (t1 ) e para i = 2, . . . , k, seja Mi = N (ti ) N (ti1 ). Pela


definio do processo de Poisson, M1 , . . . , Mk uma coleo de variveis aleatrias
independentes com distribuio de Poisson tal que E[Mi ] = i .
pN (t1 ),...,N (tk ) (n1 , . . . , nk ) = pM1 ,M2 , ,Mk (n1 , n2 n1 , . . . , nk nk1 )

= pM1 (n1 )pM2 (n2 n1 ) pMk (nk nk1 )

Substituindo a Equao (8.3) por pMi (ni ni1 ), completamos a prova.


Exemplo 8.6. Um sistema de mensagens gravadas recebe acessos de acordo com um
processo de Poisson de taxa 15 acessos por minuto. Encontre a probabilidade de, em
um intervalo de tempo de 1 minuto, 3 acessos sejam feitos nos primeiros 10 segundos e
2 acessos sejam feitos nos ltimos 15 segundos.
Soluo. A taxa de chegada em segundos = 15/60 = 1/4 acessos por segundo.
Escrevendo o tempo em segundos, a probabilidade de interesse
P [N (10) = 3 e N (60) N (45) = 2]

Aplicando as propriedades de incrementos independentes e incrementos estacionrios,


P [N (10) = 3 e N (60) N (45) = 2] = P [N (10) = 3]P [N (60) N (45) = 2]
= P [N (10) = 3]P [N (60 45) = 2]

(10/4)3 e10/4 (15/4)2 e15/4


= 0, 035
3!
2!

importante lembrar que a propriedade dos intervalos independentes do processo


de Poisson precisa se manter mesmo para intervalos bastante pequenos. Por exemplo,
o nmero de chegadas em (t, t + ] precisa ser independente do processo de chegada
sobre [0, t] independentemente de quo pequeno escolhamos > 0. Essencialmente, a
probabilidade de uma chegada em qualquer instante independente da histria passada
do processo. Neste sentido, o processo de Poisson sem memria.

Processos Estocsticos

151

Esta propriedade de ser sem memria pode tambm ser vista quando examinamos
os instantes entre as chegadas. Como mostrado na Figura 8.4, o tempo aleatrio Xn
entre a chegada n 1 e a chegada n chamado de n-simo tempo entre chegadas.
Adicionalmente, chamamos o instante X1 , da primeira chegada, como o primeiro tempo
entre chegadas, mesmo no havendo chegadas anteriores.

Teorema 8.3. Para um processo de Poisson de taxa , os tempos entre chegadas


X1 , X2 , . . . so uma sequncia aleatria iid com fdp exponencial
(
ex , x 0
fX (x) =
0,
caso contrrio
Demonstrao. Dado X1 = x1 , X2 = x2 , . . . , Xn1 = xn1 , a chegada n 1 ocorre no
instante
tn1 = x1 + + xn1

Para x > 0, Xn > x se e s 21 se no ocorrerem chegadas no intervalo (tn1 , tn1 +x].


O nmero de chegadas em (tn1 , tn1 + x] independente da histria passada descrita
por X1 , . . . , Xn1 . Isto implica
P [Xn > x|X1 = x1 , . . . , Xn1 = xn1 ] = P [N (tn1 + x) N (tn1 ) = 0] = ex
Ento Xn independente de X1 , . . . , Xn1 e tem fdc exponencial
(
1 ex , x > 0
FXn (x) = 1 P [Xn > x] =
0,
caso contrrio
Tomando a derivada da fdc, podemos ver que Xn tem fdp exponencial fXn (x) =
fX (x), o que demonstra o teorema.

Exemplo 8.7. Encontre a mdia e a varincia do tempo at o dcimo acesso no Exemplo 8.6.
Soluo. A taxa de chegada de = 1/4 acessos por segundo, de modo que os tempos
entre chegadas so variveis aleatrias com distribuio exponencial de parmetro .
Para a distribuio exponencial, a mdia e a varincia so, respectivamente, 1/
e 1/2 (veja Apndice E). O instante da dcima chegada a soma destas variveis
aleatrias iid, ento
10
= 40 segundos

10
Var[S10 ] = 10 Var[T ] = 2 = 160 segundos2 .

E[S10 ] = 10E[T ] =

152

Processos Estocsticos

A propriedade de ser sem memria do processo de Poisson pode tambm ser vista
nos tempos entre chegadas exponenciais. Desde que P [Xn > x] = ex , a probabilidade

condicional de que Xn x > x dado que Xn > x ,

P [Xn x > x|Xn > x ] =

P [Xn > x + x , Xn > x ]


= ex
P [Xn > x ]

(8.4)

A interpretao da Equao (8.4) que dado que a chegada no ocorreu no instante

x , o tempo adicional at a chegada, Xn x , tem a mesma distribuio exponencial de


Xn . Isto , no importa o quanto esperamos para a chegada, o tempo restante at a
chegada tem sempre uma distribuio exponencial com mdia 1/.
A partir de uma funo amostra de N (t), podemos identificar os tempos entre chegadas X1 , X2 e assim por diante. Similarmente, a partir dos tempos entre chegadas
X1 , X2 , . . . , podemos construir a funo amostra do processo de Poisson N (t). Isto
implica que uma representao equivalente do processo de Poisson uma sequncia
aleatria iid X1 , X2 , . . . de tempos entre chegadas exponencialmente distribudos.

Teorema 8.4. Um processo de contagem com tempos entre chegadas exponenciais


independentes X1 , X2 , . . . com mdia E[Xi ] = 1/ um processo de Poisson de taxa
.

8.7

Processo sinal telegrfico aleatrio

Considere um processo aleatrio X(t) que assume os valores 1. Suponha que X(0) =
1 com probabilidade 1/2, e suponha que X(t) mude de polaridade com cada evento de
um processo de Poisson de taxa . A Figura 8.5 mostra uma funo amostra de X(t).
..

X(t) ........6
.
1

....
...
..
......... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....
...
....
..
...
...
...
...
...
...
...
.............................................................................................................................................................................................................................................................................................................................................................................................................................................
...
...
...
...
...
...
...
...
...
.
.......... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....
....
...
...
..
..
..
..
..
..
..
......................................................................................................................................................................................................................................................................................................................................................................................................................
..
..
..
..
..
..
..

- --

X1

X2 X3

-

X4

-
-

X5

X6

X7

Figura 8.5: Funo amostra de um processo telegrfico aleatrio


A fmp de X(t) dada por
P [X(t) = 1] = P [X(t) = 1|X(0) = 1]P [X(0) = 1]

+ P [X(t) = 1|X(0) = 1]P [X(0) = 1] (8.5)

Processos Estocsticos

153

Podemos encontrar as fmps condicionais notando que X(t) ir ter a mesma polaridade de X(0) somente quando ocorrer um nmero par de eventos no intervalo (0, t].
Ento
P [X(t) = 1|X(0) = 1] = P [N (t) = inteiro par]

X
(t)2j t
e
=
(2j)!
j=0


1  t
e + et
2

1
=
1 + e2t
(8.6)
2
X(t) e X(0) iro ter sinais opostos quando o nmero de eventos no intervalo (0, t]
for mpar:
= et

P [X(t) = 1|X(0) = 1] = P [N (t) = inteiro mpar]

X
(t)2j+1 t
e
=
(2j + 1)!
j=0


1  t
e et
2

1
1 e2t
=
2
Substituindo estes resultados na Equao (8.5), temos:
= et

(8.7)

11
1
11
{1 + e2t } +
{1 e2t } =
22
22
2
1
P [X(t) = 1] = 1 P [X(t) = 1] =
(8.8)
2
Ento, o sinal telegrfico assume os valores -1 e +1 com a mesma probabilidade. A
mdia e a varincia de X(t) so dadas por:
P [X(t) = 1] =

E[X(t)] = 1P [X(t) = 1] + (1)P [X(t) = 1] = 0


Var[X(t)] = E[X 2 (t)] E 2 [X(t)] = (1)2 P [X(t) = 1] + (1)2 P [X(t) = 1] 0 = 1
E a funo de autocorrelao de X(t) dada por:
CX (t1 , t2 ) = E[X(t1 ), X(t2 )]
= 1P [X(t1 ) = X(t2 )] + (1)P [X(t1 ) 6= X(t2 )]
o 1n
o
1n
1 + e2|t2 t1 |
1 e2|t2 t1 |
=
2
2
= e2|t2 t1 |
Pode-se ver ento que as amostras de X(t) tornam-se cada vez menos correlacionadas
medida que o tempo entre elas aumenta.

154

8.8

Processos Estocsticos

Processo movimento Browniano

O processo de Poisson e o processo telegrfico so exemplos de processos de tempo


contnuo e valor discreto. Agora iremos examinar o processo movimento Browniano,
que um processo de tempo e valores contnuos.

Definio 8.10. Processo movimento Browniano. Um processo movimento


Browniano X(t) tem a propriedade de que X(0) = 0 e para > 0, X(t + ) X(t)
uma varivel aleatria gaussiana com mdia 0 e varincia que independente de

X(t ) para todo t t .


Para o movimento Browniano, podemos ver X(t) como a posio de uma partcula
em uma linha. Para um pequeno incremento de tempo ,
(8.9)

X(t + ) = X(t) + [X(t + ) X(t)]

Embora esta expanso possa parecer trivial, pela definio de movimento Browniano, o incremento Y = X(t + ) X(t), independente de X(t) e Gaussiano de
mdia zero e varincia . Esta propriedade do movimento Browniano chamada de
incrementos independentes. Ento, depois de um intervalo de tempo , a posio da
partcula moveu-se de uma quantidde Y que independente da posio anterior X(t).
A mudana de posio Y pode ser positiva ou negativa. Por esta razo, o movimento
Browniano tambm chamado de uma caminhada aleatria unidimensional.

Teorema 8.5. Para o processo movimento Browniano X(t), a fdp conjunta de


X(t1 ), . . . , X(tk )

fX(t1 ),...,X(tk ) (x1 , . . . , xk ) =

k
Y

n=1

1
p

2 /[2(t t
n
n1 )]

2(tn tn1 )

e(xn xn1 )

(8.10)

Demonstrao. Desde que X(0) = 0, X(t1 ) = X(t1 ) X(0) uma varivel aleatria
Gaussiana. Dados os instantes de tempo t1 , . . . , tk , definimos t0 = 0 e, para n =
1, . . . , k, Yn = X(tn ) X(tn1 ). Note que Y1 , . . . , Yk so variveis aleatrias Gaussianas
independentes de mdia zero tais que Yn N (0, (tn tn1 )).
fYn (y) = p

1
2(tn tn1 )

ey

2 /[2(t t
n
n1 )]

(8.11)

Note que X(t1 ) = x1 , . . . , X(tn ) = xn se e somente se Y1 = x1 , Y2 = x2 x1 , . . . , Yk =


xk xk1 .
Depois de alguma manipulao, chegamos a
fX(t1 ),...,X(tk ) (x1 , . . . , xk ) =

k
Y

n=1

fYn (xn xn1 )

(8.12)

Processos Estocsticos

155

Substituindo (8.11) em (8.12), completamos a prova.

8.9

Mdias estatsticas de processos aleatrios

Assim como definimos mdias estatsticas para v.a.s, podemos de forma similar, definir
mdias estatsticas para um processo estocstico. Tais mdias so tambm chamadas
de mdias de conjunto. Estas sero ento utilizadas para especificar um processo
aleatrio.
Se adotarmos a idia de que um processo aleatrio X(t) uma v.a. X que uma
funo do tempo, chegaremos concluso de que X(t) completamente especificada se
a fdp de X especificada para cada valor de t. Iremos ver rapidamente que as coisas
no so assim to simples. Entretanto, comecemos com a idia de especificar uma v.a.
X para cada valor de t.
Para o processo estocstico X(t) representando a temperatura de uma cidade, isto
implicar em considerar as amplitudes das funes amostra em algum instante t = t1 . O
valor X(t1 ; 1 ) representa a temperatura no instante t1 no i -simo dia e o resultado
da i -sima tentativa. Ento, todas as amplitudes das funes amostra em t = t1
representam valores tomados pela v.a. X em t = t1 , isto X(t1 ).
Podemos fazer isto para cada valor de t. A fdp de X pode ser diferente para
diferentes valores de t em geral. Para indicar este fato, a fdp de X no instante t
expressa por fX (x; t).
Exemplo 8.8. Limiar de deteo. Sobre um canal binrio, as mensagens m = 0 e
m = 1 so transmitidas com probabilidades iguais usando um pulso positivo e negativo,
respectivamente. O pulso transmitido correspondente mensagem 1 p(t), mostrado na
Figura 8.6, e o pulso transmitido correspondente mensagem 0 ser p(t). Determine
as estatsticas de primeira ordem.
p(t)

Ap
Tp

Figura 8.6: Forma de onda do pulso p(t).


Soluo. Seja Ap a amplitude de pico de p(t) em t = Tp . Por causa do rudo de canal
n(t), os pulsos recebidos sero p(t) + n(t) (Figura 8.7).
Para detectar os pulsos no receptor, cada pulso amostrado em sua amplitude de
pico. Na ausncia de rudo, a sada do amostrador Ap (para m = 1) ou Ap (para
m = 0). Por causa do rudo do canal, a sada do amostrador Ap + n, onde n, a
amplitude do sinal de rudo no instante de amostragem, uma v.a. No receptor, utilizase um limiar de deteo igual a 0, isto , se o pulso amostrado em seu pico tem um valor
positivo, a deciso 1, e se menor que 0, a deciso 0.

156

Processos Estocsticos

Figura 8.7: Erro de deteo devido ao rudo.


Vamos tentar interpretar P [|1], a probabilidade de erro dado que 1 foi transmitido.
Se 1 transmitido, a sada do amostrador no receptor Ap + n. Se Ap + n > 0, fazemos
uma deciso correta, e se Ap + n < 0, ou equivalentemente n < Ap , tomamos uma
deciso errada.
Interpretando a probabilidade em termos de frequncia relativa, se repetimos o experimento (de transmitir e receber o smbolo 1) N vezes (N ), e se N vezes a
amostra do rudo foi negativa o suficiente para que Ap + n < 0, ento
N
N
Vamos examinar o sinal de rudo no instante ts . Em cada tentativa, temos um
novo sinal de rudo (funo amostra) do conjunto de rudo e um valor diferente de n
no instante de amostragem ts , e se n < Ap digamos 100 vezes em 100 milhes de
tentativas, ento a probabilidade de erro dada por P [ |1] = 100/100 106 = 106 .
Mas este nmero tambm a probabilidade de n < Ap , onde n uma v.a. formada
pelas amplitudes em t = ts das funes amostra do conjunto do processo estocstico
n(t). Esta a v.a. n(ts ) cuja fdp fn (n; ts ).
P [ |1] =

A fdp fX (x; t) conhecida como fdp de primeira ordem. Infelizmente o conhecimento


da fdp de primeira ordem insuficiente para especificar um processo aleatrio. Para
entender o porque, um exemplo bastante instrutivo.
Exemplo 8.9. Seja um processo estocstico X(t) cujo conjunto mostrado na Figura
8.8a). Suponha que a distribuio de amplitudes em qualquer instante t a mesma, isto
fX (x; t) independente de t, e fX (x; t) = fX (x), como mostrado na Figura 8.9.
Se comprimirmos no tempo o processo X(t) por um fator k (k > 1), formamos um
novo processo Y (t), como mostrado na Figura 8.8b). Verifique porque as estatsiticas
de primeira ordem no so suficientes para diferenciar X(t) e Y (t).
Soluo. Pode-se ver facilmente que a distribuio de amplitudes de X(t) idntica
de Y (t) e, desta forma, a fdp de primeira ordem de X(t) idntica de Y (t).

Processos Estocsticos

157

Figura 8.8: Processo estocstico comprimido no tempo.

fX (x) ou fY (y)

x ou y

Figura 8.9: Fdp dos processos x e y.


Entretanto estes processos so bastante diferentes entre si pois o processo Y (t)
contm componentes em frequncias mais altas do que as de X(t). De fato, o espectro
de Y (t) ser o espectro de X(t) expandido por um fator k.

Este exemplo mostra claramente que a fdp de primeira ordem no suficiente para
especificar completamente um processo estocstico. O contedo de freqncias de um
processo depende da velocidade com que as amplitudes variam com o tempo. Isto pode
ser medido correlacionando amplitudes em t1 e t1 + . Se o processo varia lentamente,
as amplitudes em t1 e t1 + devem ser similares (Figura 8.8a). Por outro lado, se o
processo varia rapidamente, as amplitudes em t1 e t1 + no tero nenhuma semelhana
(Figura 8.8b). Podemos usar a correlao para medir a similaridade das amplitudes em
t1 e t2 = t1 + .

158

Processos Estocsticos

Definio 8.11. Funo de autocorrelao. Se as variveis aleatrias X(t1 ) e


X(t2 ) so denotadas por X1 e X2 respectivamente, ento para um processo estocstico
real, a funo de autocorrelao RX (t1 , t2 ) definida como
RX (t1 , t2 ) = E[X(t1 )X(t2 )]

Esta a correlao das v.a.s X(t1 ) e X(t2 ) e calculada multiplicando-se as amplitudes em t1 e t2 de uma funo amostra e ento fazendo a mdia deste produto sobre
o conjunto.
No exemplo acima, pode-se ver que para um valor pequeno de , o produto X1 X2
ser positivo para a maioria das funes amostra de X(t), mas o produto Y1 Y2 poder
ser tanto positivo como negativo. Desta forma, E[X1 X2 ] ser maior que E[Y1 Y2 ]. Alm
disso, X1 e X2 iro mostrar correlao para valores de consideravelmente grandes,
enquanto que Y1 e Y2 iro perder a correlao rapidamente mesmo para valores pequenos
de , como mostrado na Figura 8.10.

Figura 8.10: Funes de autocorrelao para os processos X(t) e Y (t).


Ento RX (t1 , t2 ), a funo de autocorrelao de X(t), fornece informaes importantes sobre o contedo de freqncias do processo, e pode ser derivada da fdp conjunta
de X1 e X2 . Esta a fdp de segunda ordem.
Em resumo, para especificar um processo aleatrio, precisamos no s da fdp de
primeira ordem mas tambm da fdp de segunda ordem .
Em geral, precisamos da medida de interdependncia de n variveis x1 , x2 , . . . , xn
nos instantes t1 , t2 , . . . , tn . Esta informao fornecida pela fdp de ordem n,
fX1 X2 Xn (x1 , x2 , . . . , xn ). A determinao desta fdp uma tarefa formidvel, mas
felizmente, na maioria dos casos, iremos precisar apenas das estatsticas de primeira e
segunda ordens.
Podemos sempre derivar a fdp de ordem inferior a partir de fdps de ordem superior
por simples integrao. Por exemplo,

fX1 (x1 ) =

fX1 X2 (x1 , x2 ) dx2

Ento, quando temos a fdp de ordem n, no necessrio especificar as fdps de


ordem menor que n.

Processos Estocsticos

8.9.1

159

Momentos

Definio 8.12. Seja um processo estocstico X(t) e seja tambm Xti X(ti ). O
n-simo momento da v.a. Xti definido como
Z
 n
xnti fX (xti ) dxti
E Xti =

O primeiro momento chamado de mdia de um processo estocstico, e definido


como

Definio 8.13. A mdia E[X(t)] de um processo estocstico pode ser determinada


da fdp de primeira ordem usando a seguinte expresso
Z +
xfX (x; t) dx
E[X(t)] =

Em geral, o valor do n-simo momento ir depender do instante de tempo ti se


a fdp de Xti depender de ti . Quando o processo estacionrio, entretanto, fX (xti ) =
fX (xti + t) para todo t. Portanto, a fdp independente do tempo e, como conseqncia,
o n-simo momento tambm o .

8.9.2

Funo de autocovarincia

Definio 8.14. A funo de autocovarincia definida como


KX (t1 , t2 ) = E [(Xt1 m(t1 )) (Xt2 m(t2 ))] = RX (t1 , t2 ) m(t1 )m(t2 )

onde m(t1 ) e m(t2 ) so as mdias de Xt1 e Xt2 , respectivamente.

Momentos conjuntos de ordem superior de duas ou mais v.a.s derivadas de um processo estocstico so definidos da mesma maneira. Entretanto, com a possvel exceo
do processo gaussiano, para o qual os momentos de ordem superior podem ser expressos
em termos do primeiro e segundo momentos, estes momentos de ordem superior so
encontrados com pouca frequncia na prtica.

160

8.10
8.10.1

Processos Estocsticos

Classificao dos processos estocsticos


Processos estocsticos estacionrios e no estacionrios

Definio 8.15. Um processo estocstico cujas caractersticas estatsticas no variam


com o tempo classificado como um processo estocstico estacionrio. Para um
processo estacionrio, podemos dizer que uma mudana da origem de tempo ser
impossvel de detectar; o processo ir parecer o mesmo.

Suponha que determinemos fX1 (x1 ; t1 ), desloquemos a origem para t0 e calculemos


novamente fX1 (x1 ; t1 ). O instante t0 na nova referncia dado por t2 = t1 + t0 na
referncia antiga. Desta forma, as fdps de X em t1 e t2 = t1 + t0 precisam ser as
mesmas. Portanto, para um processo estacionrio, fX1 (x1 ; t1 ) e fX2 (x2 ; t2 ) precisam
ser idnticas. Isto possvel somente se fX1 (x1 ; t1 ) independente de t. Ento, a
densidade de primeira ordem de um processo estocstico estacionrio pode ser expressa
como
fX (x; t) = fX (x)
De forma similar, podemos ver que a funo de autocorrelao RX (t1 , t2 ) precisa ser
funo apenas de t2 t1 . Desta forma, para um processo estacionrio real
RX (t1 , t2 ) = RX (t1 t2 ) = RX ( ),

= t1 t2

RX ( ) = E[X(t)X(t + )]

(8.13)

Tambm a funo de autocovarincia pode ser simplificada para


KX (t1 , t2 ) = KX (t1 t2 ) = KX ( ) = RX ( ) E 2 [X]
onde = t1 t2 .
Para um processo estacionrio, a funo densidade de probabilidade conjunta para
x1 e x2 precisa tambm depender somente de t2 t1 . Similarmente, funes densidade de
probabilidade de ordem mais alta tais como fX1 X2 Xn (x1 , x2 , . . . , xn ) onde x1 = X(ti ),
so todas independentes da escolha da origem.
Exemplo 8.10. O processo aleatrio X(t) que representa a temperatura de uma cidade
um exemplo de processo estocstico no estacionrio, pois as estatsticas da temperatura
(valor mdio por exemplo) dependem da hora do dia. Por outro lado, um processo
estocstico representado por um rudo branco um processo estacionrio, porque suas
estatsticas no se alteram com o tempo.

Em geral no fcil determinar se um processo estacionrio, pois isto envolve a


investigao das estatsticas de ordem n (n ). Na prtica, podemos determinar a
estacionariedade se no houver mudanas no mecanismo de gerao do sinal.

Processos Estocsticos

8.10.2

161

Processos estacionrios no sentido amplo

Um processo pode no ser estacionrio no sentido estrito, mas pode ainda apresentar
estacionariedade para as estatsticas de primeira e segunda ordem. Quando isto acontece, temos um processo estocstico estacionrio no sentido amplo. Abaixo tem-se uma
definio formal.

Definio 8.16. Processos estacionrios no sentido amplo (ou fracamente


estacionrios) so aqueles que tm um valor mdio e uma funo de autocorrelao
que so independentes de deslocamento na origem de tempo, ou seja
E[X(t)] = constante
RX (t1 , t2 ) = RX ( ),

= t1 t2

Note que a estacionariedade um condio muito mais forte do que a estacionariedade no sentido amplo: todos os processos estacionrios so estacionrios no sentido
amplo, mas o inverso no necessariamente verdade.
Assim como no existem sinais senoidais na prtica, no existem tambm processos
estacionrios. Todos os processos reais so no estacionrios desde que tm durao
finita, isto , tm um incio e um final. Um processo estacionrio precisaria iniciar
em t = e durar para sempre. Entretanto, muitos processos apresentam-se como
estacionrios para o intervalo de tempo de interesse, e a suposio de estacionariedade
permite que usemos um modelo matemtico tratvel.
Exemplo 8.11. Mostre que o processo aleatrio X(t) = A cos(c t + ), onde uma
v.a. uniformemente distribuda na faixa (0, 2), um processo estacionrio no sentido
amplo.
Soluo. O conjunto da Figura 8.11 consiste de senides de amplitude A e freqncia
c constantes, mas a fase aleatria. Para qualquer funo amostra a fase pode ter
qualquer valor no intervalo (0, 2), com distribuio uniforme.
Pelo fato de ser uma v.a. uniformemente distribuda sobre a faixa (0, 2), podemos
determinar fX (x; t) e, portanto, E[X(t)].
Para este caso particular, entretanto, E[X(t)] pode ser determinada diretamente:
E[X(t)] = AE[cos(c t + )]
E como cos(c t + ) uma funo de uma v.a. , temos
E[cos(c t + )] =

cos(c t + )f () d
0

mas f () = 1/2 no intervalo (0, 2) e 0 fora dele, de modo que podemos reescrever a
equao acima como
1
E[cos(c t + )] =
2

cos(c t + ) d

162

Processos Estocsticos

Figura 8.11: Processo aleatrio X(t) = A cos(c t + ).


E portanto
E[X(t)] = 0
Desta forma, a mdia do conjunto das amplitudes das funes amostra em qualquer
instante t zero.
A funo de autocorrelao para este processo pode tambm ser determinada diretamente a partir da Equao 8.13


RX (t1 , t2 ) = E A2 cos(c t1 + ) cos(c t2 + )
= A2 E [cos(c t1 + ) cos(c t2 + )]

A2
E [cos[c (t1 t2 )] + cos[c (t1 + t2 ) + 2]]
2

onde usamos a seguinte propriedade: cos A cos B = 21 [cos(A B) + cos(A + B)].


O primeiro termo do lado direito no contm v.a.s, e desta forma
E[cos[c (t1 t2 )] = cos[c (t1 t2 )]
O segundo termo funo da v.a. , e sua mdia
1
E[cos[c (t1 + t2 ) + 2]] =
2
Portanto,

cos[c (t1 + t2 ) + 2]d = 0


0

Processos Estocsticos

163

RX (t1 , t2 ) =

A2
cos[c (t1 t2 )]
2

ou
RX ( ) =

A2
cos(c ),
2

= t1 t2

E portanto X(t) um processo estacionrio no sentido amplo.

Propriedades da funo de autocorrelao para processos estacionrios no


sentido amplo:
1. A funo de autocorrelao par: RX ( ) = RX ( )
Demonstrao. RX ( ) = E[X(t)X(t + )] RX ( ) = E[X(t)X(t )]

Fazendo = t , temos RX ( ) = E[X( + )X()] = RX ( )

2. RX (0) = E[X 2 ]
Demonstrao. RX (0) = E[X(t)X(t + 0)] = E[X(t)X(t)] = E[X 2 (t)] = E[X 2 ]

3. RX (0) 0
Demonstrao. RX (0) = E[X(t)X(t)] = E[X 2 (t)].
Desde que X 2 (t) 0, E[X 2 (t)] 0, devemos ter E[X 2 (t)] 0.
4. Se Z(t) = X(t) + Y (t) ento RZ ( ) = RX ( ) + RY ( ) + RXY ( ) + RY X ( )
Demonstrao.
RZ ( ) = E[Z(t)Z(t + )]
= E[(X(t) + Y (t))(X(t + ) + Y (t + ))]
= E[X(t)X(t + ) + X(t)Y (t + ) + Y (t)X(t + ) + Y (t)Y (t + )]
= RX ( ) + RXY ( ) + RY X ( ) + RY ( )

5. Se um processo estocstico tem um componente peridico, ento a funo de


autocorrelao tambm peridica:
X(t) = X(t + nT ) RX ( ) = RX ( + nT )

164

Processos Estocsticos

6. Se X(t) no tem componentes peridicos, ento


lim RX ( ) = E 2 [X]

Demonstrao. A demonstrao bastante complexa, mas podemos dar uma justificativa plausvel: se X(t) no tem componentes peridicos, ento podemos considerar que as variveis aleatrias em X(t) e X(t + ), so independentes.
Desta forma:
lim RX ( ) = E[X(t)X(t + )] = E[X(t)]E[X(t + )] = E 2 [X]

7. RX (0) |RX ( )|.


Demonstrao. E[(X(t) X(t + ))2 ] 0
Expandindo o quadrado, temos


E X 2 (t) 2X(t)X(t + ) + X 2 (t + ) 0
que pode ser reescrita em termos da funo de autocorrelao como
2RX (0) 2RX ( ) 0 RX (0) |RX ( )|

8.10.3

Processos ergdicos

At agora estudamos a mdia e a funo de autocorrelao de um processo aleatrio.


Estas so mdias de conjunto de algum tipo. Por exemplo, X(t) a mdia de conjunto das amplitudes das funes amostra em t, e a mdia de conjunto do produto
das amplitudes das funes amostra X(t1 ) e X(t2 ). Podemos tambm definir mdias
temporais para cada funo amostra.

Definio 8.17. A mdia temporal, X(t, i ), de uma funo amostra X(t, i ) dada
por
1
T T

X(t, i ) = lim

Similarmente, temos

T /2

T /2

X(t, i ) dt

Processos Estocsticos

165

Definio 8.18. A funo de autocorrelao temporal RX (, i ) dada por


1
RX (, i ) = X(t, i )X(t + , i ) = lim
T T

T /2

X(t, i ) X(t + , i ) dt
T /2

Agora temos condies para definir um processo ergdico.

Definio 8.19. Processos ergdicos so aqueles para os quais as mdias de conjunto


so iguais s mdias temporais de qualquer funo amostra. Ento para um processo
ergdico X(t)
E[X(t)] = X(t, i )
RX ( ) = RX (, i )
Estas so apenas duas das mdias possveis. Para um processo ergdico, todas as
possveis mdias de conjunto so iguais s mdias temporais correspondentes de uma de
suas funes amostra. Pelo fato de uma mdia temporal no poder ser uma funo do
tempo, evidente que um processo ergdico necessariamente um processo estacionrio,
mas o inverso no verdadeiro. Na Figura 8.12 tem-se um diagrama com a classificao
dos processos estocsticos quanto estacionariedade e ergodicidade.

processos estocsticos
estacionrios no sentido amplo
estacionrios no sentido estrito
ergdicos

Figura 8.12: Classificao dos processos estocsticos.


A exemplo da estacionariedade, difcil testar se um processo ergdico ou no,
pois precisamos testar as mdias de conjunto e temporais para todas as ordens possveis.
Contudo, na prtica muitos dos processos estacionrios so usualmente ergdicos com
relao pelo menos s estatsticas de segunda ordem, tais como a mdia e a funo de
autocorrelao.
Exemplo 8.12. Mostre que o processo do exemplo anterior ergdico para estatsticas
de at segunda ordem.

166

Processos Estocsticos

Soluo.
1
X(t) = lim
T T
1
T T

= lim
=0

Z
Z

T /2

X(t) dt
T /2
T /2

A cos(c t + ) dt
T /2

RX ( ) = X(t)X(t + )

= A2 cos(c t + ) cos(c (t + ) + )
i
A2 h
cos(2c t + c + 2) + cos(c )
=
2
i
A2 h
cos(2c t + c + 2) + cos(c )
=
2
A2
cos(c )
=
2

Exemplo 8.13. O conceito de ergodicidade pode ser explicado por um exemplo simples
de semforos de trnsito em uma cidade.
Suponha que uma cidade bem planejada, com todas as suas ruas nas direes
norte-sul e leste-oeste, e com semforos em cada inteserco. Assuma que cada semforo permanea verde 0,75 minutos na direo leste-oeste e 0,25 minutos na direo
norte-sul, e que a mudana em um semforo independente de outro.
Se consideramos uma certa pessoa dirigindo um carro e que chega a um semforo
aleatoriamente na direo leste-oeste a probabilidade de encontrar um farol verde ser
de 0,75, ou seja, na mdia, 75% do tempo ele ir observar uma luz verde.
Por outro lado, se considerarmos um grande nmero de motoristas que chegam aleatoriamente em um semforo na direo leste-oeste simultaneamente em algum instante
t, ento 75% dos motoristas ir encontrar um farol verde, e os 25% restantes iro encontrar um farol vermelho.
Ento, a experincia de um nico motorista chegando aleatoriamente vrias vezes
em um farol ir conter a mesma informao estatstica (estatsticas de funes amostra)
da experincia de um grande nmero de motoristas chegando simultaneamente em vrios
semforos (estatsticas de conjunto para um dado instante).

A noo de ergodicidade extremamente importante, porque na prtica no temos


um grande nmero de funes amostra disponvel para calcular estatsticas de conjunto.
Se sabemos que um processo ergdico, ento precisamos apenas de uma funo amostra
para calcular as estatsticas de conjunto.

8.11

Exerccios

1. Seja o processo estocstico definido por


x(t) = ax + b

Processos Estocsticos

167

onde b uma constante e a uma varivel aleatria uniformemente distribuda


na faixa (0,100).
(a) Esboce o conjunto deste processo.
(b) Apenas observando o conjunto, determine se este um processo estocstico
estacionrio ou no estacionrio. Justifique sua resposta.
2. Desenhe algumas funes amostra do processo estocstico definido por
x(t) = A cos(t + )
(a) Se A a varivel aleatria uniformemente distribuda na faixa (-1,1).
(b) Se a varivel aleatria uniformemente distribuda na faixa (0,10).
(c) Se a varivel aleatria uniformemente distribuda na faixa (, ).
3. Mostre que para o processo
x(t) = k cos(0 t + )
onde uma varivel aleatria uniformemente distribuda sobre o intervalo (0, 2),
a funo de autocorrelao temporal dada por
RX ( ) = x(t)x(t + ) =

k2
cos(0 )
2

4. Para o processo estocstico


x(t) = sen(t + )
onde e so constantes e uma varivel aleatria qualquer:
(a) Calcule a mdia, a funo de autocorrelao e a funo de autocovarincia.
(b) Este processo estacionrio no sentido amplo?
Resp:
(a) E[X(t)] = E[] sen(t + )
RX (t1 , t2 ) = E[ 2 ] sen(t1 + ) sen(t2 + )
KX ( ) = 2 sen(t1 + ) sen(t2 + )
(b) no


5. Encontre uma expresso para E (Xt2 Xt1 )2 em termos da funo de autocorrelao.
Resp: E[(Xt2 Xt1 )2 ] = RX (t2 , t2 ) 2RX (t2 , t1 ) + RX (t1 , t1 )

6. No receptor de um rdio AM, o sinal recebido contm uma portadora cossenoidal


com frequncia fc e fase aleatria que uniformemente distribuda no intervalo
[0, 2]. O sinal de portadora recebido
X(t) = A cos(2fc t + )

168

Processos Estocsticos

(a) Determine o valor esperado e a funo de autocorrelao do processo X(t).


(b) Este processo estacionrio no sentido amplo?
Resp:
(a) E[X(t)] = 0
RX (t1 , t2 ) =
(b) sim

A2
cos(2fc (t1 t2 ))
2

7. Seja o processo estocstico


x(t) = A cos(t + )
onde e so constantes e A uma varivel aleatria uniformemente distribuda
no intervalo (-1,1).
(a) Esboce o conjunto deste processo.
(b) Apenas pela observao do conjunto, determine se este processo estacionrio ou no estacionrio. Justifique sua resposta.
Resp:
(a)
(b) No. Em t + = /2 + n, o processo vale 0. Nos demais pontos, vale
A cos(t + )
8. Seja o processo estocstico definido por
X(t) = A cos t + B sen t
onde A e B so v.a.s iid de mdia zero.
(a) Mostre que X(t) estacionrio no sentido amplo.
(b) Mostre que X(t) no estacionrio no sentido estrito. Dica: Considere
E[X 3 (t)].
Resp:
(a) E[X(t)] = 0
RX (t1 , t2 ) = E[A2 ] cos((t1 t2 ))

(b) E[X 3 (t)] = E[A3 ](cos3 (t) + sen3 (t))


9. Seja um processo estocstico X(t) dado por
X(t) = Y cos t, t 0
onde uma constante e Y uma v.a. distribuda uniformemente no intervalo
(0, 1). Para este processo, calcule:

Processos Estocsticos

169

(a) A mdia E[X(t)].


(b) A funo de autocorrelao RX (t1 , t2 ).
(c) A funo de autocovarincia KX (t1 , t2 ).
(d) Este processo estacionrio?
Resp:
1
cos(t)
2
1
(b) RX (t1 , t2 ) = cos(t1 ) cos(t2 )
3
1
(c) KX (t1 , t2 ) =
cos(t1 ) cos(t2 )
12
(d) no
(a) E[X(t)] =

10. Em uma linha de produo de resistores de 1000, a resistncia real de cada resistor uma varivel aleatria R com distribuio uniforme entre 950 e 1050.
Assuma que os valores das resistncias dos diferentes resistores so independentes.
A companhia tem uma encomenda de resistores de 1% de tolerncia (resistncias
entre 990 e 1010). Um testador automtico toma um resistor por segundo e
mede sua resistncia exata (este teste demora 1 segundo). O processo estocstico
N (t) denota o nmero de resistores com tolerncia de 1% encontrados em t segundos. A varivel aleatria Tr segundos o tempo decorrido at encontrarmos r
resistores com tolerncia de 1%.
(a) Calcule p, a probabilidade de um resistor ter tolerncia de 1%.
(b) Qual a fmp de N (t)?
(c) Calcule E[T1 ], o tempo esperado para encontrar o primeiro resistor com
tolerncia de 1%.
(d) Qual a probabilidade de o primeiro resistor com tolerncia de 1% ser encontrado em exatamente 5 segundos?
(e) E[T2 |T1 = 10], a esperana condicional do tempo necessrio para encontrar
o segundo resistor com tolerncia de 1%, dado que o primeiro foi encontrado
em 10 segundos.
Resp:
(a) 0.2
(b) pN (t) (n) =

( 
t

pn (1 p)tn , n = 0, 1, . . . , t
0,
caso contrrio
n

(c) 5
(d) (0, 8)4 (0, 2) 0, 08192
(e) 15

170

Processos Estocsticos

11. Para uma sequncia de variveis aleatrias Gaussianas iid Xn de mdia zero e
varincia unitria, encontre a fdp conjunta de X1 , . . . , Xm .
2
2
1
e(x1 ++xm )/2
Resp: fX(1),...,X(m) (x1 , . . . , xm ) =
m/2
(2)
12. Pacotes de dados transmitidos por um modem sobre uma linha telefnica formam
um processo de Poisson de taxa 10 pacotes/segundo. Usando Mk para denotar o
nmero de pacotes transmitidos na k-sima hora, encontre a fmp conjunta de M1
e M2 .
m1 +m2 2
e

, m1 = 0, 1, . . . ; m2 = 0, 1, . . .
Resp: pM1 ,M2 (m1 , m2 ) =
m1 !m2 !

0,
caso contrrio
13. Seja X(t) um processo movimento Browniano com varincia Var[X(t)] = t.

Mostre que Y (t) = X(t)/ um processo movimento Browniano com varincia


Var[Y (t)] = t.

14. Sejam dois processos estocsticos X(t) e Y (t) dados por:


X(t) = A cos(t + )

Y (t) = A sen(t + )

onde A e so constantes e uma v.a. com distribuio uniforme no intervalo


0, 2. Calcule RXY ( ), RY X ( ), e mostre que RXY ( ) = RY X ( ).
Resp:
A2
sen((t2 t1 ))
2
A2
sen((t2 t1 ))
RY X (t1 , t2 ) =
2

RXY (t1 , t2 ) =

15. Seja X(t) um processo estacionrio no sentido estrito.


(a) Y (t) = X(t + a) tambm um processo estocstico estacionrio?
(b) Z(t) = X(at), a 6= 0, tambm um processo estocstico estacionrio?
Justifique suas respostas.
Resp: (a) sim (b) sim.
16. Considere um processo estocstico X(t) definido por
X(t) = U cos t + V sen t,

< t <

onde U e V so variveis aleatrias independentes, e cada uma assume os valores


-2 e 1 com probabilidades 1/3 e 2/3, respectivamente.
(a) Calcule E[X(t)].
(b) Calcule RX (t1 , t2 ).
(c) Este processo estacionrio no sentido amplo?

Processos Estocsticos

Resp: (a) 0

171

(b) 2 cos(t2 t1 )

(c) sim.

17. Pacientes chegam a um consultrio de acordo com um Processo de Poisson de


taxa = 1/10 pacientes por minuto. O doutor no ir atender um paciente at
que pelo menos trs pacientes estejam na sala de espera.
(a) Encontre o tempo mdio de espera at que o primeiro paciente seja admitido
pelo doutor.
(b) Qual a probabilidade de que ningum seja atendido na primeira hora?
Resp: (a) 30 minutos (b) 25 e6
18. Considere o processo estocstico X(t) = Y cos(t), t 0, onde uma constante,
e Y uma varivel aleatria uniformemente distribuda no intervalo (0, 1).
(a) Calcule a mdia E[X(t)].
(b) Calcule a funo de autocorrelao RX (t1 , t2 ).
(c) Calcule a funo de autocovarincia KX (t1 , t2 ).
(d) Este processo estacionrio no sentido amplo? Justifique sua resposta.
Resp: (a)
(d) no

1
cos(t)
2

(b)

1
cos(t1 ) cos(t2 )
3

(c)

1
cos(t1 ) cos(t2 )
12

19. Um processo estocstico v(t) formado pela soma de um processo estocstico


estacionrio no sentido amplo (t) com um processo determinstico s(t) = S0 et .
v(t) estacionrio no sentido amplo? Justifique sua resposta.
Resp: no.
20. Seja um processo estocstico v(t) = (t) + , onde (t) um processo estocstico
ergdico, e uma varivel aleatria. Verifique se v(t) ou no estacionrio no
sentido amplo.
Resp: sim.
21. Suponha que uma secretria receba chamadas que chegam de acordo com um
processo de Poisson a uma taxa de 10 chamadas por hora. Qual a probabilidade
de a secretria atender a todas as chamadas, dado que ela est fora de seu escritrio
nos 15 minutos iniciais e finais de cada hora?
Resp: e5 .
22. Considere os seguintes processos autorregressivos:

Wn = 2Wn1 + Xn , W0 = 0
Zn =

1
Zn1 + Xn , Z0 = 0
2

172

Processos Estocsticos

Encontre Wn e Zn em termos de Xn , Xn1 , . . . , X1 , e ento encontre E[Wn ] e


E[Zn ].
Resp:
Wn =
Zn =

Pn

ni X
n
i=1 2
Pn 1 ni
Xn
i=1 2

E[Wn ] = (2n 1)E[X]

E[Zn ] = 2(1 (1/2)n1 )E[X]

23. Seja Z1 , Z2 , . . . , Zn um conjunto de variveis aleatrias iid, com P [Zn = 1] = p e


P [Zn = 1] = q = 1 p para todo n. Seja
Xn =

n
X

Zi , n = 1, 2, . . .

i=1

e X0 = 0. A coleo de variveis aleatrias {Xn , n 0} um processo aleatrio,


conhecido como caminhada aleatria simples em uma dimenso X(n).
(a) Construa uma sequncia amostral tpica de X(n).
(b) Sabendo que para este processo, a fdp de primeira ordem dada por:
pn (k) =


n
p(n+k)/2 q (nk)/2
(n + k)/2

calcule a probabilidade de X(n) = 2 depois de 4 passos.

(c) Comprove o resultado do item b) enumerando todas as sequncias possveis


que levam ao valor X(n) = 2 depois de 4 passos.
Resp: P [X(4) = 2] = 4pq 3
24. Seja Xn , n 0 uma sequncia de variveis aleatrias iid com mdia 0 e varincia
1. Mostre que {Xn , n 0} um processo estacionrio no sentido amplo.

Captulo 9

Processamento de Sinais Aleatrios


Neste captulo vamos utilizar os modelos do Captulo 8 para representar sinais eltricos
como funes amostra de processos estocsticos estacionrios no sentido amplo. Usamos
esta representao para descrever os efeitos de filtros lineares. Em particular vamos
derivar a funo de autocorrelao do processo estocstico na sada de um filtro em
termos da funo de autocorrelao do processo de entrada e da resposta a impulso do
filtro. Vamos definir tambm a funo espectro densidade de potncia de um processo
estocstico.

9.1

Sistemas lineares e invariantes no tempo

Antes de entrarmos no escopo da matria, vamos definir alguns conceitos essenciais


compreenso do assunto:
Definio 9.1. Linearidade: Um sistema linear se atende ao Teorema da Superposio, isto
T [ax1 (t) + bx2 (t)] = aT [x1 (t)] + bT [x2 (t)]

(9.1)

onde x1 (t) e x2 (t) so sinais de entrada arbitrrios, e a e b so constantes arbitrrias.

Definio 9.2. Invarincia no Tempo: Se y(t) a resposta entrada x(t), ento


o sistema dito invariante no tempo se para x(t ) temos y(t ).

Definio 9.3. Resposta Impulsiva: A resposta impulsiva h(t) de um sistema


linear e invariante no tempo definida por
h(t) = T [(t)]
onde (t) uma funo impulso unitrio aplicada no intstante t = 0.

(9.2)

174

Processamento de Sinais Aleatrios

A resposta do sistema para uma entrada arbitrria x(t) ento a convoluo de x(t)
com h(t):
y(t) = h(t) x(t) =

h(s)x(t s) ds =

para sinais contnuos no tempo, e


y[n] = h[n] x[n] =

j=

h[j]x[n j] =

j=

h(t s)x(s) ds

(9.3)

h[n j]x[j]

(9.4)

para sinais discretos no tempo.

Definio 9.4. Causalidade: Um sistema causal se a resposta no instante t


depende apenas de valores de entrada passados, isto , se
h(t) = 0,

9.2

(9.5)

t < 0

Filtragem linear de um processo estocstico

Em muitas aplicaes de processamento de sinais interessante representar os sinais


como funes amostra de um processo estocstico. Nestas aplicaes, impossvel saber
antecipadamente qual sinal ir aparecer. Entretanto, podemos obter informaes sobre
os modelos probabilsticos destes sinais. Nas aplicaes mais frequentes, os processos
estocsticos so estacionrios no sentido amplo, e desta forma as informaes disponveis
consistem das estatsticas de primeira e segunda ordem, ou seja, a fdp ou fmp fX (x) e
a funo de autocorrelao RX ( ).
Consideremos um filtro linear invariante no tempo com resposta a impulso h(t). Se
a entrada um sinal determinstico v(t), a sada w(t) dada pela integral de convoluo
Z
h(u)v(t u) du
(9.6)
w(t) =

Esta relao pode tambm ser expressa no domnio da frequncia em termos da


transformada de Fourier.

Definio 9.5. Transformada de Fourier. As funes g(t) e G(f ) so chamadas


de um par de transformadas de Fourier se
Z
Z
G(f ) ej2f t df
(9.7)
g(t) ej2f t dt
g(t) =
G(f ) =

Se um filtro linear tem resposta a impulso h(t), a transformada de Fourier H(f )


chamada de resposta em frequncia do filtro. A convoluo entre a entrada v(t) do
filtro e a sua resposta a impulso h(t) no domnio do tempo torna-se uma multiplicao
o domnio da frequncia, isto , se v(t) a entrada de um filtro linear invariante no

Processamento de Sinais Aleatrios

175

tempo com resposta a impulso h(t), a transformada de Fourier da sada do filtro W (f ),


est relacionada transformada da entrada, V (f ) e resposta em frequncia do filtro
H(f ) por
(9.8)

W (f ) = H(f )V (f )

Se as possveis entradas do filtro so funes amostras de um processo estocstico


X(t), ento para uma entrada particular x(t; s), a sada ser dada pela convoluo
y(t, s) =

(9.9)

h(u)x(t u; s) du

Pelo fato de y(t; s) estar associada a um resultado s de um experimento, y(t; s)


uma funo amostra de um processo estocstico Y (t). Portanto, o modelo de filtragem
linear completo consiste dos seguintes passos
Realizao do experimento e observao de um resultado s.
Para o processo estocstico X(t) estacionrio no sentido amplo, usa-se a funo
amostra x(t; s) como entrada para um filtro linear invariante no tempo com resposta a impulso h(t).
Observao da sada y(t; s) do filtro.
Definio 9.6. Processo de sada de um filtro linear invariante no tempo.
X(t) a entrada de um filtro linear invariante no tempo com resposta a impulso
h(t), e Y (t) a sada se todas as entradas do filtro so funes amostra de X(t) e
as sadas so funes amostra de Y (t). Y (t) est relacionado com X(t) pela integral
de convoluo
Z
Z
h(t u)X(u) du
(9.10)
h(u)X(t u) du =
Y (t) =

A notao matemtica da Definio 9.6 indica que a v.a. Y (t0 ) =

h(t0

u) X(u) du uma funo de todas as v.a.s X(u), para < u < . Desde que Y (t0 )
uma v.a., tem valor esperado
E[Y (t0 )] = E

Z

h(u)X(t0 u) du

Para avaliar o valor esperado desta integral, lembremos que esta corresponde ao
limite
Y (t0 ) = lim

X
n

h(n)X(t0 n)

Desde que a esperana da soma igual soma das esperanas, temos para valores
pequenos de ,

176

Processamento de Sinais Aleatrios

E[Y (t0 )] E

"

X
n

h(n)X(t0 n) =

Isto sugere que medida que 0, temos


E[Y (t0 )] = E

Z

h(u)X(t0 u) du =

X
n

h(n)E[X(t0 n)]

h(u)E[X(t0 u)]du

(9.11)

Embora o argumento acima no seja uma prova, contm a idia bsica que uma
integral o limite de uma soma a qual podemos trocar de posio com a esperana. O
seguinte Teorema usa a Equao (9.11) para relacionar o valor mdio Y e a funo de
autocorrelao RY ( ) com h(t) e os parmetros correspondentes de X(t).

Teorema 9.1. Se a entrada de um filtro linear invariante no tempo com resposta a


impulso h(t) um processo estacionrio no sentido amplo X(t), a sada um processo
estacionrio no sentido amplo Y (t) com valor mdio e funo de autocorrelao dados
por
Z
h(t) dt = X H(0)
(9.12)
Y = X

RY ( ) =

h(u)

(9.13)

h(v)RX ( + u v) dvdu

Demonstrao. Primeiramente, observemos que a mdia de Y (t)


 Z
Z
h(u)E[X(t u)]du
h( )X(t ) d =
Y = E

Desde
Z que E[X(t)] = X para todo t (pois X(t) estacionrio no sentido amplo),
Y =
h(u)X du = X H(0). Para encontrar RY (t, ) = E[Y (t)Y (t + )], usamos

a Definio 9.6 para escrever

RY (t, ) = E

Z

h(u)X(t u) du

h(u)

h(v)X(t + v) dv

h(v)E[X(t u)X(t + v)]dvdu

Como X(t) estacionrio no sentido amplo, E[X(tu)X(t+ v)] = RX ( v +u)


de modo que
Z
Z
h(v)RX ( v + u) dvdu
h(u)
RY (t, ) = RY ( ) =

Processamento de Sinais Aleatrios

177

Quando a entrada e a sada de um filtro so determinsticas, a relao no domnio da


frequncia W (f ) = H(f )V (f ) avaliada em f = 0 leva a W (0) = H(0)V (0). Para sinais
determinsticos, V (0) e W (0) so conhecidas como as componentes DC (frequncia zero)
de v(t) e w(t).
Por analogia, podemos interpretar a Equao (9.12) no Teorema 9.1 chamando X
e Y de componentes DC dos processos X(t) e Y (t).
A interpretao da segunda parte do Teorema 9.1 menos direta. Alm disso,
usando o Teorema 9.1 para calcular RY ( ) a partir de RX ( ) e h(u) extremamente
difcil. Neste caso, mais fcil trabalhar no domnio da frequncia.

Exemplo 9.1. X(t), um processo estocstico estacionrio no sentido amplo com valor
esperado X = 10 volts, a entrada de um filtro linear invariante no tempo. A resposta
a impulso do filtro

h(t) =

et/0,2
0

0 t 0, 1
caso contrrio

Qual o valor esperado do processo Y (t) de sada do filtro?


Soluo. Aplicando o Teorema 9.1 temos

Y = X

9.3

h(t) dt = 10

0,1
0

0,1

et/0,2 dt = 2 et/0,2 = 2(e0,5 1) = 1, 30 volts
0

Espectro densidade de potncia

Assim como para sinais determinsticos, instrutivo considerar a filtragem linear de


processos estocsticos no domnio da frequncia.

Definio 9.7. Espectro densidade de potncia. Para um processo estocstico


X(t) estacionrio no sentido amplo, a funo de autocorrelao e o espectro densidade
de potncia SX (f ) so o par de transformadas de Fourier
Z
Z
j2f
SX (f )ej2f df
RX ( )e
d
RX ( ) =
SX (f ) =

Pelo fato de SX (f ) e RX ( ) serem um par de transformadas de Fourier, se tivermos a


expresso de uma, podemos sempre derivar a expresso da outra. O espectro densidade
de potncia tem algumas propriedades importantes.

178

Processamento de Sinais Aleatrios

Teorema 9.2. Para um processo estocstico X(t) estacionrio no sentido amplo, o


espectro densidade de potncia SX (f ) tem as seguintes propriedades:
Z
2
SX (f ) df
a) E[X (t)] = RX (0) =

b) SX (f ) = SX (f )

Demonstrao. A primeira propriedade demonstrada considerando = 0 para RX ( )


na Definio 9.7.
Para provar a segunda propriedade, observemos que RX ( ) = RX ( ) implica
Z
RX ( )ej2f d
SX (f ) =

Fazendo

= temos

SX (f ) =

j2f ( )

RX ( )e

(d ) =

RX ( )ej2(f ) d = SX (f )

Quando interpretamos E[X 2 (t)] como a potncia mdia de X(t), a primeira parte do
Teorema 9.2 sugere que SX (f ) uma medida da potncia por unidade de frequncia de
X(t). Quando passamos X(t) atravs de um filtro linear h(t), encontramos o espectro
densidade de potncia de Y (t).

Teorema 9.3. Quando um processo X(t) estacionrio no sentido amplo a entrada


de um filtro linear invariante no tempo com resposta em frequncia H(f ), a densidade
espectral de potncia da sada Y (t)
SY (f ) = |H(f )|2 SX (f )

(9.14)

Demonstrao. Do Teorema 9.1, podemos escrever



Z Z Z
SY (f ) =
h(u)h(v)RX ( + v u) dudv ej2f d

Fazendo

= + v u temos

SY (f ) =

j2f u

h(u)e
|
{z

H(f )

= |H(f )| SX (f )

j2f v

h(v)e
du
} | {z

H (f )

dv
RX ( )ej2f d

}|
{z
}
SX (f )

Processamento de Sinais Aleatrios

179

Estamos prontos agora para fazer novas interpretaes sobre o espectro densidade
de potncia. Como mostrado na Figura 9.1, suponha que H(f ) um filtro passa faixa
ideal com largura de banda B centrada em f0 , isto
(
1 |f f0 | B/2
H(f ) =
0 caso contrrio
H(f )
B
1

f0

f0

Figura 9.1: Filtro passa faixa ideal H(f ) com frequncia central f0 e largura de banda
B Hz.
Neste caso, se passamos um processo estocstico X(t) atravs do filtro H(f ) teremos
na sada uma forma de onda Y (t) que est na banda de passagem do filtro H(f ). Como
mostrado acima, o espectro densidade de potncia da sada do filtro
SY (f ) = |H(f )|2 SX (f )
Alm disso, a potncia mdia de Y (t) satisfaz
E[Y 2 (t)] =

SY (f ) df =

f0 +B/2

SX (f ) df +
f0 B/2

f0 +B/2

SX (f ) df

f0 B/2

Desde que SX (f ) = SX (f ), quando B pequeno, temos1


E[Y 2 (t)] 2BSX (f0 )

(9.15)

Podemos ver que a potncia mdia da sada do filtro aproximadamente o espectro


densidade de potncia da entrada na frequncia central do filtro vezes a largura de faixa
do filtro. Desta forma podemos concluir que SX (f0 ) caracteriza a potncia por unidade
de frequncia de X(t) nas frequncias prximas de f0 .
Alm disso, E[Y 2 (t)] 0 para qualquer frequncia f0 e largura de banda B no
nula. No limite para B arbitrariamente pequeno, a aproximao da Equao (9.15)
torna-se uma igualdade. Isto implica que BSX (f0 ) 0 para todo B no nulo. Segue
ento que SX (f ) 0 para todo f . Embora este argumento no seja uma prova, fornece
uma intuio para o seguinte teorema:

Teorema 9.4. Para um processo estocstico X(t) estacionrio no sentido amplo, o


espectro densidade de potncia SX (f ) 0 para todo f .
1

SX (f ) aproximadamente constante quando B pequeno.

180

Processamento de Sinais Aleatrios

Exemplo 9.2. Um processo estacionrio X(t) no sentido amplo com funo de autocorrelao RX ( ) = eb| | aplicado a um filtro RC com resposta a impulso
(
et/(RC) t 0
h(t) =
0
caso contrrio
Assumindo que b > 0 e b 6= 1/(RC), encontre SY (f ) e RY ( ) da sada Y (t) do
filtro. Qual a potncia mdia do processo estocstico na sada do filtro?
Soluo. Por convenincia, faamos a = 1/(RC). Desta forma, a funo de transferncia do filtro
Z
1
eat ej2f t dt =
H(f ) =
a + j2f
0
Portanto

|H(f )|2 = H(f )H (f ) =

1
1
1
= 2
a + j2f a j2f
a + (2f )2

O espectro densidade de potncia do sinal de entrada

SX (f ) =
=

Z 0

eb| | ej2f d
b j2f

e e

d +

eb ej2f d

1
1
+
b j2f
b + j2f
2b
=
(2f )2 + b2

Usando o Teorema 9.3, escrevemos


SY (f ) =

2b
2b/(b2 a2 ) 2b/(b2 a2 )
=

[(2f )2 + a2 ][(2f )2 + b2 ]
(2f )2 + a2
(2f )2 + b2

onde a ltima igualdade foi obtida atravs de fraes parciais.


Reconhecendo que para qualquer constante c > 0, ec| | e 2c/((2f )2 + c2 ) so pares
de transformadas de Fourier, obtemos a expresso para a funo de autocorrelao de
Y (t)
RY ( ) =

1
b/a a| |
e
2
eb| |
2
a
b a2

b2

A potncia mdia obtida pelo Teorema 9.2


E[Y 2 (t)] = RY (0) =

b/a 1
1
=
2
2
b a
a(b + a)

Processamento de Sinais Aleatrios

9.4

181

Correlaes cruzadas

Vimos que qundo passamos um processo estocstico X(t) atravs de um filtro linear
H(f ), a sada Y (t) um novo processo estocstico. Para duas v.a.s X e Y , a fdp ou
fmp conjunta um modelo de probabilidade completo. Para dois processos estocsticos
X(t) e Y (t), um modelo de probabilidade completo consiste de uma fdp ou fmp conjunta
das v.a.s

X(t1 ), X(t2 ), . . . , X(tn ), Y (t1 ), Y (t2 ), . . . , Y (tk )

para todo n, k, t1 , t2 , . . . , tn e t1 , t2 , . . . , tk . Tal funo de probabilidade conjunta contm


informao suficiente para responder qualquer questo de engenharia sobre os processos
estocsticos combinados X(t) e Y (t). Entretanto, encontrar e trabalhar com tal funo
em geral extremamente custoso e difcil. A exceo principal o caso de processos
independentes.

Definio 9.8. Processos independentes. Os processos estocsticos X(t) e Y (t)


so independentes se para qualquer coleo de amostras de tempo, t1 , t2 , . . . , tn e

t1 , t2 , . . . , tm

fX(t1 ),...,X(tn ),Y (t ),...,Y (t ) (x1 , . . . , xn , y1 , . . . , ym )


1

= fX(t1 ),...,X(tn ) (x1 , . . . , xn )fY (t ),...,Y (t ) (y1 , . . . , ym )


1

9.4.1

Funo de correlao cruzada

Para obter ferramentas teis para analisar um par de processos dependentes, lembremos
que a covarincia e a correlao de um par de v.a.s fornecem informaes valiosas sobre
a relao entre as v.a.s. Portanto, para os processos X(t) e Y (t), trabalhamos com a
correlao e a covarincia das v.a.s X(t) e Y (t + ). Desde que as v.a.s dependem das
suas variveis temporais t e , a correlao das duas variveis uma funo do tempo.

Definio 9.9. Funo de correlao cruzada. A correlao cruzada dos processos X(t) e Y (t) dada por
RXY (t, ) = E[X(t)Y (t + )]

Definida a correlao cruzada, vamos agora apresentar dois conceitos importantes


no estudo dos processos estocsticos:

182

Processamento de Sinais Aleatrios

Definio 9.10. Processos descorrelacionados. Dois processos X(t) e Y (t),


estacionrios no sentido amplo, so ditos descorrelacionados se sua funo de correlao cruzada igual ao produto de suas mdias, isto
RXY ( ) = X(t)Y (t + ) = X Y

Isto implica que as v.a.s x(t) e y(t + ) so descorrelacionadas para todo t e .

Definio 9.11. Processos incoerentes ou ortogonais. Dois processos X(t) e


Y (t), estacionrios no sentido amplo, so ditos incoerentes ou ortogonais se
RXY ( ) = 0

Observe que os processo ortogonais so processos descorrelacionados com X = 0


e/ou Y = 0.
Assim como para a autocorrelao, existem muitas aplicaes prticas nas quais a
correlao cruzada depende somente da diferena entre dois instantes de tempo .

Definio 9.12. Processos conjuntamente estacionrios no sentido amplo.


Os processos estocsticos X(t) e Y (t) so conjuntamente estacionrios no sentido
amplo se cada um deles estacionrio no sentido amplo, e a correlao cruzada
satisfaz
RXY (t, ) = RXY ( )

Propriedades da funo de correlao cruzada


Vimos anteriormente que a funo de autocorrelao par, ou seja, RX ( ) = RX ( ).
A correlao cruzada de processos estocsticos conjuntamente estacionrios tem uma
simetria ligeiramente diferente:

Teorema 9.5. Se X(t) e Y (t) so conjuntamente estacionrios no sentido amplo


ento
RXY ( ) = RY X ( )

Demonstrao. Da Definio 9.9, RXY ( ) = E[X(t)Y (t + )]. Fazendo u = t + , temos

Processamento de Sinais Aleatrios

183

RXY ( ) = E[X(u )Y (u)] = E[Y (u)X(u )] = RY X (u, )


Desde que X(t) e Y (t) so conjuntamente estacionrios no sentido amplo, podemos
concluir que RY X (u, ) = RY X ( )

Teorema 9.6. Se X(t) e Y (t) so conjuntamente estacionrios no sentido amplo


ento
|RXY ( )| {RX (0)RY (0)}1/2
Demonstrao. Usando a Desigualdade de Cauchy-Schwarz (Equao (3.34)), segue que
{E[X(t)Y (t + )]}2 E[X 2 (t)]E[Y 2 (t + )]
Reescrevendo esta equao em termos da funo de autocorrelao, temos:
[RXY ( )]2 RX (0)RY (0) |RXY ( )|

RX (0)RY (0)

Teorema 9.7. Se X(t) e Y (t) so conjuntamente estacionrios no sentido amplo


ento
|RXY ( )|

1
[RX (0) + RY (0)]
2

Demonstrao.


E [X(t) Y (t + )]2 0

Expandindo o quadrado, temos



E X 2 (t) 2X(t)Y (t + ) + Y 2 (t + ) 0




E X 2 (t) 2E [X(t)Y (t + )] + E Y 2 (t + ) 0

Reescrevendo esta equao em termos das funes de autocorrelao e correlao cruzada, temos
RX (0) 2RXY ( ) + RY (0) 0 RXY ( )

1
[RX (0) + RY (0)]
2

184

Processamento de Sinais Aleatrios

Teorema 9.8. Se X e Y so v.a.s independentes, ento


RXY ( ) = RY X ( ) = X Y

Demonstrao.
RXY ( ) = E[X(t)Y (t + )]
Como X e Y so independentes, podemos escrever

E[X(t)Y (t + )] = E[X(t)]E[Y (t + )] = X Y

9.4.2

Densidade espectral cruzada

Quando X(t) e Y (t) so conjuntamente estacinrios no sentido amplo, podemos estudar


a correlao cruzada no domnio da frequncia.

Definio 9.13. Densidade espectral cruzada. Para processos X(t) e Y (t) conjuntamente estacinrios no sentido amplo, a transformada de Fourier da correlao
cruzada leva densidade espectral cruzada
Z
RXY ( )ej2f d
SXY (f ) =

Como a densidade espectral cruzada a transformada de Fourier da funo de


correlao cruzada, podemos mostrar o seguinte teorema:

Teorema 9.9. Para os processos X(t) e Y (t) conjuntamente estacionrios no sentido


amplo, a densidade espectral cruzada apresenta a seguinte simetria
SXY (f ) = SY X (f )

Encontramos correlaes cruzadas em experimentos que envolvem observaes ruidosas de um processo estocstico X(t) estacionrio no sentido amplo.

Processamento de Sinais Aleatrios

185

Exemplo 9.3. Suponha que estejamos interessados em X(t) mas s podemos observar
Y (t) = X(t) + N (t)
onde N (t) um processo estacionrio no sentido amplo com mdia zero, que interfere
com nossa observao de X(t). Assumimos que X(t) e N (t) so conjuntamente estacionrios no sentido amplo. Para caracterizar Y (t), encontre a mdia E[Y (t)], a funo
de autocorrelao RY ( ), e o espectro densidade de potncia SY (f ).
Soluo. Desde que o valor esperado de uma soma igual soma dos valores esperados,
E[Y (t)] = E[X(t)] + E[N (t)] = E[X(t)]
desde que E[N (t)] = 0 (dado do problema).
Para a funo de autocorrelao, temos
RY (t, ) = E[Y (t)Y (t + )]
= E[(X(t) + N (t))(X(t + ) + N (t + ))]
= RX ( ) + RXN (t, ) + RN X (t, ) + RN ( )
Quando X(t) e N (t) so conjuntamente estacionrios no sentido amplo RXN (t, ) =
RXN ( ) e RN X (t, ) = RN X ( ). Ento podemos reescrever a equao acima como
RY (t, ) = RX ( ) + RXN ( ) + RN X ( ) + RN ( )
O lado direito desta equao indica que RY (t, ) depende somente de . Isto implica
que Y (t) estacionrio no sentido amplo com funo de autocorrelao RY (t, ) =
RY ( ). Tomando a transformada de Fourier de ambos os lados, obtemos a densidade
espectral de potncia de Y (t)
SY (f ) = SX (f ) + SXN (f ) + SN X (f ) + SN (f )

Exemplo 9.4. Continuando o Exemplo 9.3, suponha que N (t) seja um processo de
mdia zero, independente de X(t). Encontre a funo de autocorrelao e a densidade
espectral de potncia da observao Y (t).
Soluo. Neste caso,
RXN (t, ) = E[X(t)N (t + )] = E[X(t)]E[N (t + )] = 0
Similarmente, RN X (t, ) = 0. Isto implica
RY ( ) = RX ( ) + RN ( )
SY (f ) = SX (f ) + SN (f )

186

9.4.3

Processamento de Sinais Aleatrios

Filtragem de processos estocsticos

A funo de autocorrelao e a densidade espectral de potncia so particularmente teis


na caracterizao da entrada e sada de um filtro linear invariante no tempo. Quando
X(t) e Y (t) so os processos de entrada e sada de um filtro linear invariante no tempo
h(t), podemos usar a Definio 9.6 para calcular a correlao cruzada RXY (t, ).

Teorema 9.10. Quando um processo X(t) estacionrio no sentido amplo a entrada


de um filtro linear invariante no tempo h(t), a correlao cruzada entre entrada e
sada dada por
Z
h(u)RX ( u) du
RXY (t, ) = RXY ( ) =

Demonstrao. Da Definio 9.6, Y (t + ) =

h(u)X(t + u) du. Isto implica que

a correlao cruzada entre a entrada e a sada do filtro




h(u)X(t + u) du
RXY (t, ) = E X(t)

Z
h(u)E[X(t)X(t + u)]du
=

Z
h(u)RX ( u) du
=

Quando a entrada X(t) de um filtro linear invariante no tempo um processo


estacionrio no sentido amplo, o Teorema 9.1 diz que a sada Y (t) tambm um processo
estacionrio no sentido amplo, e o Teorema 9.10 diz que a correlao cruzada RXY (t, )
depende somente de . Estes dois resultados implicam no seguinte teorema.

Teorema 9.11. Quando um processo X(t) estacionrio no sentido amplo a entrada de um filtro linear invariante no tempo, a entrada X(t) e a sada Y (t) so
conjuntamente estacionrias no sentido amplo.

No Teorema 9.10 vimos que a correlao cruzada entre a entrada e a sada dada
pela convoluo entre a funo de autocorrelao RX ( ) da entrada e a resposta a
impulso h(t) do filtro. Ento podemos pensar em RXY ( ) como a sada do filtro h(t)
quando RX ( ) a entrada. No exemplo a seguir veremos que calcular a correlao
cruzada antravs de convolues tende a ser um processo complicado.
Exemplo 9.5. Um processo X(t) estacionrio no sentido amplo com funo de autocorrelao RX ( ) = eb| | a entrada de um filtro RC com resposta impulsiva

Processamento de Sinais Aleatrios

187

(
et/(RC)
h(t) =
0

t0
caso contrrio

Assumindo que b > 0, encontre a correlao cruzada RXY ( ) entre a entrada e a


sada.
Soluo. Seja a = 1/(RC). Do Teorema 9.10, a correlao cruzada
RXY ( ) =

h(u)RX ( u) du =

eau eb| u| du

Para 0, esta integral pode ser escrita como


RXY ( ) =

e(ab)ub du +

e(a+b)u+b du =

eb
2bea
2
a b a b2

Quando < 0 e u 0, ento | u| = u e


RXY ( ) =

eau eb(u ) du =

eb
a+b

Uma expresso completa para a correlao cruzada entre a entrada e a sada

RXY ( ) =

b
e

a + b

2bea

e
2
a b a b2

<0

O Teorema 9.10 nos encoraja a reexaminar o Teorema 9.1 desde que a integral dupla
para RY ( ) pode ser expressa em termos da correlao cruzada RXY ( )

Teorema 9.12. Quando um processo X(t) estacionrio no sentido amplo a entrada


de um filtro linear h(t) invariante no tempo, a funo de autocorrelao da sada Y (t)
dada por
Z
RY ( ) =
h(w)RXY ( w) dw

Demonstrao.
Z
RY ( ) =

h(u)

h(v)RX ( + u v) dv du =

|
{z
}

h(u)RXY ( + u) du

RXY ( +u)

A substituio w = u na integral acima completa a prova.

188

Processamento de Sinais Aleatrios

O Teorema 9.12 diz que ao passarmos o sinal determinstico RXY ( ) atravs de um


filtro linear invariante no tempo h(t) obtemos a funo de autocorrelao RY ( ).
Observemos que um filtro com resposta a impulso h(t) pode tambm ser representado como um filtro de resposta em frequncia H (f ). No domnio da frequncia, os
Teoremas 9.10 e 9.12 tm as seguintes consequncias

Teorema 9.13. Seja X(t) uma entrada estacionria no sentido amplo para um filtro
linear invariante no tempo H(f ). A entrada X(t) e a sada Y (t) satisfazem
SY (f ) = H (f )SXY (f )

SXY (f ) = H(f )SX (f )

As relaes entre RX ( ), RXY ( ) e RY ( ), bem como entre SX (f ), SXY (f ) e SY (f )


so mostradas na Figura 9.2.
RXY ( )

h( )

........................................................................

H(f )

........................................................................

RX ( )

........................................................................

SX (f )

........................................................................

SXY (f )

h( )

........................................................................

RY ( )

H (f )

........................................................................

SY (f )

Figura 9.2: A correlao cruzada entre a entrada e a sada de um filtro linear invariante
no tempo a convoluo da resposta a impulso do filtro com a funo de autocorrelao
da entrada. A densidade espectral cruzada entre a entrada e a sada o produto do
espectro densidade de potncia da entrada com a funo de transferncia do filtro. A
densidade espectral de potncia da sada o produto da densidade espectral cruzada
da entrada e da sada e o complexo conjugado da funo de transferncia do filtro.

9.5

Processos gaussianos

Um processo gaussiano tem a propriedade de que toda coleo de valores de amostras descrita pela fdp Gaussiana multidimensional. Isto , uma coleo de amostras
X(t1 ), X(t2 ), . . . , X(tk ), tem uma fdp conjunta descrita por um vetor X = [X (t1 ),
X (t2 ), . . . , X (tk )]t e uma matriz C cujo i, j-simo elemento
Ci,j = CX (ti , tj ti ) = RX (ti , tj ti ) X (ti )X (tj )
a covarincia entre X(ti ) e X(tj ). Usando o vetor x = [x1 , . . . , xk ]t , o vetor de valores
mdios X , a matriz de covarincia C e seu determinante |C|, podemos definir a fdp
Gaussiana multidimensional.

Processamento de Sinais Aleatrios

189

Definio 9.14. Processo Gaussiano: X(t) um processo estocstico Gaussiano


se a fdp conjunta de X(t1 ), . . . , X(tk ) tem densidade Gaussiana multidimensional
fX(t1 )X(tk ) (x1 , . . . , xk ) =

(2)k/2 |C|1/2

t C1 (x

e 2 (xX )

X)

Embora esta expresso possa parecer bastante complicada, pode ser reduzida para
expresses familiares em vrios casos. Por exemplo, quando k = 1, a matriz C
simplesmente o escalar CX (t1 , 0) = Var(X(t1 )) = 12 ., o vetor X o escalar E[X(t1 )] =
1 e a fdp conjunta pode ser simplificada para a densidade Gaussiana ordinria
fX(t1 ) (x1 ) = p

212

(x1 1 )2
2 2
1

Similarmente, para k = 2, X(t1 ) e X(t2 ) apresentam distribuio Gaussiana bidimensional


" 
2

2 #
fX(t1 )X(t2 ) (x1 , x2 ) =

exp

x1 1
1

2(x1 1 )(x2 2 )
+
1 2
2(12 )

21 2

x2 2
2

p
1 2

onde X(t1 ) e X(t2 ) tm coeficiente de correlao = CX (t1 , t2 t1 )/(1 2 ) e


E[X(t1 )] = 1

E[X(t2 )] = 2

Var[X(t1 )] = 12

Var[X(t2 )] = 22

Um ltimo caso importante para a fdp Gaussiana conjunta ocorre quando X(t1 ), . . . ,
X(tk ) so mutuamente independentes. Neste caso, o elemento (i, j) da matriz de covarincia C dado por
(
Var[X(ti )] i = j
Cij = CX (ti , tj ti ) =
0
caso contrrio
Isto , a matriz C uma matriz diagonal. Neste caso, C1 tambm diagonal, com
o i-simo elemento da diagonal dado por Cii1 = 1/ Var[X(ti )]. Usando i e i2 para
denotar a mdia e a varincia de X(ti ), observamos que o vetor de valores mdios
X = [1 , . . . , k ]t e que o expoente da distribuio Gaussiana conjunta
1
1
(x X )t C1 (x X ) =
2
2

(x1 1 )2
(xk k )2
+

+
12
k2

Neste caso, a fdp conjunta torna-se


2

e(xk k ) /(2k )
e(x1 1 ) /(21 )
p
q

fX(t1 ), ,X(tk ) (x1 , . . . , xk ) =


212
2 2
k

= fX(t1 ) (x1 ) fX(tk ) (xk )

190

Processamento de Sinais Aleatrios

Um fato importante a ser observado da distribuio Gaussiana multidimensional


geral que a fdp completamente especificada pelas mdias X(t1 ) , . . . , X(tk ) e as
covarincias CX (ti , tj ti ). Ou seja, um processo estocstico Gaussiano completamente
especificado pelas estatsticas de primeira e segunda ordens (X(t) e CX (t, )).
Nosso interesse principal est nos processos Gaussianos estacionrios no sentido
amplo. Neste caso, E[X(ti )] = X para cada ti e CX (ti , tj ti ) = RX (tj ti ) 2X .
Isto , quando o processo Gaussiano estacionrio no sentido amplo, sua distribuio
completamente especificada pela mdia X e a funo de autocorrelao RX ( ).

Teorema 9.14. Se X(t) um processo Gaussiano estacionrio no sentido amplo,


ento X(t) um processo Gaussiano estacionrio no sentido estrito.

Demonstrao. Sejam e C o vetor mdia e a matriz de covarincia do vetor aleatrio


[X(t1 ), . . . , X(tk )]t . Sejam e C as mesmas quantidades para o vetor aleatrio deslocado no tempo [X(t1 + T ), . . . , X(tk + T )]t . Desde que X(t) estacionrio no sentido
amplo,
E[X(ti )] = E[X(ti + T )] = X
O elemento (i, j) de C

Cij = CX (ti , tj ) = CX (tj ti ) = CX (tj + T (ti + T )) = CX (ti + T, tj + T ) = Cij


Ento, = e C = C , o que implica em
fX(t1 ), ,X(tk ) (x1 , . . . , xk ) = fX(t1 +T ), ,X(tk +T ) (x1 , . . . , xk )
Portanto X(t) um processo estacionrio no sentido estrito.
A Definio 9.14 bastante difcil de usar na prtica. Uma definio equivalente de
um processo Gaussiano refere-se a uma v.a. que um funcional linear de um processo
estocstico X(t). Especificamente, se integramos X(t) ponderada por uma funo g(t)
sobre um intervalo (0, T ), obtemos a v.a.
Y =

g(t)X(t) dt
0

Teorema 9.15. X(t) um processo estocstico Gaussiano se Y =


uma v.a. Gaussiana para todo g(t) tal que E[Y 2 ] < .

g(t)X(t) dt

Este teorema nos permite mostrar facilmente que a filtragem linear de um processo
Gaussiano gera um outro processo Gaussiano.

Processamento de Sinais Aleatrios

191

Teorema 9.16. Passando um processo X(t) estacionrio Gaussiano atravs de um


filtro linear h(t), gera-se na sada um processo estocstico Gaussiano Y (t) com mdia
e funo de autocorrelao dados pelo Teorema 9.1.

Demonstrao. A sada Y (t) dada pela integral de convoluo


Z
h(t )X( ) d
Y (t) =

Para mostrar que Y (t) um processo Gaussiano, mostramos que um funcional linear
de Y (t) sempre Gaussiano pois um funcional linear de X(t), isto ,
Z

Y (t)g(t) dt =
0

T
0

h(t )X( ) d g(t) dt =

X( )

Z

T
0

h(t )g(t) dt d

No lado direito temos um funcional linear de X(t) o qual uma v.a. Gaussiana.
Desta forma mostramos que um funcional linear de Y (t) uma v.a. Gaussiana, o que
implica que Y (t) um processo estocstico Gaussiano.

9.6

Processo rudo branco gaussiano

Em engenharia eltrica comum o estudo de rudo: rudo trmico em resistores, rudo


em sistemas de comunicaes, etc. O rudo uma forma de onda imprevisvel que
normalmente modelado por um processo estocstico Gaussiano estacionrio W (t). O
rudo no tem componente DC, de modo que
E[W (t1 )] = W = 0
Alm disso, para enfatizar a natureza imprevisvel do processo de rudo, assumimos
que para qualquer coleo de instantes de tempo distintos t1 , . . . , tk , W (t1 ), . . . , W (tk )
um conjunto de v.a.s independentes. Neste caso, o valor do rudo no instante t1
no diz nada sobre o valor do mesmo no instante tj , j 6= i. Uma consequncia desta
independncia que para 6= 0,
RW ( ) = E[W (t)W (t + )] = E[W (t)]E[W (t + )] = 0
Para completar nosso modelo de W (t), temos que encontrar RW (0). Para isto,
vamos considerar a funo densidade espectral de potncia SW (f ) da Definio 9.7
Z
RW ( )ej2f d
SW (f ) =

Com RW ( ) = 0 para 6= 0, SW (f ) uma constante para todo f . Ainda, a


constante igual a zero a menos que RW ( ) = ( ). Portanto, N0 a potncia por
unidade de largura de banda do processo estocstico Gaussiano branco. Embora o
processo rudo branco Gaussiano seja um modelo matemtico bastante til, ele no se
conforma com nenhum sinal real. Note que a potncia mdia do rudo

192

Processamento de Sinais Aleatrios

E[W (t)] = RW (0) =

SW (f ) df =

N0
df =
2

Isto , o rudo branco tem potncia infinita, o que fisicamente impossvel. O


modelo til quando se imagina que um modelo de rudo na entrada de um sistema
fsico. Todo sinal de rudo Gaussiano observado na prtica pode ser visto como um sinal
de rudo branco Gaussiano filtrado. Passando um processo rudo branco atravs de um
filtro h(t) geramos um processo de rudo
Y (t) =

t
0

h(t )W ( ) d

Ao contrrio do processo branco W (t), o processo de rudo Y (t) tem potncia mdia
finita.
Exemplo 9.6. Um processo Gaussiano branco com N0 = 1015 W/Hz inserido em
um filtro linear invariante no tempo com resposta a impulso
(
6
2106 e210 t t 0
h(t) =
0
caso contrrio
Encontre as seguintes propriedades do processo de sada Y (t).
(a) A funo densidade espectral de potncia SY (f ).
(b) A funo de autocorrelao RY ( ).
(c) A potncia mdia E[Y 2 (t)].
Soluo. Resolvemos este problema usando o Teorema 9.3. A funo densidade espectral de potncia da entrada SX (f ) = 1015 /2 W/Hz para todo f .
A magnitude ao quadrado da resposta em frequncia do filtro dada por
|H(f )|2 =

(2106 )2
(2f )2 + (2106 )2

Portanto, a funo densidade espectral de potncia da sada dada por

SY (f ) = |H(f )|2 SX (f ) =

(2106 )2
2(2106 )
109
1015
=
2 (2f )2 + (2106 )2
2
(2f )2 + (2106 )2

A transformada inversa de Fourier de


implica que
RY ( ) =

2(2106 )
6
dada por e210 | | . Isto
(2f )2 + (2106 )2

109 2106 | |
e
2

A potncia mdia no processo de sada , portanto, RY (0) = /2 109 W.

Processamento de Sinais Aleatrios

9.7

193

Exerccios

1. Mostre que se o espectro densidade de potncia de um processo estocstico


limitado em banda a B Hz, e se as amostras do sinal so descorrelacionadas em
= n/(2B), para todos os valores integrais de n, ento o processo precisa ter um
espectro densidade de potncia com distribuio uniforme sobre a banda (0, B).
Em outras palavras, o processo precisa ser um rudo branco limitado em banda.
2. Suponha que em um sistema de comunicao existem dois sinais sendo transmitidos: x(t) e y(t). Na transmisso, devido ao rudo de canal, n(t), chegam ao
receptor os sinais x(t) + n(t) e y(t) + n(t). Explique como podemos decidir qual
sinal foi recebido, se o receptor conhece as formas de onda de x(t) e y(t).
3. Um processo estocstico Y (t) relacionado ao processo estocstico X(t) por
Y (t) = X(t) cos(0 t + )
onde uma varivel aleatria independente uniformemente distribuda sobre o
intervalo (0, 2). Mostre que
RY ( ) =

1
RX ( ) cos(0 )
2

1
SY () = [SX ( + c ) + SX ( c )]
4
Esta a extenso do teorema da modulao para processos estocsticos.
Dica: se dois processos estocsticos x(t) e y(t) so independentes, ento
x(t)g(t)x(t + )g(t + ) = x(t)x(t + ) g(t)g(t + ) = RX ( )Rg ( )
4. Dois processos estocsticos so dados por
e

x(t) = A cos(1 t + )

y(t) = B cos(2 t + )

onde A, B, 1 e 2 so constantes. As fases iniciais e esto relacionadas


pela equao = 2 e a varivel aleatria uniformemente distribuda sobre o
intervalo (0, 2). Mostre que a funo de correlao cruzada e o espectro densidade
de potncia cruzada dos dois processos so zero.
5. Sejam os processos estocsticos
x(t) = A cos(0 t + )

y(t) = B cos(n0 t + n)

onde A, B e 0 so constantes e uma varivel aleatria uniformemente distribuda no intervalo (0, 2). Mostre que os dois processos so incoerentes.

194

Processamento de Sinais Aleatrios

6. Seja h(t) um filtro passa baixas com resposta a impulso


(
et
h(t) =
0

t0
caso contrrio

A entrada do filtro X(t), um processo estacionrio no sentido amplo com valor


esperado X = 2 e funo de autocorrelao RX ( ) = ( ). Calcule a mdia e a
funo de autocorrelao do processo Y (t) na sada deste filtro.
1
Resp: E[Y (t)] = 2
RY ( ) = e| |
2
7. Seja um processo X(t) estacionrio no sentido amplo e de mdia zero com funo
de autocorrelao dada por RX ( ) = ( ). Se passarmos este sinal por um filtro
linear invariante no tempo com resposta a impulso
(
e2t
h(t) =
0

t0
caso contrrio

qual ser a densidade espectral de potncia da sada Y (t)?


1
Resp: SY (f ) =
4 + 4 2 f 2
8. O processo X(t) estacionrio no sentido amplo a entrada de um filtro tapped
delay line
H(f ) = a1 ej2f t1 + a2 ej2f t2
Encontre a densidade espectral cruzada SXY (f ) e a correlao cruzada RXY ( ).
Resp:
SXY (f ) = a1 ej2ft1 SX (f ) + a2 ej2ft2 SX (f )
RXY ( ) = a1 RX ( t1 ) + a2 RX ( t2 )
9. X(t) um processo estocstico Gaussiano de mdia zero com funo de autocorrelao RX ( ) = 2| | . Qual a fdp conjunta de X(t) e X(t + 1)?
2
2
2
1
Resp: fX(t),X(t+1) (x0 , x1 ) =
e 3 (x0 x0 x1 +x1 )
2
3
10. Um processo rudo branco Gaussiano N (t) com densidade espectral de potncia de
Z t
N (u) du.
W/Hz passado atravs de um integrador gerando a sada Y (t) =
Calcule a funo de autocorrelao RY (t, ).

Resp: RY (t, ) = min{t, t + }


11. Verifique quais das funes abaixo podem ser consideradas espectro densidade de
potncia de um processo estocstico real. Em caso positivo, calcule a potncia do
processo.

Processamento de Sinais Aleatrios

(a)

1
2 + 16

(b) j[( 0 ) + ( + 0 )]

(d)

2
+ 16

(e)

j 2
2 + 16

195

(c)

1
4 + 9 2 + 18

(f)

3
4 + 9 2 + 18

Resp:
(a) Sim. P = 1/8.
(b) No.

6 3

(c) Sim. P =
0, 0282.
18 2
(d) No.
(e) No.
(f) No.
12. A funo de autocorrelao de um sinal telegrfico dada por
RX ( ) = e2| |
Calcule o espectro densidade de potncia deste processo.
4
Resp: SX (f ) =
2
4 + (2f )2
13. Um processo estocstico X(t), estacionrio no sentido amplo, com funo de autocorrelao
RX ( ) = ea| |
onde a uma constante positiva real, aplicado entrada de um sistema linear
invariante no tempo com resposta a impulso
h(t) = ebt u(t)
onde b uma constante real positiva. Encontre a funo de autocorrelao da
sada Y (t) do sistema.
i
h
1
b| |
a| |
ae

b
e
Resp: RY ( ) = 2
(a b2 )b

14. Seja um processo rudo branco cujas componentes de frequncia so limitadas


faixa W f W . Determine:
(a) O espectro densidade de potncia.
(b) A funo de autocorrelao.
(c) A potncia mdia do processo.
Resp:

196

Processamento de Sinais Aleatrios

N0 , |f | W
(a) SX (f ) =
2
0,
caso contrrio

(b) RX ( ) = N0 W sinc(2W )
(c) P = N0 W

15. Dois processos estocsticos X(t) e Y (t) so dados por


X(t) = A cos(t + )

Y (t) = A sen(t + )

onde A e so constantes e uma v.a. com distribuio uniforme sobre o


intervalo (0, 2).
(a) Encontre a correlao cruzada entre X(t) e Y (t).
(b) Mostre que RXY ( ) = RY X ( )
Resp:
A2
sen( )
2
A2
sen( )
RY X (t, t + ) =
2

(a) RXY (t, t + ) =

(b)
16. Mostre que o espectro densidade de potncia de um sinal real real e par.
17. Seja Y (n) = X(n) + W (n), onde X(n) = A (para todo n) e A uma v.a. com
2 , e W (n) um rudo branco discreto de potncia mdia
mdia zero e varincia A
2 . Assuma tambm que X(n) e Y (n) so independentes.
(a) Mostre que Y (n) estacionrio no sentido amplo.
(b) Encontre o espectro densidade de potncia de Y (n).
Resp:
(a) E[Y (n)] = 0
2 + 2 (k)
RY (n, n + k) = A
2 () + 2 ,
(b) SY () = 2A

18. Um processo estocstico Y (t) definido por


Y (t) = AX(t) cos(c t + )
onde A e c so constantes, uma v.a. com distribuio uniforme no intervalo
(, ), e X(t) um processo estocstico de mdia zero, funo de autocorrelao
RX ( ), e espectro densidade de potncia SX (). Ainda, X(t) e so independentes. Mostre que Y (t) estacionrio no sentido amplo e encontre o espectro
densidade de potncia de Y (t).
Resp:
SY () =

A2
[SX ( c ) + SX ( + c )]
4

Processamento de Sinais Aleatrios

197

19. Na entrada de um filtro, tem-se um processo estocstico com espectro densidade


de potncia S ().
(a) Determine a resposta em frequncia (amplitude) de um filtro para que a sada
seja um rudo branco, ou seja, S () = S0 .


(b) Idem para um processo de entrada com S () = S0 exp 2( 0 )2 .
(c) Idem para um processo de entrada com S () =

S ()
-

........................................................................

Resp: (a)

S0
S ()

S0 2
.
2 + 2

S () = S0
H(j)

(b) e(0 )

........................................................................

(c)

1p 2
+ 2

20. Na entrada do circuito mostrado na Figura abaixo tem-se um rudo branco com
S0 = 120V2 /Hz. Dados R1 = R2 = 104 e L = 102 H, calcule o espectro
densidade de potncia, a funo de autocorrelao e a potncia do processo de
sada.
L
R1

U1

R2

U2

Dica: a funo de transferncia deste filtro dada por


R2

R2
U2 ()
=
=
, =
,
H() =
U1 ()
R1 + R2 + jL
1 + jT
R1 + R2
Resp: SY () =

S0 2
1 + (T )2

RY ( ) =

2 S0 | |
e T
2T

T =

L
.
R1 + R2


 2 S0
E Y 2 (t) =
T

21. Seja Y (t) = X(t d), onde d um atraso constante e X(t) um processo estacionrio no sentido amplo. Calcule RY X ( ), SY X (f ), RY ( ) e SY (f ), em funo
de RX ( ) e SX (f ).
Resp:
RY X ( ) = RX ( + d)
RY ( ) = RX ( )

SY X (f ) = SX (f ) cos(2f d) jSX (f ) sen(2f d)


SY (f ) = SX (f )

22. Seja X(t) um processo estocstico diferencivel, estacionrio no sentido amplo.


Seja tambm

198

Processamento de Sinais Aleatrios

Y (t) =

d
X(t)
dt

Encontre uma expresso para SY (f ) e RY ( ) em funo de SX (f ) e RX ( ).


Dica: Para este sistema: H(f ) = j2f .
Resp: SY (f ) = 4 2 f 2 SX (f )

RY ( ) =

d2
RX ( )
d 2

23. Dois processos estocsticos X(t) e Y (t) so dados por


X(t) = A cos(t + )

Y (t) = A sen(t + )

onde A e so constantes, e uma varivel aleatria com distribuio uniforme


no intervalo (0, 2).
(a) Encontre a funo de correlao cruzada entre X(t) e Y (t).
(b) Mostre que RXY ( ) = RY X ( ) .
Resp:RXY ( ) =

A2
sen( )
2

24. Em relao ao espectro densidade de potncia SX ():


(a) Mostre que SX () real.
(b) Mostre que SX () par.
Dica: use a identidade de Euler: ej = cos() + j sen() e os conceitos de funes
pares e mpares.

Captulo 10

Cadeias de Markov
Em geral, uma varivel aleatria dentro de um conjunto, definindo um processo estocstico, no independente e de fato pode ser estatisticamente dependente de vrias formas
complexas. Neste captulo ser introduzida a classe dos processos aleatrios de Markov
que tem uma forma simples de dependncia e bastante utilizada em modelamento de
problemas encontrados na prtica.

10.1

Processos de Markov

Definio 10.1. Um processo aleatrio X(t) um processo de Markov se o futuro,


dado o presente, independente do passado, isto , para instantes arbitrrios t1 <
t2 < < tn < tn+1 ,
P [X(tn+1 ) = xn+1 |X(tn ) = xn , X(tn1 ) = xn1 , . . . , X(t1 ) = x1 ] =

P [X(tn+1 ) = xn+1 |X(tn ) = xn ] (10.1)

se X(t) assume valores discretos, e

P [a < X(tn+1 ) b|X(tn ) = xn , X(tn1 ) = xn1 , . . . , X(t1 ) = x1 ]

= P [a < X(tn+1 ) b|X(tn ) = xn ] (10.2)

se X(t) assume valores contnuos.


Se as amostras de X(t) so conjuntamente contnuas, ento a equao (10.2) equivalente a
fX(tn+1 ) (xn+1 |X(tn ) = xn , . . . , X(t1 ) = x1 ) = fX(tn+1 ) (xn+1 |X(tn ) = xn )

(10.3)

Chamaremos as equaes (10.1), (10.2) e (10.3) como a propriedade de Markov.


Nas expresses acima tn o presente, tn+1 o futuro, e t1 , . . . , tn1 , o passado.

200

Cadeias de Markov

Desta maneira, para os processos de Markov, as fmps e fdps que so condicionadas


a vrios instantes de tempo, sempre se reduziro a fmps e fdps condicionadas apenas
ao mais recente instante de tempo. Por esta razo nos referimos ao valor de X(t) no
instante t como o estado do processo no instante t.
Exemplo 10.1. Verifique se o processo de soma
Sn = X1 + X2 + + Xn = Sn1 + Xn
onde os Xi s so uma sequncia de variveis aleatrias independentes e identicamente
distribudas e onde S0 = 0, um processo de Markov.
Soluo. Sn um processo de Markov, pois
P [Sn+1 = sn+1 |Sn = sn , Sn1 = sn1 , . . . , S1 = s1 ] = P [Xn+1 = Sn+1 Sn ]
= P [Sn+1 = sn+1 |Sn = sn ]

Exemplo 10.2. Considere mdia mvel de uma sequncia de Bernoulli


1
Yn = (Xn + Xn1 )
2
onde os Xi so sequncias independentes de Bernoulli, com p = 1/2. Verifique se Yn
ou no um processo de Markov.
Soluo. A fmp de Yn

P [Yn = 0] =P [Xn = 0, Xn1 = 0] =

1
4

P [Yn = 1/2] =P [Xn = 0, Xn1 = 1] + P [Xn = 1, Xn1 = 0] =


P [Yn = 1] =P [Xn = 1, Xn1 = 1] =

1
2

1
4

Consideremos agora as seguintes probabilidades condicionais para dois valores consecutivos de Yn :


P [Yn = 1, Yn1 = 1/2]
P [Yn1 = 1/2]
P [Xn = 1, Xn1 = 1, Xn2 = 0]
=
1/2

P [Yn = 1|Yn1 = 1/2] =

1
(1/2)3
=
1/2
4

Suponhamos agora que temos um conhecimento adicional sobre o passado:

Cadeias de Markov

P Yn = 1|Yn1

201


1
P [Yn = 1, Yn1 = 1/2, Yn2 = 0]
= , Yn2 = 0 =
2
P [Yn1 = 1/2, Yn2 = 0]
P [Xn = 1, Xn1 = 1, Xn2 = 0, Xn3 = 0]
=
P [Xn1 = 1, Xn2 = 0, Xn3 = 0]
1
1/16
=
=
1/8
2

Desta forma,




1
1
P Yn = 1|Yn1 = , Yn2 = 0 6= P Yn = 1|Yn1 =
2
2
e este no um processo de Markov.

Definio 10.2. Um processo de Markov que assume somente valores inteiros


chamado de Cadeia de Markov.

No restante deste captulo iremos nos ater s Cadeias de Markov.


Se X(t) uma cadeia de Markov, ento a fmp conjunta para trs instantes de tempo
arbitrrios

P [X(t3 ) = x3 , X(t2 ) = x2 , X(t1 ) = x1 ] =


= P [X(t3 ) = x3 |X(t2 ) = x2 , X(t1 ) = x1 ]P [X(t2 ) = x2 , X(t1 ) = x1 ]

= P [X(t3 ) = x3 |X(t2 ) = x2 ]P [X(t2 ) = x2 , X(t1 ) = x1 ]

(10.4)

= P [X(t3 ) = x3 |X(t2 ) = x2 ]P [X(t2 ) = x2 |X(t1 ) = x1 ]P [X(t1 ) = x1 ]


onde usamos a definio de probabilidade condicional e a propriedade de Markov. Em
geral, a fmp conjunta para n + 1 instantes de tempo arbitrrios

P [X(tn+1 ) = xn+1 , X(tn ) = xn , . . . , X(t1 ) = x1 ]


= P [X(tn+1 ) = xn+1 |X(tn ) = xn ]P [X(tn ) = xn |X(tn1 ) = xn1 ] P [X(t1 ) = x1 ]
(10.5)
Desta forma a fmp conjunta de X(t) em instantes de tempo arbitrrios dada pelo
produto da fmp do instante de tempo inicial e as probabilidades para as transies de
estado subsequentes. Evidentemente, as probabilidades de transio de estado determinam o comportamento estatstico de uma cadeia de Markov.

202

10.2

Cadeias de Markov

Cadeias de Markov de Tempo discreto

Seja Xn uma cadeia de Markov de tempo discreto, que comea em n = 0 com a seguinte
fmp

pj (0) = P [X0 = j], j = 0, 1, 2, . . .

(10.6)

Da equao (10.3) a fmp conjunta para os primeiros n + 1 valores do processo dada


por

P [Xn = in , Xn1 = in1 , . . . , X0 = i0 ] =


P [Xn = in |Xn1 = in1 ]P [Xn1 = in1 |Xn2 = in2 ]

P [X1 = i1 |X0 = i0 ]P [X0 = i0 ] (10.7)

Desta forma a fmp conjunta para uma sequncia particular simplesmente o produto
da probabilidade para o estado inicial com as probabilidades para as transies de um
passo subsequentes.

Definio 10.3. Probabilidades de transio homogneas: Uma cadeia de Markov Xn tem probabilidades de transio homogneas se as probabilidades de transio
para um passo so fixas e no variam com o tempo, isto
(10.8)

P [Xn+1 = j|Xn = i] = pij , n


A fmp conjunta para Xn , Xn1 , . . . , X0 ento dada por
P [Xn = in , Xn1 = in1 , . . . , X0 = i0 ] = pin1 ,in . . . pi0 ,i1 pi0 (0)

(10.9)

Desta forma Xn completamente especificado pela fmp inicial pi (0) e pela matriz
de probabilidades de transio de um passo P

p00
p10
..
.

p01
p11
..
.

p02
p12
..
.

P =
pi1,0 pi1,1 pi1,2

pi,0
pi,1
pi,2

..
..
..
.
.
.

(10.10)

A matriz P chamada de matriz de probabilidade de transio. Note que a


soma de cada linha de P deve ser igual a 1
1=

X
j

P [Xn+1 = j|Xn = i] =

X
j

pij

(10.11)

Cadeias de Markov

203

Exemplo 10.3. Um modelo de Markov para transmisso de voz por pacotes assume
que se o n-simo pacote contm silncio, a probabilidade de silncio no prximo pacote
(1 ) e a probabilidade do pacote conter voz .
Similarmente, se o n-simo pacote contiver atividades de voz, a probabilidade do
prximo pacote conter voz (1 ), e a probabilidade de silncio . Esboce uma
cadeia de Markov para este problema.
Soluo. Supondo Xn a funo que indica a atividade voz em um determinado pacote
no instante n, ento Xn uma cadeia de Markov de 2 estados e matriz de probabilidade
de transio como mostrado abaixo.

P =

10.2.1

Probabilidade de transio para n passos

Para avaliar a fmp conjunta em instantes de tempo arbitrrios (veja equao 10.5), precisamos conhecer as probabilidades de transio para um nmero arbitrrio de passos.
Seja P (n) = {pij (n)} a matriz de probabilidades de transio para n passos, onde
pij (n) = P [Xn+k = j|Xk = i],

n, i, j 0

(10.12)

Note que P [Xn+k = j|Xk = i] = P [Xn = j|X0 = i] n 0, k 0, desde que as


probabilidades de transio no dependem do tempo.
Consideremos primeiramente as probabilidades de transio para dois passos. A probabilidade de ir do estado i em t = 0, passando pelo estado k em t = 1, e terminando
no estado j em t = 2

P [X2 = j, X1 = k|X0 = i] =

P [X2 = j, X1 = k, X0 = i]
P [X0 = i]
P [X2 = j|X1 = k]P [X1 = k|X0 = i]P [X0 = i]
P [X0 = i]

= P [X2 = j|X1 = k]P [X1 = k|X0 = i]


= pik (1)pkj (1)

204

Cadeias de Markov

Note que pik (1) e pkj (1) so componentes de P , a matriz de transio de um passo.
Obtemos pij (2), a probabilidade de ir do estado i em t = 0 para o estado j em t = 2,
somando sobre todos os possveis estados intermedirios k
pij (2) =

pik (1)pkj (1)

i, j

(10.13)

O conjunto de equaes fornecido pela equao (10.13) afirma que a matriz P (2)
obtida pela multiplicao das matrizes de transio de um passo
P (2) = P (1)P (1) = P 2

(10.14a)

Atravs dos mesmos argumentos utilizados acima, verifica-se que P (n) encontrada
multiplicando-se P (n 1) por P
(10.14b)

P (n) = P (n 1)P
As equaes (10.14a) e (10.14b) juntas implicam que
P (n) = P n

(10.15)

isto , a n-sima matriz de probabilidades de transio a n-sima potncia da matriz


de probabilidades de transio de um passo.

10.2.2

Probabilidades dos estados

Consideremos agora as probabilidades dos estados no instante n. Seja p(n) = pj (n)


o vetor (linha) de probabilidades de estados no instante n. A probabilidade pj (n)
relaciona-se a p(n 1) atravs da expresso
X
P [Xn = j|Xn1 = i]P [Xn1 = i]
pj (n) =
i

X
i

(10.16)

pij pi (n 1)

A equao (10.16) afirma que p(n) obtida pela multiplicao do vetor linha p(n1)
pela matriz P
(10.17)

p(n) = p(n 1)P

Similarmente, pj (n) est relacionada a p(0) por


X
pj (n) =
P [Xn = j|X0 = i]P [X0 = i]
i

(10.18)

pij (n)pi (0)

e em notao matricial

p(n) = p(0)P (n) = p(0)P n

n = 1, 2, . . .

(10.19)

Cadeias de Markov

205

Ento a fmp de um estado no instante n obtida multiplicando-se a fmp do estado


inicial por P n .
Exemplo 10.4. Seja = 1/10 e = 1/5 no Exemplo 10.3. Encontre P (n) para
n = 2, 4, 8, 16
Soluo.
P2

P4

P8

P 16

0.9 0.1
0.2 0.8

2

0.9 0.1
0.2 0.8

4

0.9 0.1
0.2 0.8

8

0.9 0.1
0.2 0.8

16

0.83 0.17
0.34 0.66

0.7467 0.2533
0.5066 0.4934

0.6859 0.3141
0.6282 0.3718

0.6678 0.3322
0.6644 0.3356

Existe uma clara tendncia aqui: medida que n ,




2/3 1/3
n
P
2/3 1/3

De fato, podemos mostrar com um pouco de lgebra linear que






1
(1 )n


n
P =
+

+
+

que claramente aproxima

1
+

2/3 1/3
2/3 1/3

Exemplo 10.5. No exemplo 10.4 sejam as probabilidades iniciais para os estados dadas
por
P [X0 = 0] = p0 (0) e P [X0 = 1] = 1 p0 (0)

Encontre as probabilidades dos estados medida que n .

Soluo. O vetor de probabilidades de estados no instante n


p(n) = [p0 (0), 1 p0 (0)]P n

medida que n , temos que

p(n) = [p0 (0), 1 p0 (0)]

2/3 1/3
2/3 1/3

2 1
=
,
3 3

Podemos ver que as probabilidades dos estados no dependem das probabilidades


do estado inicial, medida que n .

206

10.2.3

Cadeias de Markov

Probabilidades em regime

O exemplo 10.5 tpico de cadeias de Markov que entram em regime estacionrio depois
que o processo est em vigor durante um longo tempo. medida que n , a matriz
de transio de n passos aproxima-se de uma matriz para a qual todas as linhas so
iguais mesma fmp, isto
(10.20)

pij (n) j , i
medida que n , a equao (10.18) torna-se
pj (n)

j pi (0) = j

(10.21)

Definio 10.4. Sistema em equilbrio ou regime permanente. Uma cadeia


de Markov est em equilbrio ou regime permanente quando, medida que n ,
a probabilidade do estado j aproxima-se de uma constante independente do tempo e
das probabilidades do estado inicial:
(10.22)

pj (n) j , j

Podemos encontrar a fmp = {j } (onde 12 um vetor linha) na equao (10.22)


(quando existir) notando que medida que n , pj (n) j e pi (n 1) i , de
modo que a equao (10.16) aproxima

j =

(10.23a)

pij i

que em notao matricial fica


(10.23b)

= P

Em geral, a equao (10.23b) tem (n 1) equaes linearmente independentes. A


equao adicional necessria dada por
X

(10.23c)

i = 1

Nos referimos a como a fmp de regime permanente da cadeia de Markov. Se


iniciamos a cadeia de Markov com fmp de estado inicial p(0) = , ento pelas equaes
(10.19) e (10.23b) temos que o vetor de probabilidades de estados dado por
p(n) = P n = ,

(10.24)

O processo resultante estacionrio, desde que a probabilidade da sequncia de


estados i0 , i1 , . . . , in iniciando no instante k , pela equao (10.7)

Cadeias de Markov

207

P [Xn+k = in , . . . , Xk = i0 ] =
= P [Xn+k = in |Xn+k1 = in1 ] P [X1+k = i1 |Xk = i0 ]P [Xk = i0 ]
= pin1 ,in pi0 ,i1 i0

(10.25)

a qual independente do instante inicial k. Ento as probabilidades so independentes


da escolha da origem dos tempos, e o processo estacionrio.
Observao:
Note que, como o processo est em regime, as Equaes (10.23) e (10.24) so equivalentes. Em outras palavras, em regime permanente, as probabilidades dos estados so
sempre as mesmas, independentemente do nmero de transies efetuadas.
Exemplo 10.6. Encontre a fmp estacionria de estados para o processo do exemplo
10.3
Soluo. A equao (10.23a) fornece
0 = (1 )0 + 1
1 = 0 + (1 )1
o que implica que 0 = 1 = (1 0 ) desde que 0 + 1 = 1. Ento, para = 1/10
e = 1/5, temos
0 =

10.3

=
+
3

1 =

1
=
+
3

Cadeias de Markov em tempo contnuo

Na seo 10.2 vimos que a matriz de probabilidades de transio determina o comportamento de uma cadeia de Markov de tempo discreto. Nesta seo iremos ver que o
mesmo acontece com cadeias de Markov de tempo contnuo.
A fmp conjunta para (k+1) instantes de tempo arbitrrios de uma cadeia de Markov
dada pela equao (10.5)
P [X(tn+1 ) = xn+1 , X(tn ) = xn , . . . , X(t1 ) = x1 ]
= P [X(tn+1 ) = xn+1 |X(tn ) = xn ] P [X(t2 ) = x2 |X(t1 ) = x1 ]P [X(t1 ) = x1 ]
(10.26)
Este resultado vale independente do processo ser de tempo discreto ou de tempo
contnuo. No caso contnuo, a equao (10.26) requer que saibamos as probabilidades
de transio no intervalo entre um instante de tempo arbitrrio s e outro instante de
tempo arbitrrio s + t:
P [X(s + t) = j|X(s) = i],

t0

208

Cadeias de Markov

Assumimos aqui que as probabilidades de transio dependem somente da diferena


entre os dois instantes de tempo:

P [X(s + t) = j|X(s) = i] = P [X(t) = j|X(0) = i] = pij (t),

t 0, s

(10.27)

Dizemos que X(t) tem probabilidades de transio homogneas.

Teorema 10.1. Seja P (t) = {pij (t)} a matriz de probabilidades de transio em um


intervalo de comprimento t. Desde que pii (0) = 1 e pij (0) = 0 para i 6= j, temos
P (0) = I

(10.28)

onde I a matriz identidade.

Exemplo 10.7. Para o processo de Poisson, as probabilidades de transio satisfazem

pij (t) = P [j i eventos em t segundos]


= p0,ji (t)

(t)ji t
e ,
(j i)!

ji

Portanto

P =

et tet (t)2 et /2! (t)3 et /3! . . .


0
et
tet
(t)2 et /2! . . .

t
0
0
e
tet
...

..
..
..
..
..
.
.
.
.
.

medida que t 0, et 1 t. Ento para um intervalo de tempo pequeno ,

0
...
0
1

...

0
0
1 . . .

..
..
..
..
.
.
.
.

onde todos os termos de ordem 2 ou superior foram negligenciados. Ento a probabilidade de mais de uma transio em um intervalo de tempo bastante curto desprezvel.

Exemplo 10.8. Para um processo telegrfico aleatrio, X(t) muda com cada ocorrncia
de um evento em um processo de Poisson. Vimos na seo 8.7 que as probabilidades de
transio para este processo so

Cadeias de Markov

209


1
1 + e2t
2

1
1 e2t ,
P [X(t) = a|X(0) = b] =
2

P [X(t) = a|X(0) = a] =

se a 6= b

Ento a matriz de probabilidade de transio




1/2{1 + e2t } 1/2{1 e2t }
P (t) =
1/2{1 e2t } 1/2{1 + e2t }

10.3.1

Tempos de ocupao de estados

Desde que o sinal telegrfico aleatrio muda de polaridade com cada ocorrncia de um
evento em um processo de Poisson, segue que o tempo em que o sistema permanece em
cada estado uma varivel aleatria exponencial. Desta forma esta uma propriedade
do tempo de ocupao de estados para todas as cadeias de Markov de tempo
contnuo, isto : X(t) permanece em um dado valor (estado) para um intervalo de
tempo aleatrio exponencialmente distribudo.
Para ver como isto acontece, seja Ti o tempo gasto no estado i. A probabilidade de
gastar mais de t segundos neste estado ento
P [Ti > t]
Suponha agora que o processo j tenha estado no estado i por s segundos; ento a
probabilidade de gastar mais t segundos neste estado
P [Ti > t + s|Ti > s] = P [Ti > t + s|X(s ) = i, 0 s s],

desde que {Ti > s} implica que o sistema tem estado no estado i durante o intervalo
de tempo (0, s). A propriedade de Markov implica que se X(s) = i, ento o passado
irrelevante e podemos ver o sistema como sendo reiniciado no estado i no instante s:
P [Ti > t + s|Ti > s] = P [Ti > t]

(10.29)

Somente a varivel aleatria exponencial satisfaz esta propriedade de ser sem memria. Ento o tempo gasto no estado i uma varivel aleatria exponencial com alguma
mdia 1/vi :
P [Ti > t] = evi t

(10.30)

O tempo mdio de ocupao de estado 1/vi ir geralmente ser diferente para


cada estado.
O resultado acima nos d uma outra maneira de olhar para cadeias de Markov
de tempo contnuo. A cada vez que um estado i alcanado, seleciona-se um tempo
de ocupao de estado Ti exponencialmente distribudo. Quando o tempo se esgota, o
prximo estado j selecionado de acordo com uma cadeia de Markov de tempo discreto,
com probabilidades de transio qij . Ento o novo tempo de ocupao de estado
selecionado de acordo com Tj , e assim por diante. Chamamos qij de uma cadeia de
Markov embutida.

210

Cadeias de Markov

Exemplo 10.9. O sinal telegrfico aleatrio do exemplo 10.8 gasta um tempo exponencialmente distribudo com mdia 1/ em cada estado. Quando uma transio ocorre, a
transio sempre do estado presente para um nico outro estado, ento a cadeia de
Markov embutida
q00 = 0
q10 = 1

10.3.2

q01 = 1
q11 = 0

Taxas de transio e probabilidades de estados dependentes de


tempo

Considere as probabilidades de transio em um intervalo de tempo bastante curto de


durao segundos. A probabilidade de o processo permanecer no estado i durante o
intervalo
P [Ti > ] = evi
vi vi2 2
+

1!
2!
= 1 vi + o()

=1

onde o() denota os termos que se tornam desprezveis em relao a medida que
01 . As distribuies exponenciais para os tempos de ocupao de estados implicam
que a probabilidade de duas ou mais transies em um intervalo de durao o().
Ento para pequeno, pii () aproximadamente igual probabilidade de o processo
permanecer no estado i por segundos:
pii () P [Ti > ] = 1 vi + o()
ou equivalentemente,
1 pii () = vi o()

(10.31)

Chamamos vi a taxa na qual o processo X(t) deixa o estado i.


Uma vez que o processo deixa o estado i, ele entra no estado j com probabilidade
qij . Ento
pij () = (1 pii ())
qij
= vi qij o()

(10.32)

= ij o()

Chamamos ij = vi qij a taxa na qual o processo X(t) entra no estado j partindo do


estado i. Definimos ii = vi , e pela equao (10.31),
1

Uma funo g(h) o(h) se lim

h0

g(h)
= 0, isto , se g(h) tende a zero mais rpido do que h.
h

Cadeias de Markov

211

(10.33)

pii () 1 = ii o()

Se dividirmos ambos os lados das equaes (10.32) e (10.33) por e tomarmos o


limite 0, obtemos
pij ()
= ij ,
0

lim

(10.34a)

i 6= j

e
lim

pii () 1
= ii ,

(10.34b)

desde que
o()
=0
0
lim

pois o() de ordem superior a .


Podemos ento desenvolver um conjunto de equaes para encontrar as probabilidades
dos estados no instante t, que sero denotados por

pj (t) = P [X(t) = j].


Para > 0, temos (veja Figura 10.1)
pj (t + ) = P [X(t + ) = j]
X
=
P [X(t + ) = j|X(t) = i]P [X(t) = i]
i

pij ()pi (t)

...
...
..
...
...
...
...

..........
...
..........
i j
...
..........
..........
...
..........
..........
...
..........
...
..........
..........
...
..........
...
..........
..........
...
..........
...
..........
..........
...
........
....
..
...
..........
...
..........
.
.
.
.
.
.
.
...
.
.
.......
.
.
.
.
.
.
.
....
.
.
...
..
..........
..........
...
..........
..........
....
..........
.
.
.
.
.
.
..
.
.
.
......
...
..........
..........
...
..........
..........
...
ij
...
...
...
...
...
...
....................................................................................................................................................................................................................................................................................................................................
...
...

X(t)

X(t + )

p ()

q t
1

p ()

t+

Figura 10.1: Transies para o estado j.


Se subtrairmos pj (t) de ambos os lados, obtemos

(10.35)

212

Cadeias de Markov

pj (t + ) pj (t) =

i6=j

i6=j

pij ()pi (t) pj (t)


pij ()pi (t) + pjj ()pj (t) pj (t)
pij ()pi (t) + (pjj () 1)pj (t)

(10.36)

Se dividirmos ambos os membros por , aplicarmos (10.34a) e (10.34b), e fizermos


0, obtemos

pj (t) =

(10.37)

ij pi (t)

A Equao (10.37) uma das formas das Equaes de Chapman-Kolmogorov


para cadeias de Markov de tempo contnuo. Para encontrar pj (t) precisamos resolver
este sistema de equaes diferenciais com condies iniciais especificadas pela fmp de
estado inicial {pj (0), j = 0, 1, . . . }.
Importante:
Note que se resolvemos a Equao (10.37) com a suposio de que o sistema estava no
estado i no instante inicial, isto , com condio inicial pi (0) = 1 e pj (0) = 0 para todo
j 6= i, ento a soluo de fato pij (t), a componente ij de P (t). Ento a Equao (10.37)
pode tambm ser utilizada para encontrar a matriz de probabilidades de transio. Veja
o exemplo abaixo:
Exemplo 10.10. Um sistema de filas alterna entre dois estados. No estado 0, o sistema
est livre e esperando a chegada de um cliente. Este tempo desocupado uma v.a.
exponencial com mdia 1/. No estado 1, o sistema est ocupado servindo um usurio.
O tempo no estado ocupado uma v.a. exponencial com mdia 1/. Encontre as
probabilidades dos estados p0 (t) e p1 (t) em termos das probabilidades dos estados iniciais
p0 (0) e p1 (0).
Soluo. O sistema passa do estado 0 para o estado 1 a uma taxa , e do estado 1
para o estado 0 a uma taxa :

00 =

10 =

01 =
11 =

A Equao (10.37) fornece ento

p0 (t) = p0 (t) + p1 (t)

p1 (t) = p0 (t) p1 (t)

Desde que p0 (t) + p1 (t) = 1, a primeira equao torna-se

Cadeias de Markov

213

p0 (t) = p0 (t) + (1 p0 (t))

que uma equao diferencial de primeira ordem:

p0 (t) + ( + )p0 (t) =

p0 (0) = p0

A soluo geral desta equao

+ Ce(+)t
+

p0 (t) =

Obtemos C fazendo t = 0 e resolvendo em termos de p0 (0). Assim, encontramos





p0 (t) =
+ p0 (0)
e(+)t
+
+
Similarmente, temos que

p1 (t) =




+ p1 (0)
e(+)t
+
+

Note que medida que t

p0 (t)

p1 (t)

Ento, medida que t , as probabilidades dos estados se aproximam de valores


constantes que so independentes das probabilidades iniciais dos estados.

Exemplo 10.11. Encontre as probabilidades dos estados para o processo de Poisson.


Soluo. O processo de Poisson move-se somente do estado i para o estado i + 1 a uma
taxa . Ento
ii =

i,i+1 =

A Equao (10.37) fornece ento

p0 (t) = p0 (t),

j=0

pj (t) = pj (t) + pj1 (t),

j1

A condio inicial para o processo de Poisson p0 (0) = 1, de modo que a soluo para
a primeira equao
p0 (t) = et
Para a segunda equao, temos

p1 (t) = p1 (t) + et ,

p1 (0) = 0

que tambm uma equao diferencial de primeira ordem, cuja soluo

214

Cadeias de Markov

t t
e
1!
Adicionalmente pode-se mostrar atravs de induo que a soluo para o estado j
dada por
p1 (t) =

pj (t) =

(t)j t
e
j!

Note que para qualquer j, pj (t) 0 medida que t . Ento para o processo de
Poisson, a probabilidade de qualquer estado finito tende a zero medida que t .
Isto consistente com o fato de que o processo cresce de forma constante com o tempo.

10.4

Probabilidades de Estados em Regime e Equaes de


Balano Globais

medida que t , as probabilidades dos estados do sistema de filas do Exemplo 10.10


convergem para uma fmp que no depende das condies iniciais. Este comportamento
tpico de sistemas que alcanam uma condio de equilbrio ou regime permanente.

Para tais sistemas, pj (t) pj e pj (t) 0, de modo que a Equao (10.37) torna-se
0=

X
i

ij pi , j,

(10.38a)

ou equivalentemente, lembrando que jj = vj ,


vj p j =

X
i6=j

ij pi , j

A Equao (10.38b) pode ser reescrita como

X
X
pj
ji =
ij pi
i6=j

(10.38b)

(10.38c)

i6=j

desde que

vj =

ji

i6=j

O sistema de equaes lineares dado pelas Equaes (10.38b) ou (10.38c) chamado


de Equaes de Balano Global. Estas equaes afirmam que, em equilbrio, a probabilidade do fluxo para fora do estado j, dada por vj pj , igual probabilidade do fluxo
para dentro do estado j, como mostrado na Figura 10.2. Resolvendo este conjunto de
equaes lineares podemos obter a fmp dos estados do sistema em regime permanente
(quando existir).
Referimo-nos a p = {pi } como a fmp estacionria dos estados da cadeia de
Markov. Desde que p satisfaz a Equao (10.37), se iniciamos a cadeia de Markov com
uma fmp inicial dada por p, ento as probabilidades dos estados sero

Cadeias de Markov

215

Figura 10.2: Balano global de fluxo de probabilidade.

pi (t) = pi , t
O processo resultante estacionrio, desde que a probabilidade da sequncia de
estados i0 , i1 , . . . , in nos instantes t < t1 + t < < tn + t , pela Equao (10.26),
P [X(t) = i0 , X(t1 + t) = i1 , , X(tn + t) = in ] =

P [X(tn + t) = in |X(tn1 + t) = in1 ] P [X(t1 + t) = i1 |X(t) = i0 ]P [X(t) = i0 ]


As probabilidades de transio dependem somente da diferena entre os tempos
associados. Ento a probabilidade conjunta acima depende da escolha da origem apenas
atravs de P [X(t) = i0 ]. Mas P [X(t) = i0 ] = pi0 para todo t. Portanto conclumos que
a probabilidade conjunta acima independente da escolha da origem dos tempos e que
o processo estacionrio.
Exemplo 10.12. Encontre a fmp de estado estacionrio para o sistema de filas de dois
estados do Exemplo 10.10.
Soluo. A Equao (10.38b) para este sistema fornece
p0 = p1 e p1 = p0
Notando que p0 + p1 = 1, obtemos
p0 =

e p1 =
+
+

Exemplo 10.13. Sistema de filas de servidor nico M/M/1. Considere um


sistema de filas no qual os clientes so servidos um de cada vez pela ordem de chegada.
O tempo entre chegadas de clientes exponencialmente distribudo com taxa , e o tempo
requerido para atender um cliente exponencialmente distribudo com taxa . Encontre
a fmp para o nmero de clientes no sistema quando este est em regime permanente.

216

Cadeias de Markov

Soluo. As taxas de transio de estados so as seguintes. Os clientes chegam a uma


taxa , ento
i,i+1 = i = 0, 1, 2, . . .
Quando o sistema no est vazio, os clientes saem a uma taxa . Ento
i,i1 = i = 1, 2, 3, . . .
O diagrama de taxa de transio mostrado na Figura 10.3.

Figura 10.3: Diagrama de transio de estados para o sistema M/M/1.


As Equaes de balano global so
p0 = p1 , j = 0

(10.39a)

( + )pj = pj1 + pj+1 , j = 1, 2, . . .

(10.39b)

Podemos reescrever a Equao (10.39b) como segue:

o que implica que

pj pj+1 = pj1 pj , j = 1, 2, . . .
pj1 pj = constante, j = 1, 2, . . .

(10.40)

A Equao (10.40) com j = 1, juntamente com a Equao (10.39a), implica que


constante = p0 p1 = 0

Ento a Equao (10.40) torna-se

pj1 = pj
ou equivalentemente,
pj = pj1 , j = 1, 2, . . .
e por induo
p j = j p 0
onde = /. Obtemos p0 notando que a soma das probabilidades precisa ser igual a
um:
1=

X
j=0

pj = (1 + + 2 + )p0 =

1
p0
1

Cadeias de Markov

217

onde a srie converge se e somente se < 1. Ento


pj = (1 )j , j = 1, 2, . . .

(10.41)

A condio para a existncia de uma soluo de regime permanente tem uma explicao simples. A condio < 1 equivalente a
<
isto , a taxa na qual os clientes chegam precisa ser menor que a taxa na qual o sistema
possa atend-los. Caso contrrio, a fila cresce sem limite medida que o tempo passa.

Exemplo 10.14. Um processo de nascimento e morte uma cadeia de Markov


para a qual ocorrem transies apenas entre estados adjacentes, como mostrado na Figura 10.4. O sistema de filas discutido no exemplo anterior um exemplo de um processo
de nascimento e morte. Repita o exerccio anterior para um processo de nascimento e
morte geral.

Figura 10.4: Diagrama de taxa de transio para um processo de nascimento e morte


geral.
Soluo. As Equaes de balano global para um processo de nascimento e morte geral
so
0 p 0 = 1 p 1 , j = 0

(10.42a)

j pj j+1 pj+1 = j1 pj1 j pj , j = 1, 2, . . .

(10.42b)

Como no exemplo anterior, segue que


pj = rj pj1 , j = 1, 2, . . .
e
pj = rj rj1 r1 p0 , j = 1, 2, . . .
onde rj = (j1 )/j . Se definirmos
Rj = rj rj1 r1 e R0 = 1,
ento encontramos p0 atravs de

218

Cadeias de Markov

1=

X
j=0

Rj p 0 .

Se a srie da Equao acima converge, ento a fmp estacionria dada por


pj =

Rj

X
Ri

(10.43)

i=0

Se a srie no converge, ento uma fmp estacionria no existe, e pj = 0 para todo


j.

10.5

Classes de estados, propriedades de recorrncia e probabilidades limite

Nesta seo iremos olhar mais de perto a relao entre o comportamento de uma cadeia de Markov e sua matriz de probabilidade de transies de estados. Primeiramente
iremos ver que os estados de uma cadeia de Markov de tempo discreto podem ser divididos em uma ou mais classes separadas e que estas podem ser de diferentes tipos.
Iremos ento mostrar que o comportamento de longo prazo de uma cadeia de Markov
est relacionada aos tipos de suas classes de estados. Finalmente, usaremos estes resultados para relacionar o comportamento de longo prazo de cadeias de Markov de tempo
contnuo com o de sua cadeia de Markov embutida.

10.5.1

Classes de estados

Definio 10.5. Acessibilidade. Dizemos que o estado j acessvel a partir do


estado i se para algum n 0, pij (n) > 0, isto , se existe uma sequncia de transies
de i para j com probabilidade no nula.

Definio 10.6. Comunicabilidade. Os estados i e j se comunicam se i acessvel


a partir de j e j acessvel a partir de i. Representamos este fato com a seguinte
notao: i j.
Note que um estado se comunica consigo mesmo desde que pii (0) = 1.
Se o estado i se comunica com o estado j, e o estado j se comunica com o estado k,
isto , se i j e j k, ento o estado i se comunica com o estado j. Para verificar
isto, note que i j implica que exite um caminho de probabilidade no nula de i para
j, e j k implica que existe um caminho subsequente de probabilidade no nula de j

Cadeias de Markov

219

para k. Os caminhos combinados formam um caminho de probabilidade no nula de i


para k. Existe um caminho de probabilidade no nula na direo reversa pelas mesmas
razes.

Definio 10.7. Classes de estados: dizemos que dois estados pertencem a uma
mesma classe se estes se comunicam entre si.

Note que duas classes de estados diferentes precisam ser disjuntas desde que se
tiverem um estado em comum, isto implicaria que os estados de ambas as classes se
comunicariam entre si. Ento os estados de uma cadeia de Markov consistem de uma
ou mais classes de comunicao disjuntas.

Definio 10.8. Cadeia Irredutvel: Uma cadeia de Markov que consiste de uma
nica classe dita irredutvel.

Exemplo 10.15. A figura abaixo mostra o diagrama de transio de estados para uma
cadeia de Markov com trs classes: {0}, {1, 2} e {3}

Exemplo 10.16. Abaixo tem-se o diagrama de transio de estados para uma cadeia
de Markov peridica com apenas uma classe {0, 1, 2, 3}. Ento esta cadeia irredutvel.

Exemplo 10.17. Neste exemplo, temos o diagrama de transio de estados para um


processo de contagem binomial. Pode-se ver que as classes so: {0}, {1}, {2}, . . .

220

Cadeias de Markov

Exemplo 10.18. A figura abaixo mostra o diagrama de transio de estados para o


processo de caminhada aleatria. Se p > 0, ento o processo tem apenas uma classe
{0, 1, 2, }, de modo que irredutvel.

10.5.2

Propriedades de recorrncia

Definio 10.9. Estado recorrente: O estado i chamado recorrente se o processo retorna a ele com probabilidade um, isto ,
fi = P [alguma vez retornar ao estado i] = 1

Definio 10.10. Estado transiente: O estado i chamado transiente se


fi < 1

Se iniciamos uma cadeia de Markov em um estado recorrente i, ento o estado


ocorre novamente um nmero infinito de vezes. Se iniciamos uma cadeia de Markov em
um estado transiente, o estado no ocorre novamente depois de algum nmero finito
de retornos. Cada nova ocorrncia do estado pode ser vista como uma falha em uma
tentativa de Bernoulli. A probabilidade de falha fi . Ento o nmero de retornos ao
estado i terminando com um sucesso (no retorno) uma varivel aleatria geomtrica
com mdia (1 fi )1 . Se fi < 1, ento a probabilidade de um nmero infinito de

Cadeias de Markov

221

sucessos zero. Portanto um estado transiente ocorre novamente um nmero finito de


vezes.
Seja Xn uma cadeia de Markov com estado inicial i, X0 = i. Seja Ii (x) uma funo
indicadora para o estado i, isto , Ii (x) = 1 se X = i, e Ii (x) = 0 caso contrrio. O
nmero esperado de retornos para o estado i ento
E

"

desde que

Ii (Xn )|X0 = i =

n=1

E[Ii (Xn )|X0 = i] =

pii (n)

(10.44)

n=1

n=1

E[Ii (Xn )|X0 = i] = P [Xn = i|X0 = i] = pii (n)


Um estado recorrente se e somente se ele ocorre novamente um nmero infinito de
vezes, ento da Equao (10.44), o estado i recorrente se e somente se

pii (n) =

pii (n) <

n=1

(10.45)

Similarmente, o estado i transiente se e somente se

n=1

(10.46)

Exemplo 10.19. Dado o diagrama de transio de estados do Exemplo 10.15 verifique


que o estado 0 transiente, e o estado 1 recorrente.
Soluo. O estado 0 transiente desde que p00 (n) = (1/2)n , de modo que

n=1

1
p00 (n) = +
2

 2  3
1
1
+
+ = 1 <
2
2

Por outro lado, se o processo se iniciar no estado 1, teramos o processo de dois


estado discutidos no Exemplo 10.4. Para este processo mostramos que
p11 (n) =

+ (1 )n
1/2 + 1/4(7/10)n
=
+
3/4

de modo que

p11 (n) =

n=1

Portanto o estado 1 recorrente.


X
2

n=1

(7/10)n
3

Exemplo 10.20. Mostre que para um processo binomial de contagem todos os estados
so transientes.

222

Cadeias de Markov

Soluo. Para este processo, pii (n) = (1 p)n , de modo que para p > 0,

pii (n) =

(1 p)n =

n=1

n=1

1p
<
p

Exemplo 10.21. Para o processo de caminhada aleatria, verifique se o estado 0


transiente ou recorrente.
Soluo. O estado 0 ocorre novamente a cada 2n passos se e somente se os estados
n + 1 e n 1 ocorrem durante os 2n passos. Isto ocorre com probabilidade
p00 (2n) =


2n n
p (1 p)n
n

A frmula de Stirling para n! pode ser utilizada para mostrar que



onde an bn quando lim


2n n
(4p(1 p))n

p (1 p)n
n
n

an
= 1.
bn

Ento a Equao (10.44) para o estado 0

n=1

p00 (2n)

X
(4p(1 p))n

n
n=1

Se p = 1/2, ento 4p(1 p) = 1 e a srie diverge. Segue ento que o estado 0


recorrente. Se p 6= 1/2, ento 4p(1 p) < 1, e a srie acima converge. Isto implica
que o estado 0 transiente. Ento quando p = 1/2, o processo de caminhada aleatria
mantm um balano precrio em torno do estado 0. Logo que p 6= 1/2, uma perturbao
positiva ou negativa introduzida e o processo cresce ao redor de .

Se o estado i recorrente ento todos os estados de sua classe iro eventualmente ser
visitados medida que o processo retorna repetidamente a i. De fato, todos os outros
estados em sua classe so visitados um nmero infinito de vezes. Ento recorrncia
uma propriedade de classe, isto , se o estado i recorrente e i j, ento o estado j
tambm recorrente. Similarmente, a transitoriedade tambm uma propriedade de
classe.
Se uma cadeia de Markov irredutvel, isto , se consiste de uma nica classe de
comunicao, ento todos os seus estados so ou transientes ou recorrentes. Se o nmero
de estados na cadeia finito, impossvel para todos os estados serem transientes.
Ento, os estados de uma cadeia de Markok irredutvel com nmero de estados finito
so todos recorrentes.
A informao sobre quando o estado i pode ocorrer novamente est contido em
pii (n), a probabilidade de transio de n passos do estado i para ele mesmo.

Cadeias de Markov

223

Definio 10.11. Perodo de um estado. Dizemos que o estado i tem perodo d


se ele puder ocorrer nos instantes que so mltiplos de d, isto , pii (n) = 0 quando
n no mltiplo de d, onde d o maior inteiro com esta propriedade.
Pode-se mostrar que todos os estados de uma classe tm o mesmo perodo.

Definio 10.12. Cadeia de Markov aperidica. Uma cadeia de Markov irredutvel dita aperidica se os estados em sua classe nica tm perodo unitrio.

Exemplo 10.22. Verifique qual o perodo da cadeia de Markov do Exemplo 10.15.


Soluo. Para esta cadeia, pii (n) > 0 para todos os estados, n = 1, 2, . . . Portanto
todas as trs classes na cadeia tm perodo unitrio.

Exemplo 10.23. Para a cadeia de Markov do Exemplo 10.16, verifique o valor de seu
perodo.
Soluo. Para esta cadeia, os estados 0 e 1 podem ocorrer novamente nos instantes
2, 4, 6, . . . e os estados 2 e 3 nos instantes 4, 6, 8, . . . Portanto esta cadeia tem perodo
2.

Exemplo 10.24. Verifique o perodo do processo de caminhada aleatria do Exemplo


10.18.
Soluo. Para este processo, um estado ocorre novamente quando o nmero de sucessos
(+1s) igual ao nmero de falhas (-1s). Isto acontece somente depois de um nmero
par de eventos, e portanto este processo tem perodo 2.

10.5.3

Probabilidades limite

Se todos os estados em uma cadeia de Markov so transientes, ento as probabilidades


de todos os estados tendem a zero medida que n . Se uma cadeia de Markov
tem algumas classes transientes e outras classes recorrentes, como a cadeia do Exemplo
10.15, ento eventualmente o processo ir entrar e permanecer em uma das classes
recorrentes. Assim, podemos nos concentrar nas classes recorrentes para o estudo das
probabilidades limite de uma cadeia. Por esta razo iremos assumir nesta seo que
estamos lidando com uma cadeia de Markov irredutvel.
Suponha que iniciemos uma cadeia de Markov em um estado recorrente i no instante
n = 0. Sejam Ti (1), Ti (1) + Ti (2), . . . os instantes aonde o processo retorna ao estado
i, onde Ti (k) o tempo decorrido entre o (k 1)-simo e o k-simo retornos (veja

224

Cadeias de Markov

Figura 10.5: Instantes de recorrncia para o estado i.


Figura 10.5). Os Ti formam uma sequncia iid desde que cada instante de retorno
independente dos instantes de retorno anteriores.
A proporo de tempo gasto no estado i depois de k retornos a i
proporo de tempo no estado i =

k
Ti (1) + Ti (2) + + Ti (k)

(10.47)

Desde que o estado recorrente, o processo retorna ao estado i um nmero infinito


de vezes. Ento a Lei dos Grandes Nmeros implica que, com probabilidade um, o
recproco da expresso acima aproxima-se do tempo mdio de recorrncia E[Ti ] de
modo que a proporo de longo prazo do tempo gasto no estado i aproxima
proporo de tempo no estado i

1
= i
E[Ti ]

(10.48)

onde i a proporo de longo prazo de tempo gasto no estado i,


Se E[Ti ] < , ento dizemos que o estado i recorrente positivo. A Equao
(10.48) implica ento que
i > 0, se o estado i recorrente positivo
Se E[Ti ] = , ento dizemos que o estado i recorrente nulo. A Equao (10.48)
implica ento que
i = 0, se o estado i recorrente nulo
Pode-se mostrar que recorrncia positiva e nula so propriedades de classe.
Estados recorrentes, aperidicos e recorrentes nulos so chamados de ergdicos.
Uma cadeia de Markov ergdica definida como uma cadeia irredutvel, aperidica e
recorrente positiva.
Exemplo 10.25. Para o processo do Exemplo 10.16, calcule E[T0 ]e 0 .
Soluo. Este processo retorna ao estado 0 em dois passos com probabilidade 1/2 e
em quatro passos com probabilidade 1/2. Portanto o tempo de recorrncia mdia para
o estado 0

Cadeias de Markov

225

1
1
E[T0 ] = (2) + (4) = 3
2
2
Portanto o estado 0 recorrente positivo e a proporo de longo prazo de tempo em
que o sistema permanece no estado 0
0 =

1
3

Exemplo 10.26. No Exemplo 10.21 foi mostrado que o processo de caminhada aleatria recorrente se p = 1/2. Entretanto, pode-se mostrar que o tempo mdio de
recorrncia infinito quando p = 1/2 ([Fel68],p.314). Ento todos os estados da cadeia
so recorrentes nulos.

Os j s na Equao (10.48) satisfazem a equao que define a fmp de estado estacionrio


j =

X
i

i Pij , j

(10.49a)
(10.49b)

i = 1

Para ver isto, note que desde que i a proporo de tempo gasto no estado i, ento
i Pij a proporo de tempo na qual o estado j segue o estado i. Se somarmos sobre
todos os estados i, obteremos a proporo de longo prazo do tempo no estado j, j .
Exemplo 10.27. Encontre a fmp de estado estacionrio para a cadeia de Markov do
Exemplo 10.16.
Soluo. Temos das Equaes (10.49a) e (10.49b) que
1
0 = 1 + 3 ,
2

1 = 0 ,

1
2 = 1 ,
2

3 = 2

Estas equaes implicam que 1 = 0 e 2 = 3 = 0 /2. Usando o fato de que a


soma das probabilidadesdeve ser um, obtemos
1
1
e
2 = 3 =
3
3
Note que 0 = 1/3 foi obtida do tempo de recorrncia mdio, calculado no Exemplo
10.26.
1 = 0 =

Na Seo 10.2 vimos que para cadeias de Markov que exigem um comportamento
estacionrio, a matriz de transio de n passos aproxima-se de uma matriz fixa de linhas
iguais medida que n (veja Equao 10.20). Vimos tambm que as linhas desta
matriz limite consistiam de uma fmp que satisfaz (10.49a) e (10.49b). Iremos agora
definir sob quais condies isto ocorre.

226

Cadeias de Markov

Teorema 10.2. Para uma cadeia de Markov irredutvel, aperidica e recorrente positiva,
lim pij (n) = j ,

onde j a nica soluo no negativa das Equaes (10.49a) e (10.49b).

Uma prova deste teorema pode ser encontrada em [Ros83]. O Teorema 10.5.3 afirma
que para cadeias de Markov irredutveis, aperidicas e recorrente positivas, as probabilidades dos estados aproximam-se de valores de estado de regime permanente que
so independentes da condio inicial. Estas probabilidades de regime permanente correspondem s probabilidades estacionrias obtidas nas Equaes (10.49a) e (10.49b) e
portanto correspondem proporo de longo prazo do tempo gasto no estado dado. Esta
a razo pela qual cadeias de Markov irredutveis, aperidicas e recorrente positivas
so chamadas de ergdicas.
Para processos peridicos, temos o seguinte resultado:

Teorema 10.3. Para uma cadeia de Markov irredutvel, peridica e recorrente positiva com perodo d,
lim pjj (nd) = dj

onde j a nica soluo no negativa das Equaes (10.49a) e (10.49b).

Como antes, j a proporo de tempo gasto no estado j. Entretanto, o fato de


o estado j ocorrer apenas em mltiplos de d passos implica que a probabilidade de
ocorrncia do estado j d vezes maior nos instantes permitidos e zero para os demais.
Exemplo 10.28. Calcule as probabilidades de longo prazo para os estados 0 e 2 para a
cadeia de Markov do Exemplo 10.16
Soluo. Nos Exemplos 10.25 e 10.27 vimos que proporo de longo prazo de tempo
gasto no estado 0 0 = 1/3. Se comeamos no estado 0, ento s podem ocorrem
estados pares nos instantes de tempo pares. Ento nestes instantes de tempo pares a
probabilidade do estado 0 2/3 e a probabilidade do estado 2 1/3. Em instantes de
tempo mpares, as probabilidades dos estados 0 e 2 so zero.

10.5.4

Probabilidades limite para as cadeias de Markov de tempo


contnuo

Vimos na Seo 10.3 que uma cadeia de Markov de tempo contnuo X(t) pode ser vista
como sendo constituda de uma sequncia de estados determinada por alguma cadeia de
Markov discreta Xn com probabilidades de transio qij e uma sequncia de tempos de

Cadeias de Markov

227

ocupao de estados correspondente exponencialmente distribuda. Nesta seo, iremos


mostrar que se a cadeia discreta associada irredutvel e recorrente positiva com fmp
estacionria j , ento a proporo de tempo de longo prazo gasta por X(t) no estado i

i /vi
pi = X
j /vj
j

onde 1/vi o tempo mdio de ocupao no estado i. Alm disso, mostramos que os pi
so as solues nicas das equaes de balano global (10.38b) e (10.38c).
Suponha que a cadeia de Markov embutida Xn irredutvel e recorrente positiva,
de modo que a Equao (10.48) seja vlida. Seja Ni (n) o nmero de vezes que o estado
i ocorre nas primeiras n transies, e seja Ti (j) o tempo de ocupao da j-sima vez
que o estado i ocorre. A proporo de tempo gasto no estado i depois das primeiras n
transies
Ni (n)

Ti (j)
tempo gasto no estado i
j=1
=
i (n)
tempo gasto em todos os estados
X NX
Ti (j)
i

j=1

Ni (n) 1
n Ni (n)
=
X Ni (n)
i

(10.50)

Ni (n)

Ti (j)

j=1

Ni (n)
X
1
Ti (j)
Ni (n)
j=1

medida que n , pelas Equaes (10.48), (10.49a) e (10.49b), com probabilidade um,
Ni (n)
i
(10.51)
n
a fmp estacionria da cadeia de Markov embutida. Adicionalmente, temos que Ni (n)
medida que n , de modo que pela lei forte dos nmeros grandes, com probabilidade um,
Ni (n)
X
1
1
Ti (j) E[Ti ] =
Ni (n)
vi

(10.52)

j=1

onde usamos o fato de que o tempo de ocupao de estado no estado i tem mdia
1/vi . As Equaes (10.51) e (10.52) quando aplicadas a (10.50) implicam que, com
probabilidade um, a proporo de longo prazo do tempo gasto no estado i aproxima
i /vi
pi = X
= ci /vi
j /vj
j

(10.53)

228

Cadeias de Markov

onde j a fmp soluo nica para


j =

i qij ,

(10.54)

e c uma constante de normalizao.


Obtemos a equao de balano global (10.38b), substituindo i = vi pi /c da Equao
(10.53) e qij = ij /vi na Equao (10.54):
vj pj =

pi ij ,

i6=j

Ento os pi s so a soluo nicas das equaes de balano global.


Exemplo 10.29. Encontre as probabilidades de longo prazo para os estados da cadeia
de Markov do Exemplo 10.10.
Soluo. Para este sistema
[
qij ] =

0 1
1 0

A equao = [
qij ] implica que
0 = 1 =

1
2

Adicionalmente, v0 = e v1 = . Ento
p0 =

10.6

1/2(1/)
=
1/2(1/ + 1/)
+

p1 =

Exerccios

1. Seja Tn o tempo de chegada do n-simo cliente a uma estao de servio. Seja Zn


o intervalo de tempo entre as chegadas do cliente n e do cliente n 1, isto
Zn = Tn Tn1 , n 1
e T0 = 0. Seja {X(t), t 0} o processo de contagem associado com {Tn , n 0}.
Mostre que se X(t) tem incrementos estacionrios, ento Zn , n = 1, 2, . . . so
v.a.s identicamente distribudas.
2. Desenhe os diagramas de transio de estados e classifique os estados das Cadeias
de Markov para as seguintes matrizes de transio.

0.3 0.4 0 0 0.3

0 0 0.5 0.5
0
0 0.5 0.5
1 0 0
0
1 0 0

0
P = 0
P = 0.5 0 0.5 P =
0 0 0.6 0.4

0 1 0

0
0
0.5 0.5 0
0 0 0
1
0 1 0
0
0
0 1 0
0

Cadeias de Markov

229

3. Considere uma cadeia de Markov com espao de estados {0, 1} e matriz de probabilidades de transio
P =

1
0
1/2 1/2

Mostre que o estado o recorrente e que o estado 1 transiente.


4. Considere uma cadeia de Markov de dois estados com matriz de probabilidade de
transio
P =

1a
a
b
1b

, 0 < a < 1, 0 < b < 1

(a) Encontre P n .
(b) Encontre P n para n .
Resp:





b a
a a
n
+(1 a b)
(a)
b a
b b


1
b a
(b) lim P n =
n
a+b b a
Pn

1
=
a+b

5. Um modelo de Markov para transmisso de voz por pacotes assume que se o nsimo pacote contm silncio, a probabilidade de silncio no prximo pacote
(1 ) e a probabilidade do pacote conter voz .
Similarmente, se o n-simo pacote contiver atividades de voz, a probabilidade do
prximo pacote conter voz (1 ), e a probabilidade de silncio .
(a) Esboce uma cadeia de Markov para este problema.
(b) Para = 1/10 e = 1/5, determine a matriz de transio de estados de um
passo.
(c) Dadas as probabilidades iniciais dos estados p0 = p1 = 0, 5, determine as
probabilidades dos estados depois de 2 passos.
Resp:
(a)
(b) P =

0, 9 0, 1
0, 2 0, 8

(c) p(2) = [ 0, 585 0, 415 ]


6. Considere uma cadeia de Markov com dois estados e matriz de probabilidade de
transio de estados dada por
3
4
P =

1
2

1
4

1
2

230

Cadeias de Markov

(a) Encontre a distribuio estacionria de estados p


para esta cadeia.
(b) Encontre lim P n .
n

Resp:

21
(a) p
=
33


2/3 1/3
n
(b) P =
2/3 1/3


7. Um exemplo de uma cadeia de Markov de dois estados um sistema consistindo


de sequncias de estgios em cascata de canais de comunicao binrios, como
mostrado na figura abaixo.
Xn1 = 0

Xn = 0

1a
-

..............................................................................................................................................................................................................................................................................................................................................................................................................................................................................................
........
........
........
...
...
...
........
........
........
.......
.......
.......
........
........
........
........
........
........
........
........
........
........
........
........
........
........
........
.......
.......
.......
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
........
........
........
........
........
........
........
........
........
.......
.......
.......
.......
.......
.......
........ ..............
........ ..............
........ ..............
.. ..
.. ..
.. ..
.....................
.....................
.....................
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
........
........
........
........
........
........
........
........
........
.......
.......
.......
........
........
........
........
........
........
........
........
........
........
........
........
........
........
........
.......
.......
.......
.
.
.
.
.
.
.
........
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
........
........
........
....
....
....
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
......
........ ........
........ ........
.....
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.................................................................................................................................................. ................................................................................................................................................... ........................................................................................................................................................

Xn1 = 1

b 1b

Xn = 1

Aqui, Xn denota o dgito que deixa o n-simo estgio do canal, e X0 denota o


dgito que entra no primeiro estgio. A matriz de probabilidades de transio
deste sistema de comunicao geralmente chamado de matriz de canal, e dada
por

P =

1a
a
b
1b

0 < a, b < 1

Assuma que a = 0, 1 e b = 0, 2, e que a distribuio inicial P [X0 = 0] = P [X0 =


1] = 0, 5.
(a) Encontre a distribuio de Xn .
(b) Encontre a distribuio de Xn quando n .
Dica:
1
P =
a+b
n



b a
b a

+ (1 a b)

a a
b b



Cadeias de Markov

231

Resp:


2 (0, 7)n
(a)

3
6


1
2
(b)
3
3

1 (0, 7)n

3
6

8. Considere uma cadeia de Markov com dois estados e matriz de transio dada por
P =

0 1
1 0

(a) Encontre a distribuio de estado estacionrio .


(b) Mostre que lim P n no existe.
n

Dica: Calcule P 2 , P 3 , P 4 , . . . e faa a prova por induo.


Resp: (a) [1/2

1/2]

9. Um eltron pode estar em uma de trs possveis rbitas. A transio da rbita i


para a rbita j (i, j = 1, 2, 3) ocorre em uma unidade de tempo com probabilidade
Ci e|ij| , > 0
Esboce uma cadeia de Markov para este problema e calcule as constantes Ci .
Resp: C1 =

1
1+

e2

C2 =

1
1 + 2e

C3 =

1
1+

+ e2

10. Dada a cadeia de Markov abaixo, calcule as probabilidades dos estados em regime
permanente (se existirem).

5
Resp: =
9

2
9

2
9

11. Uma cadeia de Markov com probabilidades de transio pij possui um estado
particular k para o qual pik = q para todos os estados i. Mostre que pk (n) = q, n.

232

Cadeias de Markov

12. Uma urna contm inicialmente 5 bolas brancas e 5 bolas pretas. O seguinte
experimento repetido indefinidamente: uma bola retirada da urna; se a mesma
branca ela recolocada na urna, caso contrrio deixada de fora. Seja Xn o
nmero de bolas pretas que permanecem na urna depois de n testes.
(a) Xn um processo de Markov? Se sim, esboce uma cadeia para este processo.
(b) As probabilidades de transio dependem de n?
(c) Calcule P (n), n , e encontre uma explicao para o resultado obtido.
Resp:
(a) Sim. Para k = 1, 2, . . . , 5 : P [k 1|k] = k/(5 + k) = 1 P [k|k], P [0|0] = 1.

(b) No.

13. Seja X(n) um processo de caminhada aleatria unidimensional.


(a) Mostre que X(n) um processo de Markov.
(b) Encontre a matriz de transio de um passo para este processo.

p, j = i + 1
Resp: P = q, j = i 1

0, caso contrrio

Apndice A

Tabelas Matemticas
A.1

Identidades trigonomtricas

sen2 () + cos2 () = 1
sen( + ) = sen cos + cos sen
sen( ) = sen cos cos sen
cos( + ) = cos cos sen sen
cos( ) = cos cos + sen sen
sen 2 = 2 sen cos
cos 2 = cos2 sen2 = 2 cos2 1 = 1 2 sen2
1
sen sen = [cos( ) cos( + )]
2
1
cos cos = [cos( ) + cos( + )]
2
1
sen cos = [sen( + ) + sen( )]
2
1
cos sen = [sen( + ) sen( )]
2
1
sen2 = (1 cos 2)
2
1
cos2 = (1 + cos 2)
2
ej = cos + j sen
cos =

ej + ej
2

sen =

ej ej
2j

sen = cos( /2)

234

A.2

Tabelas Matemticas

Coeficientes Binomiais



 
n
n
n!
=
=
nk
k!(n k)!
k
 
n
= 0 para n < k
k
     
n
n
n
=
=
=1
n
1
0
   
n
n
=
k = p ou k + p = n (binomiais complementares)
k
p
  
 

n
n
n+1
+
=
(relao de Stiffel)
k
k+1
k+1

A.3

Derivadas

Nas expresses a seguir, u, v e w so funes de x; a, b e c so constantes.


d
(c) = 0
dx
d
(cx) = c
dx
d
(cxn ) = ncxn1
dx
d
du dv
dw
(u v w ) =


dx
dx dx
dx
du
d
(cu) = c
dx
dx
d
dv
du
(uv) = u
+v
dx
dx
dx
d
du
dv
dw
(uvw) =
vw + u w + uv
dx
dx
dx
dx


v(du/dx) u(dv/dx)
d u
=
dx v
v2
du
d n
(u ) = nun1
dx
dx
dy du
dy
=
dx
du dx
d
du
sen(u) = cos(u)
dx
dx
d
du
cos(u) = sen(u)
dx
dx

Tabelas Matemticas
loga (e) du
d
loga (u) =
, a > 0 e a 6= 1
dx
u dx
d
1 du
d
ln(u) =
loge (u) =
dx
dx
u dx
d u
du
a = au ln(a) , a > 0
dx
dx
d u
du
e = eu
dx
dx
d v
d
du
d v ln(u)
dv
u =
e
= ev ln(u) (v ln(u)) = vuv1
+ uv ln(u)
dx
dx
dx
dx
dx
d
1 du
arctg(u) =
dx
1 + u2 dx

A.4
Z

Integrais indefinidas

udv = uv
xn dx =

vdu, onde u e v so funes de x.

xn+1
, exceto para n = 1
n+1

x1 dx = ln x
eax dx =

eax
a

ln xdx = x ln x x

(ln x)n
1
dx =
(ln x)n+1
x
n+1

1
x
1
dx = tan1
a2 + x 2
a
a

xn ln(ax) dx =
xeax dx =

eax (ax 1)
a2

x2 eax dx =

cos(ax) dx =

xn+1
xn+1
ln(ax)
n+1
(n + 1)2

eax (a2 x2 2ax + 2)


a3

1
sen(ax) dx = cos(ax)
a
1
sen(ax)
a

sen2 (ax) dx =

x sen(2ax)

2
4a

235

236
Z

Tabelas Matemticas

x2 sen(ax)dx =
cos2 (ax)dx =
x cos(ax)dx =

2ax sen(ax) + 2cos(ax) a2 x2 sen(ax)


a3

x sen(2ax)
+
2
4a
1
(cos(ax) + ax sen(ax))
a2

x2 cos(ax)dx =

A.5
Z

1
(sen(ax) ax cos(ax))
a2

x sen(ax)dx =


1
2 2
2ax
cos(ax)

2
sen(ax)
+
a
x
sen(ax)
a3

Integrais definidas

tn1 e(a+1)t dt =

(n)
(a + 1)n

n > 0, a > 1

(n) = (n 1)! se n um inteiro positivo


 

1
=

2


1
1 3 5 (2n 1)
n+
=
n = 1, 2, 3, . . .
2
2n

2 2
e x dx =
2
0
Z
2 2
1
xe x =
22
0

Z
2 2

x2 e x =
3
4
0


Z

n+1
n 2 x2
/ 2n+1
=
x e
2
0
Z
a

dx = , a > 0
2
2
a +x
2
0
Z
sen2 (ax)

dx = |a| , a > 0
2
x
2
0
Z
cos(mx)
ma
dx =
e
2
2
x +a
2a
0
r
Z
b2 4ac
(ax2 +bx+c)
e 4a
e
dx =
a

Apndice B

Tabelas de transformadas de
Fourier
B.1

Definio

G(f ) = F {g(t)} =
g(t) = F

B.2

g(t)ej2f t dt

{G(f )} =

G(f )ej2f t df

Propriedades

Linearidade:

F {ag1 (t) + bg2 (t)} = aG1 (f ) + bG2 (f )

Escalonamento no tempo:

F {g(at)} = G(f /a)/|a|

Dualidade:

se F {g(t)} = G(f ) ento F {G(t)} = g(f )

Deslocamento no tempo:

F {g(t t0 )} = G(f )ej2f t0

Deslocamento em frequncia:

F {g(t)ej2f0 t } = G(f f0 )

Diferenciao:

F {g (t)} = j2f G(f )

Integrao:

Z

g(s)ds

= G(f )/(j2f ) + (G(0)/2)(f )

Multiplicao no tempo:

F {g1 (t)g2 (t)} = G1 (f ) G2 (f )

Convoluo no tempo:

F {g1 (t) g2 (t)} = G1 (f )G2 (f )

238

Tabelas de transformadas de Fourier

B.3

Pares de transformadas
g(t)

(
1, T /2 t T /2
0, caso contrrio
sen(2W t)
2W
2W t
(
1
0,

|t|
T ,

|t| < T
caso contrrio

eat u(t), a > 0


ea|t| , a > 0
2

G(f )
sen(f T )
f T

(
1, W f W
0, caso contrrio
T

sen2 (f T )
(f T )2
1
a + j2f

a2

2a
+ (2f )2
2

et

ef

(t)

(f )

(t t0 )

ej2f t0

ej2f0 t

(f f0 )

cos(2f0 t)

1
[(f f0 ) + (f + f0 )]
2

sen(2f0 t)

1
[(f f0 ) + (f + f0 )]
2j

u(t)

1
1
(f ) +
2
j2f

Apndice C

Sries de Taylor
C.1

Srie de Taylor para funes de uma varivel

f (x) = f (a) + f (a)(x a) +

f (a)(x a)2
f (n1) (a)(x a)(n1)
+ +
+ Rn
2!
(n 1)!

onde Rn , o resto aps n termos, dado por qualquer das formas seguintes:
Forma de Lagrange Rn =
Forma de Cauchy Rn =

f (n) ()(x a)n


n!

f (n) ()(x )n1 (x a)


(n 1)!

O valor , que pode ser diferente nas duas formas, fica entre a e x. O resultado
determina se f (x) tem derivadas contnuas de ordem n pelo menos.
Se limn Rn = 0, a srie infinita, chamada de Srie de Taylor para f (x) em
x = a. Se x = 0, a srie frequentemente chamada de Srie de Maclaurin. Estas sries
geralmente convergem para todos os valores de x em algum intervalo de converga ncia
e divergem para todos os x fora deste intervalo.

C.2

Expanses mais utilizadas

x2 x3
+
+ , < x <
2!
3!
(x ln(a))2
(x ln(a))3
ax = ex ln(a) = 1 + x ln(a) +
+
+ , < x <
2!
3!






x1
1
1 x1 2 1 x1 3
ln(x) =
+
+ ,x
+
x
2
x
3
x
2
5
7
3
x
x
x
+

+ , < x <
sen(x) = x
3!
5!
7!
x2 x4 x6
+

+ , < x <
cos(x) = 1
2!
4!
6!
x3 x5 x7
senh(x) = x +
+
+
+ , < x <
3!
5!
7!
ex = 1 + x +

240
x2 x4 x6
+
+
+ , < x <
2!
4!
6!
x5
x2 x4

+ , < x <
esen(x) = 1 + x +
2
8!
15!


x2 x4 31x6
ecos(x) = e 1
+

+ , < x <
2
6
720
cosh(x) = 1 +

Sries de Taylor

Apndice D

Variveis aleatrias discretas


D.1

Bernoulli

SX = {0, 1}
p0 = q = 1 p
E[X] = p

p1 = p

0p1

Var[X] = p(1 p)

GX (z) = (q + pz)
Observaes: a varivel aleatria de Bernoulli o valor da funo indicadora IA para
algum evento A; X = 1 se A ocorre, e 0 caso contrrio.

D.2

Binomial

SX = {0, 1, . . . , n}
 
n k
pk =
p (1 p)nk
k
E[X] = np

k = 0, 1, . . . , n

Var[X] = np(1 p)

GX (z) = (q + pz)n
Observaes: X o nmero de sucessos em n testes de Bernoulli, e portanto a soma de
n variveis aleatrias iid com distribuio de Bernoulli.

D.3

Geomtrica

Primeira verso
SX = {0, 1, 2, . . . }
pk = p(1 p)k

k = 0, 1, . . .

E[X] =

Var[X] =

1p
p

GX (z) =

1p
p2

p
1qz

Observaes: X o nmero de falhas antes do primeiro sucesso em uma sequncia de

242

Variveis aleatrias discretas

testes de Bernoulli independentes. A varivel aleatria geomtrica a nica varivel


aleatria discreta sem memria.
Segunda verso

SX = {1, 2, . . . }
pk = p(1 p)k1
1
p

E[X ] =

GX (z) =

k = 1, 2, . . .

Var[X ] =

1p
p2

pz
1qz

Observaes: X = X + 1 o nmero de tentativas antes do primeiro sucesso em uma


sequncia de testes de Bernoulli independentes.

D.4

Binomial negativa

SX = {r, r + 1, . . . } onde r um inteiro positivo




k1 r
pk =
p (1 p)kr
k = r, r + 1, . . . , n
r1
r
r(1 p)
Var[X] =
p
p2
r

pz
GX (z) = 1qz

E[X] =

Observaes: X o nmero de tentativas at o r-simo sucesso em uma sequncia de


testes de Bernoulli independentes.

D.5

Poisson

SX = {0, 1, 2, . . . }

k
e ,
k = 0, 1, . . .
k!
E[X] =
Var[X] =

pk =

>0

GX (z) = e(z1)
Observaes: X o nmero de eventos que ocorrem em uma unidade de tempo quando
o tempo entre os eventos segue uma distribuio exponencial de mdia 1/.

Apndice E

Variveis aleatrias contnuas


E.1

Uniforme

SX = [a, b]
fX (x) =
E[X] =

1
ba

a+b
2

X (j) =

E.2

axb
Var[X] =

(b a)2
12

ejb eja
j(b a)

Exponencial

SX = [0, )
fX (x) = ex
E[X] =

X (j) =

>0
Var[X] =

1
2

Observaes: A varivel aleatria exponencial a nica varivel aleatria contnua sem


memria. Em geral usada para modelar o tempo entre eventos consecutivos em um
processo de Poisson.

E.3

Gaussiana (Normal)

SX = (, )
fX (x) =
E[X] =

(x)2
1
e 22
2

Var[X] = 2

X (j) = ej

2 2 /2

>0

244

Variveis aleatrias contnuas

Observaes: Sob uma grande gama de condies, X pode ser utilizada para aproximar
a soma de um grande nmero de variveis aleatrias independentes.

E.4

Gama

SX = (0, )

(x)1 ex
> 0, > 0
()

E[X] =
Var[X] = 2

1
X (j) =
(1 j/)
fX (x) =

E.5

m-Erlang

SX = (0, )

ex (x)m1
> 0, m inteiro positivo.
(m 1)!
m
m
Var[X] = 2
E[X] =

m


X (j) =
j
fX (x) =

Observaes: Uma varivel aleatria m-Erlang obtida pela adio de m variveis


aleatrias iid com distribuio exponencial de parmetro . Pode ser obtida a partir da
distribuio gama, fazendo = m, onde m um inteiro positivo.

E.6

Chi-Quadrado (2 )

SX = (0, )
fX (x) =

x(k2)/2 ex/2
2k/2 (k/2)

Var[X] = 2k

k/2
1
X (j) =
1 j2

onde k um inteiro positivo.

E[X] = k

Observaes: A soma do quadrado de k variveis aleatrias gaussianas de mdia zero


e varincia unitria corresponde a uma varivel aleatria com distribuio 2 com k
graus de liberdade.

E.7

Rayleigh

SX = [0, )

Variveis aleatrias contnuas


x x2 /(22 )
e
> 0.
2
r

 2

E[X] =

Var[X] = 2
2
2
fX (x) =

E.8

Cauchy

SX = (, )

fX (x) =
2
(x + 2 )

>0

A mdia e a varincia no existem.


X (j) = e||

E.9

Laplace

SX = (, )

fX (x) = e|x|
2
E[X] = 0
X (j) =

> 0.

Var[X] =
2
2 + 2

2
2

245

Apndice F

Valores da distribuio normal


Nas tabelas a seguir so listados os valores da funo distribuio cumulativa (x) de
uma varivel aleatria com distribuio normal N (0, 1).

Valores da distribuio normal

247

(x)

(x)

(x)

(x)

-4.00
-3.99
-3.98
-3.97
-3.96
-3.95
-3.94
-3.93
-3.92
-3.91
-3.90
-3.89
-3.88
-3.87
-3.86
-3.85
-3.84
-3.83
-3.82
-3.81
-3.80
-3.79
-3.78
-3.77
-3.76
-3.75
-3.74
-3.73
-3.72
-3.71
-3.70
-3.69
-3.68
-3.67
-3.66
-3.65
-3.64
-3.63
-3.62
-3.61
-3.60
-3.59
-3.58
-3.57
-3.56
-3.55
-3.54
-3.53
-3.52
-3.51

0.000031671
0.000033036
0.000034457
0.000035936
0.000037474
0.000039075
0.000040740
0.000042472
0.000044274
0.000046148
0.000048096
0.000050122
0.000052228
0.000054417
0.000056693
0.000059058
0.000061517
0.000064071
0.000066725
0.000069483
0.000072348
0.000075323
0.000078414
0.000081623
0.000084956
0.000088417
0.000092010
0.000095739
0.000099611
0.000103629
0.000107799
0.000112127
0.000116616
0.000121275
0.000126107
0.000131120
0.000136319
0.000141710
0.000147301
0.000153098
0.000159108
0.000165338
0.000171797
0.000178490
0.000185427
0.000192615
0.000200063
0.000207779
0.000215773
0.000224053

-3.50
-3.49
-3.48
-3.47
-3.46
-3.45
-3.44
-3.43
-3.42
-3.41
-3.40
-3.39
-3.38
-3.37
-3.36
-3.35
-3.34
-3.33
-3.32
-3.31
-3.30
-3.29
-3.28
-3.27
-3.26
-3.25
-3.24
-3.23
-3.22
-3.21
-3.20
-3.19
-3.18
-3.17
-3.16
-3.15
-3.14
-3.13
-3.12
-3.11
-3.10
-3.09
-3.08
-3.07
-3.06
-3.05
-3.04
-3.03
-3.02
-3.01

0.000232629
0.000241510
0.000250706
0.000260229
0.000270087
0.000280293
0.000290857
0.000301790
0.000313105
0.000324814
0.000336929
0.000349463
0.000362429
0.000375840
0.000389712
0.000404057
0.000418891
0.000434229
0.000450087
0.000466479
0.000483424
0.000500936
0.000519035
0.000537737
0.000557061
0.000577025
0.000597648
0.000618951
0.000640952
0.000663674
0.000687137
0.000711363
0.000736375
0.000762194
0.000788845
0.000816352
0.000844739
0.000874031
0.000904255
0.000935436
0.000967603
0.001000782
0.001035002
0.001070293
0.001106684
0.001144206
0.001182890
0.001222768
0.001263873
0.001306238

-3.00
-2.99
-2.98
-2.97
-2.96
-2.95
-2.94
-2.93
-2.92
-2.91
-2.90
-2.89
-2.88
-2.87
-2.86
-2.85
-2.84
-2.83
-2.82
-2.81
-2.80
-2.79
-2.78
-2.77
-2.76
-2.75
-2.74
-2.73
-2.72
-2.71
-2.70
-2.69
-2.68
-2.67
-2.66
-2.65
-2.64
-2.63
-2.62
-2.61
-2.60
-2.59
-2.58
-2.57
-2.56
-2.55
-2.54
-2.53
-2.52
-2.51

0.001349898
0.001394887
0.001441241
0.001488998
0.001538195
0.001588869
0.001641061
0.001694810
0.001750156
0.001807143
0.001865813
0.001926209
0.001988375
0.002052358
0.002118205
0.002185961
0.002255676
0.002327400
0.002401182
0.002477074
0.002555130
0.002635402
0.002717944
0.002802814
0.002890068
0.002979763
0.003071959
0.003166716
0.003264095
0.003364160
0.003466973
0.003572600
0.003681108
0.003792562
0.003907032
0.004024588
0.004145301
0.004269243
0.004396488
0.004527111
0.004661188
0.004798796
0.004940015
0.005084925
0.005233608
0.005386145
0.005542623
0.005703126
0.005867741
0.006036558

-2.50
-2.49
-2.48
-2.47
-2.46
-2.45
-2.44
-2.43
-2.42
-2.41
-2.40
-2.39
-2.38
-2.37
-2.36
-2.35
-2.34
-2.33
-2.32
-2.31
-2.30
-2.29
-2.28
-2.27
-2.26
-2.25
-2.24
-2.23
-2.22
-2.21
-2.20
-2.19
-2.18
-2.17
-2.16
-2.15
-2.14
-2.13
-2.12
-2.11
-2.10
-2.09
-2.08
-2.07
-2.06
-2.05
-2.04
-2.03
-2.02
-2.01

0.006209665
0.006387154
0.006569119
0.006755652
0.006946850
0.007142810
0.007343630
0.007549411
0.007760253
0.007976260
0.008197535
0.008424186
0.008656319
0.008894042
0.009137467
0.009386705
0.009641869
0.009903075
0.010170438
0.010444077
0.010724110
0.011010658
0.011303844
0.011603791
0.011910625
0.012224472
0.012545461
0.012873721
0.013209383
0.013552581
0.013903447
0.014262118
0.014628730
0.015003422
0.015386334
0.015777607
0.016177383
0.016585806
0.017003022
0.017429177
0.017864420
0.018308899
0.018762766
0.019226172
0.019699270
0.020182215
0.020675162
0.021178269
0.021691693
0.022215594

248

Valores da distribuio normal

(x)

(x)

(x)

(x)

-2.00
-1.99
-1.98
-1.97
-1.96
-1.95
-1.94
-1.93
-1.92
-1.91
-1.90
-1.89
-1.88
-1.87
-1.86
-1.85
-1.84
-1.83
-1.82
-1.81
-1.80
-1.79
-1.78
-1.77
-1.76
-1.75
-1.74
-1.73
-1.72
-1.71
-1.70
-1.69
-1.68
-1.67
-1.66
-1.65
-1.64
-1.63
-1.62
-1.61
-1.60
-1.59
-1.58
-1.57
-1.56
-1.55
-1.54
-1.53
-1.52
-1.51

0.022750131
0.023295467
0.023851764
0.024419185
0.024997895
0.025588059
0.026189844
0.026803418
0.027428949
0.028066606
0.028716559
0.029378980
0.030054038
0.030741908
0.031442762
0.032156774
0.032884118
0.033624969
0.034379502
0.035147893
0.035930319
0.036726955
0.037537980
0.038363570
0.039203903
0.040059156
0.040929508
0.041815137
0.042716220
0.043632936
0.044565462
0.045513977
0.046478657
0.047459681
0.048457226
0.049471468
0.050502583
0.051550748
0.052616138
0.053698928
0.054799291
0.055917402
0.057053433
0.058207555
0.059379940
0.060570758
0.061780176
0.063008364
0.064255487
0.065521712

-1.50
-1.49
-1.48
-1.47
-1.46
-1.45
-1.44
-1.43
-1.42
-1.41
-1.40
-1.39
-1.38
-1.37
-1.36
-1.35
-1.34
-1.33
-1.32
-1.31
-1.30
-1.29
-1.28
-1.27
-1.26
-1.25
-1.24
-1.23
-1.22
-1.21
-1.20
-1.19
-1.18
-1.17
-1.16
-1.15
-1.14
-1.13
-1.12
-1.11
-1.10
-1.09
-1.08
-1.07
-1.06
-1.05
-1.04
-1.03
-1.02
-1.01

0.066807201
0.068112117
0.069436623
0.070780876
0.072145036
0.073529259
0.074933699
0.076358509
0.077803840
0.079269841
0.080756659
0.082264438
0.083793322
0.085343450
0.086914961
0.088507991
0.090122672
0.091759135
0.093417508
0.095097917
0.096800484
0.098525329
0.100272567
0.102042315
0.103834681
0.105649773
0.107487697
0.109348552
0.111232437
0.113139446
0.115069670
0.117023196
0.119000107
0.121000484
0.123024403
0.125071935
0.127143150
0.129238112
0.131356881
0.133499513
0.135666060
0.137856572
0.140071090
0.142309654
0.144572299
0.146859056
0.149169950
0.151505002
0.153864230
0.156247645

-1.00
-0.99
-0.98
-0.97
-0.96
-0.95
-0.94
-0.93
-0.92
-0.91
-0.90
-0.89
-0.88
-0.87
-0.86
-0.85
-0.84
-0.83
-0.82
-0.81
-0.80
-0.79
-0.78
-0.77
-0.76
-0.75
-0.74
-0.73
-0.72
-0.71
-0.70
-0.69
-0.68
-0.67
-0.66
-0.65
-0.64
-0.63
-0.62
-0.61
-0.60
-0.59
-0.58
-0.57
-0.56
-0.55
-0.54
-0.53
-0.52
-0.51

0.158655253
0.161087059
0.163543059
0.166023246
0.168527607
0.171056126
0.173608780
0.176185542
0.178786379
0.181411254
0.184060125
0.186732943
0.189429654
0.192150202
0.194894521
0.197662543
0.200454193
0.203269391
0.206108053
0.208970087
0.211855398
0.214763884
0.217695437
0.220649946
0.223627292
0.226627352
0.229649997
0.232695092
0.235762497
0.238852068
0.241963652
0.245097093
0.248252230
0.251428895
0.254626914
0.257846110
0.261086299
0.264347292
0.267628893
0.270930903
0.274253117
0.277595324
0.280957308
0.284338849
0.287739718
0.291159686
0.294598516
0.298055965
0.301531787
0.305025730

-0.50
-0.49
-0.48
-0.47
-0.46
-0.45
-0.44
-0.43
-0.42
-0.41
-0.40
-0.39
-0.38
-0.37
-0.36
-0.35
-0.34
-0.33
-0.32
-0.31
-0.30
-0.29
-0.28
-0.27
-0.26
-0.25
-0.24
-0.23
-0.22
-0.21
-0.20
-0.19
-0.18
-0.17
-0.16
-0.15
-0.14
-0.13
-0.12
-0.11
-0.10
-0.09
-0.08
-0.07
-0.06
-0.05
-0.04
-0.03
-0.02
-0.01

0.308537538
0.312066949
0.315613696
0.319177508
0.322758110
0.326355220
0.329968553
0.333597820
0.337242726
0.340902973
0.344578258
0.348268273
0.351972707
0.355691245
0.359423566
0.363169348
0.366928263
0.370699981
0.374484165
0.378280478
0.382088577
0.385908118
0.389738752
0.393580126
0.397431886
0.401293674
0.405165128
0.409045884
0.412935577
0.416833836
0.420740290
0.424654565
0.428576284
0.432505068
0.436440537
0.440382307
0.444329995
0.448283213
0.452241573
0.456204687
0.460172162
0.464143607
0.468118627
0.472096829
0.476077817
0.480061194
0.484046563
0.488033526
0.492021686
0.496010643

Referncias Bibliogrficas
[AZW89] Daniel Tabak Alexander Zayezdny and Dov Wulich, Engineering applications of stochastic processes - theory, problems and solutions, Research Studies
Press, Taunton, Somerset, England, 1989.
[Fel68]

W. Feller, An introduction to probability theory and its implications, vol. I,


John Wiley and Sons, New York, 1968.

[Hay01]

Simon Haykin, Communication systems, John Wiley and Sons, 2001.

[Hsu96]

Hwei P. Hsu, Probability, random variables and stochastic processes, McGrawHill, 1996.

[Jr.87]

Wilber B. Davenport Jr., Probability and random processes. an introduction


for applied scientists and engineers., McGraw-Hill, 1987.

[Lat89]

Bhagwandas Pannalal Lathi, Modern digital and analog communication systems, Sounders College Publishing, 1989.

[LG94]

Alberto Leon-Garcia, Probability and random processes for electrical engineering - second edition, Addison-Wesley, 1994.

[Lip93]

Seymour Lipschutz, Probabilidade, Makron Books, So Paulo, 1993.

[Pap84]

Athanasios Papoulis, Probability, random variables and stochastic processes,


McGraw-Hill, 1984.

[Pro95]

John G. Proakis, Digital communications, McGraw-Hill, 1995.

[Ros83]

Sheldon. M. Ross, Stochastic processes, John Wiley and Sons, New York,
1983.

[Spi78]

Murray R. Spiegel, Probabilidade e estatstica, McGraw-Hill, 1978.

[SW94]

Henry Stark and John W. Woods, Probability, random processes and estimation theory for engineers - second edition, Prentice Hall, New Jersey, 1994.

[Swo94]

Earl W. Swokowsky, Clculo com geometria analtica, Makron Books, So


Paulo, 1994.

[YG98]

Roy D. Yates and David J. Goodman, Probability and stochastic processes a friendly introduction for electrical and computer engineers, John Wiley and
Sons, New York, 1998.

Você também pode gostar