Escolar Documentos
Profissional Documentos
Cultura Documentos
Agradecimentos
Sumrio
Lista de Figuras
vii
1 Probabilidade
1.1 Introduo. . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Teoria de Conjuntos. . . . . . . . . . . . . . . . . . . . .
1.2.1 Lei de De Morgan. . . . . . . . . . . . . . . . . .
1.2.2 Princpio da Dualidade. . . . . . . . . . . . . . .
1.3 Definies de Probabilidade. . . . . . . . . . . . . . . . .
1.3.1 Frequncia Relativa. . . . . . . . . . . . . . . . .
1.3.2 Axiomtica. . . . . . . . . . . . . . . . . . . . . .
1.3.3 Clssica. . . . . . . . . . . . . . . . . . . . . . . .
1.4 Clculo de probabilidades usando mtodos de contagem.
1.4.1 Amostragem com reposio e ordenao. . . . . .
1.4.2 Amostragem sem reposio e com ordenao. . .
1.4.3 Permutao de n objetos distintos. . . . . . . . .
1.4.4 Amostragem sem reposio e sem ordenao. . .
1.4.5 Amostragem com reposio e sem ordenao. . .
1.5 Probabilidade Conjunta. . . . . . . . . . . . . . . . . . .
1.5.1 Probabilidades Marginais. . . . . . . . . . . . . .
1.6 Probabilidade Condicional. . . . . . . . . . . . . . . . .
1.6.1 Regra de Bayes. . . . . . . . . . . . . . . . . . . .
1.7 Eventos independentes. . . . . . . . . . . . . . . . . . . .
1.8 Experimentos sequenciais e diagramas em rvore . . . .
1.9 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
1
2
4
5
5
5
6
7
7
8
8
9
10
11
11
12
12
13
14
16
19
2 Variveis Aleatrias
2.1 Definio. . . . . . . . . . . . . . . . . . . . . . . .
2.2 Funo distribuio cumulativa. . . . . . . . . . . .
2.3 Tipos de Variveis Aleatrias . . . . . . . . . . . .
2.3.1 Discretas . . . . . . . . . . . . . . . . . . .
2.3.2 Contnuas . . . . . . . . . . . . . . . . . . .
2.3.3 Mistas . . . . . . . . . . . . . . . . . . . . .
2.4 Funo Densidade de Probabilidade . . . . . . . . .
2.4.1 Definio . . . . . . . . . . . . . . . . . . .
2.4.2 Propriedades . . . . . . . . . . . . . . . . .
2.4.3 Caso Discreto . . . . . . . . . . . . . . . . .
2.5 Algumas variveis aleatrias discretas importantes
2.5.1 Bernoulli . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
25
25
27
30
30
31
32
33
33
34
35
36
36
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
SUMRIO
2.5.2 Binomial . . . . . . . . . . . . . . . . . . . . . . .
2.5.3 Poisson . . . . . . . . . . . . . . . . . . . . . . .
2.5.4 Geomtrica . . . . . . . . . . . . . . . . . . . . .
2.6 Algumas variveis aleatrias contnuas importantes . . .
2.6.1 Uniforme . . . . . . . . . . . . . . . . . . . . . .
2.6.2 Exponencial . . . . . . . . . . . . . . . . . . . . .
2.6.3 Rayleigh . . . . . . . . . . . . . . . . . . . . . . .
2.6.4 Gaussiana . . . . . . . . . . . . . . . . . . . . . .
2.6.5 Gama . . . . . . . . . . . . . . . . . . . . . . . .
2.6.6 m-Erlang . . . . . . . . . . . . . . . . . . . . . .
2.6.7 Chi-Quadrado (2 ) . . . . . . . . . . . . . . . . .
2.6.8 Cauchy . . . . . . . . . . . . . . . . . . . . . . .
2.6.9 Laplace . . . . . . . . . . . . . . . . . . . . . . .
2.7 Densidades Condicionais . . . . . . . . . . . . . . . . . .
2.8 Variveis Aleatrias Mltiplas . . . . . . . . . . . . . . .
2.8.1 Funo Distribuio de Probabilidade Conjunta .
2.8.2 Densidades marginais . . . . . . . . . . . . . . .
2.8.3 Caso multidimensional . . . . . . . . . . . . . . .
2.8.4 Funo distribuio de probabilidade condicional
2.8.5 Independncia Estatstica de Variveis Aleatrias
2.9 Funes de Variveis Aleatrias . . . . . . . . . . . . . .
2.9.1 Caso Unidimensional . . . . . . . . . . . . . . . .
2.9.2 Caso Multidimensional . . . . . . . . . . . . . . .
2.10 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . .
iii
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
37
37
38
38
39
40
40
41
45
46
47
47
48
49
51
51
52
53
54
56
56
56
61
64
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
72
72
72
74
75
76
77
77
78
78
78
79
79
80
82
83
85
86
90
90
90
92
iv
SUMRIO
4.4
4.5
4.6
4.7
O mtodo da rejeio . . . . . . . . . . . . . .
Gerao de funes de uma varivel aleatria
Gerao de misturas de variveis aleatrias .
Exerccios . . . . . . . . . . . . . . . . . . . .
.
.
.
.
do
. .
. .
. .
. .
. .
. .
. .
. .
. .
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
94
97
98
98
Limite Central
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
100
100
100
103
105
109
111
112
116
118
120
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
125
125
126
128
129
7 A mdia amostral
7.1 Introduo . . . . . . . . . . . . . . . .
7.2 Valor esperado e varincia . . . . . . .
7.3 Mdia amostral de nmeros grandes .
7.4 Leis de Nmeros Grandes . . . . . . .
7.4.1 Lei Fraca de Nmeros Grandes
7.4.2 Lei Forte de Nmeros Grandes
7.5 Exerccios . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
132
132
132
134
135
136
137
138
8 Processos Estocsticos
8.1 Definio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.2 Tipos de procesos estocsticos . . . . . . . . . . . . . . . . . . . .
8.3 Variveis aleatrias a partir de processos estocsticos . . . . . . .
8.4 Sequncias aleatrias independentes e identicamente distribudas
8.5 Processo de Contagem . . . . . . . . . . . . . . . . . . . . . . . .
8.6 Processo de Poisson . . . . . . . . . . . . . . . . . . . . . . . . .
8.7 Processo sinal telegrfico aleatrio . . . . . . . . . . . . . . . . .
8.8 Processo movimento Browniano . . . . . . . . . . . . . . . . . . .
8.9 Mdias estatsticas de processos aleatrios . . . . . . . . . . . . .
8.9.1 Momentos . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.9.2 Funo de autocovarincia . . . . . . . . . . . . . . . . . .
8.10 Classificao dos processos estocsticos . . . . . . . . . . . . . . .
8.10.1 Processos estocsticos estacionrios e no estacionrios . .
8.10.2 Processos estacionrios no sentido amplo . . . . . . . . . .
8.10.3 Processos ergdicos . . . . . . . . . . . . . . . . . . . . . .
8.11 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
140
140
142
143
145
147
148
152
154
155
159
159
160
160
161
164
166
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
SUMRIO
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
173
173
174
177
181
181
184
186
188
191
193
10 Cadeias de Markov
199
10.1 Processos de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
10.2 Cadeias de Markov de Tempo discreto . . . . . . . . . . . . . . . . . . . 202
10.2.1 Probabilidade de transio para n passos . . . . . . . . . . . . . . 203
10.2.2 Probabilidades dos estados . . . . . . . . . . . . . . . . . . . . . 204
10.2.3 Probabilidades em regime . . . . . . . . . . . . . . . . . . . . . . 206
10.3 Cadeias de Markov em tempo contnuo . . . . . . . . . . . . . . . . . . . 207
10.3.1 Tempos de ocupao de estados . . . . . . . . . . . . . . . . . . . 209
10.3.2 Taxas de transio e probabilidades de estados dependentes de
tempo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210
10.4 Probabilidades de Estados em Regime e Equaes de Balano Globais . 214
10.5 Classes de estados, propriedades de recorrncia e probabilidades limite . 218
10.5.1 Classes de estados . . . . . . . . . . . . . . . . . . . . . . . . . . 218
10.5.2 Propriedades de recorrncia . . . . . . . . . . . . . . . . . . . . . 220
10.5.3 Probabilidades limite . . . . . . . . . . . . . . . . . . . . . . . . . 223
10.5.4 Probabilidades limite para as cadeias de Markov de tempo contnuo226
10.6 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228
A Tabelas Matemticas
A.1 Identidades trigonomtricas
A.2 Coeficientes Binomiais . . .
A.3 Derivadas . . . . . . . . . .
A.4 Integrais indefinidas . . . .
A.5 Integrais definidas . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
234
234
235
235
236
237
vi
SUMRIO
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
242
242
242
242
243
243
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
244
244
244
244
245
245
245
245
246
246
247
Bibliografia
250
Lista de Figuras
1.1
1.2
1.3
1.4
2.1
2
4
4
13
2.13
2.14
2.15
3.1
3.2
4.1
4.2
4.3
4.4
4.5
Mtodo da transformada para gerar uma varivel aleatria com fdc FX (x).
Gerando uma varivel aleatria com distribuio de Bernoulli. . . . . . .
Gerando uma varivel aleatria com distribuio Binomial. . . . . . . . .
Mtodo da rejeio para gerar uma varivel aleatria com fdp fX (x). . .
Mtodo da rejeio para gerar uma varivel aleatria com distribuio
gama (0 < < 1). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2
2.3
2.4
2.5
2.6
2.7
2.8
2.9
2.10
2.11
2.12
5.1
5.2
25
27
28
31
31
32
33
34
34
51
57
59
59
60
64
92
93
94
95
96
viii
LISTA DE FIGURAS
5.3
6.1
6.2
7.1
8.1
8.2
8.3
141
141
10.1
10.2
10.3
10.4
143
148
152
155
156
157
157
158
162
165
Filtro passa faixa ideal H(f ) com frequncia central f0 e largura de banda
B Hz. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179
A correlao cruzada entre a entrada e a sada de um filtro linear invariante no tempo a convoluo da resposta a impulso do filtro com a
funo de autocorrelao da entrada. A densidade espectral cruzada entre a entrada e a sada o produto do espectro densidade de potncia da
entrada com a funo de transferncia do filtro. A densidade espectral de
potncia da sada o produto da densidade espectral cruzada da entrada
e da sada e o complexo conjugado da funo de transferncia do filtro. . 188
211
215
216
217
224
Captulo 1
Probabilidade
1.1
Introduo.
Em muitos problemas fsicos de interesse, existe um elemento de incerteza, ou aleatoriedade. Independente de quanto possamos conhecer da histria passada de um dado
fenmeno, somos essencialmente incapacitados de predizer seu comportamento futuro
de forma precisa. Ex. cara ou coroa.
Foi observado que nestes casos certas mdias tendem a um valor constante medida
em que o nmero de observaes cresce. (No exemplo da cara e coroa, quais seriam
estas mdias?) Desde que as mdias geralmente exibem tal regularidade, e so portanto
razoavelmente previsveis, parece ser desejvel desenvolver um estudo sobre o clculo
destas mdias. Este o domnio da teoria matemtica da probabilidade e estatstica.
O propsito desta descrever e predizer tais mdias em termos de probabilidades de
eventos.
Algumas definies importantes:
Probabilidade
Definio
cificaes.
Exemplo:
resultar de
resultados.
1.2
1.3. Eventos: so conjuntos de resultados que atendem a algumas espeno caso de jogar dados, o evento nmero mpar em um arremesso pode
qualquer um de 3 resultados 1,3,5. Desta forma este um evento de 3
Portanto, eventos so agrupamentos de resultados em classes.
Teoria de Conjuntos.
Definio 1.4. Espao amostral: o espao amostral S definido como uma coleo
de todos os resultados possveis de um experimento aleatrio. Cada resultado um
elemento ou amostra deste espao e pode ser convenientemente representado por um
ponto no espao amostral.
Ao
Ae
Probabilidade
O operador para o
complemento tambem
pode ser representado
por uma barra.
Importante!!!!
Definio 1.7. A unio de eventos A e B, denotada por AB, aquele que contm
todos os pontos em A e B.
Definio 1.8. A interseo dos eventos A e B, denotada por A B ou simplesmente AB, o evento que contm pontos comuns a A e a B. Este evento tambm
conhecido como evento conjunto AB.
Observe que AB = BA. Na figura 1.2 abaixo, tem-se estes conceitos mostrados
graficamente em diagramas de Venn.
Probabilidade
ts
S
Ac
A
A
b)
a)
B
d)
c)
1.2.1
Lei de De Morgan.
A+B =AB
Equivalentemente, podemos escrever:
(1.2)
AB = A + B
Demonstrao. A lei de De Morgan pode ser facilmente demonstrada por meio de diagramas de Venn:
A+B
AB
Observao
A aplicao repetida da equao (1.1) leva ao seguinte: se em uma identidade de conjuntos substituimos todos os conjuntos pelos seus complementos, todas as unies por
interseces, e todas as interseces por unies, a identidade preservada.
Exemplo 1.2. Seja a identidade
Probabilidade
(1.3)
A(B + C) = AB + AC
Usando (1.1) segue que
A(B + C) = A + B + C = A + B C
Similarmente
AB + AC = AB AC = (A + B)(A + C)
e desde que os dois lados de (1.3) so iguais, seus complementos tambm o so. Portanto
A + B + C = (A + B)(A + C)
(1.4)
Estas identidades podem ser facilmente conferidas por meio de diagramas de Venn.
1.2.2
Princpio da Dualidade.
S =A+S
obtemos as identidades
A + BC = (A + B)(A + C)
1.3
1.3.1
= A
Definies de Probabilidade.
Frequncia Relativa.
Embora o resultado de um experimento aleatrio seja imprevisvel, existe uma regularidade estatstica sobre este, e a definio por freqncia relativa baseia-se nesta regularidade.
Probabilidade
(1.5)
Observaes importantes
1. Segue da definio que 0 P (A) 1.
2. Se A e B so dois eventos mutuamente exclusivos
P (A + B) = P (A) + P (B) = lim
nA + nB
n
(1.6)
1.3.2
(1.7)
Axiomtica.
P (S) = 1
3. Se os eventos A e B so mutuamente exclusivos, ento
P (A + B) = P (A) + P (B)
P(A+B)=P(A)+P(B)-P(AB)
(1.10)
Propriedades:
P () = 0
P (Ac ) = 1 P (A)
P (A + B) = P (A) + P (B) P (AB) P (A) + P (B)
evento impossvel
Ac complemento de A
probabilidade da unio
Probabilidade
ca,
ca,
ca,
ca,
ca,
ca,
co,
co,
ca
co
ca
co
5)
6)
7)
8)
co,
co,
co,
co,
ca,
ca,
co,
co,
ca
co
ca
co
1.3.3
Clssica.
nA
n
(1.11)
onde:
n: nmero de resultados possveis,
nA : nmero de resultados favorveis ao evento A.
Definio 1.13. A probabilidade de um evento igual razo entre seus resultados favorveis e o nmero total de resultados, desde que todos os resultados sejam
equiprovveis.
Fim da Aula 1
1.4
Em muitos experimentos com espaos amostrais finitos, os resultados podem ser assumidos como sendo equiprovveis. A probabilidade de um evento ento a razo entre
o nmero de resultados no evento de interesse e o nmero total de resultados no espao
amostral. O clculo das probabilidades se reduz a contar o nmero de resultados de um
evento.
Probabilidade
(1.12)
Muitos problemas de contagem podem ser colocados como problemas de amostragem onde selecionamos bolas em urnas ou objetos em populaes. Iremos agora usar
a Equao 1.12 para desenvolver frmulas combinatoriais para vrios tipos de amostragem.
1.4.1
Suponha que escolhemos k objetos de um conjunto A que tem n objetos distintos, com
reposio. Iremos nos referir ao conjunto A como a populao. O experimento produz
uma k-upla ordenada (x1 , . . . , xk ), onde xi A, i = 1, 2, . . . , k. A Equao 1.12, com
n1 = n2 = . . . = nk = n implica que
nmero de k -uplas ordenadas distintas = nk
(1.13)
Exemplo 1.5. Uma urna contm cinco bolas numeradas. Suponha que selecionamos
duas bolas da urna com reposio. Quantos pares ordenados distintos so possveis?
Qual a probabilidade de retirar duas vezes a mesma bola?
Soluo. A Equao 1.13 diz que o nmero de pares ordenados 52 = 25. Na Tabela
abaixo temos os pares possveis. Cinco dos resultados possveis so de bolas com o
mesmo nmero. Se supomos que todos os resultados possveis so equiprovveis, ento
a probabilidade de retirar a mesma bola duas vezes 5/25 = 0, 2.
(1,1)
(2,1)
(3,1)
(4,1)
(5,1)
1.4.2
(1,2)
(2,2)
(3,2)
(4,2)
(5,2)
(1,3)
(2,3)
(3,3)
(4,3)
(5,3)
(1,4)
(2,4)
(3,4)
(4,4)
(5,4)
(1,5)
(2,5)
(3,5)
(4,5)
(5,5)
Probabilidade
(1.14)
Exemplo 1.6. Uma urna contm cinco bolas numeradas. Suponha que selecionamos
duas bolas da urna em sucesso, e sem reposio. Quantos pares ordenados distintos
so possveis? Qual a probabilidade de que a primeira bola tenha um nmero maior
que a segunda?
Soluo. A Equao 1.14 mostra que o nmero de pares ordenados possveis 5(4) =
20. Estes so mostrados na Tabela abaixo. Dez pares ordenados nesta tabela tm o
primeiro nmero maior que o segundo, de forma que a probabilidade deste evento
10/20 = 0,5.
(1,2)
(2,1)
(3,1)
(4,1)
(5,1)
1.4.3
(1,3)
(2,3)
(3,2)
(4,2)
(5,2)
(4,3)
(5,3)
(1,4)
(2,4)
(3,4)
(1,5)
(2,5)
(3,5)
(4,5)
(5,4)
Considere uma amostragem sem reposio com k = n. Isto equivale a retirar objetos de
uma urna at que ela esteja vazia. Ento o nmero de seqncias possveis de n objetos
distintos igual ao nmero de n-uplas da amostragem sem reposio com k = n. Da
Equao 1.14, temos
nmero de permutaes de n objetos = n(n 1) . . . (2)(1) = n!
(1.15)
2 nn+ 2 en
(1.16)
10
1.4.4
Probabilidade
(1.17)
(1.18)
Ck =
k
k!
k!(n k)!
A expresso nk chamada de coeficiente binomial.
Note que escolher k objetos de um conjunto de n equivalente a escolher os (n k)
objetos que no foram selecionados. Segue ento que
n
n
=
(1.19)
k
nk
(1,3)
(2,3)
(1.20)
(1,4)
(2,4)
(3,4)
(1,5)
(2,5)
(3,5)
Note que (i,k) e (k,i) sao o mesmo evento! (4,5)
Exemplo 1.9. Encontre o nmero de permutaes distintas de k bolas brancas e (nk)
bolas pretas.
Soluo. Este problema equivalente ao seguinte problema de amostragem: coloque n
etiquetas numeradas de 1 a n em uma urna, onde cada etiqueta representa uma posio
no arranjo das bolas; pegue uma combinao de k etiquetas e coloque as k bolas brancas
nas posies correspondentes.
Cada combinao de tamanho k leva a um arranjo diferente (permutao) de k bolas
brancas e (n k) bolas pretas.
Ento o nmero de permutaes distintas de k bolas brancas e (n k) bolas pretas
Ckn .
Probabilidade
11
Este exemplo mostra que a amostragem sem reposio e sem ordenao equivalente
a particionar o conjunto de n objetos distintos em dois conjuntos: B, contendo os k
itens que foram retirados da urna, e B c , contendo os (n k) deixados na urna.
Suponha que particionemos um conjunto de n objetos distintos em F subconjuntos
B1 , B2 , . . . , BF , onde ao subconjunto Bj so associados kj elementos e k1 +k2 +. . .+kF =
n.
Neste caso, o nmero de combinaes distintas dado por
n!
k1 !k2 ! . . . kF !
(1.21)
1.4.5
Objeto 2
Objeto 3
x
Objeto 4
xx
Note que este formulrio pode ser resumido pela sequncia xx / / x / xx, onde o
smbolo / usado para separar as entradas para as diferentes colunas. Desta forma os
(n -1) /s indicam as linhas entre as colunas, e onde nada aparece entre /s consecutivos
se o objeto correspondente no foi selecionado.
Cada arranjo diferente de 5 xs e 3 /s leva a um formulrio distinto.
Se identificarmos os xs com bolas brancas e os /s com bolas pretas, ento este
problema
foi considerado no Exemplo 1.9, e o nmero de arranjos diferentes dado por
8
3 .
No caso geral o formulrio ir envolver k xs e (n 1) /s. Ento o nmero de modos
diferentes de escolher k objetos de um conjunto de n objetos distintos com reposio e
sem ordenao dado por
n1+k
n1+k
=
(1.22)
k
n1
1.5
Probabilidade Conjunta.
12
Probabilidade
(1.23)
Exemplo 1.10. Retirar duas cartas em sucesso (com ou sem reposio) de um baralho.
Soluo. Vamos considerar os seguintes eventos
Evento A:
retirar um s na primeira tentativa
Evento B:
retirar um s na segunda tentativa
AB o evento de retirar dois ases.
Calcule esta probabilidade, considerando com reposicao e sem reposicao.
1.5.1
Probabilidades Marginais.
P (Ai , Bj ) = P (Ai )
(1.24)
P (Ai , Bj ) = P (Bj )
(1.25)
i=1
1.6
Probabilidade Condicional.
Considere um experimento combinado no qual um evento conjunto ocorre com probabilidade P (A, B). Suponha que o evento B ocorreu e queremos determinar a probabilidade
de ocorrncia do evento A. Esta probabilidade chamada de probabilidade condicional
e denota-se por P (A|B). Probabilidade de A ocorrer dado que B ocorreu.
Exemplo: encontre a probabilidade de receber o bit "0" dado que o bit "1" foi transmitido
no BSC abaixo
Probabilidade
13
1.6.1
Regra de Bayes.
Teorema 1.2. Teorema de Bayes. Seja um experimento fornecendo dois resultados A e B. Ento,
P (AB) = P (A|B)P (B) = P (B|A)P (A)
(1.27)
(1.29)
nAB
N nB
(1.30)
P (B) = lim
P (A|B) = lim
14
Probabilidade
P (AB)
P (B)
(1.31)
P (AB)
P (A)
(1.32)
(1.33)
Ai = S
(1.34)
i=1
P (B|Ai )P (Ai )
P (Ai , B)
= n
X
P (B)
P (B|Aj )P (Aj )
(1.35)
1.7
Eventos independentes.
(1.36)
(1.37)
Probabilidade
15
Exemplo 1.12. Suponha que uma moeda jogada trs vezes. Se assumimos que as
jogadas so independentes e a probabilidade de caras p, encontre a probabilidade dos
eventos nenhuma coroa, uma coroa, duas coroas e trs coroas.
Soluo. A probabilidade para as sequncias de caras e coroas dada por
P [{CCC}]
P [{CCK}]
P [{CKC}]
P [{KCC}]
P [{KKC}]
P [{KCK}]
P [{CKK}]
P [{KKK}]
=
=
=
=
=
=
=
=
=
=
=
=
=
=
=
=
p3
p2 (1 p)
p2 (1 p)
p2 (1 p)
p(1 p)2
p(1 p)2
p(1 p)2
(1 p)3
= 0]
= 1]
= 2]
= 3]
=
=
=
=
P [KKK] = (1 p)3
P [KKC, KCK, CKK] = 3p(1 p)2
P [CCK, CKC, KCC] = 3p2 (1 p)
P [CCC] = p3
Observaes
A definio de independncia estatstica pode ser estendida a trs ou mais eventos. Para
que trs eventos A1 , A2 e A3 sejam estatisticamente independentes, precisam satisfazer
as seguintes condies
P (A1 , A2 )
P (A1 , A3 )
P (A2 , A3 )
P (A1 , A2 , A3 )
=
=
=
=
P (A1 )P (A2 )
P (A1 )P (A3 )
P (A2 )P (A3 )
P (A1 )P (A2 )P (A3 )
(1.38)
16
1.8
Probabilidade
Exemplo 1.13. Uma companhia tem trs mquinas B1 , B2 e B3 que fabricam resistores
de 1k. Observou-se que 80% dos resistores produzidos por B1 tm tolerncia de 50 do
valor nominal. A mquina B2 produz 90% dos resistores com tolerncia de 50 do valor
nominal. A porcentagem para a mquina B3 de 60%. A cada hora, a mquina B1
produz 3000 resistores, B2 produz 4000 resistores, e B3 produz 3000 resistores. Todos os
resistores so misturados em um recipiente comum e empacotados para envio. Desenhe
um diagrama em rvore para este experimento. Qual a probabilidade de escolher um
resistor da mquina B2 com tolerncia maior que 50?
Probabilidade
17
......
......
......
.....
.....
.
.
.
.
.....
......
......
......
.....
.
.
.
.
....
......
......
......
......
.
.
.
.
..
......
.....
...............................................................................................
.....
......
......
......
......
.....
.....
.....
.....
.....
......
......
.....
.....
.....
.....
.....
......
......
.....
.
B1
0, 3
0, 4
B2
0, 3
B3
...........
................
................
................
................
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.. .............
................
.................
................
................
.........
0, 8
B1 A
0, 24
0, 2
B1 N
0, 06
.....
................
................
................
................
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...................
................
................
................
................
...........
0, 9
B2 A
0, 36
0, 1
B2 N
0, 04
0, 6
B3 A
0, 18
0, 4
B3 N
0, 12
.
................
................
................
................
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
......................
................
................
................
................
...........
0, 5
.......
.........
........
.........
.........
.
.
.
.
.
.
.
.
.
.........
........
.........
.........
................
.........
.........
.........
.........
.........
.........
.........
.........
.........
......
0, 5
G1
R1
....
................
................
.................
...............
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
....................
.................
................
.................
................
.........
0, 8
G2
G1 G2
0, 4
0, 2
R2
G1 R2
0, 1
0, 2
G2
R1 G2
0, 1
0, 8
R2
R1 R2
0, 4
..............
.................
................
................
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
........................
................
................
................
................
...........
18
Probabilidade
O evento W de ter que esperar por pelo menos um farol dado por
W = {R1 G2 G1 R2 R1 R2 }
e desta forma, a probabilidade de esperar por pelo menos um farol dada por
P [W ] = P [R1 G2 ] + P [G1 R2 ] + P [R1 R2 ] = 0, 1 + 0, 1 + 0, 4 = 0, 6
Para encontrar P [G1 |R2 ], precisamos de P [R2 ]. Notando que R2 = {G1 R2 R1 R2 },
temos:
P [R2 ] = P [G1 R2 ] + P [R1 R2 ] = 0, 1 + 0, 4 = 0, 5
Desde que P [G1 R2 ] = 0, 1, a probabilidade condicional de observar o primeiro farol
verde dado que o segundo vermelho dada por:
P [G1 |R2 ] =
0, 1
P [G1 R2 ]
=
= 0, 2
P [R2 ]
0, 5
(1.39)
Exemplo 1.15. Considere o jogo do Trs. Voc embaralha um baralho de trs cartas:
s, 2 e 3. Se o s vale um ponto, voc retira cartas do baralho at que a soma seja 3 ou
mais. Voc ganha se o total for 3. Calcule P [W ], a probabilidade de vencer o jogo.
Soluo. Seja Ci o evento C a i-sima carta retirada. Por exemplo, 32 o evento
de tirar um 3 na segunda rodada. A rvore para este experimento ento:
.....
......
.......
.......
......
.
.
.
.
.
.
.
......
......
.......
.......
......
.
.
.
.
.
.......
.......
......
...................................................................................................
.......
.......
......
......
.......
.......
......
......
.......
.......
......
......
.......
.......
.....
A1
1/3
1/3
21
1/2
22
A1 22
1/6
1/2
.......
................
................
................
................
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.................
................
................
.................
................
..........
32
A1 32
1/6
1/2.......................................... A2
21 A2
1/6
1/2
21 32
1/6
.
................
................
.............................
................
................
.................
................
.........
32
1/3
31
31
1/3
2
11 11 1
+
+ =
32 32 3
3
Exemplo 1.16. Suponha que voc tem duas moedas, uma viciada e outra no, mas voc
no sabe qual qual. A moeda 1 viciada (tem probabilidade 3/4 de dar cara). Suponha
que voc pegue uma moeda de forma aleatria e a arremesse. Seja Ci o evento a moeda
i foi selecionada. Vamos denotar por H (cara) e T (coroa) os possveis resultados de
um arremesso. Dado que o resultado de um arremesso uma cara, calcule P [C1 |H],
a probabilidade de voc ter selecionado a moeda viciada. Dado que o resultado uma
coroa, calcule P [C1 |T ], a probabilidade de ter selecionado a moeda viciada.
Probabilidade
19
........
........
........
.........
........
.
.
.
.
.
.
.
...
.........
........
........
.........
...............
.........
.........
.........
.........
.........
.........
.........
.........
.........
......
1/2
1/2
C1
C2
...
...............
................
................
................
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.....................
................
.................
................
................
..........
3/4
C1 H
3/8
1/4
C1 T
1/8
1/2
C2 H
1/4
1/2
C2 T
1/4
.........
.................
................
................
................
............................
................
................
................
................
...........
P [C1 H]
3/8
3
P [C1 H]
=
=
=
P [H]
P [C1 H] + P [C2 H]
3/8 + 1/4
5
Similarmente,
P [C1 |T ] =
P [C1 T ]
P [C1 T ]
1/8
1
=
=
=
P [T ]
P [C1 T ] + P [C2 T ]
1/8 + 1/4
3
Fim da Aula 2
1.9
Exerccios
coroas] = 1/16
cara] = 1/4
caras] = 3/8
caras] = 1/4
caras] = 1/16
P [9] = 25/216
P [10] = 27/216
20
Probabilidade
3. Uma certa cidade tem 8 faris aleatoriamente localizados, quatro dos quais ficam
verdes por meio minuto na direo leste-oeste e meio minuto na direo nortesul, trs permanecem verdes por 1/4 de minuto na direo leste-oeste e 3/4 de
minuto na direo norte-sul, e o ltimo permanece verde 3/4 de minuto na direo
leste-oeste e 1/4 de minuto na direo norte-sul.
Assuma que todos os faris so independentes, isto , no existe nenhum tipo de
sincronizao entre eles.
Um automvel est viajando de forma aleatria atravs da cidade. Encontre a
probabilidade de o automvel encontrar um sinal verde na direo leste-oeste.
Faa o mesmo para a direo norte-sul.
Qual a probabilidade de um automvel viajando aleatoriamente pela cidade
encontre um sinal verde?
Resp:
P [verde na direo L-O] = 7/16
P [verde na direo N-S] = 9/16
P [verde] = 1/2
4. Uma urna contm 3 bolas vermelhas e 2 brancas. Duas bolas so retiradas em
sucesso, a primeira bola sendo recolocada antes da retirada da segunda.
(a) Quantos resultados so possveis?
(b) Associe probabilidades a cada um destes resultados.
Resp:
(a) 4
(b) P [1a.V, 2a.V] = 9/25
P [1a.V, 2a.B] = 6/25
P [1a.B, 2a.V] = 6/25
P [1a.B, 2a.B] = 4/25
5. Repita o problema anterior se a primeira bola no for recolocada antes da segunda
retirada.
(a) 4
(b) P [1a.V, 2a.V] = 3/10
P [1a.V,2a.B] = 3/10
P [1a.B, 2a.V] = 3/10
P [1a.B, 2a.B] = 1/10
6. No problema anterior, se sabemos que a primeira retirada foi de uma bola branca,
qual a probabilidade de a segunda retirada ser tambm de uma bola branca ?
Resp: 1/4
Probabilidade
21
b) 1/2
8. Uma urna contm 3 bolas vermelhas, 5 bolas brancas e 8 bolas pretas. Outra urna
contm 6 bolas vermelhas, 7 bolas brancas e 4 bolas pretas. Uma bola retirada
de cada urna. Encontre a probabilidade de obter duas bolas da mesma cor.
Resp: 85/272
9. A caixa I contm 3 bolas vermelhas e 5 bolas brancas, e a caixa II, 4 vermelhas
e 2 brancas. Extrai-se ao acaso uma bola da primeira caixa e coloca-se na segunda, sem observar a cor. Extrai-se ento uma bola da segunda caixa. Qual a
probabilidade da mesma ser branca?
Resp: 21/56
10. Em certo colgio, 25 % dos estudantes foram reprovados em matemtica, 15 %
em qumica e 10 % em matemtica e qumica ao mesmo tempo. Um estudante
selecionado aleatoriamente.
a) Se ele foi reprovado em qumica, qual a probabilidade de ele ter sido reprovado em matemtica?
b) Se ele foi reprovado em matemtica, qual a probabilidade de ele ter sido
reprovado em qumica?
c) Qual a probabilidade de ele ter sido reprovado em matemtica ou qumica?
Resp: a) 2/3
b) 2/5
c) 0,30
11. A rede comutada mostrada na figura abaixo opera se e somente se existe pelo
menos um caminho fechado de comutadores entre a entrada e a sada. Assumindo
que os comutadores falhem de forma independente e que a probabilidade de falha
de cada comutador so aquelas dadas na figura, calcule a probabilidade de esta
rede funcionar.
0,2
.......................................................................................
........................................................................................
...
....
..
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
..
.
...
......................................................................
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.............................
..
....
....
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
..
.......................................................................................
........................................................................................
0,4
0,4
0,3
Resp: 0,865
0,1
...........................................
22
Probabilidade
12. Uma urna contm duas bolas pretas e trs bolas brancas. Duas bolas so selecionadas aleatoriamente da urna sem reposio, e a sequncia de cores anotada.
Encontre a probabilidade de retirar duas bolas pretas.
Resp: 1/10
13. Lana-se uma moeda viciada de modo que P [cara] = 2/3 e P [coroa] = 1/3. Se
aparecer cara, ento seleciona-se aleatoriamente um nmero dentre os de 1 a 9;
se aparecer coroa, seleciona-se aleatoriamente um nmero dentre os de 1 a 5.
Encontre a probabilidade p de um nmero par ser selecionado.
Resp: p = 58/135
14. Dois dgitos so selecionaodos aleatoriamente de 1 a 9, sem reposio. Se a soma
par, encontre a probabilidade p de ambos os nmeros serem mpares.
Resp: p = 5/8
15. Telefones celulares realizam handoffs medida em que se movem de uma clula para outra. Suponha que durante uma chamada, os telefones realizam zero
handoffs (H0 ), um handoff (H1 ), ou dois handoffs (H2 ). Adicionalmente, cada
chamada pode ser longa (L) ou breve (B).
Sabendo que P [L, H0 ] = 0.1, P [B, H1 ] = 0.1, P [H2 ] = 0.3, P [B] = 0.6 e P [H0 ] =
0.5, calcule:
(a) A probabilidade de no ocorrer nenhum handoff durante uma chamada.
(b) A probabilidade de uma chamada ser breve.
(c) A probabilidade de uma chamada ser longa ou existirem pelo menos dois
handoffs.
Resp: a) 0.5
b) 0.6
c) 0.5
b) 15/37
Probabilidade
X =1
23
..
..
............................................................................................................................................................................................................................................................................................................................................................................
....................
....... ....
....... .............
............ .......
..
.......
............ .............
.
.
.
.
.
.
.
....... .......................
.
.
.
.
....
............
.......
.......
............
............
.......
.......
............
............
.......
.......
............
............
.......
.......
............
............
.......
.......
............
.
.
.
.
.
.
............
.
.
.
.
.
.
.
.......
.
.
.
.
....
............
....
.......
............ .......................
.......
.......
.......
.......
...........................
.......
.......
............
............
.......
.......
............
............
............................
......................
. ...
....... .........
....... ........................
.......
............
............
.......
............
.......
............
.......
............
.......
............
.......
............
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
............
.
.
.
.
.
.
.
.......
...
.
........
.
............
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...
....
..
.....
................................................................................................................................................................................................................................................................................................................................................................................................
.
.... .............
.
.
.
.
.
.
.
.
.
.......
.......... ....
............
.....
.
.
.
............
.
.
.
.
.
............
.
.
.
.
.
.
.
.......
........
.
.....
............
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.......
............
....
........
.
.
.
.
.
.
.
.
.
.
............
.
.
.
.
.
.
.
.
.
.
.
.......
.
............
....
....... ........................
............ ............
. ..
..........
................
....... ........................
............ .............
............
............
.......
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
......... ...........
.......
.......
.......
..... ...
.......
.......
............ ........................
.......
.......
............
............
.......
.......
............
............
.......
............
.
.......
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
............
.......
........
.....
.
.
.
.
.
.
.
.
.
.
.
.
.......
.
.
.
.
.
.
.
.
.
.
.
.
............
........
......
.
.....
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
............
.
.... ...................
.
.
............ .............
.
.
.
.
............ .......
........................
.
.
.
.
......... .....
.
.
... .....
...........................................................................................................................................................................................................................................................................................................................................................................
....
....
/2
Y =1
/2
X =2
/2
1 /2
/2
Y =2
/2
X =3
Resp:
1
1 + + 1, 5
/2
1 /2
Y =3
a)
..
..
..
..
...... ................................................................................................................................................. ................................................................................................................................................. .................................................................................................................................................. .....
.....
....
....
....
b)
....
... ....
...............................................................
...................
...................
..................
..................
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...................
....
...................
...................
..................
...................
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...................
.
.
............
.
.
.
.
..................
.
.
.
.
.
.
.
.
.
.
.
.
.
...................
...........
.
.
.
.
.
.
.
.
.
.
.
.
.
................... .........
.
.
.
.
.
.
.
.
.
..... .....................................
........................
..................
....
...................
...................
..................
.
.
..................
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...................
............
.
.
.
.
.
.
.
.
.
...................
.
.
.
.
.
.
.
.
.
..........
...................
...................
...................
..................
...................
...................
...................
.................. ........ ...................................
....... ......
.....
b) 2p(1 p) + p2
2
24
Probabilidade
b) 1/2
c) 1/2
d) 1/4
21. A urna 1 contm 5 bolas brancas e 7 bolas pretas. A urna 2 contm 3 bolas brancas
e 12 bolas pretas. Uma moeda ideal arremessada. Se o resultado cara, ento
seleciona-se uma bola da urna 1, enquanto que se o resultado coroa, seleciona-se
uma bola da urna 2. Suponha que uma bola branca tenha sido selecionada. Qual
a probabilidade do resultado do arremesso da moeda ter sido coroa?
Resp:P [co|B] = 12/37
22. Sejam os seguintes eventos:
A: uma famlia tem crianas de ambos os sexos.
Captulo 2
Variveis Aleatrias
2.1
Definio.
Definio 2.1. Uma varivel aleatria X uma funo que associa um nmero real
X() a cada resultado no espao amostral de um experimento aleatrio.
Lembre-se que uma funo simplesmente uma regra que associa um valor numrico
a cada elemento de um conjunto, como mostrado graficamente na Figura 2.1.
S
X() = x
reta real
Figura 2.1: Uma v.a. associa um nmero x = X() a cada resultado no espao
amostral S de um experimento aleatrio.
26
Variveis Aleatrias
X()
CCC
3
CCK
2
CKC
2
KCC
2
CKK
1
KCK
1
KKC
1
KKK
0
A funo ou regra que associa valores a cada resultado fixa ou determinstica, como,
por exemplo, na regra nmero de caras em 3 jogadas de uma moeda. A aleatoriedade
nos valores observados deve-se aleatoriedade dos argumentos da funo X, ou seja os
resultados i do experimento.
Em outras palavras, a aleatoriedade dos valores observados de X induzida pelo
experimento aleatrio, e devemos portanto ser capazes de calcular as probabilidades dos
valores observados em termos das probabilidades dos resultados do experimento.
Exemplo 2.2. O evento {X = k} = {k caras em 3 jogadas de uma moeda} ocorre
quando o resultado do experimento contm k caras. Calcule as probabilidades dos eventos
{X = k}, k = 0, 1, 2, 3.
Soluo. A probabilidade do evento {X = k} dada pela soma das probabilidades dos
resultados correspondentes ou eventos elementares. Seja p a probabilidades de caras e
(1 p) a probabilidade de coroas. Desta forma, temos
p0
p1
p2
p3
=
=
=
=
P [X
P [X
P [X
P [X
= 0]
= 1]
= 2]
= 3]
=
=
=
=
P [{KKK}] = (1 p)3
P [{CKK}]P [{KCK}]P [{KKC}] = 3(1 p)2 p
P [{CCK}]P [{CKC}]P [{KCC}] = 3(1 p)p2
P [{CCC}] = p3
Variveis Aleatrias
27
reta real
2.2
FX (x) = P [X x],
<x<
(2.1)
28
Variveis Aleatrias
Propriedades
Os axiomas de probabilidade e seus corolrios implicam que a fdc tem as seguintes
propriedades:
1. 0 FX (x) 1
2. lim FX (x) = 1
x
3.
lim FX (x) = 0
P [X b]
......................................................................................................................................................................................................................................................................................................................................................................
.
..
.
.
..
...
..
...
.
...
.
.
.........................................................................................................................................................................................................................................................................................................................................................................
..
..
..
...
.
..
..
...
.
..
....................................................................................
....................................................................................................................................................................................................................................................................
P [X a]
v
f
P [a < X b]
> 0. Usando
(2.3)
(2.4)
Variveis Aleatrias
29
S
7. Seja o intervalo {a X b} = {X = a} {a < X b}. Ento
P [a X b] = P [X = a] + P [a < X b]
= FX (a) FX (a ) + FX (b) FX (a)
= FX (b) FX (a )
(2.5)
8. Se a fdc contnua nos limites de um intervalo, ento os limites tm probabilidade zero, e portanto podem ser includos ou excludos do intervalo sem afetar a
probabilidade. Em outras palavras, se a fdc contnua nos pontos x = a e x = b,
ento
(2.6)
0
x<0
1 2
4 (x + 1) 0 x < 1
FX (x) =
1
1
x+
1x<2
4
2
1
x2
b) {X = 1}
c) {X = 0}
e) {x 0}
Soluo. A primeira coisa a fazer analisar como esta funo se comporta: das equaes acima, podemos ver que esta uma funo nula para x < 0; para 0 x < 1 assume
a forma de uma parbola, e no intervalo 1 x < 2 o de uma reta; finalmente, assume
um valor constante igual a 1 para x > 2. Abaixo temos um grfico desta funo.
fX (x)
1
0.75
0.5
0.25
6
....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... .........................................................................................................
..
...... .
......
......
.....
.......
.
.
.
.
.
.......
..
......
.
.
.
.
.
..
.
......
....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ........
..
....
..
..
..
..
....
....
....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....
..
.... ....
.
.
..
....
.
.....
.
.
.
.
.
....
.
...
.
.
.
.
.
.
.......
..
..
........
.
.
.
.
.
.
.
.
.
.
..
.
....... ....... ....... ....... ....... ....... ....... .................
....
....
....
..
..
..
..
..
..
..
..
.
.
....
.
...........................................................................................
-1
0
1
2
3
A partir da anlise do grfico, fica fcil resolver o problema:
a) A probabilidade do evento {X < 1} dado pelo valor da fdc no ponto imediatamente anterior a X = 1. Portanto, P [X < 1] = 1/2.
30
Variveis Aleatrias
2.3
2.3.1
Definio 2.4. A fdc de uma v.a. discreta pode ser escrita como uma soma ponderada de funes degrau unitrio
FX (x) =
X
k
pX (xk )u(x xk )
(2.7)
Exemplo 2.4. Seja a v.a. X definida como nmero de caras em trs arremessos de
uma moeda ideal. Determine a fdc de X.
Soluo. Do Exemplo 2.1 sabemos que X toma apenas os valores 0, 1, 2 e 3. Do
Exemplo 2.2, se fizermos p = 0.5 as probabilidades para cada um destes resultados so
1/8, 3/8, 3/8 e 1/8, respectivamente, de modo que FX (x) simplesmente a soma das
probabilidades dos resultados de 0,1,2,3 que so menores ou iguais a x. A fdc resultante
tem portanto descontinuidades nos pontos 0,1,2 e 3. A fdc de X definida desta maneira
pode ser vista na Figura 2.4.
Variveis Aleatrias
31
FX (x)
1
7/8
1/2
1/8
0
2.3.2
Contnuas
So as v.a.s cujas fdcs FX (x) so contnuas em todos os pontos e, as quais, adicionalmente, so suficientemente suaves de modo que podem ser escritas como uma integral
de alguma funo f (x) no negativa.
Z
f (t)dt
(2.8)
FX (x) =
Para v.a.s contnuas, a fdc contnua em todos os pontos, de modo que a propriedade 6 implica que P [X = x] = 0, x.
Exemplo 2.5. O tempo de transmisso X de mensagens em um sistema de comunicao obedece a lei de probabilidade exponencial com parmetro , isto P [X > x] =
ex , x > 0. Encontre a fdc de X. Calcule P [T < X 2T ], T = 1/.
Soluo. Por definio, a fdc de X dada por FX (x) = P [X x] = 1 P [X > x].
Desta forma, temos
(
0,
x0
FX (x) =
x
1e
, x>0
Na Figura 2.5 tem-se um desenho da fdc de X.
FX (x)
1
32
Variveis Aleatrias
FX (x)
2.3.3
Mistas
(2.9)
onde
0<p<1
F1 (x) a fdc de uma v.a. discreta.
F2 (x) a fdc de uma v.a. contnua.
Variveis Aleatrias
33
O grfico da fdc mostrado na Figura 2.7. Note que FX (x) pode ser expressa como
a soma de uma funo degrau com amplitude p e uma funo contnua de x.
FX (x)
1
2.4
2.4.1
dFX (x)
dx
(2.10)
(2.11)
(2.12)
34
Variveis Aleatrias
fX (x)
fX (x)dx
x x + dx
2.4.2
Propriedades
1. A derivada da fdc, quando existir, positiva desde que a fdc uma funo no
decrescente de x, ento
(2.13)
fX (x) 0
(2.14)
fX (x)dx
a
...................
..... ...........................
....
.
.....................................
...
...
....................................
.
.
..
..........................................
.
.
..
..............................................
...
.....................................................
...
..........................................................
...
...
................................................................
.
.
..
.....................................................................
.
.
..
................................................................. ......
.
.
.
..
................................................................. ........
.
.
.
.
......
....
.................................................................
.
.
.
.
.........
.
....
.
.
.
.................................................................
.....................
.
.
.
.
.
.
.
.
.
.
.
........................
..................................
.
Figura 2.9: A probabilidade de um intervalo [a, b] a rea sob a fdp naquele intervalo.
3. A fdc de X pode ser obtida integrando-se a fdp
FX (x) =
fX (t)dt
(2.15)
Variveis Aleatrias
35
fX (t)dt = 1
(2.16)
5. Uma fdp vlida pode ser formada a partir de qualquer funo g(x) no negativa
e contnua por partes que tenha uma integral finita
Z
g(x)dx = c <
(2.17)
Fazendo fX (x) = g(x)/c obtemos uma funo que satisfaz a condio de normalizao. Note que a fdp precisa ser definida para todos os valores reais de x; se X
no toma valores em alguma regio da reta real, simplesmente fazemos fX (x) = 0
na regio.
2.4.3
Caso Discreto
(2.18)
Na seo 2.3.1 vimos que a fdc de uma v.a. discreta pode ser escrita como uma
soma ponderada de funes degrau unitrio
FX (x) =
X
k
pX (xk )u(x xk )
(2.20)
36
Variveis Aleatrias
X
k
(2.21)
P [X = xk ](x xk )
2.5
As variveis aleatrias discretas aparecem em geral em aplicaes que envolvem contagens. As distribuies discretas mais comuns so:
2.5.1
Bernoulli
pX (x) =
pX (x) 6
1 p = q, X = 0
p,
X=1
(p = q = 0.5)
0.5
0p1
x<0
0,
FX (x) = 1 p, 0 x < 1
1,
x1
FX (x)
6
1 ....... ....... ....... ....... ........................................................
.
....
..
.
.......................................................
..
..
...
.
...
.
......................................................
1p
Variveis Aleatrias
2.5.2
37
Binomial
(n = 10, p = 0.5)
x = 0, 1, . . . , n
0 1 2 3 4 5 6 7 8 9 10 x
Funo distribuio cumulativa
FX (x)
6
1 ....... .......
X n
FX (x) =
px (1 p)nx u(x xk )
x
k
1 2 3 4 5 6 7 8 9 10 x
2.5.3
Poisson
e >0
pX (x)
0.2
( = 4)
-
0 1 2 3 4 5 6 7 8 9 10 x
38
Variveis Aleatrias
X
k e
k=0
k!
u(x k)
2.5.4
...
...
.
..
..
...
..
....
.
...
..
....
.
...
.......................
...
....
...
..........................
.
.
.
.
..
..
.
.
....
.
.
.
......................
...
...
...
...
.
.
.
.
..........................
.
.
.
....
....
....
....
..
.......................
..
..
...
...
...
...
.............................................
.
.
.
.
.
...
...
.
..
..
...
..
....
.
...
..
....
.
...
...
.
..
..
...
..
....
.
...
..
....
.
...
...
.
..
..
...
..
....
.
...
..
....
.
9 10 x
Geomtrica
(p = 0, 5)
x = 0, 1, 2, . . .
-
0 1 2 3 4 5 6 7 8 9 10 x
Funo distribuio cumulativa
FX (x)
6
1 ....... ....... ....... ....... ...........................................................................................................................................................................................................
FX (x) =
X
k=0
p (1 p)k u(x k)
.....................
..
...................
..
.
...
..
..
....
....
...................
..
..
..
..
...
....
....
....
....
....
....
.
.
.
..
..
....
.
.
.
.
..................
0.5
..
...
..
...
..
..
..
...
..
..
..
...
..
..
...
..
...
..
..
..
...
..
..
..
...
..
..
...
..
...
..
..
..
...
..
..
..
...
..
..
...
..
...
..
..
..
...
..
..
..
...
..
..
...
..
...
..
..
..
...
..
..
..
...
..
..
...
..
...
..
..
..
...
..
..
..
...
..
..
...
..
...
..
..
..
...
..
..
..
...
..
1 2 3 4 5 6 7 8 9 10 x
2.6
Estamos sempre limitados a medidas de preciso finita, de modo que toda varivel aleatria encontrada na prtica uma varivel aleatria discreta. Entretanto, existem
vrias razes pelas quais interessante utilizar modelos que utilizem variveis aleatrias
contnuas. Primeiro, em geral, variveis aleatrias contnuas so em geral mais fceis de
lidar analiticamente. Segundo, as formas limite de muitas variveis aleatrias discretas
Variveis Aleatrias
39
geram variveis aleatrias contnuas. Finalmente, existem algumas famlias de variveis aleatrias contnuas que podem ser utilizadas para modelar uma grade variedade
de situaes pelo ajuste de alguns poucos parmetros.
2.6.1
Uniforme
1
fX (x) = b a
0
1
ba
axb
caso contrrio
FX (x) =
xa
1
dy =
ba
ba
1
ba
dy =
=1
ba
ba
0 dy = 0
2. a x b
3. x > b
FX (x) =
FX (x) =
Portanto, temos:
FX (x)
FX (x) =
x a
ba
x<a
axb
x>b
....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ............................................
.... .
..... ...
.....
.....
..
.....
.
.
.
.
..
......
.....
.
.
.
...
.
...
.
.
.
.
.
.
.
......
..
.....
.
.
.
..
.
....
.
.
.
.
....
.
.
.
...
.
....
.
.
.
.
.
.....
..
......
.
.
.
.
..
.
.....................................................
40
2.6.2
Variveis Aleatrias
Exponencial
x0e>0
caso contrrio
0.8
0.6
0.4
0.2
6
...
...
...
...
...
...
...
...
...
...
...
...
......
..
......
....... .....
....... ....
....... ...
............
.............
.........
..................
....... ............
........ ...............
..
..........
............. ...........................................
.
...................
...............................................................................
...................
= 1.0
= 0.5
FX (x) =
x
ey
dy =
= 1(ex e0 )
0
FX (x)
1.0
FX (x) =
1 ex
0
0.8
x 0, > 0
caso contrrio
0.6
0.4
0.2
= 1.0
....................................................
......................
..............
......
..........
...................
........
...............
.
.
.
.
.
.
.
.............
...........
.......
.........
.....
.
.
.
.
.
.
.
.
.
.
.
.
.....
........
....
.......
....
.......
....
.......
......
...
.
.
.
.
.
.
.
..
......
...
......
...
.....
.....
...
....
...
.
.
.
.
.
... .....
... .....
... ....
.. .....
.
.......
......
....
...
= 0.5
2.6.3
Rayleigh
Variveis Aleatrias
41
fX (x) =
x x22
2 e 2
=1
...............
.... . ......
...
... ...
...
..
.
...
.....
...
...
...
....
...
.
.
.
...
...
....
...
.
.
.
..... ............................................................
....
.
.........
.
.
.
..
.
.
.
.
........
.....
.
.
........
.
.. .....
.
....
.
........
...... ..
.. .....
..
........
..... .
.
.
.
.........
.
.
....
.
....
..
.........
.....
... ........
....
....
...........
......
......
... ......
.......
..........
........
..
..
..........................................................
...
..
..
x > 0, > 0
=2
caso contrrio
0
u x2 /2
Z x2 /2
2
1 u2
1 e 2
x2
du =
2
=
1
e
e
FX (x) =
2
2 12
0
0
FX (x)
1
(
x2
1 e 22
FX (x) =
0
x 0, > 0
caso contrrio
=1
=2
2.6.4
Gaussiana
42
Variveis Aleatrias
............
... .....
...
...
...
....
...
..
...
..
.
...
....
...
.
.
.
.
.
.
.
.
.
.
.
.
.
...
.
.
......
....
...
.
...
.
.
. ...
..
...
.
.
.
.
...
.. .....
...
.
.
...
.
...
.
.
.
.
.
...
...
.
..
.
.
.
.
.
...
...
..
...
.
.
...
.
...
.
.
.
.
...
.
.
.
...
...
...
..
.
.
.
...
.
.
...
.
.
.
.
...
...
.
..
.
.
.
.
.
...
...
.
..
.
.
.
.
.
...
...
.
..
.
.
.
...
.
.
....
.
..
.
...
.
.
.
.
.
...
.
...
.
.
.
.
.
.
.
..... ......
.
...
.
.
.
.
.
.
.
.
.
.
.
.
.
........ .......
...
.....
.
.
.
.
.
.
.
.........................
.
.
.
.
.
.
.
. ................................
.................................................................................................
0.5
fX (x) =
1
2
( = 1, = 0.5)
(x )2
2 2
e
( = 0, = 1)
-4
-3
-2
-1
4 x
1
FX (x) =
2
(y)2
2 2
dy
( = 1, = 0.5)
( = 0, = 1)
-4
-3
-2
-1
4 x
Observaes
impossvel expressar a integral de uma fdp Gaussiana entre limites finitos de
forma analtica. Desta forma, a nica soluo calcular estes valores de forma
numrica. Nas Tabelas do Apndice F tem-se os valores da fdc de uma varivel
aleatria Gaussiana N (0, 1) para valores de -4 a 0.
Observe que como a varivel aleatria gaussiana N (0, 1) simtrica em relao
origem, estas tabelas tambm fornecem os valores da fdc no intervalo 0 a 4.
Para valores fora deste intervalo, as probabilidades so muito baixas.
Para aprender como usar esta tabela, vamos introduzir a seguinte propriedade das
variveis aleatrias Gaussianas:
Este teorema diz que qualquer transformao linear de uma varivel aleatria Gaussiana produz outra varivel aleatria Gaussiana. Este teorema nos permite relacionar
Variveis Aleatrias
43
P [a < X b] =
z=
(2.22)
44
Variveis Aleatrias
z=
46 61
= 1.5
10
Assim, esta pontuao corresponde a 1.5 desvios padres menos que o valor esperado.
ey /2 dy
(2.23)
Q(x) =
2 x
Observe que a funo Q(x) corresponde ao valor da probabilidade do evento P [X >
x], sendo portanto o complemento da fdc FX (x), de modo que vale a identidade
Q(x) + FX (x) = 1
(2.24)
Desta simetria, pode-se concluir facilmente que a tabela de valores da funo Q(x)
pode ser obtida diretamente da tabela de valores de (x). Surge ento a pergunta: por
que estudar a funo Q(x) se j temos a funo (x)? Para responder a esta questo, vamos dar uma olhada em outra funo, denominada funo erro complementar,
definida como
Variveis Aleatrias
45
2
erf c(x) =
ey dy
(2.25)
(2.26)
i=0
1
Q(x) = erf c
2
(2.27)
ex /2
Q(x) =
x 2
13 135
1
+
1 2 +
x
x4
x6
(2.28)
2.6.5
(2.29)
(2.30)
Gama
..
.
..
..
6
..
.
..
..
..
..
..
..
..
..
..
...
... ....
... ... ......
... ... ...
... ...
...
... ..
..
...
... ..
...
.....
...
....
...
....
...
......
...
......
...
...
... ...
...
... ....
...
... ...
...
... ...
...
... ....
...
. ...
...
...
...
...
...
...
...
...
...
...
...
...
...
.....
......
...
.......
......
...
.........
................................................................................................................
1.0
= 3, = 0.5
0.8
fX (x) =
(x)1 ex
()
0.6
= 3, = 3
0.4
0.2
0
46
Variveis Aleatrias
x
0
(y)1 ey
dy
()
6 = 3, = 0.5
.....................................................................................................................
...............
..........
......
.......
....
...
......
.
.....
.
..
.
.
.
....
...
...
...
...
...
...
..
....
.
...
..
...
...
...
...
..
....
.
...
..
...
...
...
...
..
....
.
..
...
...
...
... ....
.... ....
..........
= 3, = 3
2.6.6
m-Erlang
..
.
..
..
6
..
.
..
..
..
..
..
..
..
..
..
..
...
... ..........
... ... ....
... ..
..
...
... ...
..
.. ...
...
....
...
....
..
...
...
.....
...
.......
...
... ....
...
...
... ...
...
.... ...
...
.. ...
...
... ...
...
... ....
...
..
...
...
...
...
...
...
...
...
...
...
....
....
...
......
...
.......
.......
......
..........
...............................................................................................................
1.0
m = 3, = 0.5
0.8
fX (x) =
ex (x)m1
,x > 0
(m 1)!
0.6
m = 3, = 3
0.4
0.2
0
.........................................................................................................................................
.
........
.......
.....
......
...
.
.....
....
...
....
..
.
.
.
..
...
...
...
...
...
...
..
.
....
..
...
...
...
...
...
..
....
.
..
...
...
...
...
...
..
.
.....
.
...
... ....
... ...
............
FX (x) =
x
0
ey (y)m1
dy
(m 1)!
6 m = 3, = 0.5
m = 3, = 3
Variveis Aleatrias
2.6.7
47
Chi-Quadrado (2 )
0.3
0.2
0.1
6
.....
....
....
......
........
.
.. ...
.. ...
... ...
.... ....
... ...
... ....
.. ....
...
...
...
...
...
..
...
.
...
...
..
...
...
....
..............................
.
..... .....................
.............
............
........
...
...............
...........
............
..
....... .......................
.................................................................................................................................................
..............................
k=2
k = 10
10
15
20
FX (x) =
x
0
y (k2)/2 ey/2
dy
2k/2 (k/2)
6
........................................................................................................
.............
......
.......
..........
......
.......
.....
.
......
.
.
..
......
.
.
.
.
.
.
.
.
.
.
......
...
.....
...
....
....
...
....
.
..
.
.
.
...
...
....
...
....
...
...
...
.
.
....
..
..
...
...
....
....
...
...
.
....
.
..
..
....
...
....
.....
...
.....
.
.
.
.
.
....
.
..........................
k=2
2.6.8
k = 10
10
15
20
Cauchy
48
Variveis Aleatrias
/
, > 0
+ 2
0.4
x2
0.2
6
.
....
.. ..
.. ..
.. ...
... ...
. .
.. ..
.. ..
.. ....
..
...
...
...
..
..
..
.. ......... ..
....... .........
......
......
...
.
.
.....
...
......
.......
.
.
.......
.....
.
........
.
.
........
.... ......
.
.
.
.
.
...... ........
.............
.
.
.
.
.
...........................
.
.
.
.
......... ......
..........................................................................
...........................................................................
= 0.5
=1
-6
-4
-2
6 x
/
du
+ u2
u x
a 1
arctan
=
a
a
FX (x) =
FX (x)
1
1
FX (x) =
x
1
+ arctan
2
0.5
.................................
...................................................
.
..........
....... ....................
.
.....
.... ...........
.
... .....
... .....
... ...
.... ....
.. ..
......
......
........
...
...
......
.....
.
......
... ...
.. ..
.. ....
.
.
.. ..
... ..
.... ...
..... ..
..... ......
.
.
.
.
.
.
.
..
..........
......
............... ....................
...........................
.....
.........................................
=1
-6
2.6.9
= 0.5
-4
-2
6 x
Laplace
Variveis Aleatrias
49
0.3
0.2
0.1
6
.....
.......
.......
............
.. ...
... .. ...
... .. ....
.... .. ....
.. ... ..
..
...
.. . ...
.. ... ....
.......
.
.
.
.
... . ..... ... . .....
.
. . . .
...
...
... .. ........
...
...
....
...
...
... .... ...... ...
...
....
.
.
.
.
.
.
.
.
...
.
.....
.
...
.
.
.
...
.
.
.
.
.
.
.
...
...
..........
.
.
.
.
.
.
.
.
.
.
.
........ ........
...
.....
.
.
.
.
.
.
.
.
.
.
..................
.
.
.
.
.
... ..
.......
.
...................
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
..
....................................
.......................................................................................................
..
..
= 1, = 2
= 0.5, = 0
-8 -6 -4 -2
8x
2
x
Z x
Z
z
ey
ey
1 1 (x)
z
e
dz +
e
dz =
+
FX (x) =
= 22e
2
2
2
FX (x)
FX (x) =
2.7
1 (x)
e
,
1
x
1 1 e(x) , x >
2 2
...........................
........................................
...........
............
...... ...
..... .....
.
.
.
.
.
..... ....
...
..
...
...
...
..
...
.
..
.
..
.
.
.
..
...
...
...
..
..
..
..
.
.
.
.
..
...
...
...
...
..
....
..
...
.
.
.
.
.
....
...
......
...
.......
....
.........
.....
......
..............
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...................................................................
= 1, = 2
= 0, 5, = 0
-8 -6 -4 -2
8x
Densidades Condicionais
Se temos informao adicional sobre o experimento sob anlise, ento nossas espectativas
podem (ou no) ser alteradas. Por exemplo, ao fazermos apostas em um hipdromo,
se sabemos que um cavalo est machucado ou doente, mesmo que seja um campeo,
diminuimos nossa confiana nele.
Nesta seo iremos mostrar como determinar a influncia de uma informao adicional na fdc de uma varivel aleatria. Isto bastante fcil se lembrarmos que a fdc
na verdade uma probabilidade:
50
Variveis Aleatrias
P [X x, B]
P [B]
Propriedades
A funo distribuio condicional FX (x|B) tem as mesmas propriedades de uma fdc
comum. Dentre elas, podemos destacar:
1. FX (|B) = 0
2. FX (|B) = 1
3. P [a < X b|B] = FX (b|B) FX (a|B)
P [X = xk , B]
P [B]
dFX (x|B)
dx
P [X 10]
P [X 10, X x]
=
=1
P [X 10]
P [X 10]
P [X x]
P [X 10, X x]
=
P [X 10]
P [X 10]
Variveis Aleatrias
FX (x)
1
51
6
....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ......................................................................................................................
.
......... .
........
....
........
........
.
........
.
.
.
.
.
.
.....
.
.
.
.
.
.
....
....
.
.
.
.
.
.
.
X
..................
.......
....
..................
.......
.
.
.
.
.
.
.................
.
................
.......
............................
......
.
.
.
.
.
.
.
.
.
....
..
............. .
......
............
......
....
...........
......
...........
.
......
...........
.
.....
.
.
.
.
.
.
.
.
.
.
.
.
...
.......
.
.
.
.
X
.
.
.
.
.
.
.
....
.
.
......
....
.
.
.
.
.
.
.
.
.
.
.
.
.
..
......
.........
....
.....
........
.
.
.
.
.
.
.
.
.
.
.
.
..
...
.....
........
.......
.....
....
.......
.....
........
.....
.......
.....
.
.
.
.
.
.
....
.
.
... ...........
.
.
.
.
..
..
.... .......
... ...........
.
....
.
............
.
.
.. ...
....
..........
.....
.
F (x|B)
F (x)
10
12
14
2.8
2.8.1
Sejam duas v.a.s X1 e X2 , cada uma delas podendo ser contnua, discreta ou mista.
x1
x2
(2.31)
onde fX1 X2 (x1 , x2 ) a funo densidade de probabilidade conjunta (fdp conjunta). Esta
ltima pode ser expressa na forma
fX1 X2 (x1 , x2 ) =
2
FX X (x1 , x2 )
x1 x2 1 2
(2.32)
52
Variveis Aleatrias
2.8.2
Densidades marginais
Teorema 2.4. Quando a fdp conjunta fX1 X2 (x1 , x2 ) integrada sobre uma das variveis, obtemos a fdp da outra varivel, isto
Z +
fX1 X2 (x1 , x2 )dx1 = fX2 (x2 )
As fdps fX1 (x1 ) e fX2 (x2 ) obtidas a partir da integrao de uma das variveis so
chamadas de fdps marginais.
pX (xi ) = P [X = xi ] = P [X = xi , Y = y1 ou X = xi , Y = y2 ou . . . ]
X
pXY (xi , yj )
=
j=
pY (yj ) = P [Y = yj ] = P [Y = yj , X = x1 ou Y = yj , X = x2 ou . . . ]
X
pXY (xi , yj )
=
i=
Variveis Aleatrias
Teorema 2.8.
53
i= j=
(2.34)
pXY (xi , yj ) = F (, ) = 1
Exemplo 2.10. Duas linhas de produo fabricam um certo tipo de pea. Suponha que
a capacidade (em qualquer dia) seja 5 peas na linha I e 3 peas na linha II. Admita que
o nmero de peas realmente produzidas em qualquer linha seja uma v.a. e que (X, Y )
represente a v.a. bidimensional que fornece o nmero de peas produzidas pela linha
I e a linha II, respectivamente. A Tabela 2.1 fornece a distribuio de probabilidade
conjunta de (X, Y ). Calcule as probabilidades marginais.
Tabela 2.1: Exemplo de probabilidades conjunta e marginal.
Y X
0
1
2
3
Soma
0
0
0,01
0,01
0,01
0,03
1
0,01
0,02
0,03
0,02
0,08
2
0,03
0,04
0,05
0,04
0,16
3
0,05
0,05
0,05
0,06
0,21
4
0,07
0,06
0,05
0,06
0,24
5
0,09
0,08
0,06
0,05
0,28
Soma
0,25
0,26
0,25
0,24
1
2.8.3
Caso multidimensional
(2.35)
54
Variveis Aleatrias
Tomando as derivadas parciais de FX1 X2 ...Xn (x1 , x2 , . . . , xn ) dadas por (2.35), obtemos
fX1 X2 ...Xn (x1 , x2 , . . . , xn ) =
n
FX X ...X (x1 , x2 , . . . , xn )
x1 x2 xn 1 2 n
(2.36)
+ Z +
2.8.4
Teorema 2.9. Sejam duas v.a.s X1 e X2 com fdp conjunta fX1 X2 (x1 , x2 ). A fdc
FX1 (x1 ) condicionada por
x2 x2 < X2 x2
x1
Demonstrao. Sejam X1 e X2 duas v.a.s com fdp conjunta fX1 X2 (x1 , x2 ). Queremos
determinar P [X1 x1 ] condicionada por
x2 x2 < X2 x2
onde x2 algum incremento positivo. Em outras palavras, desejamos calcular a probabilidade do evento (X1 x1 |x2 x2 < X2 x2 ). Usando as relaes estabelecidas
anteriormente para a probabilidade condicional de um evento, a probabilidade do evento
(X1 x1 |x2 x2 < X2 x2 ) pode ser expressa como
P [X1 x1 , x2 x2 < X2 x2 ]
P [x2 x2 < X2 x2 ]
Z x1 Z x2
fX1 X2 (u1 , u2 )du1 du2
x2 x2
=
Z x2
fX2 (u2 )du2
x2 x2
(2.38)
Variveis Aleatrias
55
Teorema 2.10. Teorema do Valor Mdio: se f for uma funo contnua em [a, b]
e diferencivel em (a, b), ento existe c (a, b) tal que f (b) f (a) = f (c)(b a).
De acordo com o Teorema do Valor Mdio enunciado acima, existem pontos c e
c (x2 x2 , x2 ) tais que
Z
x1
x2
x2 x2
Z x2
x2 x2
x1
(2.39)
x1
fX2 (c )x2
x1
(2.40)
x1
(2.41)
Teorema 2.12.
fX1 (x1 |x2 ) =
fX1 X2 (x1 , x2 )
fX2 (x2 )
(2.42)
(2.43)
56
Variveis Aleatrias
=
fXk+1 Xn (xk+1 , . . . , xn )
(2.45)
FX1 X2 Xk (, x2 , . . . , xk |xk+1 , . . . , xn ) = 0
2.8.5
J definimos a independncia estatstica para dois ou mais eventos de uma espao amostral S. Este conceito pode ser estendido para variveis aleatrias definidas em um espao
amostral gerado por um experimento combinado ou por vrias tentativas de um nico
experimento. Se os experimentos gerarem resultados mutuamente exclusivos, a probabilidade de um resultado em um experimento independente de um resultado em
qualquer outro experimento. Isto , a probabilidade conjunta dos resultados pode ser
fatorada no produto das probabilidades correspondentes a cada resultado. Consequentemente, as variveis aleatrias correspondentes aos resultados nestes experimentos so
independentes no sentido de que sua fdp conjunta pode ser fatorada no produto das
fdps marginais.
(2.46)
(2.47)
ou alternativamente
2.9
2.9.1
Variveis Aleatrias
57
Teorema 2.13. Sejam duas v.a.s X e Y , com Y = g(X). Nestas condies, a fdp
de Y dada por
fX (x)
fY (y) =
|g (X)| x=g1 (y)
fY (y)
Y = g(X)
b)
a)
c)
x0
(2.48)
x0
(2.49)
pois as probabilidades so iguais s magnitudes das reas sob X e Y , respectivamente. Desta forma
f (x)
fX (x)
= X
fY (y) =
|g (X)|
dY
dX
(2.50)
Observe que fY (y) uma funo de y. Desta forma, no lado direito da equao
acima, a varivel x deve ser expressa em termos de y. Assumindo que y = g(x) tem
uma inversa x = g 1 (y), temos
fX (x)
fY (y) =
(2.51)
|g (X)| x=g1 (y)
58
Variveis Aleatrias
Soluo. Neste caso, g(x) = 1/3(12 x). Assim, a derivada e a inversa de g(x) so
dadas por:
1
1
(0 1) =
g 1 (U ) = 12 3U
3
3
Aplicando o Teorema 2.13, temos:
X 2
x2
(4 U )2
81
=
fU (u) =
=
27 g1 (U )
3
1
3 1
g (U )
g (x) =
Ainda, para X variando no intervalo (3, 6), U varia no intervalo (2, 5), e a soluo
final ento dada por:
(4 u)2
, 2<u<5
fU (u) =
3
0,
caso contrrio
Exemplo 2.12. Considere a v.a. Y definida como Y = aX + b, a > 0. Se X tem fdp
dada por fX (x), encontre a fdp de Y em termos da fdp de X.
Soluo. Na Figura 2.12a) tem-se o mapeamento de X contra Y . Notamos que este
mapeamento linear e monotnico. Sejam FX (x) e FY (y) as fdcs para X e Y , respectivamente. Ento
Z yb
a
yb
yb
=
fX (x)dx = FX
FY (y) = P [Y y] = P [aX + b y] = P X
a
a
Variveis Aleatrias
59
Y = aX + b, a > 0
fX (x)
fY (y)
1
a
-1
ba
b)
a)
b+a
c)
Corolrio 2.14. Quando a equao Y = g(X) tem duas razes, x1 e x2 , a fdp fY (y)
dada por
fX (x1 )
fX (x2 )
fY (y) =
+
|g1 (x1 )| x1 =g1 (y) |g2 (x2 )| x2 =g1 (y)
1
g2 (x2 )
g1 (x1 )
y
x1
x1
x2
x2
60
Variveis Aleatrias
fX (x2 )
fX (x1 )
+
fY (y) =
|g1 (x1 )| x1 =g1 (y) |g2 (x2 )| x2 =g1 (y)
(2.52)
(2.53)
Se existirem n valores de X para um dado valor de Y , podemos estender este resultado para o seguinte corolrio:
yb
]
a
Variveis Aleatrias
61
FY (y) = FX
yb
a
FX
yb
a
yb
a
yb
a
q
yb
a
f X x2 =
fX
f X x1 =
q
fY (y) =
q
q
+
=
yb
yb
g x2 =
g x1 =
2a yb
a
a
a
X
X
2.9.2
q
yb
fX
a
q
+
2a yb
a
Caso Multidimensional
Teorema 2.16. Considere duas v.a.s X e Y e sua fdp conjunta fXY (x, y). Sejam
U e V outras duas v.a.s relacionadas a X e Y por U = U (X, Y ) e V = V (X, Y ).
Suponha que tanto U como V assumem valores nicos para valores particulares de X
e Y , e vice-versa. Ento
fU V (u, v) =
fXY (x, y)
u, v
J
x, y
Demonstrao. Considere duas v.a.s X e Y e sua fdp conjunta fXY (x, y). Sejam U e
V outras duas v.a.s relacionadas a X e Y por U = U (X, Y ) e V = V (X, Y ). Suponha
que tanto U como V assumem valores nicos para valores particulares de X e Y , e viceversa. Similarmente ao caso unidimensional, para obter fU V (u, v) a partir de fXY (x, y),
observe que
fU V (u, v)|dudv| = fXY (x, y)|dxdy|
(2.54)
Portanto
fXY (x, y)
fU V (u, v) =
dudv
dxdy
(2.55)
A relao entre os dois elementos de rea nos dois sistemas de coordenadas pode ser
expressa em termos do Jacobiano como
62
Variveis Aleatrias
dudv = J
u, v
x, y
(2.56)
dxdy
Portanto
u
x
u, v
J
=
v
x, y
x
fU V (u, v) =
u
y
v
y
(2.57)
fXY (x, y)
u, v
J
x, y
(2.58)
f (xn , yn )
XY
u, v
J
xn , y n
(2.59)
Portanto
Variveis Aleatrias
63
fY1 Y2 Yn (y1 , y2 , . . . , yn ) =
fX1 X2 Xn (x1 , x2 , . . . , xn )
dy1 , dy2 , . . . , dyn
dx1 , dx2 , . . . , dxn
(2.61)
y1 ,...,yn
x1 ,...,xn
(2.62)
onde
Portanto
y1 , y2 , . . . , yn
J
=
x1 , x2 , . . . , xn
y1
x1
y2
x1
..
.
yn
x1
fY1 Y2 Yn (y1 , y2 , . . . , yn ) =
Pode-se mostrar que
J
y1 , y2 , . . . , yn
x1 , x2 , . . . , xn
y1
x2
y2
x2
..
.
yn
x2
y1
xn
y2
xn
..
.
yn
xn
...
...
..
...
fX1 X2 Xn (x1 , x2 , . . . , xn )
y1 , y2 , . . . , yn
J
x1 , x2 , . . . , xn
=
J
1
x1 , x2 , . . . , xn
y1 , y2 , . . . , yn
(2.63)
(2.64)
(2.65)
x2
1
2 2
e 22
fY (y) =
1
2 2
y 2
e 22
Soluo.
R,
X, Y
R
X
R
Y
64
Variveis Aleatrias
f () =
1
2 ,
0,
0 < < 2
caso contrrio
r r22
e 2
2
fR (r) conhecida como funo densidade de Rayleigh.
fR (r) =
fR (r)
6
............
..... .. .......
... .. .......
...
...
..
...
.
...
...
.
...
...
...
...
.
.
..
..
...
.
.
...
..
.
...
.
..
...
.
.
..
...
....
...
.
.
.
...
...
....
...
.
...
.
...
...
....
...
.
.
...
.
....
..
....
....
.
.
.
.
....
.....
....
......
...
...
......
.
.
.......
.
.........
..
....
...............
...................................
..
..
2.10
Exerccios
b) 2e1 3e2
Variveis Aleatrias
65
x2 +y 2
2
u(x)u(y)
x2
2
y2
2
fXY (x|Y = y) = xe
fXY (y|X = x) = ye
x2
2
y2
2
(b) sim
3. A funo densidade de probabilidade conjunta fXY (x, y) de duas v.a.s contnuas
X e Y dada por
fXY (x, y) = ke(x
2 +2xy+2y 2 )
1
2
2
fXY (x|Y = y) = e(x +2xy+y )
r
2 ( x2 +2xy+2y2 )
e 2
fXY (y|X = x) =
(c) no
66
Variveis Aleatrias
fX (x) =
x2
1
e 22
2
Encontre fY (y).
y
1
e 22 , y > 0
Resp: fY (y) = 2 2y
0,
caso contrrio
y
1
e 22 , y > 0
Resp: fY (y) = 2y
0,
caso contrrio
6. Suponha que trs usurios de telefone tenham uma linha em comum. Qual a probabilidade de mais de um deles utilizar a linha ao mesmo tempo? Admita que,
em mdia, um usurio utilize o aparelho durante 5 minutos por hora.
Resp: 425/21600 0, 0197
7. Se 20% dos bits transmitidos por um transmissor acusam defeito, determine a
probabilidade de que, em 4 bits transmitidos ao acaso:
(a) Um seja errado
(b) Nenhum esteja errado
(c) Ao menos dois estejam errados
Resp: a) 0,4096
b) 0,4096
c) 0,1808
8. Se os defeitos de um tecido seguem uma lei de Poisson com mdia de defeito a cada
500 m, qual a probabilidade de que o intervalo entre dois defeitos consecutivos
seja:
(a) no mnimo 1250 m
(b) entre 1000 m e 1250 m
(c) menor que 1000 m
Resp: a) e5/2 0, 082
b) e2 e5/2 0, 053
c) 1 e2 0, 865
Variveis Aleatrias
67
pares dessa espcie. Determine dois diferentes conjuntos de valores (a, b) que satisfaam condio acima. Suponha que, em aditamento ao acima, se exija que
P (X < a) = P (X > b).
Resp: a = 4, 45 e b = 16, 97
11. A fdp de uma varivel aleatria X fX (x). Uma varivel aleatria Y definida
como Y = aX + b, a < 0. Determine a fdp de Y em termos da fdp de X.
yb
1
, a<0
Resp: fY (y) = fX
a
a
12. Verifique quais das funes abaixo podem ser consideradas fdcs. Justifique sua
resposta.
0 x<0
1 e2x x 0
2x x 0
2
a) y =
x 0 x < 1 b) y =
c) y =
0
x<0
0
x<0
1 x1
Resp: Apenas o item c) no pode ser fdc.
(1 ex) (1 ey) x 0, y 0
0
caso contrrio
x0
caso contrrio
y0
caso contrrio
i. P [X 1, Y 1] = (1 e )(1 e )
ii. P [X > x, Y > y] = ex ey
14. Uma varivel aleatria X tem funo densidade de probabilidade dada por
fX (x) =
c
, <X <
x2 + 1
68
Variveis Aleatrias
Resp:
(a) c = 1/
(b) P [1/3 X 2 1] = 1/6
1 1
(c) FX (x) = + arctg(x)
2
15. Seja a varivel aleatria X com funo densidade de probabilidade dada por
(
6x(1 x), 0 < x < 1
fX (x) =
0,
caso contrrio
Determine uma funo Y = h(X) que tenha a funo densidade de probabilidade
(
12y 3 (1 y 2 ), 0 < y < 1
fY (y) =
0,
caso contrrio
Dica: Admita que a funo incgnita h seja tal que os intervalos X x e Y y
se correspondam biunvoca e continuamente, de forma que P [X x] = P [Y y],
ou seja FX (x) = FY (y).
Resp: Y = X
16. Assuma que duas variveis aleatrias X e Y tm funo densidade de probabilidade conjunta dada por
1 2
1
2
exp (x + y )
fXY (x, y) =
2
2
Sejam duas outras variveis aleatrias U e W definidas da seguinte maneira:
U = 3X + 5Y
W = X + 2Y
Variveis Aleatrias
(a) k =
(b)
(c)
(d)
(e)
69
1 ex ,
x<0
FX (x) = 2 1
1 ex , x 0
2
2
E[X] = 0, Var[X] = 2
1 1
(e e2 ) 0, 1163
2
1 1
(e e2 ) 0, 1163
2
FT (t) =
1 et/3 t 0
0
caso contrrio
1 et/3 , t 0
(a) fT (t) = 3
0,
caso contrrio
b) 1
c) FY (y)
(b) FXY (, )
(d) FXY (, )
d) 0
0 x 1, 0 y 1
caso contrrio
X e Y so independentes?
Resp: sim
21. Sejam X e Y duas v.a.s com fdp conjunta dada por
(
A(x + y), 0 x 1, 0 y 1
fXY (x, y) =
0,
caso contrrio
70
Variveis Aleatrias
(ln(y))2
1
e 22
y>0
Resp: fY (y) =
2y
0
caso contrrio
0 x /2, 0 y /2
Variveis Aleatrias
71
A = 0, 5
FXY (x, y) = 0, 5 [sen(x) + sen(y) sen(x + y)]
FX (x) = 0, 5 [1 cos(x) + sen(x)]
FY (y) = 0, 5 [1 cos(y) + sen(y)]
0,18
26. Uma companhia area sabe que 5% das pessoas que fazem reservas em um determinado vo no comparecem para o embarque. Consequentemente, sua poltica
vender 52 passagens para um vo que pode transportar at 50 passageiros. Qual
a probabilidade de haver assentos disponveis para todos os passageiros que comparecerem ao embarque?
Resp: 0,7405
27. Suponha que um sinal x(t) alimenta um dispositiva cuja sada seja y(t). Se X tem
distribuio uniforme no intervalo (0, 2) e y = ln(x), calcule fY (y) e FY (y). Faa
os esboos das curvas pertinentes, indicando valores em alguns pontos notveis
(onde a funo corta os eixos ou muda abruptamente).
Resp:
y
e ,
fY (y) = 2
0,
y
e ,
FY (y) = 2
1,
Captulo 3
Mdias
O conceito de mdias assume uma posio extremamente importante em processos aleatrios. Como mencionado anteriormente, os processos aleatrios so caracterizados pela
regularidade estatstica. Usando o termo regularidade estatstica indicamos que o
processo no pode ser predito especificamente, mas pode ser predito em uma base mdia. Por exemplo, no experimento de jogar moedas no possvel prever o resultado de
uma jogada particular, mas em mdia, podemos confiar que metade das jogadas iro
ser caras, e a outra metade, coroas, dado que esta mdia seja feita sobre um nmero
suficientemente grande de jogadas.
3.1.1
Considere uma v.a. X que pode assumir n valores x1 , x2 , . . . , xn . Suponha que o experimento (representado por X) foi repetido N vezes (N ) e sejam m1 , m2 , . . . , mn
o nmero de tentativas favorveis aos resultados x1 , x2 , . . . , xn , respectivamente. Ento
o valor mdio de X dado por
E[X] =
m1
m2
mn
1
(m1 x1 + m2 x2 + + mn xn ) =
x1 +
x2 + +
xn
N
N
N
N
(3.1)
E[X] =
n
X
xi pX (xi )
i=1
(3.2)
73
Definio 3.1. A mdia ou valor esperado de uma v.a. discreta dado por
n
X
E[X] =
(3.3)
xi pX (xi )
i=1
(3.4)
(xm)2
1
e 22
2
(xm)2
2 2
xe
dx
E[X] =
1
2
(y + m)e
y2
2 2
dy =
1
2
Z
ye
y2
2 2
dy + m
y2
2 2
dy
1
2 2
+
0
y2
e 22 dy =
1
1
2m
2 2 = m
2
2
74
3.1.2
Y = g(X)
Teorema 3.1. Sejam duas v.a.s X e Y relacionadas por Y = g(X). Ento o valor
mdio de Y dado por
Z +
Z +
g(X)fX (x)dx
(3.6)
yfY (y)dy =
E[Y ] =
x1
dx1
x2
dx2
x3
X
dx3
(3.7)
(3.8)
75
Teorema 3.2. Se X uma v.a. discreta, (3.6) pode ser reescrita como
E[Y ] =
g(xi )P [X = xi ] =
(3.9)
Exemplo 3.2. Encontrar o valor quadrtico mdio da distribuio gaussiana do Exemplo 3.1.
Soluo. Temos que Y = g(X) = X 2 . Ento
Z +
(xm)2
1
E[Y ] =
x2 e 22 dx
2
3.1.3
(3.10)
Ento
E[Z] =
zfZ (z)dz
(3.11)
Teorema 3.3. Sejam duas v.a.s X e Y com fdp conjunta fXY (x, y), e a v.a. Z
definida por Z = g(X, Y ). Ento o valor mdio de Z dado por
Z + Z +
g(X, Y )fXY (x, y)dxdy
(3.12)
E[Z] =
76
(3.13)
Teorema 3.4. Para v.a.s discretas, (3.12) pode ser reescrita como
E[Z] =
XX
i
(3.14)
Podemos estender facilmente a equao (3.12) para o caso de uma funo de n v.a.s:
E[Z] =
(3.15)
Se algumas das v.a.s so discretas, a equao (3.15) ainda vlida desde que a
distribuio discreta considerada um caso limite da distribuio contnua atravs do
uso da funo impulso.
3.1.4
(3.16)
(3.17)
(3.18)
3.1.5
77
Teorema 3.7. Para v.a.s independentes a mdia do produto igual ao produto das
mdias individuais.
Demonstrao. Se Z = XY
E[Z] =
+ Z +
(3.19)
(3.21)
E[XY ] = E[X]E[Y ]
(3.22)
(3.23)
Em outras palavras
3.1.6
E[Z 2 ]
= E[(X + Y
)2 ]
+ Z +
+2
+ Z +
+ Z +
+ Z +
(3.24)
78
+ Z +
x fX (x) dx
Z +
fY (y) dy =
x2 fX (x) dx = E[X 2 ]
Similarmente
Z
+ Z +
fX (x) dx
y 2 fY (y) dy =
y 2 fY (y) dy = E[Y 2 ]
(3.25)
3.1.7
(3.26)
Mdia condicional
3.2
3.2.1
Momentos
N-simo momento
3.2.2
79
Momentos Centrais
3.2.3
Varincia
(3.30)
Soluo. No Exemplo 3.1 vimos que E[X] = m, e no Exemplo 3.2, foi mostrado que
E[X 2 ] = 2 + m2 .
2 = 2 + m2 m2 = 2 .
Desta forma, pela equao (3.31) temos que X
80
3.2.4
Caso Multidimensional
Definio 3.6. Sejam duas v.a.s X1 e X2 com fdp conjunta fX1 X2 (x1 , x2 ). O momento conjunto definido como
i Z + Z +
h
k n
xk1 xn2 fX1 X2 (x1 , x2 ) dx1 dx2
(3.32)
E X1 X2 =
Definio 3.7. Sejam duas v.a.s X1 e X2 com fdp conjunta fX1 X2 (x1 , x2 ). O momento central conjunto definido como
i Z
h
E (X1 m1 )k (X2 m2 )n =
onde mi = E[Xi ].
+ Z +
(3.33)
81
(3.34)
Demonstrao. Considere a expresso E (X Y )2 para duas variveis aleatrias X
e Y quaisquer, e uma varivel real . Esta expresso, quando vista como um quadrado
em , sempre no negativa, isto :
E (X Y )2 0
Vamos escolher agora o valor de de modo que o lado esquerdo da equao acima seja
mnimo:
=
E[XY ]
E[Y 2 ]
[E(X, Y )]2
0 [E(XY )]2 E X 2 E Y 2
2
E [Y ]
82
= E[(Xi mi )(Xj mj )]
=
+ Z +
+ Z +
(3.36)
= E[Xi Xj ] mi mj
As matrizes n x n com elementos ij e ij so chamadas respectivamente de matriz
de correlao e matriz de covarincia das v.a.s Xi , i = 1, 2, . . . , n.
3.2.5
3.3
83
Funes Caractersticas
1 a constante imaginria.
(j) pode ser vista como a transformada de Fourier da fdp fX (x). Assim, a
transformada inversa de Fourier dada por
1
fX (x) =
2
(j)ejx d
(3.38)
Teorema 3.13. Sejam uma varivel aleatria X e sua correspondente funo caracterstica (j). Ento
n
n
n d (j)
(3.39)
E[X ] = (j)
d n =0
xejx fX (x) dx
(3.40)
d(j)
= j
d =0
(3.41)
(3.42)
Ento os momentos de uma v.a. podem ser determinados a partir da funo caracterstica. Por outro lado suponha que a funo caracterstica possa ser expandida em
uma srie de Taylor sobre o ponto = 0, isto
84
(j) =
n
X
d (j)
d n
n=0
=0
n
n!
(3.43)
Usando a relao em (3.42) para eliminar a derivada em (3.43), obtemos uma expresso para a funo caracterstica em termos de seus momentos na forma
(j) =
E[X n ]
n=0
(j)n
n!
(3.44)
n
X
Xi
n
Y
Xi (j)
i=1
i=1
Demonstrao. O problema consiste em determinar a fdp de Y . Iremos fazer isto encontrando primeiro a sua funo caracterstica a ento calculando a transformada inversa
de Fourier.
Y (j) = E ejY
"
= E exp j
=E
n
X
Xi
i=1
" n
Y
i=1
jXi
!#
(3.45)
#
n
Y
i=1
Xi (j)
(3.46)
85
Corolrio 3.15. Se alm de independentes, as v.a.s Xi forem identicamente distribudas, as Xi (j) so idnticas, e a expresso acima reduz-se a
Y (j) = [Xi (j)]n
(3.47)
Observaes:
A fdp de Y pode ser determinada a partir da transformada inversa de Fourier de
Y (j), dada pela equao (3.38).
Desde que a funo caracterstica da soma de n v.a.s estatisticamente independentes igual ao produto das funes caractersticas das v.a.s individuais
Xi , i = 1, 2, . . . , n, segue que no domnio da transformada, a fdp de Y a convoluo das fdps de Xi . Geralmente a convoluo mais difcil de calcular do que
o mtodo da funo caracterstica descrito acima para determinar a fdp de Y .
3.3.1
Caso multidimensional
Para lidar com v.a.s n-dimensionais, conveniente definir uma transformada de Fourier
n-dimensional da fdp conjunta.
(j1 , j2 , . . . , jn ) = E exp j
exp j
n
X
n
X
i=1
i Xi
i=1
i Xi
!#
+ Z +
(3.49)
(3.50)
86
3.4
Exerccios
mn =
xn fX (x) dx
dn FX ()
mn = (j)
d n =0
n
FX () = m0 jm1
n
m3 3
m2 2
(j)n mn
+j
+ =
2!
3!
n!
n=0
(a) E[X] = m
(b) E[X] = 2
E[X 2 ] = 6
3. Seja X uma v.a. com mdia e desvio padro > 0, e seja X a v.a. padronizada
correspondente de X, isto X = (X )/. Mostre que E[X ] = 0 e Var[X ] =
1. (Logo X = 1).
4. Encontre o n-simo momento de X, se X uma v.a. uniformemente distribuda
no intervalo [a, b].
Resp: E[X n ] =
bn+1 an+1
(b a)(n + 1)
E[X 2 ] =
2 = E[X 2 ] m2
Mostre que X
x2 fx (x)dx
2
X
=
(x m)2 fx (x)dx
87
a
,
(x2 + a2 )
< x <
Resp: (j) = ea
8. Seja Y = a cos(t + ) onde a, , e t so constantes, e uma varivel aleatria
com distribuio uniforme no intervalo (0, 2). A varivel aleatria Y resulta na
amostragem da amplitude de uma senide com fase aleatria . Encontre E[Y] e
E[Y 2 ].
Resp: E[Y ] = 0
E[Y 2 ] =
a2
2
9. Mostre que o primeiro e segundo momentos de uma varivel aleatria com distribuio 2n so respectivamente n e (n2 + 2n), aplicando o teorema dos momentos
sobre a funo caracterstica.
A fdp de uma distribuio 2n dada pela expresso
fY (y) =
y
n
1
y ( 2 1) e 2 ,
n
2 ( 2 )
n
2
y0
tp1 et dt,
p>0
(p + 1) = p (p)
Dica: faa u = y/2
10. Determine os momentos de uma varivel aleatria X com distribuio N (0, 1).
(
0
n = 1, 3, 5, 7, . . .
Resp: E[X n ] =
1 3 5 (n 1) n = 2, 4, 6, 8, . . .
11. Dada uma varivel aleatria discreta que assume dois valores 0 e 1 com probabilidades p e q, respectivamente, prove que 2 0, 25. Encontre o valor para o
qual 2 = 0, 25.
Resp: q = 0, 5
12. Sabe-se que para uma varivel aleatria X positiva, o segundo e o quarto momentos so dados por 2 2 e 8 4 , respectivamente. Se Y = X 2 , determine a mdia e
a varincia de Y .
Resp: E[Y ] = 2 2
Var[Y ] = 4 4 .
88
0, 5
pX (xk ) = 0, 5
x = 1
x = +1
caso contrrio
fX (x) dx =
fX (x) dx
ento FX () = 1/2.
16. Seja (X, Y ) uma v.a. bidimensional com fdp conjunta
fXY (x, y) =
x2
1
2
e 22
2
x<0
x0
2
2
0, 363 2
(c) 1
(b)
18. Suponha que a fmp conjunta de uma varivel aleatria bidimensional (X, Y ) seja
dada por
(
1/3
pXY (x, y) =
0
1/3 x = 0, 1, 2
0
caso contrrio
1/3
pY (y) = 2/3
(b) no
(c) sim
x=0
x=1
caso contrrio
89
Captulo 4
Introduo
4.2
mod M
(4.1)
91
Z1 = resto de
Do Exemplo acima, podemos notar que a escolha de influi diretamente na sequncia gerada: se divisor de M , ento a sequncia gerada pela Equao (4.1) ir
eventualmente ser toda nula; caso contrrio, a sequncia ser peridica com perodo
mximo M 1. Para que a sequncia tenha o mximo comprimento possvel, deve
ser uma raiz primitiva de M , um conceito cujo estudo est fora do escopo deste texto.
Uma coisa a ser notada sobre este algoritmo que as sequncias produzidas pela
Equao (4.1) no so realmente aleatrias, mas sim peridicas. Por esta razo, as
sequncias produzidas por (4.1) so chamadas de pseudo-aleatrias.
Se fizermos M grande o suficiente, ento os nmeros gerados no iro se repetir
durante uma dada simulao, e a sequncia gerada tem a aparncia de uma sequncia
aleatria.
92
Vrios estudos foram feitos para determinar bons valores para M e . Uma combinao que bastante usada :
Zi = 75 Zi1
mod (231 1)
(4.2)
ou seja, = 75 = 16807 e M = 231 1. Esta combinao gera sequncias pseudoaleatrias de comprimento M 1 = 231 1 1 = 2147483646 elementos, o que mais
que suficiente para a maioria das aplicaes.
A escolha de Z0 determina o ponto em que a sequncia ir se iniciar, e por isso, este
parmetro conhecido como a semente do gerador aleatrio.
Nas sees a seguir, iremos descrever algoritmos para gerar sequncias de nmeros
aleatrios com outras distribuies de probabilidade a partir das sequncias geradas
nesta seo.
4.3
Mtodo da transformada
Suponha que U seja uniformemente distribuda no intervalo [0, 1]. Seja FX (x) a fdc
de uma varivel aleatria que estamos interessados em gerar. Vamos definir a varivel
aleatria Z = FX1 (U ); isto , primeiro selecionamos U e depois encontramos Z, como
indicado na Figura 4.1. A fdc da varivel Z encontrada desta maneira dada por:
FZ (z) = P [Z x] = P [FX1 (U ) x] = P [U FX (x)]
Mas se U uniformemente distribuda em [0, 1] e 0 h 1, ento P [U h] = h.
Ento:
P [Z x] = FX (x)
e Z = FX1 (U ) tem a fdc desejada.
1.0
.......................................................................................................................................................................................................................................................................................................................
...
...
...
.
.........
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
..........
.
.
X
.
.
.
.
.....
.
.
.
.
.
.......
.
.
.
.
.
...
.
.
.
.
.
..
...
..........
..........
.
...
.
.
.
.
.
.
.
...
.....
.
.
.
.
.
.
.
...
......
.
.
.
.
.
.
....
.
.
.
.
.....
.
.
.....
.
.
...
.
.
.
.....
.
...
.
.
.
.
....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... .................
....
.... .
.
...
.
.
.
....
...
.
.
.
.
.
.
...
...
.
.
.
.
.
.
....
.
.
.
.....
.
.
...
.
.
.
.
...
.
.
.
...
.
...
.
.
...
.
.
....
.
.
..
.
.
.
...
.
.
..
.
...
.
.
.
..
.
.
...
.
.
.
.
...
...
.
.
...
...
.
.
.
.
..
..
.
.
.
.....
..
.
...
.
.
..
.
.
...
.
.
.
..
.
....
.
..
.
.
...
.
.
..
..
.
...
.
.
..
...
.
.
...
..
...
.
.
.
.
...
.
.
..
.
.
.....
.
.
..
...
...
.
.
1
..
...
.
..
..
.
....
.
X
.
..
...
.
..
..
...
.
.
.
..
...
F (x)
0.8
0.6
0.4
0.2
Z=F
(U )
0
Figura 4.1: Mtodo da transformada para gerar uma varivel aleatria com fdc FX (x).
93
Exemplo 4.2. Determine X para gerar uma sequncia de nmeros aleatrios com
distribuio exponencial de parmetro a partir de uma sequncia de nmeros aleatrios
uniformemente distribudos no intervalo [0, 1].
Soluo. Precisamos inverter a expresso u = FX (x) = 1 ex . Com isto, obtemos
1
X = ln(1 U )
Note que podemos usar a expresso mais simples X = ln(U )/, desde que (1 U )
tambm uniformemente distribuda no intervalo [0, 1].
Exemplo 4.3. Para gerar uma varivel aleatria com distribuio de Bernoulli de
probabilidade de sucesso p, notamos da Figura 4.2 que
(
0, U p
X=
1, U > p
Em outras palavras, particionamos o intervalo [0, 1] em dois segmentos de comprimentos p e 1 p, respectivamente. A sada X determinada pelo intervalo em que U
cair.
1.0
0.8
.....................................................................................................................................................................................................................................................................................................................................................................
...
...
....
...
.
...
...
....
...
...
....
....
.
...
.....
....
...
...
....
...
.
...
....
....
...
...
...
...
.
...
.
...
....
...
...
...
...
...
.
...
.
...
....
...
..................
...
...
.
.....
...
.
...
....
...
...
...
....
.
...
.
...
....
...
.....
...
...
.
...
.
....
....
...
...
...
.
.
X=1
0.6
U
0.4
0.2
?
6
X=0
-0.5
0.5
1.5
X
Figura 4.2: Gerando uma varivel aleatria com distribuio de Bernoulli.
94
Exemplo 4.4. Gere uma varivel aleatria com distribuio binomial de parmetros
n = 5 e p = 1/2.
Soluo. Para gerar uma varivel aleatria com distribuio binomial de parmetros
n = 5 e p = 1/2, poderamos simplesmente gerar cinco variveis aleatrias com distribuio de Bernoulli e assumir Y como sendo o nmero total de sucessos.
Alternativamente, podemos usar diretamente o mtodo da transformada, como mostrado na Figura 4.3. O intervalo unitrio agora particionado em seis elementos. A
eficincia do algoritmo de partio depende da ordem na qual fazemos a busca. Por
exemplo, se fazemos a busca nos segmentos em ordem (de 0 a 5), sero necessrias em
mdia 3.5 comparaes para cada nmero gerado. Se fizermos a busca nos segmentos
em ordem decrescente de probabilidade, ento o nmero mdio de comparaes cai para
2.38.
1.0
............................................................................................................................................................................................................................................................................................................................................................................................................................................
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
..
X=5
X=4
0.8
0.6
U
0.4
0.2
X =3
X=2
X =0
X =1
X
Figura 4.3: Gerando uma varivel aleatria com distribuio Binomial.
Claramente qualquer varivel aleatria finita discreta pode ser gerada dividindose o intervalo unitrio em subintervalos com comprimentos determinadospela fmp. O
prximo mtodo baseado na fdp ao invs da fdc de Z.
4.4
O mtodo da rejeio
Iremos considerar uma verso simplificada deste algoritmo para explicar porque ele
funciona. Depois o algoritmo ser reapresentado em sua forma geral.
Suponha que estamos interessados em gerar uma varivel aleatria Z com fdp fX (x),
como mostrado na Figura 4.4. Em particular, assumimos que:
a fdp no nula somente no intervalo [0, a];
a fdp assume valores no intervalo [0, b].
95
...............................................................................................................................................................................................................................................................................................
...
...................
.....
.....
......
.....
...
...
...
...
.
...
.
...
..
.
.
....
.
...
..
.
...
.
.
...
.
.
...
.
...
...
...
.
.
...
...
..
.
...
...
X
..
.
.
...
..
.
.....
.
...
..
...
.
.
...
.
.
...
.
...
...
.
.
....
...
..
...
.
.
...
..
...
.
.
...
.
...
.
.
...
..
...
.
.
.
.
.........
...
..
.
.
.
.
.
..................
..
.
.
.
.
.....
....................
..
.
.
...
.
.
................. .....
..
.
.
.
...
.
.
..
................ .....
.
.
.
.
....
.
.....
..
.................
.
.
.
.
.
.
...
.
.
.
......
................
....
.
.
.
.
...
.
.
.
.
.
.
.......
................
.....
.
.
.
...
.
.
.
.
.
.
.
.
.
.
.
.
.
...............
................
.......
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
....
.....
Rejeitar
f (x)
Aceitar
x x + dx
Figura 4.4: Mtodo da rejeio para gerar uma varivel aleatria com fdp fX (x).
O mtodo da rejeio neste caso funciona da seguinte maneira:
1. Gere X1 com distribuio uniforme no intervalo [0, a].
2. Gere Y com distribuio uniforme no intervalo [0, b].
3. Se Y fX (X1 ), ento Z = X1 ; seno, rejeite X1 e retorne ao passo 1.
Note que este algoritmo ir realizar um nmero aleatrio de passos antes de produzir
a sada Z.
Iremos mostrar agora que a sada Z tem a fdp desejada: os passos 1 e 2 selecionam
aleatoriamente um ponto em um retngulo de largura a e altura b. A probabilidade
de selecionar um ponto em qualquer regio simplesmente a rea da regio dividida
pela rea total do retngulo, ab. Ento a probabilidade de aceitar X1 a rea da
regio abaixo de fX (x) dividida por ab. Mas a rea sob qualquer fdp 1, de modo
que conclumos que a probabilidade de sucesso 1/(ab). Considere agora a seguinte
probabilidade:
P [{x < X1 x + dx}, {X1 ser aceito }]
P [X1 ser aceito ]
fX (x) dx/(ab)
rea sombreada/(ab)
=
=
1/(ab)
1/(ab)
= fX (x)dx
Ento, X1 , quando aceito, tem a fdp desejada, e portanto Z tem a fdp desejada.
O algoritmo acima pode apresentar dois problemas: primeiro, se a diferena entre
o retngulo e a fdp a ser gerada for muito grande, ento o nmero de X1 s que devem
ser gerados antes da aceitao pode ser excessivamente alto; segundo, este mtodo no
pode ser utilizado se fX (x) no limitada, ou se seu contradomnio no limitado.
A verso geral deste algoritmo resolve estes dois problemas: suponha que queremos
gerar X com fdp fX (x). Seja W uma varivel aleatria com fdp FW (x) que fcil de
gerar, e tal que para alguma constante K > 1,
KfW (x) fX (x), x
ou seja, a regio sob KfW (x) contm fX (x), como mostrado na Figura 4.5.
96
0.8
0.6
0.4
0.2
.........................................................................................................................................................................................................................................................................................................................................................................
...
. ...
.
... ....
.....
...
..
...
...
...
...
...
...
....
..
...
...
...
...
...
...
..
...
...
...
...
..
...
..
.
...
.
.....
...
..
...
.
...
...
...
...
...
....
...
...
...
...
..
...
...
....
...
...
....
..
...
....
...
.
.
...
....
..
.....
.....
.....
...
...
.
.
...
...
..
...
...
...
...
...
..
....
..
.
...
.
...
.
...
.
.
..
...
...
..
...
.
.....
...
.
...
W
...
....
...
..
X
...
....
...
...
...
..
....
...
...
...
...
..
...
...
...
.... ....
. ..
.....
.......
...
.......
...
.
.
.
..............
. ........
....
....... .........
...
.........................
...
...
....... ..................
....... ..................
...
....... . ...................
...
...... .....
....................
.. ....... .. ...........................
....
..... ....... ....... .....................................
....... ....... ....... ................................................................................................
....... ....... ....... ....... .....
Rejeitar
Kf (x)
f (x)
Aceitar
Figura 4.5: Mtodo da rejeio para gerar uma varivel aleatria com distribuio gama
(0 < < 1).
Exemplo 4.5. Mostre uma maneira de gerar uma varivel aleatria com distribuio
gama de parmetros 0 < < 1 e = 1, usando o mtodo da rejeio.
Soluo. Uma funo KfW (x) que cobre fX (x)
fX (x) =
1
x
, 0x1
()
x1 ex
KfW (x) =
()
ex
,
()
ex1
, 0x1
+e
fW (x) =
ex
e
, x>1
+e
A fdc de W
x>1
FW (x) =
ex
+ e
97
0x1
ex
1 e
, x>1
+e
W pode ser gerada facilmente usando o mtodo da transformao com
( + e)u 1/
,
u e/( + e)
e
1
(u) =
FW
(1 u)
, u > e/( + e)
ln ( + e)
e
Podemos usar o mtodo da transformada para gerar esta fW (x), e ento o mtodo
da rejeio para gerar qualquer varivel aleatria com distribuio gama de parmetros
0 < < 1 e = 1. Finalmente, note que se fizermos W = X, ento W ter
distribuio gama com parmetros e .
4.5
Se tivermos um mtodo simples para gerar uma varivel aleatria X, podemos gerar
facilmente qualquer varivel aleatria que seja definida por Y = g(x) ou mesmo Z =
h(X1 , X2 , . . . , Xn ), onde X1 , X2 , . . . , Xn so n sadas do gerador de nmeros aleatrios.
Exemplo 4.6. Mtodo Box & Muller. Pode-se mostrar que se U1 e U2 so variveis
aleatrias independentes e uniformemente distribudas no intervalo unitrio, ento
q
2 +
X = cos(2U2 ) 2 ln(U1 )X
X
e
q
Y = sen(2U2 ) 2 ln(U1 )Y2 + Y
Exemplo 4.7. Seja X1 , X2 , . . . , Xm uma sequncia de variveis aleatrias iid com distribuio exponencial de parmetro . Iremos mostrar no Captulo 5 que a varivel
aleatria
Y = X1 + X2 + + Xm
tem uma distribuio m-Erlang com parmetro . Podemos ento gerar uma varivel
aleatria m-Erlang gerando primeiro m variveis aleatrias com distribuio exponencial de parmetro atravs do mtodo da transformada, e tomando a soma destas.
98
4.6
s vezes uma varivel aleatria consiste de uma mistura de vrias variveis aleatrias.
Para gerar este tipo de varivel aleatria podemos primeiramente selecionar uma distribuio de acordo com alguma fmp, e ento gerar uma amostra da varivel aleatria
selecionada. Este procedimento pode ser facilmente simulado, como mostrado da seguir:
Exemplo 4.8. Uma varivel aleatria exponencial de dois estgios tem fdp
fX (x) = paeax + (1 p)bebx
Fica claro da expresso acima que X consiste da mistura de duas variveis aleatrias
exponenciais com parmetros a e b, respectivamente.
X pode ser gerada da seguinte maneira:
Realize um teste de Bernoulli com probabilidade de sucesso p.
Se o resultado for um sucesso, use o mtodo da transformada para gerar uma
varivel aleatria exponencial de parmetro a.
Se o resultado for um fracasso, use o mtodo da transformada para gerar uma
varivel aleatria exponencial de parmetro b.
4.7
Exerccios
99
Captulo 5
Introduo
Uma grande variedade de questes pode ser respondida estudando-se uma v.a. Wn ,
definida como a soma de n v.a.s
Wn = X1 + X2 + + Xn
(5.1)
5.2
Mdias de somas
E[g(X1 , X2 )] =
Z
Z
+ Z +
+ Z +
+ Z +
+ Z +
101
Ou seja, a esperana da soma igual soma das esperanas quer as v.a.s sejam
independentes ou no. Para a varincia de Wn , temos
n
X
Var[Xi ] + 2
i=1
n1
X
n
X
Cov[Xi , Xj ]
i=1 j=i+1
Pn
i=1 Xi
e E[Wn ] =
!2
n
n
n
X
X
X
(Xj j )
(Xi i ) = E (Xi i )
Var[Wn ] = E
i=1
i=1
j=1
Var[Wn ] =
n
X
i=1
n
X
i=1
X
(Xi i )(Xj j )
E (Xi i )2 +
Var[Xi ] +
j6=i
n X
X
Cov[Xi , Xj ]
i=1 j6=i
102
n X
X
Cov[Xi , Xj ] = 2
i=1 j6=i
n X
n
X
Cov[Xi , Xj ]
i=1 j=i+1
Yn =
N
1
X
i=0
ai Xni
5.3
103
fXY (w y, y) dy
Y
w
X +Y w
X
FW (w) = P [X + Y w] =
+ Z wx
fXY (x, y) dy dx
+
d
dw
Z
wx
fXY (x, y) dy
dx =
fXY (x, w x) dx
fXY (w y, y) dy
104
y =wx
105
5.4
esx fX (x) dx
(5.2)
Esta equao indica que a FGM de uma v.a. contnua similar transformada de
Laplace de uma funo temporal. Para uma v.a. discreta Y a FGM torna-se
Y (s) =
esyi pY (yi )
(5.3)
yi SY
106
esx (x a) dx = esa
esx dx =
es 1
s
esx ex dx =
1 p x = 0
fX (x) = p
x=1
0
caso contrrio
a FGM de X
x = 1, 2, . . .
caso contrrio
a FGM de X
X (s) =
X
x=1
X
((1 p)es )x1 =
x=1
pes
1 (1 p)es
107
x = 0, 1, 2, . . .
caso contrrio
a FGM de X
X (s) =
X
x=0
esx x e /x! = e
X
s
(es )x /x! = e(e 1)
x=0
X (s)|s=0 = E esX s=0 = E e0 = 1
Este teorema bastante til para verificar se uma funo pode ser uma FGM vlida.
Como seu nome sugere, a funo X (s) especialmente til para encontrar os momentos de X.
Teorema 5.8. Uma v.a. com FGM X (s) tem n-simo momento
dn X (s)
n
E[X ] =
dsn s=0
108
Z
esx fX (x) dx
xesx fX (x) dx
xn esx fX (x) dx
Exemplo 5.9. Encontre o n-simo momento de uma v.a. com fdp exponencial
fX (x) =
ex
0
x0
caso contrrio
dX (s)
=
=
E[X] =
2
ds
( s) s=0
s=0
d2 X (s)
2
2
E[X ] =
=
= 2
2
3
ds
( s) s=0
s=0
2
d3 X (s)
E[X ] =
ds3
3
s=0
6
6
=
=
( s)4 s=0 3
s)
s=0
s=0
n
5.5
109
(5.4)
W (s) = E esX esY = E esX E esY = X (s)Y (s)
(5.5)
E[g1 (X1 )g2 (X2 ) gn (Xn )] = E[g1 (X1 )]E[g2 (X2 )] E[gn (Xn )]
(5.6)
Corolrio 5.10. Para as v.a.s X1 , X2 , . . . , Xn independentes e identicamente distribudas cada qual com FGM X (s), a FGM de W = X1 + X2 + + Xn
W (s) = [X (s)]n
110
Vimos anteriormente que a fdp fW (w) obtida atravs da convoluo das fdps
individuais fXi (xi ). A FGM W (s) simplesmente a multiplicao das FGMs individuais Xi (s). Geralmente, o clculo destas convolues um processo complexo e
tedioso, e a alternativa seria transformar fX (x) em X (s), e ento usar o Corolrio
5.10 para obter W (s), e finalmente calcular a transformada inversa, obtendo-se assim
fW (w).
Exemplo 5.10. Seja K1 , K2 , . . . , Kn um conjunto de n v.a.s independentes com distribuio de Poisson, tais que E[Ki ] = i . Encontre a FGM de W = K1 + K2 + + Kn .
s 1)
e2 (e
s 1)
en (e
s 1)
s 1)
s 1)
. Pelo Corolrio
= e(T )(e
s 1)
111
Tn (s) =
st
n tn1 et
(n 1)!
dt =
n Z
|0
A integral (1) igual a 1 pois a integral de um fdp Erlang sobre todos os valores
possveis. Ento
n
Tn (s) =
s
No Exemplo 5.5 observamos que X (s) = /(s) a FGM de uma v.a. exponencial
X com mdia 1/. Portanto, a soma de n v.a.s exponenciais identicamente distribudas,
cada uma com mdia 1/ tem FGM (/ s)n , que exatamente a FGM de uma v.a.
Erlang de ordem n.
Isto mostra que uma v.a. Erlang a soma de v.a.s exponenciais identicamente
distribudas.
5.6
Teorema 5.11. A FGM de uma v.a. gaussiana Z com mdia nula e varincia
unitria
Z (s) = es
2 /2
1
esz fZ (z) dz =
2
esz ez
2 /2
dz
21 (z 2 2sz+s2 ) s2 /2
s2 /2
dz = e
2
|
e 2 (zs) dz
{z
}
1
O teorema se sustenta pois no lado direito temos uma integral de uma fdp gaussiana
com mdia s e varincia 1.
112
2 s2 /2
Demonstrao. Uma v.a. gaussiana X com mdia e varincia 2 pode ser expressa
em termos da v.a. Z N (0, 1) como
X = Z +
Consequentemente, do Teorema 5.7, a FGM de X
X (s) = es Z (s) = es+
2 s2 /2
= es1 +1 s
2 2 /2
es2 +2 s
2 2 /2
esn +n s
2
2 /2
Da equao acima, pode-se ver que W (s) a FGM de uma v.a. gaussiana com
mdia 1 + 2 + + n e varincia 12 + 22 + + n2 .
5.7
Muitos problemas prticos podem ser analisados pela soma de v.a.s identicamente distribudas, mas cujo nmero de termos na soma tambm uma v.a. Referimo-nos
v.a. resultante R como uma soma aleatria de v.a.s independentes e identicamente
distribudas. Ento, dada uma v.a. N e uma sequncia de v.a.s X1 , X2 , . . . , XN identicamente distribudas, seja
R = X1 + X2 + + XN
(5.7)
113
(5.8)
R = X1 + X2 + + XN
(5.9)
114
Teorema 5.14. A soma aleatria de v.a.s independentes e identicamente distribudas R = X1 + X2 + + XN tem FGM dada por
R (s) = N (ln(X (s)))
Demonstrao. Para encontrar R (s) = E esR , iremos usar
iteraes de esperanas,
encontrando primeiro a esperana condicional E esR |N = n , e ento tomando a esperana sobre N
R (s) =
n=0
sR
E e |N = n pN (n) =
n=0
h
i
E es(X1 +X2 ++XN ) |N = n pN (n)
[X (s)]n pN (n)
n=0
n
= e[ln(X (s))]n . Isto
Observamos que podemos escrever [X (s)]n = eln(X (s))
implica
R (s) =
n=0
Reconhecendo que esta soma tem a mesma forma daquela da Equao (5.3), obtemos
R (s) = N (ln(X (s)))
Exemplo 5.15. O nmero N de pginas em uma transmisso de fax tem fmp geomtrica com mdia 1/q = 4. O nmero K de bits em uma pgina de fax tambm tem
distribuio geomtrica com mdia 1/p = 105 bits, independentemente de qualquer outra
pgina e do nmero de pginas. Encontre a FGM de B, o nmero total de bits em uma
transmisso de fax.
Soluo. Quando a i-sima pgina tem Ki bits, o nmero total de bits a soma
aleatria
Ento
B = K1 + K2 + + KN
115
qes
1 (1 q)es
K (s) =
pes
1 (1 p)es
Para calcular B (s), substitumos ln(K (s)) para toda ocorrncia de s em N (s).
Equivalentemente, podemos substituir K (s) para toda ocorrncia de es em N (s). Esta
substituio leva a
pes
q
pqes
1 (1 p)es
B (s) =
=
pes
1 (1 pq)es
1 (1 q)
1 (1 p)es
Podemos ver que B tem FGM de uma v.a. geomtrica com mdia 1/(pq) = 400000
bits.
Usando o teorema 5.14, podemos tomar as derivadas de N (ln(X (s))) para encontrar expresses simples para a mdia e varincia de R
Teorema 5.15. A soma aleatria das v.a.s independentes e identicamente distribudas R = X1 + X2 + + XN tem mdia e varincia dadas por
Var[R] = E[N ] Var[X] + Var[N ](E[X])2
X (s)
X (s)
X (0)
= E[N ]E[X]
X (0)
N (ln(X (s)))
X (s)
X (s)
2
+ N (ln(X (s)))
116
Observe que Var[R] contm dois termos: o primeiro termo N Var[X] resulta da
aleatoriedade de X, enquanto que o segundo termo Var[N ]2X uma consequncia da
aleatoriedade de N . Para visualizar isto, considere estes dois casos
Suponha que N determinstico, de modo que N = n todas as vezes. Neste caso,
N = n e Var[N ] = 0. A soma aleatria R uma soma determinstica ordinria
R = X1 + X2 + + Xn e Var[R] = n Var[X].
Suponha que N aleatria, mas cada Xi uma constante determinstica x. Neste
exemplo, X = x e Var[X] = 0. alm disso, a soma aleatria torna-se R = N x e
Var[R] = x2 Var[N ].
importante enfatizar que os teoremas 5.14 e 5.15 exigem que N seja independente
da sequncia aleatria X1 , X2 , . . . , Xn , isto , o nmero de termos na soma aleatria
no pode depender dos valores dos termos da soma.
5.8
Em um grande nmero de situaes prticas, histogramas de medidas seguem aproximadamente uma curva em forma de sino. Um histograma um grfico de barras
que divide o conjunto de medidas possveis em intervalos iguais e mostra o nmero de
medidas em cada intervalo.
Quando o tamanho de cada intervalo pequeno e o nmero de medidas grande,
a forma da histograma assemelha-se bastante forma da fdp da v.a. que descreve as
medidas. Por exemplo, o primeiro grfico da Figura 5.3 um histograma derivado a
partir de 400 repeties de um experimento. Em cada experimento algum joga uma
moeda 50 vezes e observa o nmero de coroas. O histograma segue aproximadamente
uma curva em forma de sino. O segundo grfico na Figura 5.3 mostra as probabilidades
binomiais exatas do nmero de caras em 50 jogadas.
117
Figura 5.3: O nmero de caras em 50 arremessos de uma moeda ideal: 400 repeties
experimentais versus a fmp binomial.
Zn =
n
X
i=1
Xi nX
q
2
nX
E[Zn ] = 0
Var[Zn ] = 1
118
A prova deste teorema bastante complexa, e est fora do escopo deste texto. Alm
do Teorema 5.16 existem outros teoremas do limite central, cada um deles com sua
prpria restrio sobre a natureza da sequncia Wn de v.a.s.
Um aspecto singular do Teorema do Limite Central o fato de no haver restries
sobre a natureza das v.a.s Xi na soma. Elas podem ser contnuas, discretas ou mistas.
Em todos os casos a fdc de sua soma assemelha-se mais e mais da fdc Gaussiana
medida que o nmero de termos na soma cresce. Algumas verses do Teorema do
Limite Central aplicam-se a somas de sequncias Xi que no so nem independentes e
identicamente distribudas.
Para usar o teorema do limite central, observe que podemos expressar a soma de
v.a.s identicamente distribudas Wn = X1 + X2 + + Xn como
q
2 Z + n
(5.10)
Wn = nX
n
X
A fdc de Wn pode ser expressa em termos da fdc de Zn como
n
X
FWn (w) q
2
nX
(5.11)
Para n grande, o teorema do limite central diz que FZn (z) (z). Esta aproximao
a base para a maneira prtica de se utilizar o teorema do limite central.
w nX
FWn (w) q
2
nX
Frequentemente chamamos a Definio 5.17 uma aproximao Gaussiana para Wn .
5.9
O Teorema do Limite Central torna possvel fazer clculos rpidos e precisos que de
outra maneira seriam bastante complexos e demorados. Nestes, a v.a. de interesse
119
Exemplo 5.17. Um disco digital compacto (CD) contm amostras digitalizadas de uma
forma de onda acstica.
Em um CD player com um conversor D/A de 1 bit, cada amostra digital representada com uma preciso de 0, 5 mV.
Para minimizar o erro de reproduo, a forma de onda sobreamostrada tomandose oito medidas independentes para cada amostra. O valor final da amostra da forma
de onda obtido calculando a mdia (mdia amostral) de oito medidas.
Qual a probabilidade de o erro na amostra da forma de onda ser maior que 0.05
mV?
Soluo. As medidas X1 , . . . , X8 tm distribuio uniforme na faixa (V 0, 5 mV) <
X < (V + 0, 5 mV), onde V o valor exato da amostra da forma de onda. O CD player
produz a sada U = W8 /8 onde
W8 =
8
X
Xi
i=1
502000 500000
500
= 1 (4)
120
5.10
Exerccios
Var[Wn ] = 1, 25n
k = 0, 1, 2, 3, 4
caso contrrio
E[K 2 ] = 6
E[K 3 ] = 20
E[K 4 ] = 70, 8
4. Seja K1 , K2 , . . . uma sequncia de v.a.s independentes e identicamente distribudas, cada uma delas com distribuio dada por
(
1/n, k = 1, 2, . . . , n
fK (k) =
0,
caso contrrio
Encontre a FGM de J = K1 + K2 + + Km
ems (1 ens )m
Resp: J (s) = m
n (1 es )m
5. Seja X1 , X2 , . . . , Xn uma sequncia de v.a.s gaussianas independentes de mdia
zero e varincia tal que Var[Xi ] = i. Encontre a fdp de
W = X1 + 2 X2 + + n Xn
Resp: fW (w) = q
1
2
2W
ew
2 /2 2
W
6. Seja X1 , X2 , . . . uma sequncia de v.a.s independentes e identicamente distribudas com fdp exponencial
(
ex , x 0
fX (x) =
0,
caso contrrio
Seja N uma v.a. geomtrica com mdia 1/p. Qual a FGM de R = X1 + X2 +
+ XN ? Adicionalmente, encontre a fdp de R.
Resp:
p
R (s) =
ps
fR (r) =
121
p epr , r 0
0,
caso contrrio
b) Var[X] = 12
c) E[A] = 72ms
f) P [A < 48] 0, 0227
d) Var[A] = 144
8. Seja X1 , X2 , . . . uma sequncia de v.a.s independentes e identicamente distribudas com fdp uniforme entre 0 e 1, e seja N uma v.a. geomtrica com mdia
1/p.
a) Qual a FGM de R = X1 + X2 + + XN ?
122
Resp: P [X = 0] = 0
P [X = 1] = 0, 25
P [X = 4] = 0
P [X = 5] = 0, 40
P [X = 2] = 0
P [X = 3] = 0, 35
11. Seja K1 , K2 , . . . uma sequncia de v.a.s iid com distribuio de Bernoulli, com
fmp dada por
1 p k = 0
pK (k) = p
k=1
0
caso contrrio
Seja M = K1 + K2 + . . . + Kn .
(a) Encontre a FGM K (s)
(b) Encontre a FGM M (s)
12. Suponha que durante o i-simo dia de dezembro, a energia Xi armazenada por um
coletor solar bem modelada por uma v.a. gaussiana com mdia (32 i)/4 kWh
e desvio padro de 10 kWh. Assumindo que a energia armazenada a cada dia
independente de qualquer outro dia, qual a fdp de Y , a energia total armazenada
nos 31 dias de dezembro?
Resp: Gaussiana de mdia 124 e varincia 3100
13. O k-simo momento de uma v.a. discreta dado por
E[X k ] = 0.8, k = 1, 2, . . .
(a) Encontre a funo geratriz de momentos de X.
(b) Encontre P [X = 0] e P [X = 1].
Resp:
(a) X (s) = 0, 2 + 0, 8es
(b) P [X = 0] = 0, 2 e P [X = 1] = 0, 8.
14. Seja X uma varivel aleatria com distribuio N (0, 1). Usando a funo geratriz
de momentos, determine E[X n ] para n = 1, 2, 3.
Resp: E[X] = 0, E[X 2 ] = 1 e E[X 3 ] = 0.
123
15. As chamadas telefnicas podem ser classificadas como sendo de voz (V ), se algum
est falando, ou de dados (D), se corresponder a uma transmisso de modem
ou fax. Baseado em uma grande quantidade de observaes realizadas por uma
companhia telefnica, temos o seguinte modelo de probabilidade: P [V ] = 0.8 e
P [D] = 0.2. As chamadas de voz e de dados ocorrem independentemente umas
das outras. Seja a varivel aleatria Kn definida como o nmero de chamadas de
dados em uma coleo de n chamadas telefnicas.
(a) Calcule E[K100 ], o nmero esperado de chamadas de dados em um conjunto
de 100 chamadas.
(b) Calcule K100 , o desvio padro do nmero de chamadas de dados em um
conjunto de 100 chamadas.
(c) Use o Teorema do Limite Central para estimar P [K100 18], ou seja, a
probabilidade de pelo menos 18 chamadas de dados em um conjunto de 100
chamadas telefnicas.
(d) Use o Teorema do Limite Central para estimar P [16 K100 24], ou seja, a
probabilidade de existirem entre 16 e 24 chamadas de dados em um conjunto
de 100 chamadas telefnicas.
Dica: Q(x) = 1 Q(x).
Resp: (a) 20
(b) 4
(c) 0,6915
(d) 0,6826
(x 21
a
, < x <
+ a 12 )
Yn =
1
1X
(X1 + Xn ) =
Xi
n
n
i=1
a
(yn2 + a2 )
(c) no
0<z<1
z
Resp: fZ (z) = 2 z 1 < z < 2
0
caso contrrio
124
18. Seja K a soma de 20 variveis aleatrias iid com distribuio de Bernoulli com
probabilidade p = 0, 4 de produzir um resultado igual a 1. Usando o Teorema
do Limite Central, estime P [K = 8], e compare com o valor exato para esta
probabilidade.
Dica: Considere P [7, 5 < Zn < 8, 5] como aproximao para P [K = 8]. (Por
qua ?)
Resp: P [K = 8] 0, 1811.
19. O nmero N de servios submetidos a um computador em uma hora uma varivel
aleatria geomtrica com parmetro p, e os tempos de execuo destes trabalhos
so variveis aleatrias independentes com distribuio exponencial de mdia 1/.
Encontre a fdp da soma dos tempos de execuo dos trabalhos submetidos em uma
hora.
(
p ep r 0
Resp: fR (r) =
0
caso contrrio
20. As resistncias dos resistores r1 , r2 , r3 e r4 so variveis aleatrias independentes, cada uma delas uniformemente distribuda no intervalo (450,550). Usando o
Teorema do Limite Central, calcule P [1900 r1 + r2 + r3 + r4 2100].
Resp: 0,9164
Captulo 6
6.1
Desigualdade de Markov
P [X c]
xfX (x) dx +
xfX (x) dx
xfX (x) dx c
fX (x) dx = cP [X c]
126
5, 5
= 0, 5
11
Exemplo 6.2. Suponha que uma v.a. Y tome o valor c > 0 com probabilidade p e o
valor 0 caso contrrio. Neste caso, E[Y ] = pc e utilizando a desigualdade de Markov,
temos
P [Y c] E[Y ]/c = p
Desde que P [Y c] = p, observamos que a desigualdade de Markov de fato uma
igualdade neste caso.
6.2
Desigualdade de Chebyshev
2
X
2
..................
....
......
....
....
...
...
.
.
...
..
.
...
.
..
...
.
.
...
..
.
.
...
..
.
...
.
..
...
.
.
...
....
.
.
....
.......
.
.
................
................
.
.
.
........................
........................
.
.
.
............................
.
.......................
..............................................................
.............................................................
.
.
.
.
........................................
.
.
.
.
.
.
.
..
.
.
.
.
.
.
.
.
.
.
.................
.
.
.
.
....................
127
2
X
2 P [|X mx | ] P [|X mx | ]
2
X
2
V ar[X]
1
=
= 0, 033
2
(5, 5)
(5, 5)2
Embora este limitante seja melhor que o obtido pela desigualdade de Markov,
tambm bastante folgado. De fato, P [X 11] na prtica muitas ordens de magnitude
menor que 0,033.
128
6.3
Limitante de Chernoff
O limitante de Chebyshev dado acima envolve a rea das duas caudas da fdp. Em
algumas aplicaes estamos interessados somente na rea de uma das caudas (, )
ou (, ). Neste caso, podemos obter uma estimativa bastante justa, utilizando um
limitante exponencial.
fX (x)dx =
Para todo s 0, u(x c) es(xc) , pois es(xc) representa uma famlia de curvas
que passa pelo ponto c, como mostrado na Figura 6.2. Isto implica em
P [X c]
s(xc)
sc
fX (x)dx = e
es(xc)
u(x c)
c
O limitante de Chernoff pode ser aplicado a qualquer v.a. Entretanto, para valores
pequenos de c, esc X (x) ir ser minimizada por um valor negativo de s. Neste caso, o
129
2 )/2
2 )/2
= min e(s
2 11s)/2
s0
Para encontrar s que minimiza a expresso acima, suficiente encontrar s que minimize h(s) = s2 11s. Tomando a derivada de h(s) em relao a s e igualando a
zero
dh(s)
= 2s 11 = 0 s = 5, 5
ds
Substituindo este valor de s ao limitante de Chernoff, chegamos a
2
2
P [X 11] e(s 11s)/2
= e(5,5) /2 = 2, 7 107
s=5,5
6.4
Exerccios
Markov : P [X 30] =
2. A mdia e a varincia do tempo de resposta de um sistema de computador multiusurio so 15 segundos e 4 segundos, respectivamente. Estime a probabilidade
de o tempo de resposta ser superior a 4 segundos da mdia, usando a desigualdade
de Chebyshev.
Resp: 0,25
130
3. Dada uma v.a. X com fdp gaussiana de mdia zero e varincia 2 , estime a
probabilidade dos eventos (2 X +2), (3 X +3) e (4 X
+4) usando:
(a) a funo Q(x);
(b) a desigualdade de Chebyshev;
(c) a desigualdade de Chernoff.
Resp:
(a) Usando a funo Q(x):
P [2 X 2] = 0, 9545
P [3 X 3] = 0, 9973
P [4 X 4] = 0, 9999
4. Use o limitante de Chernoff para mostrar que uma v.a. Z com distribuio N(0,1)
satisfaz
P [Z c] ec
2 /2
P [Z
P [Z
P [Z
P [Z
P [Z
1]
2]
3]
4]
5]
Chernoff
0, 6065
0, 1353
0, 0111
0, 0003
3, 7267 106
Q(x)
0, 1587
0, 0228
1, 35 103
3, 17 105
3, 0 107
(c)2
2 2
131
Captulo 7
A mdia amostral
7.1
Introduo
Vimos no Captulo 1 que a frequncia relativa a razo entre o nmero de vezes que
um evento ocorre e o nmero de vezes que um experimento realizado. Se realizamos
um experimento repetidas vezes, esperamos que a frequncia relativa de cada evento
convirja para uma constante medida em que o nmero de repeties cresce.
Neste captulo vamos definir a mdia amostral de uma v.a. e mostrar que muitas
quantidades interessantes, incluindo a frequncia relativa, podem ser expressas em termos da mdia amostral. Em sees posteriores, iremos mostrar matematicamente como
a mdia amostral converge para uma constante medida que o nmero de repeties
de um experimento cresce.
Este captulo, portanto, fornece a base matemtica para a afirmativa de que embora
o resultado de um nico experimento aleatrio seja imprevisvel, padres de comportamento previsveis emergem quando coletamos mais e mais dados.
7.2
Mn (X) =
1X
X1 + X2 + + Xn
Xi
=
n
n
i=1
A primeira coisa a ser notada que Mn (X) uma funo das v.a.s X1 , X2 , . . . , Xn
e portanto tambm uma v.a. importante distinguir a mdia amostral Mn (X) do
valor esperado E[X] da v.a. X. Enquanto Mn (X) uma v.a., E[X] um nmero.
A mdia amostral
133
Teorema 7.1. A mdia amostral Mn (X) tem valor esperado e varincia dados por
E[Mn (X)] = E[X]
Var[Mn (X)] =
Var[X]
n
Demonstrao. Usando a Definio 7.1, o Teorema 5.1 e o fato de que E[Xi ] = E[X]
para todo i,
E[Mn (X)] =
1
1
(E[X1 ] + E[X2 ] + + E[Xn ]) = (E[X] + + E[X]) = E[X]
{z
}
n
n|
n vezes
n
n
n
1 X
1 XX
2
E[Xi Xj ] E 2 [X]
= 2
E[Xi ] + 2
n
n
i=1
i=j
=
=
i=1 j=1
i6=j
1 2
1
X + E 2 [X] + 2 n(n 1)E 2 [X] E 2 [X]
n
n
2
X
n
Quando Mn (X) vista como uma estimativa para a mdia mx , nota-se que seu
valor esperado igual a mx e sua varincia decresce inversamente com o nmero n de
134
A mdia amostral
7.3
Var[X]
=
nc2
Var[X]
=1
nc2
Observaes
O Teorema 7.2(b) contm duas desigualdades. Uma desigualdade,
|Mn (X) X | < c
define um evento. Este evento diz que a mdia amostral est c unidades do valor
esperado. O comprimento do intervalo que define este evento, 2c unidades, chamado
de intervalo de confiana.
A outra desigualdade afirma que a probabilidade da mdia amostral estar no intervalo de confiana pelo menos 1. Chamaremos a quantidade 1 = 1 Var[X]/(nc2 )
de coeficiente de segurana. Se pequeno, podemos ter grande confiana de que
Mn (X) est no intervalo (X c, X + c)
No Teorema 7.2(a) observamos que para qualquer nmero c positivo, independente
de quo pequeno seja, podemos fazer to pequeno quanto desejarmos escolhendo n
grande o suficiente.
Em uma aplicao prtica, c indica a preciso desejada de uma estimativa para X ,
1 indica a cofiana que temos de ter alcanado esta preciso, e n nos diz quantas
amostras foram necessrias para alcanar o valor desejado de 1 .
A mdia amostral
135
p (1 p)
=1
n(0, 03)2
p (1 p)
n(0, 03)2
Devemos sempre ter em mente que temos grande confiana em nosso resultado
quando pequeno. Entretanto, dede que no sabemos o valor real de p, gostaramos
de ter confiana em nossos resultados independentemente do valor de p.
Analisando a funo x (1 x) para x entre 0 e 1, verifica-se que a mesma tem
um mximo igual a 1/4 em x = 1/2. Ento para todos os valores de p entre 0 e 1,
Var[X] = p (1 p) 0, 25. Desta forma, podemos concluir que
11
0, 25
277, 778
=1
2
n(0, 03)
n
Ento para n = 1103 amostras, 1 0, 75. Isto nos diz que nossa estimativa de p
est dentro de 3 pontos percentuais de p com probabilidade de pelo menos 1 = 0, 75.
7.4
Alm da Desigualdade de Chebyshev e do Teorema 7.2(a), os quais descrevem as propriedades estatsticas de colees de dados, temos as leis de nmeros grandes, que se
referem a limites quando estas colees crescem sem limite.
136
7.4.1
A mdia amostral
Teorema 7.3. Lei Fraca de Nmeros Grandes. Se Var[X] < , ento para
qualquer constante c > 0, a mdia amostral Mn (X) satisfaz
(a) lim P [|Mn (X) X | c] = 0
n
A lei fraca de nmeros grandes afirma que, para um valor suficientemente grande e
f ixo de n, a probabilidade da mdia amostral usando n amostras estar perto da mdia
real alta.
Como podemos ver no exemplo seguinte, a lei fraca de nmeros grandes tambm
valida a interpretao de frequncia relativa de probabilidades.
se A ocorre na tentativa i
caso contrrio
X1 + X2 + + Xn
n
Portanto, medida que n , Rn P [A], que a verso matemtica da afirmao de que medida que o nmero de observaes cresce sem limite, a frequncia
relativa de qualquer evento aproxima a probabilidade do evento.
A mdia amostral
7.4.2
137
Suponha que realizemos uma srie de medidas independentes da mesma v.a. Seja
X1 , X2 , . . . a sequncia resultante de v.a.s identicamente distribudas com mdia .
Considere agora uma sequncia de mdias amostrais que resulta das medidas acima:
M1 , M2 , . . . , onde Mj a mdia amostral usando as amostras X1 at Xj . Por causa da
regularidade estatstica do experimento, espera-se que esta sequncia de mdias amostrais convirja para , isto , esperamos que com probabilidade alta, cada sequncia
particular de mdias amostrais aproxime-se de e permanea l, como mostrado na
Figura 7.1. Formalmente, podemos escrever este resultado da seguinte maneira:
Teorema 7.4. Seja X1 , X2 , . . . uma sequncia de v.a.s independentes e identicamente distribudas com mdia E[X] = e varincia finitas. Ento
h
i
P lim Mn (X) = = 1
n
Este resultado similar quele obtido no Teorema 7.3, mas na verdade faz uma
afirmao dramaticamente diferente: afirma que com probabilidade 1, toda sequncia
de clculos de mdias amostrais ir eventualmente aproximar-se e permanecer perto de
E[X] = . Este o tipo de convergncia que esperamos observar em situaes reais
onde haja regularidade estatstica.
138
7.5
A mdia amostral
Exerccios
1. Suponha que o nmero de emisses de partculas de uma massa radioativa em t segundos uma v.a. com distribuio de Poisson com mdia t. Use a desigualdade
de Chebyshev para obter um limitante para P [|N (t)/t | > ].
Resp: P [|N (t)/t | ] /2 t
2. Suponha que 10 % dos eleitores esto a favor de certa lei. Um grande nmero n
de eleitores consultado e obtm-se uma estimativa por frequncia relativa fA (n)
da proporo acima. Use o Teorema 7.2 para determinar quantos eleitores devem
ser consultados de modo a termos uma probabilidade de pelo menos 0,95 de fA (n)
diferir de 0,10 em menos de 0,02.
Resp: n = 4500
3. Um dado ideal arremessado 100 vezes. Use o Teorema 7.2 e encontre um limitante para a probabilidade de o nmero total de pontos estar entre 300 e 400.
Resp: P [|Mn (x) 350| 50] = 0, 9994
4. Seja Xi uma sequncia de v.a.s Gaussianas independentes de mdia zero e varincia unitria. Compare o limitante dado pela Teorema 7.2 com o valor exato
para n = 10 e n = 100.
Resp: Para c = 4, temos:
(a) Valor exato: P [|Mn (x) < 4] = 1 2Q(4) 0, 9999367
5. (Para ser feito no MATLAB) Gere sequncias de nmeros aleatrios com diversas
distribuies, variando a mdia (e a varincia, quando for o caso) e calcule as
sequncias de mdias amostrais. Com isto podemos comprovar na prtica a lei
forte de nmeros grandes.
6. Deseja-se medir uma tenso constante mas desconhecida. Cada medida Xj na
verdade a soma da tenso desejada v com a tenso do rudo Nj de mdia zero e
desvio padro de 1 V
Xj = v + Nj
Assuma que as tenses do rudo so v.a.s independentes. Quantas medidas sero
necessrias de modo que a probabilidade de Mn (X) esteja a = 1V da mdia
verdadeira seja pelo menos 0,99?
Resp: n 100
7. Seja X uma varivel aleatria com funo densidade de probabilidade fX (x), e
seja X1 , X2 , . . . , Xn um conjunto de variveis aleatrias independentes, cada qual
com funo densidade de probabilidade fX (x). O conjunto de variveis aleatrias
X1 , X2 , . . . , Xn chamado de uma amostra aleatria de tamanho n de X. A mdia
amostral definida como
A mdia amostral
139
Xn =
1X
1
Xi
(X1 + + Xn ) =
n
n
i=1
Captulo 8
Processos Estocsticos
8.1
Definio
Definio 8.1. Uma v.a. que uma funo do tempo chamada de um processo
estocstico (ou processo aleatrio).
Para especificar uma v.a. X, repetimos um experimento vrias vezes e a partir dos
resultados, determinamos a sua fdp fX (x). Similarmente, para especificar um processo
estocstico X(t), fazemos a mesma coisa para cada valor de t.
Continuando com nosso exemplo, precisamos armazenar temperaturas dirias para
cada valor de t (cada hora do dia). Isto pode ser feito armazenando-se temperaturas a
cada instante do dia. Este procedimento fornece uma forma de onda X(t; i ) onde i
indica o dia em que foi feita a medida. Precisamos repetir este procedimento todos os
dias por um grande nmero de dias.
A coleo de todas as formas de onda possveis conhecida como o conjunto do
processo estocstico X(t), e uma forma de onda nesta coleo uma funo amostra
(ao invs de um ponto amostral) do processo estocstico. As amplitudes das funes
amostra em algum instante t = t1 so os valores que a v.a. X(t1 ) assume em vrias
tentativas. Na Figura 8.1 tem-se o conceito que acabamos de definir em forma grfica.
Podemos ver um processo estocstico de outra forma. No caso de uma v.a., o resultado de cada tentativa de um experimento aleatrio um nmero. Para um processo
estocstico o resultado de cada tentativa uma forma de onda (uma funo amostra)
que uma funo de t. O nmero de formas de onda em um conjunto pode ser finito
ou infinito. No caso do processo estocstico X(t) (a temperatura de uma cidade), o
Processos Estocsticos
141
X(t1 ) = x1
X(t2 ) = x2
X(t, 1 )
t
X(t, 2 )
t
X(t, 3 )
t
X(t, 4 )
t1
t2
X(t, 1 )
t
X(t, 2 )
t
X(t, 3 )
t
X(t, 4 )
t
142
Processos Estocsticos
Isto completamente anlogo ao caso de uma v.a. Por exemplo, no experimento de jogar
uma moeda quatro vezes em sucesso, existem 16 resultados possveis, todos conhecidos.
A aleatoriedade nesta situao est associada no aos resultados mas com a incerteza
de qual deles ir ocorrer em uma dada tentativa.
8.2
Os processos estocsticos podem ser classificados em termos dos valores que podem
assumir assim como dos instantes de tempo em que podem sofrer mudanas. Segundo
esta tica, podem ser classificados em processos de valor discreto e valor contnuo, e
processos de tempo discreto e tempo contnuo.
Estes conceitos so ilustrados na Figura 8.3. Nesta, podemos identificar que para o
processo X(t), existem quatro possibilidades bsicas:
amplitude discreta, tempo discreto
amplitude discreta, tempo contnuo
amplitude contnua, tempo discreto
amplitude contnua, tempo contnuo
Para um processo de tempo discreto, a funo amostra completamente descrita
pela sequncia ordenada de variveis aleatrias Xn = X(nT ).
Processos Estocsticos
143
X(t)
X(n)
Y (t)
Y (n)
8.3
144
Processos Estocsticos
cada x(t1 , s) uma amostra de uma varivel aleatria. Aqui usada a notao X(t1 )
para esta varivel aleatria. Como qualquer outra varivel aleatria, tem ou uma fdp
fX(t1 ) (x) ou uma fmp pX(t1 ) (x). Note que a notao X(t) pode se referir tanto a um
processo estocstico como a uma varivel aleatria, correspondente ao valor do processo
estocstico no instante t. Nas sees subsequentes, ir ficar claro a partir do contexto
se estamos nos referindo ao processo inteiro ou uma varivel aleatria.
Exemplo 8.1. Seja X(t) = R| cos(2f t)| um sinal cossenoidal retificado com amplitude
aleatria R com fdp exponencial
fR (r) =
1 r/10
,
10 e
0,
r0
caso contrrio
Soluo. Desde que X(t) 0 para todo t, P [X(t) x] = 0 para x < 0. Quando x 0
e cos(2f t) 6= 0,
FX(t) (x) =
0,
x<0
0,
(x)
x<0
1
ex/10| cos(2f t)| , x 0
10| cos(2f t)|
Quando X(t) um processo de tempo discreto, toda informao sobre o mesmo est
contida no valor da constante T na Definio 8.3 e a sequncia de variveis aleatrias,
X(nT ), n = . . . , 2, 1, 0, 1, 2, . . .
Processos Estocsticos
145
1/6,
0,
x = 1, 2, . . . , 6
caso contrrio
8.4
146
Processos Estocsticos
pRn (r) =
60 r
r p (1
0,
p)60r ,
r = 0, 1, . . . , 60
caso contrrio
Teorema 8.1. Seja Xn uma sequncia aleatria iid. Para um processo de valor
discreto, o vetor amostra Xn1 , . . . , Xnk tem fmp conjunta
pXn1 ,...,Xnk (x1 , . . . , xk ) = pX (x1 )pX (x2 ) pX (xk ) =
k
Y
pX (xi )
k
Y
fX (xi )
i=1
Se o processo assume valores contnuos, ento a fdp conjunta de Xn1 , . . . , Xnk dada
por
fXn1 ,...,Xnk (x1 , . . . , xk ) = fX (x1 )fX (x2 ) fX (xk ) =
i=1
De todas as sequncias iid, talvez a mais simples seja a sequncia aleatria de Bernoulli.
Processos Estocsticos
147
(
pxi (1 p)1xi , xi {0, 1}
pXi (xi ) =
0,
caso contrrio
Quando xi {0, 1} para i = 0, . . . , n, a fmp conjunta pode ser escrita como
pX1 ,...,Xn (x1 , . . . , xn ) =
n
Y
i=1
8.5
Processo de Contagem
Definio 8.8. Processo de contagem. Um processo estocstico N (t) um processo de contagem se para cada funo amostra, n(t, s) = 0 para t 0 e n(t, s)
assume valores inteiros e no decrescentes com o tempo.
148
Processos Estocsticos
N (t)
5
4
3
2
1
6
....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ...........................................
...
...
...
..
....
.
....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ...............................................................................................................
...
..
....
...
....
..
....
....
..
.
....... ....... ....... ....... ....... ....... ....... ....... ....... ...........................................................................................................................................
...
...
....
...
....
....
....
..
.
.
..
....
....
....
.
.
....... ....... ....... ....... ....... ..........................................................
...
....
...
....
.
.
..
.
..
....
....
....
....
...
....
....
....
....
.
.
.
.
....... ....... ....... ......................................
....
....
....
....
....
...
....
....
....
....
....
.
.
.
...
.
..
....
....
....
....
....
S1
S2
S3
.
.
.
X1.................
..........
.............
...............
................................................
X3 ...X4
.
. X2 ..
.
..........
.
S4
-
.
...............................................................................................
.
S5
.
.............................................
.
5
PN (t) (n) =
(T )n eT /n!, n = 0, 1, 2, . . .
0,
caso contrrio
Podemos generalizar este argumento e dizer que para qualquer intervalo (t0 , t1 ], o
nmero de chegadas poderia ter uma fmp de Poisson com parmetro T onde T = t1 t0 .
Alm disso, o nmero de chegadas em (t0 , t1 ] depende das tentativas independentes de
Bernoulli correspondentes quele intervalo. Ento o nmero de chegadas em intevalos
no sobrepostos ir ser independente. No limite medida que 0, obtemos um
processo de contagem no qual o nmero de chegadas em qualquer intervalo uma
varivel aleatria com distribuio de Poisson independente das chegadas em qualquer
outro intervalo no sobreposto. Chamamos este processo limite de um processo de
Poisson. Na prxima seo iremos examinar o processo de Poisson com mais detalhes.
8.6
Processo de Poisson
Processos Estocsticos
149
(t)k t
e , k = 0, 1, 2, . . .
k!
(8.2)
Por esta razo, N (t) conhecido como processo de Poisson. Formalmente, podemos
definir um processo de Poisson como:
Definio 8.9. Processo de Poisson. Um processo de contagem N (t) um processo de Poisson de taxa se
O nmero de chegadas em qualquer intervalo (t0 , t1 ], N (t1 ) N (t0 ), uma
varivel aleatria com distribuio de Poisson com valor esperado (t1 t0 ).
m
[(t1 t0 )] (t1 t0 )
e
, m = 0, 1, . . .
PM (m) =
m!
0,
caso contrrio
(8.3)
Para um conjunto de instantes de tempo t1 < t2 < < tk , podemos usar a propriedade de que o nmero de chegadas em intervalos no sobrepostos so independentes
para escrever a fmp conjunta de N (t1 ), . . . , N (tk ) como um produto de probabilidades.
150
Processos Estocsticos
n n
n n
n
k k1 ek
1 1 e1 2 2 1 e2
k
,
pN (t1 ),...,N (tk ) (n1 , . . . , nk ) =
n1 !
(n2 n1 )!
(nk nk1 )!
0,
0 n1 nk
caso contrrio
Processos Estocsticos
151
Esta propriedade de ser sem memria pode tambm ser vista quando examinamos
os instantes entre as chegadas. Como mostrado na Figura 8.4, o tempo aleatrio Xn
entre a chegada n 1 e a chegada n chamado de n-simo tempo entre chegadas.
Adicionalmente, chamamos o instante X1 , da primeira chegada, como o primeiro tempo
entre chegadas, mesmo no havendo chegadas anteriores.
Exemplo 8.7. Encontre a mdia e a varincia do tempo at o dcimo acesso no Exemplo 8.6.
Soluo. A taxa de chegada de = 1/4 acessos por segundo, de modo que os tempos
entre chegadas so variveis aleatrias com distribuio exponencial de parmetro .
Para a distribuio exponencial, a mdia e a varincia so, respectivamente, 1/
e 1/2 (veja Apndice E). O instante da dcima chegada a soma destas variveis
aleatrias iid, ento
10
= 40 segundos
10
Var[S10 ] = 10 Var[T ] = 2 = 160 segundos2 .
E[S10 ] = 10E[T ] =
152
Processos Estocsticos
A propriedade de ser sem memria do processo de Poisson pode tambm ser vista
nos tempos entre chegadas exponenciais. Desde que P [Xn > x] = ex , a probabilidade
(8.4)
8.7
Considere um processo aleatrio X(t) que assume os valores 1. Suponha que X(0) =
1 com probabilidade 1/2, e suponha que X(t) mude de polaridade com cada evento de
um processo de Poisson de taxa . A Figura 8.5 mostra uma funo amostra de X(t).
..
X(t) ........6
.
1
....
...
..
......... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....
...
....
..
...
...
...
...
...
...
...
.............................................................................................................................................................................................................................................................................................................................................................................................................................................
...
...
...
...
...
...
...
...
...
.
.......... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....
....
...
...
..
..
..
..
..
..
..
......................................................................................................................................................................................................................................................................................................................................................................................................................
..
..
..
..
..
..
..
- --
X1
X2 X3
-
X4
-
-
X5
X6
X7
Processos Estocsticos
153
Podemos encontrar as fmps condicionais notando que X(t) ir ter a mesma polaridade de X(0) somente quando ocorrer um nmero par de eventos no intervalo (0, t].
Ento
P [X(t) = 1|X(0) = 1] = P [N (t) = inteiro par]
X
(t)2j t
e
=
(2j)!
j=0
1 t
e + et
2
1
=
1 + e2t
(8.6)
2
X(t) e X(0) iro ter sinais opostos quando o nmero de eventos no intervalo (0, t]
for mpar:
= et
X
(t)2j+1 t
e
=
(2j + 1)!
j=0
1 t
e et
2
1
1 e2t
=
2
Substituindo estes resultados na Equao (8.5), temos:
= et
(8.7)
11
1
11
{1 + e2t } +
{1 e2t } =
22
22
2
1
P [X(t) = 1] = 1 P [X(t) = 1] =
(8.8)
2
Ento, o sinal telegrfico assume os valores -1 e +1 com a mesma probabilidade. A
mdia e a varincia de X(t) so dadas por:
P [X(t) = 1] =
154
8.8
Processos Estocsticos
Embora esta expanso possa parecer trivial, pela definio de movimento Browniano, o incremento Y = X(t + ) X(t), independente de X(t) e Gaussiano de
mdia zero e varincia . Esta propriedade do movimento Browniano chamada de
incrementos independentes. Ento, depois de um intervalo de tempo , a posio da
partcula moveu-se de uma quantidde Y que independente da posio anterior X(t).
A mudana de posio Y pode ser positiva ou negativa. Por esta razo, o movimento
Browniano tambm chamado de uma caminhada aleatria unidimensional.
k
Y
n=1
1
p
2 /[2(t t
n
n1 )]
2(tn tn1 )
e(xn xn1 )
(8.10)
Demonstrao. Desde que X(0) = 0, X(t1 ) = X(t1 ) X(0) uma varivel aleatria
Gaussiana. Dados os instantes de tempo t1 , . . . , tk , definimos t0 = 0 e, para n =
1, . . . , k, Yn = X(tn ) X(tn1 ). Note que Y1 , . . . , Yk so variveis aleatrias Gaussianas
independentes de mdia zero tais que Yn N (0, (tn tn1 )).
fYn (y) = p
1
2(tn tn1 )
ey
2 /[2(t t
n
n1 )]
(8.11)
k
Y
n=1
(8.12)
Processos Estocsticos
155
8.9
Assim como definimos mdias estatsticas para v.a.s, podemos de forma similar, definir
mdias estatsticas para um processo estocstico. Tais mdias so tambm chamadas
de mdias de conjunto. Estas sero ento utilizadas para especificar um processo
aleatrio.
Se adotarmos a idia de que um processo aleatrio X(t) uma v.a. X que uma
funo do tempo, chegaremos concluso de que X(t) completamente especificada se
a fdp de X especificada para cada valor de t. Iremos ver rapidamente que as coisas
no so assim to simples. Entretanto, comecemos com a idia de especificar uma v.a.
X para cada valor de t.
Para o processo estocstico X(t) representando a temperatura de uma cidade, isto
implicar em considerar as amplitudes das funes amostra em algum instante t = t1 . O
valor X(t1 ; 1 ) representa a temperatura no instante t1 no i -simo dia e o resultado
da i -sima tentativa. Ento, todas as amplitudes das funes amostra em t = t1
representam valores tomados pela v.a. X em t = t1 , isto X(t1 ).
Podemos fazer isto para cada valor de t. A fdp de X pode ser diferente para
diferentes valores de t em geral. Para indicar este fato, a fdp de X no instante t
expressa por fX (x; t).
Exemplo 8.8. Limiar de deteo. Sobre um canal binrio, as mensagens m = 0 e
m = 1 so transmitidas com probabilidades iguais usando um pulso positivo e negativo,
respectivamente. O pulso transmitido correspondente mensagem 1 p(t), mostrado na
Figura 8.6, e o pulso transmitido correspondente mensagem 0 ser p(t). Determine
as estatsticas de primeira ordem.
p(t)
Ap
Tp
156
Processos Estocsticos
Processos Estocsticos
157
fX (x) ou fY (y)
x ou y
Este exemplo mostra claramente que a fdp de primeira ordem no suficiente para
especificar completamente um processo estocstico. O contedo de freqncias de um
processo depende da velocidade com que as amplitudes variam com o tempo. Isto pode
ser medido correlacionando amplitudes em t1 e t1 + . Se o processo varia lentamente,
as amplitudes em t1 e t1 + devem ser similares (Figura 8.8a). Por outro lado, se o
processo varia rapidamente, as amplitudes em t1 e t1 + no tero nenhuma semelhana
(Figura 8.8b). Podemos usar a correlao para medir a similaridade das amplitudes em
t1 e t2 = t1 + .
158
Processos Estocsticos
Esta a correlao das v.a.s X(t1 ) e X(t2 ) e calculada multiplicando-se as amplitudes em t1 e t2 de uma funo amostra e ento fazendo a mdia deste produto sobre
o conjunto.
No exemplo acima, pode-se ver que para um valor pequeno de , o produto X1 X2
ser positivo para a maioria das funes amostra de X(t), mas o produto Y1 Y2 poder
ser tanto positivo como negativo. Desta forma, E[X1 X2 ] ser maior que E[Y1 Y2 ]. Alm
disso, X1 e X2 iro mostrar correlao para valores de consideravelmente grandes,
enquanto que Y1 e Y2 iro perder a correlao rapidamente mesmo para valores pequenos
de , como mostrado na Figura 8.10.
fX1 (x1 ) =
Processos Estocsticos
8.9.1
159
Momentos
Definio 8.12. Seja um processo estocstico X(t) e seja tambm Xti X(ti ). O
n-simo momento da v.a. Xti definido como
Z
n
xnti fX (xti ) dxti
E Xti =
8.9.2
Funo de autocovarincia
Momentos conjuntos de ordem superior de duas ou mais v.a.s derivadas de um processo estocstico so definidos da mesma maneira. Entretanto, com a possvel exceo
do processo gaussiano, para o qual os momentos de ordem superior podem ser expressos
em termos do primeiro e segundo momentos, estes momentos de ordem superior so
encontrados com pouca frequncia na prtica.
160
8.10
8.10.1
Processos Estocsticos
= t1 t2
RX ( ) = E[X(t)X(t + )]
(8.13)
Processos Estocsticos
8.10.2
161
Um processo pode no ser estacionrio no sentido estrito, mas pode ainda apresentar
estacionariedade para as estatsticas de primeira e segunda ordem. Quando isto acontece, temos um processo estocstico estacionrio no sentido amplo. Abaixo tem-se uma
definio formal.
= t1 t2
Note que a estacionariedade um condio muito mais forte do que a estacionariedade no sentido amplo: todos os processos estacionrios so estacionrios no sentido
amplo, mas o inverso no necessariamente verdade.
Assim como no existem sinais senoidais na prtica, no existem tambm processos
estacionrios. Todos os processos reais so no estacionrios desde que tm durao
finita, isto , tm um incio e um final. Um processo estacionrio precisaria iniciar
em t = e durar para sempre. Entretanto, muitos processos apresentam-se como
estacionrios para o intervalo de tempo de interesse, e a suposio de estacionariedade
permite que usemos um modelo matemtico tratvel.
Exemplo 8.11. Mostre que o processo aleatrio X(t) = A cos(c t + ), onde uma
v.a. uniformemente distribuda na faixa (0, 2), um processo estacionrio no sentido
amplo.
Soluo. O conjunto da Figura 8.11 consiste de senides de amplitude A e freqncia
c constantes, mas a fase aleatria. Para qualquer funo amostra a fase pode ter
qualquer valor no intervalo (0, 2), com distribuio uniforme.
Pelo fato de ser uma v.a. uniformemente distribuda sobre a faixa (0, 2), podemos
determinar fX (x; t) e, portanto, E[X(t)].
Para este caso particular, entretanto, E[X(t)] pode ser determinada diretamente:
E[X(t)] = AE[cos(c t + )]
E como cos(c t + ) uma funo de uma v.a. , temos
E[cos(c t + )] =
cos(c t + )f () d
0
mas f () = 1/2 no intervalo (0, 2) e 0 fora dele, de modo que podemos reescrever a
equao acima como
1
E[cos(c t + )] =
2
cos(c t + ) d
162
Processos Estocsticos
A2
E [cos[c (t1 t2 )] + cos[c (t1 + t2 ) + 2]]
2
Processos Estocsticos
163
RX (t1 , t2 ) =
A2
cos[c (t1 t2 )]
2
ou
RX ( ) =
A2
cos(c ),
2
= t1 t2
2. RX (0) = E[X 2 ]
Demonstrao. RX (0) = E[X(t)X(t + 0)] = E[X(t)X(t)] = E[X 2 (t)] = E[X 2 ]
3. RX (0) 0
Demonstrao. RX (0) = E[X(t)X(t)] = E[X 2 (t)].
Desde que X 2 (t) 0, E[X 2 (t)] 0, devemos ter E[X 2 (t)] 0.
4. Se Z(t) = X(t) + Y (t) ento RZ ( ) = RX ( ) + RY ( ) + RXY ( ) + RY X ( )
Demonstrao.
RZ ( ) = E[Z(t)Z(t + )]
= E[(X(t) + Y (t))(X(t + ) + Y (t + ))]
= E[X(t)X(t + ) + X(t)Y (t + ) + Y (t)X(t + ) + Y (t)Y (t + )]
= RX ( ) + RXY ( ) + RY X ( ) + RY ( )
164
Processos Estocsticos
Demonstrao. A demonstrao bastante complexa, mas podemos dar uma justificativa plausvel: se X(t) no tem componentes peridicos, ento podemos considerar que as variveis aleatrias em X(t) e X(t + ), so independentes.
Desta forma:
lim RX ( ) = E[X(t)X(t + )] = E[X(t)]E[X(t + )] = E 2 [X]
8.10.3
Processos ergdicos
Definio 8.17. A mdia temporal, X(t, i ), de uma funo amostra X(t, i ) dada
por
1
T T
X(t, i ) = lim
Similarmente, temos
T /2
T /2
X(t, i ) dt
Processos Estocsticos
165
T /2
X(t, i ) X(t + , i ) dt
T /2
processos estocsticos
estacionrios no sentido amplo
estacionrios no sentido estrito
ergdicos
166
Processos Estocsticos
Soluo.
1
X(t) = lim
T T
1
T T
= lim
=0
Z
Z
T /2
X(t) dt
T /2
T /2
A cos(c t + ) dt
T /2
RX ( ) = X(t)X(t + )
= A2 cos(c t + ) cos(c (t + ) + )
i
A2 h
cos(2c t + c + 2) + cos(c )
=
2
i
A2 h
cos(2c t + c + 2) + cos(c )
=
2
A2
cos(c )
=
2
Exemplo 8.13. O conceito de ergodicidade pode ser explicado por um exemplo simples
de semforos de trnsito em uma cidade.
Suponha que uma cidade bem planejada, com todas as suas ruas nas direes
norte-sul e leste-oeste, e com semforos em cada inteserco. Assuma que cada semforo permanea verde 0,75 minutos na direo leste-oeste e 0,25 minutos na direo
norte-sul, e que a mudana em um semforo independente de outro.
Se consideramos uma certa pessoa dirigindo um carro e que chega a um semforo
aleatoriamente na direo leste-oeste a probabilidade de encontrar um farol verde ser
de 0,75, ou seja, na mdia, 75% do tempo ele ir observar uma luz verde.
Por outro lado, se considerarmos um grande nmero de motoristas que chegam aleatoriamente em um semforo na direo leste-oeste simultaneamente em algum instante
t, ento 75% dos motoristas ir encontrar um farol verde, e os 25% restantes iro encontrar um farol vermelho.
Ento, a experincia de um nico motorista chegando aleatoriamente vrias vezes
em um farol ir conter a mesma informao estatstica (estatsticas de funes amostra)
da experincia de um grande nmero de motoristas chegando simultaneamente em vrios
semforos (estatsticas de conjunto para um dado instante).
8.11
Exerccios
Processos Estocsticos
167
k2
cos(0 )
2
168
Processos Estocsticos
A2
cos(2fc (t1 t2 ))
2
Processos Estocsticos
169
10. Em uma linha de produo de resistores de 1000, a resistncia real de cada resistor uma varivel aleatria R com distribuio uniforme entre 950 e 1050.
Assuma que os valores das resistncias dos diferentes resistores so independentes.
A companhia tem uma encomenda de resistores de 1% de tolerncia (resistncias
entre 990 e 1010). Um testador automtico toma um resistor por segundo e
mede sua resistncia exata (este teste demora 1 segundo). O processo estocstico
N (t) denota o nmero de resistores com tolerncia de 1% encontrados em t segundos. A varivel aleatria Tr segundos o tempo decorrido at encontrarmos r
resistores com tolerncia de 1%.
(a) Calcule p, a probabilidade de um resistor ter tolerncia de 1%.
(b) Qual a fmp de N (t)?
(c) Calcule E[T1 ], o tempo esperado para encontrar o primeiro resistor com
tolerncia de 1%.
(d) Qual a probabilidade de o primeiro resistor com tolerncia de 1% ser encontrado em exatamente 5 segundos?
(e) E[T2 |T1 = 10], a esperana condicional do tempo necessrio para encontrar
o segundo resistor com tolerncia de 1%, dado que o primeiro foi encontrado
em 10 segundos.
Resp:
(a) 0.2
(b) pN (t) (n) =
(
t
pn (1 p)tn , n = 0, 1, . . . , t
0,
caso contrrio
n
(c) 5
(d) (0, 8)4 (0, 2) 0, 08192
(e) 15
170
Processos Estocsticos
11. Para uma sequncia de variveis aleatrias Gaussianas iid Xn de mdia zero e
varincia unitria, encontre a fdp conjunta de X1 , . . . , Xm .
2
2
1
e(x1 ++xm )/2
Resp: fX(1),...,X(m) (x1 , . . . , xm ) =
m/2
(2)
12. Pacotes de dados transmitidos por um modem sobre uma linha telefnica formam
um processo de Poisson de taxa 10 pacotes/segundo. Usando Mk para denotar o
nmero de pacotes transmitidos na k-sima hora, encontre a fmp conjunta de M1
e M2 .
m1 +m2 2
e
, m1 = 0, 1, . . . ; m2 = 0, 1, . . .
Resp: pM1 ,M2 (m1 , m2 ) =
m1 !m2 !
0,
caso contrrio
13. Seja X(t) um processo movimento Browniano com varincia Var[X(t)] = t.
Y (t) = A sen(t + )
RXY (t1 , t2 ) =
< t <
Processos Estocsticos
Resp: (a) 0
171
(b) 2 cos(t2 t1 )
(c) sim.
1
cos(t)
2
(b)
1
cos(t1 ) cos(t2 )
3
(c)
1
cos(t1 ) cos(t2 )
12
Wn = 2Wn1 + Xn , W0 = 0
Zn =
1
Zn1 + Xn , Z0 = 0
2
172
Processos Estocsticos
Pn
ni X
n
i=1 2
Pn 1 ni
Xn
i=1 2
n
X
Zi , n = 1, 2, . . .
i=1
n
p(n+k)/2 q (nk)/2
(n + k)/2
Captulo 9
9.1
(9.1)
(9.2)
174
A resposta do sistema para uma entrada arbitrria x(t) ento a convoluo de x(t)
com h(t):
y(t) = h(t) x(t) =
h(s)x(t s) ds =
j=
h[j]x[n j] =
j=
h(t s)x(s) ds
(9.3)
h[n j]x[j]
(9.4)
9.2
(9.5)
t < 0
175
W (f ) = H(f )V (f )
(9.9)
h(u)x(t u; s) du
h(t0
u) X(u) du uma funo de todas as v.a.s X(u), para < u < . Desde que Y (t0 )
uma v.a., tem valor esperado
E[Y (t0 )] = E
Z
h(u)X(t0 u) du
Para avaliar o valor esperado desta integral, lembremos que esta corresponde ao
limite
Y (t0 ) = lim
X
n
h(n)X(t0 n)
Desde que a esperana da soma igual soma das esperanas, temos para valores
pequenos de ,
176
E[Y (t0 )] E
"
X
n
h(n)X(t0 n) =
Z
h(u)X(t0 u) du =
X
n
h(n)E[X(t0 n)]
h(u)E[X(t0 u)]du
(9.11)
Embora o argumento acima no seja uma prova, contm a idia bsica que uma
integral o limite de uma soma a qual podemos trocar de posio com a esperana. O
seguinte Teorema usa a Equao (9.11) para relacionar o valor mdio Y e a funo de
autocorrelao RY ( ) com h(t) e os parmetros correspondentes de X(t).
RY ( ) =
h(u)
(9.13)
h(v)RX ( + u v) dvdu
Desde
Z que E[X(t)] = X para todo t (pois X(t) estacionrio no sentido amplo),
Y =
h(u)X du = X H(0). Para encontrar RY (t, ) = E[Y (t)Y (t + )], usamos
RY (t, ) = E
Z
h(u)X(t u) du
h(u)
h(v)X(t + v) dv
177
Exemplo 9.1. X(t), um processo estocstico estacionrio no sentido amplo com valor
esperado X = 10 volts, a entrada de um filtro linear invariante no tempo. A resposta
a impulso do filtro
h(t) =
et/0,2
0
0 t 0, 1
caso contrrio
Y = X
9.3
h(t) dt = 10
0,1
0
0,1
et/0,2 dt = 2 et/0,2 = 2(e0,5 1) = 1, 30 volts
0
178
b) SX (f ) = SX (f )
Fazendo
= temos
SX (f ) =
j2f ( )
RX ( )e
(d ) =
RX ( )ej2(f ) d = SX (f )
Quando interpretamos E[X 2 (t)] como a potncia mdia de X(t), a primeira parte do
Teorema 9.2 sugere que SX (f ) uma medida da potncia por unidade de frequncia de
X(t). Quando passamos X(t) atravs de um filtro linear h(t), encontramos o espectro
densidade de potncia de Y (t).
(9.14)
Fazendo
= + v u temos
SY (f ) =
j2f u
h(u)e
|
{z
H(f )
= |H(f )| SX (f )
j2f v
h(v)e
du
} | {z
H (f )
dv
RX ( )ej2f d
}|
{z
}
SX (f )
179
Estamos prontos agora para fazer novas interpretaes sobre o espectro densidade
de potncia. Como mostrado na Figura 9.1, suponha que H(f ) um filtro passa faixa
ideal com largura de banda B centrada em f0 , isto
(
1 |f f0 | B/2
H(f ) =
0 caso contrrio
H(f )
B
1
f0
f0
Figura 9.1: Filtro passa faixa ideal H(f ) com frequncia central f0 e largura de banda
B Hz.
Neste caso, se passamos um processo estocstico X(t) atravs do filtro H(f ) teremos
na sada uma forma de onda Y (t) que est na banda de passagem do filtro H(f ). Como
mostrado acima, o espectro densidade de potncia da sada do filtro
SY (f ) = |H(f )|2 SX (f )
Alm disso, a potncia mdia de Y (t) satisfaz
E[Y 2 (t)] =
SY (f ) df =
f0 +B/2
SX (f ) df +
f0 B/2
f0 +B/2
SX (f ) df
f0 B/2
(9.15)
180
Exemplo 9.2. Um processo estacionrio X(t) no sentido amplo com funo de autocorrelao RX ( ) = eb| | aplicado a um filtro RC com resposta a impulso
(
et/(RC) t 0
h(t) =
0
caso contrrio
Assumindo que b > 0 e b 6= 1/(RC), encontre SY (f ) e RY ( ) da sada Y (t) do
filtro. Qual a potncia mdia do processo estocstico na sada do filtro?
Soluo. Por convenincia, faamos a = 1/(RC). Desta forma, a funo de transferncia do filtro
Z
1
eat ej2f t dt =
H(f ) =
a + j2f
0
Portanto
1
1
1
= 2
a + j2f a j2f
a + (2f )2
SX (f ) =
=
Z 0
eb| | ej2f d
b j2f
e e
d +
eb ej2f d
1
1
+
b j2f
b + j2f
2b
=
(2f )2 + b2
2b
2b/(b2 a2 ) 2b/(b2 a2 )
=
[(2f )2 + a2 ][(2f )2 + b2 ]
(2f )2 + a2
(2f )2 + b2
1
b/a a| |
e
2
eb| |
2
a
b a2
b2
b/a 1
1
=
2
2
b a
a(b + a)
9.4
181
Correlaes cruzadas
Vimos que qundo passamos um processo estocstico X(t) atravs de um filtro linear
H(f ), a sada Y (t) um novo processo estocstico. Para duas v.a.s X e Y , a fdp ou
fmp conjunta um modelo de probabilidade completo. Para dois processos estocsticos
X(t) e Y (t), um modelo de probabilidade completo consiste de uma fdp ou fmp conjunta
das v.a.s
t1 , t2 , . . . , tm
9.4.1
Para obter ferramentas teis para analisar um par de processos dependentes, lembremos
que a covarincia e a correlao de um par de v.a.s fornecem informaes valiosas sobre
a relao entre as v.a.s. Portanto, para os processos X(t) e Y (t), trabalhamos com a
correlao e a covarincia das v.a.s X(t) e Y (t + ). Desde que as v.a.s dependem das
suas variveis temporais t e , a correlao das duas variveis uma funo do tempo.
Definio 9.9. Funo de correlao cruzada. A correlao cruzada dos processos X(t) e Y (t) dada por
RXY (t, ) = E[X(t)Y (t + )]
182
183
RX (0)RY (0)
1
[RX (0) + RY (0)]
2
Demonstrao.
E [X(t) Y (t + )]2 0
E X 2 (t) 2X(t)Y (t + ) + Y 2 (t + ) 0
E X 2 (t) 2E [X(t)Y (t + )] + E Y 2 (t + ) 0
Reescrevendo esta equao em termos das funes de autocorrelao e correlao cruzada, temos
RX (0) 2RXY ( ) + RY (0) 0 RXY ( )
1
[RX (0) + RY (0)]
2
184
Demonstrao.
RXY ( ) = E[X(t)Y (t + )]
Como X e Y so independentes, podemos escrever
E[X(t)Y (t + )] = E[X(t)]E[Y (t + )] = X Y
9.4.2
Definio 9.13. Densidade espectral cruzada. Para processos X(t) e Y (t) conjuntamente estacinrios no sentido amplo, a transformada de Fourier da correlao
cruzada leva densidade espectral cruzada
Z
RXY ( )ej2f d
SXY (f ) =
Encontramos correlaes cruzadas em experimentos que envolvem observaes ruidosas de um processo estocstico X(t) estacionrio no sentido amplo.
185
Exemplo 9.3. Suponha que estejamos interessados em X(t) mas s podemos observar
Y (t) = X(t) + N (t)
onde N (t) um processo estacionrio no sentido amplo com mdia zero, que interfere
com nossa observao de X(t). Assumimos que X(t) e N (t) so conjuntamente estacionrios no sentido amplo. Para caracterizar Y (t), encontre a mdia E[Y (t)], a funo
de autocorrelao RY ( ), e o espectro densidade de potncia SY (f ).
Soluo. Desde que o valor esperado de uma soma igual soma dos valores esperados,
E[Y (t)] = E[X(t)] + E[N (t)] = E[X(t)]
desde que E[N (t)] = 0 (dado do problema).
Para a funo de autocorrelao, temos
RY (t, ) = E[Y (t)Y (t + )]
= E[(X(t) + N (t))(X(t + ) + N (t + ))]
= RX ( ) + RXN (t, ) + RN X (t, ) + RN ( )
Quando X(t) e N (t) so conjuntamente estacionrios no sentido amplo RXN (t, ) =
RXN ( ) e RN X (t, ) = RN X ( ). Ento podemos reescrever a equao acima como
RY (t, ) = RX ( ) + RXN ( ) + RN X ( ) + RN ( )
O lado direito desta equao indica que RY (t, ) depende somente de . Isto implica
que Y (t) estacionrio no sentido amplo com funo de autocorrelao RY (t, ) =
RY ( ). Tomando a transformada de Fourier de ambos os lados, obtemos a densidade
espectral de potncia de Y (t)
SY (f ) = SX (f ) + SXN (f ) + SN X (f ) + SN (f )
Exemplo 9.4. Continuando o Exemplo 9.3, suponha que N (t) seja um processo de
mdia zero, independente de X(t). Encontre a funo de autocorrelao e a densidade
espectral de potncia da observao Y (t).
Soluo. Neste caso,
RXN (t, ) = E[X(t)N (t + )] = E[X(t)]E[N (t + )] = 0
Similarmente, RN X (t, ) = 0. Isto implica
RY ( ) = RX ( ) + RN ( )
SY (f ) = SX (f ) + SN (f )
186
9.4.3
h(u)X(t + u) du
RXY (t, ) = E X(t)
Z
h(u)E[X(t)X(t + u)]du
=
Z
h(u)RX ( u) du
=
Teorema 9.11. Quando um processo X(t) estacionrio no sentido amplo a entrada de um filtro linear invariante no tempo, a entrada X(t) e a sada Y (t) so
conjuntamente estacionrias no sentido amplo.
No Teorema 9.10 vimos que a correlao cruzada entre a entrada e a sada dada
pela convoluo entre a funo de autocorrelao RX ( ) da entrada e a resposta a
impulso h(t) do filtro. Ento podemos pensar em RXY ( ) como a sada do filtro h(t)
quando RX ( ) a entrada. No exemplo a seguir veremos que calcular a correlao
cruzada antravs de convolues tende a ser um processo complicado.
Exemplo 9.5. Um processo X(t) estacionrio no sentido amplo com funo de autocorrelao RX ( ) = eb| | a entrada de um filtro RC com resposta impulsiva
187
(
et/(RC)
h(t) =
0
t0
caso contrrio
h(u)RX ( u) du =
eau eb| u| du
e(ab)ub du +
e(a+b)u+b du =
eb
2bea
2
a b a b2
eau eb(u ) du =
eb
a+b
RXY ( ) =
b
e
a + b
2bea
e
2
a b a b2
<0
O Teorema 9.10 nos encoraja a reexaminar o Teorema 9.1 desde que a integral dupla
para RY ( ) pode ser expressa em termos da correlao cruzada RXY ( )
Demonstrao.
Z
RY ( ) =
h(u)
h(v)RX ( + u v) dv du =
|
{z
}
h(u)RXY ( + u) du
RXY ( +u)
188
Teorema 9.13. Seja X(t) uma entrada estacionria no sentido amplo para um filtro
linear invariante no tempo H(f ). A entrada X(t) e a sada Y (t) satisfazem
SY (f ) = H (f )SXY (f )
h( )
........................................................................
H(f )
........................................................................
RX ( )
........................................................................
SX (f )
........................................................................
SXY (f )
h( )
........................................................................
RY ( )
H (f )
........................................................................
SY (f )
Figura 9.2: A correlao cruzada entre a entrada e a sada de um filtro linear invariante
no tempo a convoluo da resposta a impulso do filtro com a funo de autocorrelao
da entrada. A densidade espectral cruzada entre a entrada e a sada o produto do
espectro densidade de potncia da entrada com a funo de transferncia do filtro. A
densidade espectral de potncia da sada o produto da densidade espectral cruzada
da entrada e da sada e o complexo conjugado da funo de transferncia do filtro.
9.5
Processos gaussianos
Um processo gaussiano tem a propriedade de que toda coleo de valores de amostras descrita pela fdp Gaussiana multidimensional. Isto , uma coleo de amostras
X(t1 ), X(t2 ), . . . , X(tk ), tem uma fdp conjunta descrita por um vetor X = [X (t1 ),
X (t2 ), . . . , X (tk )]t e uma matriz C cujo i, j-simo elemento
Ci,j = CX (ti , tj ti ) = RX (ti , tj ti ) X (ti )X (tj )
a covarincia entre X(ti ) e X(tj ). Usando o vetor x = [x1 , . . . , xk ]t , o vetor de valores
mdios X , a matriz de covarincia C e seu determinante |C|, podemos definir a fdp
Gaussiana multidimensional.
189
(2)k/2 |C|1/2
t C1 (x
e 2 (xX )
X)
Embora esta expresso possa parecer bastante complicada, pode ser reduzida para
expresses familiares em vrios casos. Por exemplo, quando k = 1, a matriz C
simplesmente o escalar CX (t1 , 0) = Var(X(t1 )) = 12 ., o vetor X o escalar E[X(t1 )] =
1 e a fdp conjunta pode ser simplificada para a densidade Gaussiana ordinria
fX(t1 ) (x1 ) = p
212
(x1 1 )2
2 2
1
exp
x1 1
1
2(x1 1 )(x2 2 )
+
1 2
2(12 )
21 2
x2 2
2
p
1 2
E[X(t2 )] = 2
Var[X(t1 )] = 12
Var[X(t2 )] = 22
Um ltimo caso importante para a fdp Gaussiana conjunta ocorre quando X(t1 ), . . . ,
X(tk ) so mutuamente independentes. Neste caso, o elemento (i, j) da matriz de covarincia C dado por
(
Var[X(ti )] i = j
Cij = CX (ti , tj ti ) =
0
caso contrrio
Isto , a matriz C uma matriz diagonal. Neste caso, C1 tambm diagonal, com
o i-simo elemento da diagonal dado por Cii1 = 1/ Var[X(ti )]. Usando i e i2 para
denotar a mdia e a varincia de X(ti ), observamos que o vetor de valores mdios
X = [1 , . . . , k ]t e que o expoente da distribuio Gaussiana conjunta
1
1
(x X )t C1 (x X ) =
2
2
(x1 1 )2
(xk k )2
+
+
12
k2
e(xk k ) /(2k )
e(x1 1 ) /(21 )
p
q
190
g(t)X(t) dt
0
g(t)X(t) dt
Este teorema nos permite mostrar facilmente que a filtragem linear de um processo
Gaussiano gera um outro processo Gaussiano.
191
Para mostrar que Y (t) um processo Gaussiano, mostramos que um funcional linear
de Y (t) sempre Gaussiano pois um funcional linear de X(t), isto ,
Z
Y (t)g(t) dt =
0
T
0
X( )
Z
T
0
h(t )g(t) dt d
No lado direito temos um funcional linear de X(t) o qual uma v.a. Gaussiana.
Desta forma mostramos que um funcional linear de Y (t) uma v.a. Gaussiana, o que
implica que Y (t) um processo estocstico Gaussiano.
9.6
192
SW (f ) df =
N0
df =
2
t
0
h(t )W ( ) d
Ao contrrio do processo branco W (t), o processo de rudo Y (t) tem potncia mdia
finita.
Exemplo 9.6. Um processo Gaussiano branco com N0 = 1015 W/Hz inserido em
um filtro linear invariante no tempo com resposta a impulso
(
6
2106 e210 t t 0
h(t) =
0
caso contrrio
Encontre as seguintes propriedades do processo de sada Y (t).
(a) A funo densidade espectral de potncia SY (f ).
(b) A funo de autocorrelao RY ( ).
(c) A potncia mdia E[Y 2 (t)].
Soluo. Resolvemos este problema usando o Teorema 9.3. A funo densidade espectral de potncia da entrada SX (f ) = 1015 /2 W/Hz para todo f .
A magnitude ao quadrado da resposta em frequncia do filtro dada por
|H(f )|2 =
(2106 )2
(2f )2 + (2106 )2
SY (f ) = |H(f )|2 SX (f ) =
(2106 )2
2(2106 )
109
1015
=
2 (2f )2 + (2106 )2
2
(2f )2 + (2106 )2
2(2106 )
6
dada por e210 | | . Isto
(2f )2 + (2106 )2
109 2106 | |
e
2
9.7
193
Exerccios
1
RX ( ) cos(0 )
2
1
SY () = [SX ( + c ) + SX ( c )]
4
Esta a extenso do teorema da modulao para processos estocsticos.
Dica: se dois processos estocsticos x(t) e y(t) so independentes, ento
x(t)g(t)x(t + )g(t + ) = x(t)x(t + ) g(t)g(t + ) = RX ( )Rg ( )
4. Dois processos estocsticos so dados por
e
x(t) = A cos(1 t + )
y(t) = B cos(2 t + )
y(t) = B cos(n0 t + n)
onde A, B e 0 so constantes e uma varivel aleatria uniformemente distribuda no intervalo (0, 2). Mostre que os dois processos so incoerentes.
194
t0
caso contrrio
t0
caso contrrio
(a)
1
2 + 16
(b) j[( 0 ) + ( + 0 )]
(d)
2
+ 16
(e)
j 2
2 + 16
195
(c)
1
4 + 9 2 + 18
(f)
3
4 + 9 2 + 18
Resp:
(a) Sim. P = 1/8.
(b) No.
6 3
(c) Sim. P =
0, 0282.
18 2
(d) No.
(e) No.
(f) No.
12. A funo de autocorrelao de um sinal telegrfico dada por
RX ( ) = e2| |
Calcule o espectro densidade de potncia deste processo.
4
Resp: SX (f ) =
2
4 + (2f )2
13. Um processo estocstico X(t), estacionrio no sentido amplo, com funo de autocorrelao
RX ( ) = ea| |
onde a uma constante positiva real, aplicado entrada de um sistema linear
invariante no tempo com resposta a impulso
h(t) = ebt u(t)
onde b uma constante real positiva. Encontre a funo de autocorrelao da
sada Y (t) do sistema.
i
h
1
b| |
a| |
ae
b
e
Resp: RY ( ) = 2
(a b2 )b
196
N0 , |f | W
(a) SX (f ) =
2
0,
caso contrrio
(b) RX ( ) = N0 W sinc(2W )
(c) P = N0 W
Y (t) = A sen(t + )
(b)
16. Mostre que o espectro densidade de potncia de um sinal real real e par.
17. Seja Y (n) = X(n) + W (n), onde X(n) = A (para todo n) e A uma v.a. com
2 , e W (n) um rudo branco discreto de potncia mdia
mdia zero e varincia A
2 . Assuma tambm que X(n) e Y (n) so independentes.
(a) Mostre que Y (n) estacionrio no sentido amplo.
(b) Encontre o espectro densidade de potncia de Y (n).
Resp:
(a) E[Y (n)] = 0
2 + 2 (k)
RY (n, n + k) = A
2 () + 2 ,
(b) SY () = 2A
A2
[SX ( c ) + SX ( + c )]
4
197
S ()
-
........................................................................
Resp: (a)
S0
S ()
S0 2
.
2 + 2
S () = S0
H(j)
(b) e(0 )
........................................................................
(c)
1p 2
+ 2
20. Na entrada do circuito mostrado na Figura abaixo tem-se um rudo branco com
S0 = 120V2 /Hz. Dados R1 = R2 = 104 e L = 102 H, calcule o espectro
densidade de potncia, a funo de autocorrelao e a potncia do processo de
sada.
L
R1
U1
R2
U2
R2
U2 ()
=
=
, =
,
H() =
U1 ()
R1 + R2 + jL
1 + jT
R1 + R2
Resp: SY () =
S0 2
1 + (T )2
RY ( ) =
2 S0 | |
e T
2T
T =
L
.
R1 + R2
2 S0
E Y 2 (t) =
T
21. Seja Y (t) = X(t d), onde d um atraso constante e X(t) um processo estacionrio no sentido amplo. Calcule RY X ( ), SY X (f ), RY ( ) e SY (f ), em funo
de RX ( ) e SX (f ).
Resp:
RY X ( ) = RX ( + d)
RY ( ) = RX ( )
198
Y (t) =
d
X(t)
dt
RY ( ) =
d2
RX ( )
d 2
Y (t) = A sen(t + )
A2
sen( )
2
Captulo 10
Cadeias de Markov
Em geral, uma varivel aleatria dentro de um conjunto, definindo um processo estocstico, no independente e de fato pode ser estatisticamente dependente de vrias formas
complexas. Neste captulo ser introduzida a classe dos processos aleatrios de Markov
que tem uma forma simples de dependncia e bastante utilizada em modelamento de
problemas encontrados na prtica.
10.1
Processos de Markov
(10.3)
200
Cadeias de Markov
1
4
1
2
1
4
1
(1/2)3
=
1/2
4
Cadeias de Markov
P Yn = 1|Yn1
201
1
P [Yn = 1, Yn1 = 1/2, Yn2 = 0]
= , Yn2 = 0 =
2
P [Yn1 = 1/2, Yn2 = 0]
P [Xn = 1, Xn1 = 1, Xn2 = 0, Xn3 = 0]
=
P [Xn1 = 1, Xn2 = 0, Xn3 = 0]
1
1/16
=
=
1/8
2
Desta forma,
1
1
P Yn = 1|Yn1 = , Yn2 = 0 6= P Yn = 1|Yn1 =
2
2
e este no um processo de Markov.
(10.4)
202
10.2
Cadeias de Markov
Seja Xn uma cadeia de Markov de tempo discreto, que comea em n = 0 com a seguinte
fmp
(10.6)
Desta forma a fmp conjunta para uma sequncia particular simplesmente o produto
da probabilidade para o estado inicial com as probabilidades para as transies de um
passo subsequentes.
Definio 10.3. Probabilidades de transio homogneas: Uma cadeia de Markov Xn tem probabilidades de transio homogneas se as probabilidades de transio
para um passo so fixas e no variam com o tempo, isto
(10.8)
(10.9)
Desta forma Xn completamente especificado pela fmp inicial pi (0) e pela matriz
de probabilidades de transio de um passo P
p00
p10
..
.
p01
p11
..
.
p02
p12
..
.
P =
pi1,0 pi1,1 pi1,2
pi,0
pi,1
pi,2
..
..
..
.
.
.
(10.10)
X
j
P [Xn+1 = j|Xn = i] =
X
j
pij
(10.11)
Cadeias de Markov
203
Exemplo 10.3. Um modelo de Markov para transmisso de voz por pacotes assume
que se o n-simo pacote contm silncio, a probabilidade de silncio no prximo pacote
(1 ) e a probabilidade do pacote conter voz .
Similarmente, se o n-simo pacote contiver atividades de voz, a probabilidade do
prximo pacote conter voz (1 ), e a probabilidade de silncio . Esboce uma
cadeia de Markov para este problema.
Soluo. Supondo Xn a funo que indica a atividade voz em um determinado pacote
no instante n, ento Xn uma cadeia de Markov de 2 estados e matriz de probabilidade
de transio como mostrado abaixo.
P =
10.2.1
Para avaliar a fmp conjunta em instantes de tempo arbitrrios (veja equao 10.5), precisamos conhecer as probabilidades de transio para um nmero arbitrrio de passos.
Seja P (n) = {pij (n)} a matriz de probabilidades de transio para n passos, onde
pij (n) = P [Xn+k = j|Xk = i],
n, i, j 0
(10.12)
P [X2 = j, X1 = k|X0 = i] =
P [X2 = j, X1 = k, X0 = i]
P [X0 = i]
P [X2 = j|X1 = k]P [X1 = k|X0 = i]P [X0 = i]
P [X0 = i]
204
Cadeias de Markov
Note que pik (1) e pkj (1) so componentes de P , a matriz de transio de um passo.
Obtemos pij (2), a probabilidade de ir do estado i em t = 0 para o estado j em t = 2,
somando sobre todos os possveis estados intermedirios k
pij (2) =
i, j
(10.13)
O conjunto de equaes fornecido pela equao (10.13) afirma que a matriz P (2)
obtida pela multiplicao das matrizes de transio de um passo
P (2) = P (1)P (1) = P 2
(10.14a)
Atravs dos mesmos argumentos utilizados acima, verifica-se que P (n) encontrada
multiplicando-se P (n 1) por P
(10.14b)
P (n) = P (n 1)P
As equaes (10.14a) e (10.14b) juntas implicam que
P (n) = P n
(10.15)
10.2.2
X
i
(10.16)
pij pi (n 1)
A equao (10.16) afirma que p(n) obtida pela multiplicao do vetor linha p(n1)
pela matriz P
(10.17)
(10.18)
e em notao matricial
n = 1, 2, . . .
(10.19)
Cadeias de Markov
205
P4
P8
P 16
0.9 0.1
0.2 0.8
2
0.9 0.1
0.2 0.8
4
0.9 0.1
0.2 0.8
8
0.9 0.1
0.2 0.8
16
0.83 0.17
0.34 0.66
0.7467 0.2533
0.5066 0.4934
0.6859 0.3141
0.6282 0.3718
0.6678 0.3322
0.6644 0.3356
1
+
2/3 1/3
2/3 1/3
Exemplo 10.5. No exemplo 10.4 sejam as probabilidades iniciais para os estados dadas
por
P [X0 = 0] = p0 (0) e P [X0 = 1] = 1 p0 (0)
2/3 1/3
2/3 1/3
2 1
=
,
3 3
206
10.2.3
Cadeias de Markov
Probabilidades em regime
O exemplo 10.5 tpico de cadeias de Markov que entram em regime estacionrio depois
que o processo est em vigor durante um longo tempo. medida que n , a matriz
de transio de n passos aproxima-se de uma matriz para a qual todas as linhas so
iguais mesma fmp, isto
(10.20)
pij (n) j , i
medida que n , a equao (10.18) torna-se
pj (n)
j pi (0) = j
(10.21)
pj (n) j , j
j =
(10.23a)
pij i
= P
(10.23c)
i = 1
(10.24)
Cadeias de Markov
207
P [Xn+k = in , . . . , Xk = i0 ] =
= P [Xn+k = in |Xn+k1 = in1 ] P [X1+k = i1 |Xk = i0 ]P [Xk = i0 ]
= pin1 ,in pi0 ,i1 i0
(10.25)
10.3
=
+
3
1 =
1
=
+
3
Na seo 10.2 vimos que a matriz de probabilidades de transio determina o comportamento de uma cadeia de Markov de tempo discreto. Nesta seo iremos ver que o
mesmo acontece com cadeias de Markov de tempo contnuo.
A fmp conjunta para (k+1) instantes de tempo arbitrrios de uma cadeia de Markov
dada pela equao (10.5)
P [X(tn+1 ) = xn+1 , X(tn ) = xn , . . . , X(t1 ) = x1 ]
= P [X(tn+1 ) = xn+1 |X(tn ) = xn ] P [X(t2 ) = x2 |X(t1 ) = x1 ]P [X(t1 ) = x1 ]
(10.26)
Este resultado vale independente do processo ser de tempo discreto ou de tempo
contnuo. No caso contnuo, a equao (10.26) requer que saibamos as probabilidades
de transio no intervalo entre um instante de tempo arbitrrio s e outro instante de
tempo arbitrrio s + t:
P [X(s + t) = j|X(s) = i],
t0
208
Cadeias de Markov
t 0, s
(10.27)
(10.28)
(t)ji t
e ,
(j i)!
ji
Portanto
P =
t
0
0
e
tet
...
..
..
..
..
..
.
.
.
.
.
0
...
0
1
...
0
0
1 . . .
..
..
..
..
.
.
.
.
onde todos os termos de ordem 2 ou superior foram negligenciados. Ento a probabilidade de mais de uma transio em um intervalo de tempo bastante curto desprezvel.
Exemplo 10.8. Para um processo telegrfico aleatrio, X(t) muda com cada ocorrncia
de um evento em um processo de Poisson. Vimos na seo 8.7 que as probabilidades de
transio para este processo so
Cadeias de Markov
209
1
1 + e2t
2
1
1 e2t ,
P [X(t) = a|X(0) = b] =
2
P [X(t) = a|X(0) = a] =
se a 6= b
10.3.1
Desde que o sinal telegrfico aleatrio muda de polaridade com cada ocorrncia de um
evento em um processo de Poisson, segue que o tempo em que o sistema permanece em
cada estado uma varivel aleatria exponencial. Desta forma esta uma propriedade
do tempo de ocupao de estados para todas as cadeias de Markov de tempo
contnuo, isto : X(t) permanece em um dado valor (estado) para um intervalo de
tempo aleatrio exponencialmente distribudo.
Para ver como isto acontece, seja Ti o tempo gasto no estado i. A probabilidade de
gastar mais de t segundos neste estado ento
P [Ti > t]
Suponha agora que o processo j tenha estado no estado i por s segundos; ento a
probabilidade de gastar mais t segundos neste estado
P [Ti > t + s|Ti > s] = P [Ti > t + s|X(s ) = i, 0 s s],
desde que {Ti > s} implica que o sistema tem estado no estado i durante o intervalo
de tempo (0, s). A propriedade de Markov implica que se X(s) = i, ento o passado
irrelevante e podemos ver o sistema como sendo reiniciado no estado i no instante s:
P [Ti > t + s|Ti > s] = P [Ti > t]
(10.29)
Somente a varivel aleatria exponencial satisfaz esta propriedade de ser sem memria. Ento o tempo gasto no estado i uma varivel aleatria exponencial com alguma
mdia 1/vi :
P [Ti > t] = evi t
(10.30)
210
Cadeias de Markov
Exemplo 10.9. O sinal telegrfico aleatrio do exemplo 10.8 gasta um tempo exponencialmente distribudo com mdia 1/ em cada estado. Quando uma transio ocorre, a
transio sempre do estado presente para um nico outro estado, ento a cadeia de
Markov embutida
q00 = 0
q10 = 1
10.3.2
q01 = 1
q11 = 0
=1
onde o() denota os termos que se tornam desprezveis em relao a medida que
01 . As distribuies exponenciais para os tempos de ocupao de estados implicam
que a probabilidade de duas ou mais transies em um intervalo de durao o().
Ento para pequeno, pii () aproximadamente igual probabilidade de o processo
permanecer no estado i por segundos:
pii () P [Ti > ] = 1 vi + o()
ou equivalentemente,
1 pii () = vi o()
(10.31)
(10.32)
= ij o()
h0
g(h)
= 0, isto , se g(h) tende a zero mais rpido do que h.
h
Cadeias de Markov
211
(10.33)
pii () 1 = ii o()
lim
(10.34a)
i 6= j
e
lim
pii () 1
= ii ,
(10.34b)
desde que
o()
=0
0
lim
...
...
..
...
...
...
...
..........
...
..........
i j
...
..........
..........
...
..........
..........
...
..........
...
..........
..........
...
..........
...
..........
..........
...
..........
...
..........
..........
...
........
....
..
...
..........
...
..........
.
.
.
.
.
.
.
...
.
.
.......
.
.
.
.
.
.
.
....
.
.
...
..
..........
..........
...
..........
..........
....
..........
.
.
.
.
.
.
..
.
.
.
......
...
..........
..........
...
..........
..........
...
ij
...
...
...
...
...
...
....................................................................................................................................................................................................................................................................................................................................
...
...
X(t)
X(t + )
p ()
q t
1
p ()
t+
(10.35)
212
Cadeias de Markov
pj (t + ) pj (t) =
i6=j
i6=j
(10.36)
pj (t) =
(10.37)
ij pi (t)
00 =
10 =
01 =
11 =
Cadeias de Markov
213
p0 (0) = p0
+ Ce(+)t
+
p0 (t) =
p0 (t) =
+ p0 (0)
e(+)t
+
+
Similarmente, temos que
p1 (t) =
+ p1 (0)
e(+)t
+
+
p0 (t)
p1 (t)
i,i+1 =
p0 (t) = p0 (t),
j=0
j1
A condio inicial para o processo de Poisson p0 (0) = 1, de modo que a soluo para
a primeira equao
p0 (t) = et
Para a segunda equao, temos
p1 (t) = p1 (t) + et ,
p1 (0) = 0
214
Cadeias de Markov
t t
e
1!
Adicionalmente pode-se mostrar atravs de induo que a soluo para o estado j
dada por
p1 (t) =
pj (t) =
(t)j t
e
j!
Note que para qualquer j, pj (t) 0 medida que t . Ento para o processo de
Poisson, a probabilidade de qualquer estado finito tende a zero medida que t .
Isto consistente com o fato de que o processo cresce de forma constante com o tempo.
10.4
Para tais sistemas, pj (t) pj e pj (t) 0, de modo que a Equao (10.37) torna-se
0=
X
i
ij pi , j,
(10.38a)
X
i6=j
ij pi , j
X
X
pj
ji =
ij pi
i6=j
(10.38b)
(10.38c)
i6=j
desde que
vj =
ji
i6=j
Cadeias de Markov
215
pi (t) = pi , t
O processo resultante estacionrio, desde que a probabilidade da sequncia de
estados i0 , i1 , . . . , in nos instantes t < t1 + t < < tn + t , pela Equao (10.26),
P [X(t) = i0 , X(t1 + t) = i1 , , X(tn + t) = in ] =
e p1 =
+
+
216
Cadeias de Markov
(10.39a)
(10.39b)
pj pj+1 = pj1 pj , j = 1, 2, . . .
pj1 pj = constante, j = 1, 2, . . .
(10.40)
pj1 = pj
ou equivalentemente,
pj = pj1 , j = 1, 2, . . .
e por induo
p j = j p 0
onde = /. Obtemos p0 notando que a soma das probabilidades precisa ser igual a
um:
1=
X
j=0
pj = (1 + + 2 + )p0 =
1
p0
1
Cadeias de Markov
217
(10.41)
A condio para a existncia de uma soluo de regime permanente tem uma explicao simples. A condio < 1 equivalente a
<
isto , a taxa na qual os clientes chegam precisa ser menor que a taxa na qual o sistema
possa atend-los. Caso contrrio, a fila cresce sem limite medida que o tempo passa.
(10.42a)
(10.42b)
218
Cadeias de Markov
1=
X
j=0
Rj p 0 .
Rj
X
Ri
(10.43)
i=0
10.5
Nesta seo iremos olhar mais de perto a relao entre o comportamento de uma cadeia de Markov e sua matriz de probabilidade de transies de estados. Primeiramente
iremos ver que os estados de uma cadeia de Markov de tempo discreto podem ser divididos em uma ou mais classes separadas e que estas podem ser de diferentes tipos.
Iremos ento mostrar que o comportamento de longo prazo de uma cadeia de Markov
est relacionada aos tipos de suas classes de estados. Finalmente, usaremos estes resultados para relacionar o comportamento de longo prazo de cadeias de Markov de tempo
contnuo com o de sua cadeia de Markov embutida.
10.5.1
Classes de estados
Cadeias de Markov
219
Definio 10.7. Classes de estados: dizemos que dois estados pertencem a uma
mesma classe se estes se comunicam entre si.
Note que duas classes de estados diferentes precisam ser disjuntas desde que se
tiverem um estado em comum, isto implicaria que os estados de ambas as classes se
comunicariam entre si. Ento os estados de uma cadeia de Markov consistem de uma
ou mais classes de comunicao disjuntas.
Definio 10.8. Cadeia Irredutvel: Uma cadeia de Markov que consiste de uma
nica classe dita irredutvel.
Exemplo 10.15. A figura abaixo mostra o diagrama de transio de estados para uma
cadeia de Markov com trs classes: {0}, {1, 2} e {3}
Exemplo 10.16. Abaixo tem-se o diagrama de transio de estados para uma cadeia
de Markov peridica com apenas uma classe {0, 1, 2, 3}. Ento esta cadeia irredutvel.
220
Cadeias de Markov
10.5.2
Propriedades de recorrncia
Definio 10.9. Estado recorrente: O estado i chamado recorrente se o processo retorna a ele com probabilidade um, isto ,
fi = P [alguma vez retornar ao estado i] = 1
Cadeias de Markov
221
"
desde que
Ii (Xn )|X0 = i =
n=1
pii (n)
(10.44)
n=1
n=1
pii (n) =
n=1
(10.45)
n=1
(10.46)
n=1
1
p00 (n) = +
2
2 3
1
1
+
+ = 1 <
2
2
+ (1 )n
1/2 + 1/4(7/10)n
=
+
3/4
de modo que
p11 (n) =
n=1
X
2
n=1
(7/10)n
3
Exemplo 10.20. Mostre que para um processo binomial de contagem todos os estados
so transientes.
222
Cadeias de Markov
Soluo. Para este processo, pii (n) = (1 p)n , de modo que para p > 0,
pii (n) =
(1 p)n =
n=1
n=1
1p
<
p
2n n
p (1 p)n
n
2n n
(4p(1 p))n
p (1 p)n
n
n
an
= 1.
bn
n=1
p00 (2n)
X
(4p(1 p))n
n
n=1
Se o estado i recorrente ento todos os estados de sua classe iro eventualmente ser
visitados medida que o processo retorna repetidamente a i. De fato, todos os outros
estados em sua classe so visitados um nmero infinito de vezes. Ento recorrncia
uma propriedade de classe, isto , se o estado i recorrente e i j, ento o estado j
tambm recorrente. Similarmente, a transitoriedade tambm uma propriedade de
classe.
Se uma cadeia de Markov irredutvel, isto , se consiste de uma nica classe de
comunicao, ento todos os seus estados so ou transientes ou recorrentes. Se o nmero
de estados na cadeia finito, impossvel para todos os estados serem transientes.
Ento, os estados de uma cadeia de Markok irredutvel com nmero de estados finito
so todos recorrentes.
A informao sobre quando o estado i pode ocorrer novamente est contido em
pii (n), a probabilidade de transio de n passos do estado i para ele mesmo.
Cadeias de Markov
223
Definio 10.12. Cadeia de Markov aperidica. Uma cadeia de Markov irredutvel dita aperidica se os estados em sua classe nica tm perodo unitrio.
Exemplo 10.23. Para a cadeia de Markov do Exemplo 10.16, verifique o valor de seu
perodo.
Soluo. Para esta cadeia, os estados 0 e 1 podem ocorrer novamente nos instantes
2, 4, 6, . . . e os estados 2 e 3 nos instantes 4, 6, 8, . . . Portanto esta cadeia tem perodo
2.
10.5.3
Probabilidades limite
224
Cadeias de Markov
k
Ti (1) + Ti (2) + + Ti (k)
(10.47)
1
= i
E[Ti ]
(10.48)
Cadeias de Markov
225
1
1
E[T0 ] = (2) + (4) = 3
2
2
Portanto o estado 0 recorrente positivo e a proporo de longo prazo de tempo em
que o sistema permanece no estado 0
0 =
1
3
Exemplo 10.26. No Exemplo 10.21 foi mostrado que o processo de caminhada aleatria recorrente se p = 1/2. Entretanto, pode-se mostrar que o tempo mdio de
recorrncia infinito quando p = 1/2 ([Fel68],p.314). Ento todos os estados da cadeia
so recorrentes nulos.
X
i
i Pij , j
(10.49a)
(10.49b)
i = 1
Para ver isto, note que desde que i a proporo de tempo gasto no estado i, ento
i Pij a proporo de tempo na qual o estado j segue o estado i. Se somarmos sobre
todos os estados i, obteremos a proporo de longo prazo do tempo no estado j, j .
Exemplo 10.27. Encontre a fmp de estado estacionrio para a cadeia de Markov do
Exemplo 10.16.
Soluo. Temos das Equaes (10.49a) e (10.49b) que
1
0 = 1 + 3 ,
2
1 = 0 ,
1
2 = 1 ,
2
3 = 2
Na Seo 10.2 vimos que para cadeias de Markov que exigem um comportamento
estacionrio, a matriz de transio de n passos aproxima-se de uma matriz fixa de linhas
iguais medida que n (veja Equao 10.20). Vimos tambm que as linhas desta
matriz limite consistiam de uma fmp que satisfaz (10.49a) e (10.49b). Iremos agora
definir sob quais condies isto ocorre.
226
Cadeias de Markov
Teorema 10.2. Para uma cadeia de Markov irredutvel, aperidica e recorrente positiva,
lim pij (n) = j ,
Uma prova deste teorema pode ser encontrada em [Ros83]. O Teorema 10.5.3 afirma
que para cadeias de Markov irredutveis, aperidicas e recorrente positivas, as probabilidades dos estados aproximam-se de valores de estado de regime permanente que
so independentes da condio inicial. Estas probabilidades de regime permanente correspondem s probabilidades estacionrias obtidas nas Equaes (10.49a) e (10.49b) e
portanto correspondem proporo de longo prazo do tempo gasto no estado dado. Esta
a razo pela qual cadeias de Markov irredutveis, aperidicas e recorrente positivas
so chamadas de ergdicas.
Para processos peridicos, temos o seguinte resultado:
Teorema 10.3. Para uma cadeia de Markov irredutvel, peridica e recorrente positiva com perodo d,
lim pjj (nd) = dj
10.5.4
Vimos na Seo 10.3 que uma cadeia de Markov de tempo contnuo X(t) pode ser vista
como sendo constituda de uma sequncia de estados determinada por alguma cadeia de
Markov discreta Xn com probabilidades de transio qij e uma sequncia de tempos de
Cadeias de Markov
227
i /vi
pi = X
j /vj
j
onde 1/vi o tempo mdio de ocupao no estado i. Alm disso, mostramos que os pi
so as solues nicas das equaes de balano global (10.38b) e (10.38c).
Suponha que a cadeia de Markov embutida Xn irredutvel e recorrente positiva,
de modo que a Equao (10.48) seja vlida. Seja Ni (n) o nmero de vezes que o estado
i ocorre nas primeiras n transies, e seja Ti (j) o tempo de ocupao da j-sima vez
que o estado i ocorre. A proporo de tempo gasto no estado i depois das primeiras n
transies
Ni (n)
Ti (j)
tempo gasto no estado i
j=1
=
i (n)
tempo gasto em todos os estados
X NX
Ti (j)
i
j=1
Ni (n) 1
n Ni (n)
=
X Ni (n)
i
(10.50)
Ni (n)
Ti (j)
j=1
Ni (n)
X
1
Ti (j)
Ni (n)
j=1
medida que n , pelas Equaes (10.48), (10.49a) e (10.49b), com probabilidade um,
Ni (n)
i
(10.51)
n
a fmp estacionria da cadeia de Markov embutida. Adicionalmente, temos que Ni (n)
medida que n , de modo que pela lei forte dos nmeros grandes, com probabilidade um,
Ni (n)
X
1
1
Ti (j) E[Ti ] =
Ni (n)
vi
(10.52)
j=1
onde usamos o fato de que o tempo de ocupao de estado no estado i tem mdia
1/vi . As Equaes (10.51) e (10.52) quando aplicadas a (10.50) implicam que, com
probabilidade um, a proporo de longo prazo do tempo gasto no estado i aproxima
i /vi
pi = X
= ci /vi
j /vj
j
(10.53)
228
Cadeias de Markov
i qij ,
(10.54)
pi ij ,
i6=j
0 1
1 0
A equao = [
qij ] implica que
0 = 1 =
1
2
Adicionalmente, v0 = e v1 = . Ento
p0 =
10.6
1/2(1/)
=
1/2(1/ + 1/)
+
p1 =
Exerccios
0 0 0.5 0.5
0
0 0.5 0.5
1 0 0
0
1 0 0
0
P = 0
P = 0.5 0 0.5 P =
0 0 0.6 0.4
0 1 0
0
0
0.5 0.5 0
0 0 0
1
0 1 0
0
0
0 1 0
0
Cadeias de Markov
229
3. Considere uma cadeia de Markov com espao de estados {0, 1} e matriz de probabilidades de transio
P =
1
0
1/2 1/2
1a
a
b
1b
(a) Encontre P n .
(b) Encontre P n para n .
Resp:
b a
a a
n
+(1 a b)
(a)
b a
b b
1
b a
(b) lim P n =
n
a+b b a
Pn
1
=
a+b
5. Um modelo de Markov para transmisso de voz por pacotes assume que se o nsimo pacote contm silncio, a probabilidade de silncio no prximo pacote
(1 ) e a probabilidade do pacote conter voz .
Similarmente, se o n-simo pacote contiver atividades de voz, a probabilidade do
prximo pacote conter voz (1 ), e a probabilidade de silncio .
(a) Esboce uma cadeia de Markov para este problema.
(b) Para = 1/10 e = 1/5, determine a matriz de transio de estados de um
passo.
(c) Dadas as probabilidades iniciais dos estados p0 = p1 = 0, 5, determine as
probabilidades dos estados depois de 2 passos.
Resp:
(a)
(b) P =
0, 9 0, 1
0, 2 0, 8
1
2
1
4
1
2
230
Cadeias de Markov
Resp:
21
(a) p
=
33
2/3 1/3
n
(b) P =
2/3 1/3
Xn = 0
1a
-
..............................................................................................................................................................................................................................................................................................................................................................................................................................................................................................
........
........
........
...
...
...
........
........
........
.......
.......
.......
........
........
........
........
........
........
........
........
........
........
........
........
........
........
........
.......
.......
.......
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
........
........
........
........
........
........
........
........
........
.......
.......
.......
.......
.......
.......
........ ..............
........ ..............
........ ..............
.. ..
.. ..
.. ..
.....................
.....................
.....................
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
........
........
........
........
........
........
........
........
........
.......
.......
.......
........
........
........
........
........
........
........
........
........
........
........
........
........
........
........
.......
.......
.......
.
.
.
.
.
.
.
........
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
........
........
........
....
....
....
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
......
........ ........
........ ........
.....
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.................................................................................................................................................. ................................................................................................................................................... ........................................................................................................................................................
Xn1 = 1
b 1b
Xn = 1
P =
1a
a
b
1b
0 < a, b < 1
b a
b a
+ (1 a b)
a a
b b
Cadeias de Markov
231
Resp:
2 (0, 7)n
(a)
3
6
1
2
(b)
3
3
1 (0, 7)n
3
6
8. Considere uma cadeia de Markov com dois estados e matriz de transio dada por
P =
0 1
1 0
1/2]
1
1+
e2
C2 =
1
1 + 2e
C3 =
1
1+
+ e2
10. Dada a cadeia de Markov abaixo, calcule as probabilidades dos estados em regime
permanente (se existirem).
5
Resp: =
9
2
9
2
9
11. Uma cadeia de Markov com probabilidades de transio pij possui um estado
particular k para o qual pik = q para todos os estados i. Mostre que pk (n) = q, n.
232
Cadeias de Markov
12. Uma urna contm inicialmente 5 bolas brancas e 5 bolas pretas. O seguinte
experimento repetido indefinidamente: uma bola retirada da urna; se a mesma
branca ela recolocada na urna, caso contrrio deixada de fora. Seja Xn o
nmero de bolas pretas que permanecem na urna depois de n testes.
(a) Xn um processo de Markov? Se sim, esboce uma cadeia para este processo.
(b) As probabilidades de transio dependem de n?
(c) Calcule P (n), n , e encontre uma explicao para o resultado obtido.
Resp:
(a) Sim. Para k = 1, 2, . . . , 5 : P [k 1|k] = k/(5 + k) = 1 P [k|k], P [0|0] = 1.
(b) No.
p, j = i + 1
Resp: P = q, j = i 1
0, caso contrrio
Apndice A
Tabelas Matemticas
A.1
Identidades trigonomtricas
sen2 () + cos2 () = 1
sen( + ) = sen cos + cos sen
sen( ) = sen cos cos sen
cos( + ) = cos cos sen sen
cos( ) = cos cos + sen sen
sen 2 = 2 sen cos
cos 2 = cos2 sen2 = 2 cos2 1 = 1 2 sen2
1
sen sen = [cos( ) cos( + )]
2
1
cos cos = [cos( ) + cos( + )]
2
1
sen cos = [sen( + ) + sen( )]
2
1
cos sen = [sen( + ) sen( )]
2
1
sen2 = (1 cos 2)
2
1
cos2 = (1 + cos 2)
2
ej = cos + j sen
cos =
ej + ej
2
sen =
ej ej
2j
234
A.2
Tabelas Matemticas
Coeficientes Binomiais
n
n
n!
=
=
nk
k!(n k)!
k
n
= 0 para n < k
k
n
n
n
=
=
=1
n
1
0
n
n
=
k = p ou k + p = n (binomiais complementares)
k
p
n
n
n+1
+
=
(relao de Stiffel)
k
k+1
k+1
A.3
Derivadas
dx
dx dx
dx
du
d
(cu) = c
dx
dx
d
dv
du
(uv) = u
+v
dx
dx
dx
d
du
dv
dw
(uvw) =
vw + u w + uv
dx
dx
dx
dx
v(du/dx) u(dv/dx)
d u
=
dx v
v2
du
d n
(u ) = nun1
dx
dx
dy du
dy
=
dx
du dx
d
du
sen(u) = cos(u)
dx
dx
d
du
cos(u) = sen(u)
dx
dx
Tabelas Matemticas
loga (e) du
d
loga (u) =
, a > 0 e a 6= 1
dx
u dx
d
1 du
d
ln(u) =
loge (u) =
dx
dx
u dx
d u
du
a = au ln(a) , a > 0
dx
dx
d u
du
e = eu
dx
dx
d v
d
du
d v ln(u)
dv
u =
e
= ev ln(u) (v ln(u)) = vuv1
+ uv ln(u)
dx
dx
dx
dx
dx
d
1 du
arctg(u) =
dx
1 + u2 dx
A.4
Z
Integrais indefinidas
udv = uv
xn dx =
xn+1
, exceto para n = 1
n+1
x1 dx = ln x
eax dx =
eax
a
ln xdx = x ln x x
(ln x)n
1
dx =
(ln x)n+1
x
n+1
1
x
1
dx = tan1
a2 + x 2
a
a
xn ln(ax) dx =
xeax dx =
eax (ax 1)
a2
x2 eax dx =
cos(ax) dx =
xn+1
xn+1
ln(ax)
n+1
(n + 1)2
1
sen(ax) dx = cos(ax)
a
1
sen(ax)
a
sen2 (ax) dx =
x sen(2ax)
2
4a
235
236
Z
Tabelas Matemticas
x2 sen(ax)dx =
cos2 (ax)dx =
x cos(ax)dx =
x sen(2ax)
+
2
4a
1
(cos(ax) + ax sen(ax))
a2
x2 cos(ax)dx =
A.5
Z
1
(sen(ax) ax cos(ax))
a2
x sen(ax)dx =
1
2 2
2ax
cos(ax)
2
sen(ax)
+
a
x
sen(ax)
a3
Integrais definidas
tn1 e(a+1)t dt =
(n)
(a + 1)n
n > 0, a > 1
1
=
2
1
1 3 5 (2n 1)
n+
=
n = 1, 2, 3, . . .
2
2n
2 2
e x dx =
2
0
Z
2 2
1
xe x =
22
0
Z
2 2
x2 e x =
3
4
0
Z
n+1
n 2 x2
/ 2n+1
=
x e
2
0
Z
a
dx = , a > 0
2
2
a +x
2
0
Z
sen2 (ax)
dx = |a| , a > 0
2
x
2
0
Z
cos(mx)
ma
dx =
e
2
2
x +a
2a
0
r
Z
b2 4ac
(ax2 +bx+c)
e 4a
e
dx =
a
Apndice B
Tabelas de transformadas de
Fourier
B.1
Definio
G(f ) = F {g(t)} =
g(t) = F
B.2
g(t)ej2f t dt
{G(f )} =
G(f )ej2f t df
Propriedades
Linearidade:
Escalonamento no tempo:
Dualidade:
Deslocamento no tempo:
Deslocamento em frequncia:
F {g(t)ej2f0 t } = G(f f0 )
Diferenciao:
Integrao:
Z
g(s)ds
Multiplicao no tempo:
Convoluo no tempo:
238
B.3
Pares de transformadas
g(t)
(
1, T /2 t T /2
0, caso contrrio
sen(2W t)
2W
2W t
(
1
0,
|t|
T ,
|t| < T
caso contrrio
G(f )
sen(f T )
f T
(
1, W f W
0, caso contrrio
T
sen2 (f T )
(f T )2
1
a + j2f
a2
2a
+ (2f )2
2
et
ef
(t)
(f )
(t t0 )
ej2f t0
ej2f0 t
(f f0 )
cos(2f0 t)
1
[(f f0 ) + (f + f0 )]
2
sen(2f0 t)
1
[(f f0 ) + (f + f0 )]
2j
u(t)
1
1
(f ) +
2
j2f
Apndice C
Sries de Taylor
C.1
f (a)(x a)2
f (n1) (a)(x a)(n1)
+ +
+ Rn
2!
(n 1)!
onde Rn , o resto aps n termos, dado por qualquer das formas seguintes:
Forma de Lagrange Rn =
Forma de Cauchy Rn =
O valor , que pode ser diferente nas duas formas, fica entre a e x. O resultado
determina se f (x) tem derivadas contnuas de ordem n pelo menos.
Se limn Rn = 0, a srie infinita, chamada de Srie de Taylor para f (x) em
x = a. Se x = 0, a srie frequentemente chamada de Srie de Maclaurin. Estas sries
geralmente convergem para todos os valores de x em algum intervalo de converga ncia
e divergem para todos os x fora deste intervalo.
C.2
x2 x3
+
+ , < x <
2!
3!
(x ln(a))2
(x ln(a))3
ax = ex ln(a) = 1 + x ln(a) +
+
+ , < x <
2!
3!
x1
1
1 x1 2 1 x1 3
ln(x) =
+
+ ,x
+
x
2
x
3
x
2
5
7
3
x
x
x
+
+ , < x <
sen(x) = x
3!
5!
7!
x2 x4 x6
+
+ , < x <
cos(x) = 1
2!
4!
6!
x3 x5 x7
senh(x) = x +
+
+
+ , < x <
3!
5!
7!
ex = 1 + x +
240
x2 x4 x6
+
+
+ , < x <
2!
4!
6!
x5
x2 x4
+ , < x <
esen(x) = 1 + x +
2
8!
15!
x2 x4 31x6
ecos(x) = e 1
+
+ , < x <
2
6
720
cosh(x) = 1 +
Sries de Taylor
Apndice D
Bernoulli
SX = {0, 1}
p0 = q = 1 p
E[X] = p
p1 = p
0p1
Var[X] = p(1 p)
GX (z) = (q + pz)
Observaes: a varivel aleatria de Bernoulli o valor da funo indicadora IA para
algum evento A; X = 1 se A ocorre, e 0 caso contrrio.
D.2
Binomial
SX = {0, 1, . . . , n}
n k
pk =
p (1 p)nk
k
E[X] = np
k = 0, 1, . . . , n
Var[X] = np(1 p)
GX (z) = (q + pz)n
Observaes: X o nmero de sucessos em n testes de Bernoulli, e portanto a soma de
n variveis aleatrias iid com distribuio de Bernoulli.
D.3
Geomtrica
Primeira verso
SX = {0, 1, 2, . . . }
pk = p(1 p)k
k = 0, 1, . . .
E[X] =
Var[X] =
1p
p
GX (z) =
1p
p2
p
1qz
242
SX = {1, 2, . . . }
pk = p(1 p)k1
1
p
E[X ] =
GX (z) =
k = 1, 2, . . .
Var[X ] =
1p
p2
pz
1qz
D.4
Binomial negativa
E[X] =
D.5
Poisson
SX = {0, 1, 2, . . . }
k
e ,
k = 0, 1, . . .
k!
E[X] =
Var[X] =
pk =
>0
GX (z) = e(z1)
Observaes: X o nmero de eventos que ocorrem em uma unidade de tempo quando
o tempo entre os eventos segue uma distribuio exponencial de mdia 1/.
Apndice E
Uniforme
SX = [a, b]
fX (x) =
E[X] =
1
ba
a+b
2
X (j) =
E.2
axb
Var[X] =
(b a)2
12
ejb eja
j(b a)
Exponencial
SX = [0, )
fX (x) = ex
E[X] =
X (j) =
>0
Var[X] =
1
2
E.3
Gaussiana (Normal)
SX = (, )
fX (x) =
E[X] =
(x)2
1
e 22
2
Var[X] = 2
X (j) = ej
2 2 /2
>0
244
Observaes: Sob uma grande gama de condies, X pode ser utilizada para aproximar
a soma de um grande nmero de variveis aleatrias independentes.
E.4
Gama
SX = (0, )
(x)1 ex
> 0, > 0
()
E[X] =
Var[X] = 2
1
X (j) =
(1 j/)
fX (x) =
E.5
m-Erlang
SX = (0, )
ex (x)m1
> 0, m inteiro positivo.
(m 1)!
m
m
Var[X] = 2
E[X] =
m
X (j) =
j
fX (x) =
E.6
Chi-Quadrado (2 )
SX = (0, )
fX (x) =
x(k2)/2 ex/2
2k/2 (k/2)
Var[X] = 2k
k/2
1
X (j) =
1 j2
E[X] = k
E.7
Rayleigh
SX = [0, )
E[X] =
Var[X] = 2
2
2
fX (x) =
E.8
Cauchy
SX = (, )
fX (x) =
2
(x + 2 )
>0
E.9
Laplace
SX = (, )
fX (x) = e|x|
2
E[X] = 0
X (j) =
> 0.
Var[X] =
2
2 + 2
2
2
245
Apndice F
247
(x)
(x)
(x)
(x)
-4.00
-3.99
-3.98
-3.97
-3.96
-3.95
-3.94
-3.93
-3.92
-3.91
-3.90
-3.89
-3.88
-3.87
-3.86
-3.85
-3.84
-3.83
-3.82
-3.81
-3.80
-3.79
-3.78
-3.77
-3.76
-3.75
-3.74
-3.73
-3.72
-3.71
-3.70
-3.69
-3.68
-3.67
-3.66
-3.65
-3.64
-3.63
-3.62
-3.61
-3.60
-3.59
-3.58
-3.57
-3.56
-3.55
-3.54
-3.53
-3.52
-3.51
0.000031671
0.000033036
0.000034457
0.000035936
0.000037474
0.000039075
0.000040740
0.000042472
0.000044274
0.000046148
0.000048096
0.000050122
0.000052228
0.000054417
0.000056693
0.000059058
0.000061517
0.000064071
0.000066725
0.000069483
0.000072348
0.000075323
0.000078414
0.000081623
0.000084956
0.000088417
0.000092010
0.000095739
0.000099611
0.000103629
0.000107799
0.000112127
0.000116616
0.000121275
0.000126107
0.000131120
0.000136319
0.000141710
0.000147301
0.000153098
0.000159108
0.000165338
0.000171797
0.000178490
0.000185427
0.000192615
0.000200063
0.000207779
0.000215773
0.000224053
-3.50
-3.49
-3.48
-3.47
-3.46
-3.45
-3.44
-3.43
-3.42
-3.41
-3.40
-3.39
-3.38
-3.37
-3.36
-3.35
-3.34
-3.33
-3.32
-3.31
-3.30
-3.29
-3.28
-3.27
-3.26
-3.25
-3.24
-3.23
-3.22
-3.21
-3.20
-3.19
-3.18
-3.17
-3.16
-3.15
-3.14
-3.13
-3.12
-3.11
-3.10
-3.09
-3.08
-3.07
-3.06
-3.05
-3.04
-3.03
-3.02
-3.01
0.000232629
0.000241510
0.000250706
0.000260229
0.000270087
0.000280293
0.000290857
0.000301790
0.000313105
0.000324814
0.000336929
0.000349463
0.000362429
0.000375840
0.000389712
0.000404057
0.000418891
0.000434229
0.000450087
0.000466479
0.000483424
0.000500936
0.000519035
0.000537737
0.000557061
0.000577025
0.000597648
0.000618951
0.000640952
0.000663674
0.000687137
0.000711363
0.000736375
0.000762194
0.000788845
0.000816352
0.000844739
0.000874031
0.000904255
0.000935436
0.000967603
0.001000782
0.001035002
0.001070293
0.001106684
0.001144206
0.001182890
0.001222768
0.001263873
0.001306238
-3.00
-2.99
-2.98
-2.97
-2.96
-2.95
-2.94
-2.93
-2.92
-2.91
-2.90
-2.89
-2.88
-2.87
-2.86
-2.85
-2.84
-2.83
-2.82
-2.81
-2.80
-2.79
-2.78
-2.77
-2.76
-2.75
-2.74
-2.73
-2.72
-2.71
-2.70
-2.69
-2.68
-2.67
-2.66
-2.65
-2.64
-2.63
-2.62
-2.61
-2.60
-2.59
-2.58
-2.57
-2.56
-2.55
-2.54
-2.53
-2.52
-2.51
0.001349898
0.001394887
0.001441241
0.001488998
0.001538195
0.001588869
0.001641061
0.001694810
0.001750156
0.001807143
0.001865813
0.001926209
0.001988375
0.002052358
0.002118205
0.002185961
0.002255676
0.002327400
0.002401182
0.002477074
0.002555130
0.002635402
0.002717944
0.002802814
0.002890068
0.002979763
0.003071959
0.003166716
0.003264095
0.003364160
0.003466973
0.003572600
0.003681108
0.003792562
0.003907032
0.004024588
0.004145301
0.004269243
0.004396488
0.004527111
0.004661188
0.004798796
0.004940015
0.005084925
0.005233608
0.005386145
0.005542623
0.005703126
0.005867741
0.006036558
-2.50
-2.49
-2.48
-2.47
-2.46
-2.45
-2.44
-2.43
-2.42
-2.41
-2.40
-2.39
-2.38
-2.37
-2.36
-2.35
-2.34
-2.33
-2.32
-2.31
-2.30
-2.29
-2.28
-2.27
-2.26
-2.25
-2.24
-2.23
-2.22
-2.21
-2.20
-2.19
-2.18
-2.17
-2.16
-2.15
-2.14
-2.13
-2.12
-2.11
-2.10
-2.09
-2.08
-2.07
-2.06
-2.05
-2.04
-2.03
-2.02
-2.01
0.006209665
0.006387154
0.006569119
0.006755652
0.006946850
0.007142810
0.007343630
0.007549411
0.007760253
0.007976260
0.008197535
0.008424186
0.008656319
0.008894042
0.009137467
0.009386705
0.009641869
0.009903075
0.010170438
0.010444077
0.010724110
0.011010658
0.011303844
0.011603791
0.011910625
0.012224472
0.012545461
0.012873721
0.013209383
0.013552581
0.013903447
0.014262118
0.014628730
0.015003422
0.015386334
0.015777607
0.016177383
0.016585806
0.017003022
0.017429177
0.017864420
0.018308899
0.018762766
0.019226172
0.019699270
0.020182215
0.020675162
0.021178269
0.021691693
0.022215594
248
(x)
(x)
(x)
(x)
-2.00
-1.99
-1.98
-1.97
-1.96
-1.95
-1.94
-1.93
-1.92
-1.91
-1.90
-1.89
-1.88
-1.87
-1.86
-1.85
-1.84
-1.83
-1.82
-1.81
-1.80
-1.79
-1.78
-1.77
-1.76
-1.75
-1.74
-1.73
-1.72
-1.71
-1.70
-1.69
-1.68
-1.67
-1.66
-1.65
-1.64
-1.63
-1.62
-1.61
-1.60
-1.59
-1.58
-1.57
-1.56
-1.55
-1.54
-1.53
-1.52
-1.51
0.022750131
0.023295467
0.023851764
0.024419185
0.024997895
0.025588059
0.026189844
0.026803418
0.027428949
0.028066606
0.028716559
0.029378980
0.030054038
0.030741908
0.031442762
0.032156774
0.032884118
0.033624969
0.034379502
0.035147893
0.035930319
0.036726955
0.037537980
0.038363570
0.039203903
0.040059156
0.040929508
0.041815137
0.042716220
0.043632936
0.044565462
0.045513977
0.046478657
0.047459681
0.048457226
0.049471468
0.050502583
0.051550748
0.052616138
0.053698928
0.054799291
0.055917402
0.057053433
0.058207555
0.059379940
0.060570758
0.061780176
0.063008364
0.064255487
0.065521712
-1.50
-1.49
-1.48
-1.47
-1.46
-1.45
-1.44
-1.43
-1.42
-1.41
-1.40
-1.39
-1.38
-1.37
-1.36
-1.35
-1.34
-1.33
-1.32
-1.31
-1.30
-1.29
-1.28
-1.27
-1.26
-1.25
-1.24
-1.23
-1.22
-1.21
-1.20
-1.19
-1.18
-1.17
-1.16
-1.15
-1.14
-1.13
-1.12
-1.11
-1.10
-1.09
-1.08
-1.07
-1.06
-1.05
-1.04
-1.03
-1.02
-1.01
0.066807201
0.068112117
0.069436623
0.070780876
0.072145036
0.073529259
0.074933699
0.076358509
0.077803840
0.079269841
0.080756659
0.082264438
0.083793322
0.085343450
0.086914961
0.088507991
0.090122672
0.091759135
0.093417508
0.095097917
0.096800484
0.098525329
0.100272567
0.102042315
0.103834681
0.105649773
0.107487697
0.109348552
0.111232437
0.113139446
0.115069670
0.117023196
0.119000107
0.121000484
0.123024403
0.125071935
0.127143150
0.129238112
0.131356881
0.133499513
0.135666060
0.137856572
0.140071090
0.142309654
0.144572299
0.146859056
0.149169950
0.151505002
0.153864230
0.156247645
-1.00
-0.99
-0.98
-0.97
-0.96
-0.95
-0.94
-0.93
-0.92
-0.91
-0.90
-0.89
-0.88
-0.87
-0.86
-0.85
-0.84
-0.83
-0.82
-0.81
-0.80
-0.79
-0.78
-0.77
-0.76
-0.75
-0.74
-0.73
-0.72
-0.71
-0.70
-0.69
-0.68
-0.67
-0.66
-0.65
-0.64
-0.63
-0.62
-0.61
-0.60
-0.59
-0.58
-0.57
-0.56
-0.55
-0.54
-0.53
-0.52
-0.51
0.158655253
0.161087059
0.163543059
0.166023246
0.168527607
0.171056126
0.173608780
0.176185542
0.178786379
0.181411254
0.184060125
0.186732943
0.189429654
0.192150202
0.194894521
0.197662543
0.200454193
0.203269391
0.206108053
0.208970087
0.211855398
0.214763884
0.217695437
0.220649946
0.223627292
0.226627352
0.229649997
0.232695092
0.235762497
0.238852068
0.241963652
0.245097093
0.248252230
0.251428895
0.254626914
0.257846110
0.261086299
0.264347292
0.267628893
0.270930903
0.274253117
0.277595324
0.280957308
0.284338849
0.287739718
0.291159686
0.294598516
0.298055965
0.301531787
0.305025730
-0.50
-0.49
-0.48
-0.47
-0.46
-0.45
-0.44
-0.43
-0.42
-0.41
-0.40
-0.39
-0.38
-0.37
-0.36
-0.35
-0.34
-0.33
-0.32
-0.31
-0.30
-0.29
-0.28
-0.27
-0.26
-0.25
-0.24
-0.23
-0.22
-0.21
-0.20
-0.19
-0.18
-0.17
-0.16
-0.15
-0.14
-0.13
-0.12
-0.11
-0.10
-0.09
-0.08
-0.07
-0.06
-0.05
-0.04
-0.03
-0.02
-0.01
0.308537538
0.312066949
0.315613696
0.319177508
0.322758110
0.326355220
0.329968553
0.333597820
0.337242726
0.340902973
0.344578258
0.348268273
0.351972707
0.355691245
0.359423566
0.363169348
0.366928263
0.370699981
0.374484165
0.378280478
0.382088577
0.385908118
0.389738752
0.393580126
0.397431886
0.401293674
0.405165128
0.409045884
0.412935577
0.416833836
0.420740290
0.424654565
0.428576284
0.432505068
0.436440537
0.440382307
0.444329995
0.448283213
0.452241573
0.456204687
0.460172162
0.464143607
0.468118627
0.472096829
0.476077817
0.480061194
0.484046563
0.488033526
0.492021686
0.496010643
Referncias Bibliogrficas
[AZW89] Daniel Tabak Alexander Zayezdny and Dov Wulich, Engineering applications of stochastic processes - theory, problems and solutions, Research Studies
Press, Taunton, Somerset, England, 1989.
[Fel68]
[Hay01]
[Hsu96]
Hwei P. Hsu, Probability, random variables and stochastic processes, McGrawHill, 1996.
[Jr.87]
[Lat89]
Bhagwandas Pannalal Lathi, Modern digital and analog communication systems, Sounders College Publishing, 1989.
[LG94]
Alberto Leon-Garcia, Probability and random processes for electrical engineering - second edition, Addison-Wesley, 1994.
[Lip93]
[Pap84]
[Pro95]
[Ros83]
Sheldon. M. Ross, Stochastic processes, John Wiley and Sons, New York,
1983.
[Spi78]
[SW94]
Henry Stark and John W. Woods, Probability, random processes and estimation theory for engineers - second edition, Prentice Hall, New Jersey, 1994.
[Swo94]
[YG98]
Roy D. Yates and David J. Goodman, Probability and stochastic processes a friendly introduction for electrical and computer engineers, John Wiley and
Sons, New York, 1998.